Welcome! Please hold on...

0 %
Kashif Sohail
Sr. Frontend Developer
  • Residence:
    Pakistan
  • City:
    Karachi
  • Age:
    26
Magento 1x 2x
Wordpress
Laravel
Angular
React
English
Urdu
  • Bootstrap, Tailwind
  • Sass, Less, Css
  • Webpack
  • GIT knowledge
0

No products in the cart.

How GitHub harnesses AI to transform customer feedback into action

August 15, 2024

[ad_1]

In der heutigen, sich rasch entwickelnden Technologielandschaft ist der Hype um „generative KI“ nicht zu ignorieren. Sie ist überall – im Fernsehen und in sozialen Medien, in Produktivitätstools, auf Konferenzen, in unseren Telefonen, wo auch immer. Der Hype ist real und was uns bei GitHub begeistert, ist das transformative Potenzial der KI, das wir gerade erst zu erschließen beginnen.

Bei GitHub ist unser Hauptziel die kontinuierliche Verbesserung unserer Plattform, um unserer geliebten Entwickler-Community besser zu dienen. Wir erhalten unzählige Rückmeldungen über unsere Support-Portal jeden Tag. Die schiere Menge an Feedback, die wir erhalten, kann entmutigend sein. Trotz unserer besten Bemühungen ist das manuelle Durchforsten all dieser Textdaten eine überwältigende Herausforderung, die zu vielen ungenutzten Möglichkeiten führt. Die manuelle Datenklassifizierung und -analyse durch Menschen ist fehleranfällig und sehr zeitaufwändig, da dabei oft große Datenmengen verarbeitet werden müssen, was zu Ermüdung und Inkonsistenz führt. Ein Studie der Harvard Business Review zeigt, dass Datenwissenschaftler etwa 80 % ihrer Zeit mit Aufgaben wie Datenerfassung und -organisation verbringen, einschließlich manueller Klassifizierung, was die Effizienz beeinträchtigt und die Entdeckung wertvoller Erkenntnisse verzögert. Diese Ineffizienz führt zu einer Verlagerung hin zu automatisierten Systemen, die eine höhere Genauigkeit und Geschwindigkeit bieten, und weg von traditionellen Analysemethoden.

Diese Herausforderung hat uns dazu veranlasst, leistungsstarke Data-Mining-Techniken mit Algorithmen des maschinellen Lernens zu kombinieren, um Kundenfeedback in großem Umfang zu extrahieren, zu interpretieren und zu analysieren. Indem wir Kundenfeedback mithilfe fortschrittlicher KI-Analysen in umsetzbare Erkenntnisse umwandeln, können wir unsere Produkte weiterentwickeln und unser Engagement für das Vertrauen der Benutzer unterstreichen. So stellen wir sicher, dass jede Stimme gehört und geschätzt wird.

Mit KI die Meinung von Entwicklern verstärken

Als ich als Programmmanager dem Customer Success Engineering-Team von GitHub beitrat, begann ich eng mit mehreren Produkt- und Entwicklungsteams zusammenzuarbeiten, um umsetzbare Erkenntnisse zur Produktleistung zu liefern. Eine Frage blieb während meiner Zeit bei GitHub konstant: welche Hauptprobleme haben Kunden mit unseren Produkten? Obwohl die Frage scheinbar leicht zu beantworten ist, fiel es mir sehr schwer, die enorme Datenmenge zu verdichten und sicherzustellen, dass ich die richtigen Möglichkeiten zur Verbesserung des Kundenerlebnisses hervorhob. Nachdem ich Hunderte von Support-Tickets gelesen hatte, war ich von einer klaren Mission getrieben: Wir wollen einen Weg finden, die Erkenntnisse und das Feedback unserer großen Nutzerbasis zu berücksichtigen und uns insbesondere von ihren Stimmen bei der Priorisierung der Entwicklung neuer Funktionen leiten zu lassen..

Obwohl ich eine Leidenschaft für Analysen habe und in der Vergangenheit beim Aufbau mehrerer interner Tools geholfen habe, wusste ich, dass dies aufgrund der Komplexität des in Support-Tickets versteckten Kundenfeedback-Texts keine leichte Aufgabe sein würde. Ich wandte mich an meinen Kollegen, Steven Solomonein festangestellter Softwareentwickler mit umfassender Erfahrung, um mögliche Lösungen zu erkunden. Schließlich kam uns die Inspiration: Was wäre, wenn wir die Leistungsfähigkeit künstlicher Intelligenz nutzen könnten, um das Feedback unserer Entwickler-Community systematisch zu analysieren und zu interpretieren?

Wir begannen dann, den Markt für KI-gestützte Analyselösungen zu erkunden, erkannten jedoch schnell, dass wir ein Tool benötigten, das strenge Sicherheits- und Datenschutzbestimmungen einhielt und maßgeschneiderte Geschäftsmetriken enthielt, um unseren Produktteams eine überzeugende Geschichte erzählen zu können. Wir waren von der Idee inspiriert, dass „Die Fähigkeit, Daten zu visualisieren und mit ihnen Geschichten zu erzählen, ist der Schlüssel, um sie in Informationen umzuwandeln, die zu besseren Entscheidungen führen können.“ (Geschichtenerzählen mit Daten). Von diesem Grundsatz motiviert, haben wir ein Team aus Softwareentwicklern zusammengestellt, die dieselbe Mission und Leidenschaft teilen: ein einzigartiges internes KI-Analysetool zu entwickeln, das die relevantesten und umsetzbarsten Trends präsentiert, komplett mit einem Geschäftskontext, der speziell auf die Produktbereiche von GitHub zugeschnitten ist.

Experimentieren mit Open-Source-Modellen

Als weltweit größtes Open-Source-Code-Ökosystem begann unsere Reise mit KI-gesteuerter Analytik mit der Untersuchung von Open-Source-KI-Modellen, die auf unserer Plattform gehostet werden, einschließlich BERTopic. BERThema ist ein Open-Source-Framework zur Themenmodellierung, das bidirektionale Encoder-Darstellungen von Transformern nutzt (BERT) Einbettungen, um dynamische und interpretierbare Themen zu erstellen. Das BERT-Sprachmodell ist ein Open-Source-Framework für maschinelles Lernen zur Verarbeitung natürlicher Sprache (NLP). BERT wurde entwickelt, um Computern zu helfen, die Bedeutung mehrdeutiger Sprache in Texten zu verstehen, indem es den umgebenden Text zur Kontextherstellung verwendet. BERTopic kombiniert die Fähigkeit von BERT, qualitativ hochwertige Dokumenteinbettungen zu generieren, mit einem Clustering-Algorithmus, typischerweise Hierarchical Density-Based Spatial Clustering of Applications with Noise (HDBSCAN), um ähnliche Dokumente zu gruppieren. Die Themen werden dann abgeleitet, indem die repräsentativsten Wörter aus jedem Cluster extrahiert und aggregiert werden.

Eine der herausragenden Fähigkeiten von BERT ist seine Fähigkeit, mehrere Sprachen zu verstehen und zu verarbeiten. Diese Mehrsprachigkeit resultiert aus dem Training mit unterschiedlichen Datensätzen, die Text in verschiedenen Sprachen enthalten. Dadurch kann BERTopic das Feedback unserer globalen Benutzerbasis effektiv analysieren und Themen und Probleme unabhängig von der Sprache identifizieren, in der das Feedback bereitgestellt wird. Diese Mehrsprachigkeit stellt sicher, dass wir ein umfassendes Bild unseres Benutzerfeedbacks erfassen und so die Bedürfnisse unserer internationalen Community effektiver erfüllen können.

Ein wichtiger Aspekt ist, dass wir keine Modelle mit Kundenfeedback aus Support-Tickets trainieren. Stattdessen verwenden wir die vorab trainierten Modelle, um die Feedback-Textdaten zu analysieren und Erkenntnisse zu generieren.

Die von diesem Modell generierten repräsentativen Wörter gaben unserem Projekt den Startschuss, aber es fehlte noch ein wichtiger Aspekt: ​​Die Ergebnisse mussten für Menschen leicht verständlich sein. Eine Gruppe von Wörtern ist etwas anderes als ein vollständiger repräsentativer Satz über die Probleme des Kunden. Dies führte zur nächsten Entwicklungsphase: der Zusammenfassung dieser Cluster zu umsetzbaren Erkenntnissen.

Erkenntnisse mit GPT-4 zusammenfassen

Um sicherzustellen, dass wir die Erkenntnisse aus dem Kundenfeedback in einer verständlicheren Form darstellen können, haben wir beschlossen, sie mit GPT-4 zusammenzufassen, einem leistungsstarken und beliebten Large Language Model (LLM).

GPT-4 ist aufgrund seiner erweiterten Fähigkeiten zur Verarbeitung natürlicher Sprache besonders effektiv beim Zusammenfassen von Themenclustern. Das Modell kann auch optimiert werden, um den spezifischen Kontext der Daten besser zu verstehen. Um GPT-4 zu optimieren, ohne das Modell neu zu trainieren, müssen wir die Art und Weise anpassen, wie wir es verwenden, z. B. Eingabeaufforderungen anpassen und Parameter für bestimmte Aufgaben festlegen.

Die Optimierung von GPT-4 ohne erneutes Trainieren des Modells umfasst:

  1. Eingabeaufforderungen optimieren. Erstellen und Verfeinern von Eingabeaufforderungen, um das Modell bei der Generierung relevanter Zusammenfassungen zu unterstützen.
  2. Parameter festlegen. Anpassen von Einstellungen wie Temperatur, maximale Token, Top-P, Frequenz und Anwesenheitsstrafen, um die Ausgabe des Modells zu steuern.
  3. Iteratives Feedback. Kontinuierliche Verbesserung der Leistung des Modells durch menschliches Feedback und A/B-Tests.

Mit diesem Ansatz können wir präzisere und relevantere Zusammenfassungen bereitstellen und so wertvolle Muster aufdecken, die dabei helfen, ungenutzte Möglichkeiten aufzudecken und fundiertere Entscheidungen zu treffen.

Schiff zum Lernen

Bei GitHub ist unser Ethos „Ship to Learn“ tief in unserer Geschichte verwurzelt. Wir schätzen den Weg genauso sehr wie das Ziel. Wir glauben, dass wir aus jedem Misserfolg lernen können und dass diese Misserfolge uns dem Erfolg näher bringen.

Zunächst waren wir uns nicht sicher, wie wir die von uns generierten Daten effektiv kommunizieren sollten. Nützliche KI-Erkenntnisse zu generieren, mag eine schwierige Aufgabe sein, aber damit eine gute Geschichte zu erzählen, kann eine noch schwierigere Aufgabe sein. Gute Visualisierungen können dabei helfen, bessere Geschäftsentscheidungen zu treffen, während schlechte Visualisierungen das Publikum verwirren und die Effizienz beeinträchtigen können. Den Kontext zu verstehen, die richtigen Visualisierungen auszuwählen und nur die wichtigen Informationen anzuzeigen, sind Schlüsselaspekte für eine erfolgreiche Datenkommunikation. Um den Kontext vollständig zu verstehen, mussten wir die Bedürfnisse unseres Publikums vollständig verstehen, also haben wir uns erneut mit der grundlegenden Frage beschäftigt, warum wir diese Erkenntnisse überhaupt brauchten. Die Einzelheiten dazu, welche Daten gezeigt und wie sie präsentiert werden sollten, würden folgen.

Mit der Einstellung „Ship to Learn“ haben wir uns entschlossen, schnell eine Azure-Daten-Explorer (ADX)-Dashboard für die ersten Tests. Wir entwickelten mehrere Visualisierungen und teilten sie im gesamten Unternehmen, um Feedback zu sammeln. Dieser Prozess half uns herauszufinden, welche Visualisierungen unsere internen Benutzer wertvoll fanden und welche weniger effektiv waren. Es wurde klar, dass wir ein maßgeschneidertes Tool brauchten, das geschäftsspezifischen Kontext in unsere Daten einbezog. Nur dann konnten wir effektiv Geschichten erzählen wie „Hier sind die 10 größten Kundenprobleme in Support-Tickets für Produkt/Funktion X.“ Das bedeutete, dass wir unser eigenes Tool mit erweiterten Filterfunktionen erstellen mussten, um die Feinheiten unserer Feedback-Erkenntnisse effektiv zu navigieren. Darüber hinaus brauchten wir die Möglichkeit, die von unseren internen Systemen generierten Erkenntnisse zu verknüpfen, damit wir Maßnahmen effektiver priorisieren konnten.

Dies war der Beginn der Entwicklung unserer internen Webanwendung zur visuellen Kommunikation von Erkenntnissen. Wir hatten nun die Daten, den Kontext und die effektiven visuellen Elemente. Der letzte Schritt bestand darin, sicherzustellen, dass wir die Aufmerksamkeit unseres Publikums auf die wichtigsten Erkenntnisse lenken. Attribute wie Position auf der Seite, Farbe und Größe können dabei helfen, die Aufmerksamkeit des Publikums auf die wichtigsten Informationen zu lenken. Wieder einmal beschlossen wir, unser minimal funktionsfähiges Produkt (MVP) auszuliefern, um Feedback zu sammeln und die für unsere Produktteams relevantesten visuellen Elemente zu iterieren. Nach seiner offiziellen internen Einführung begann unser Tool, wertvolle Erkenntnisse aus riesigen Textdatensätzen mit Kundenfeedback zu liefern und eine Reihe neuer Anwendungsfälle freizuschalten, die wir unbedingt erkunden wollten.

Auswirkungen auf die reale Welt

Die Integration von KI in unseren Feedback-Analyseprozess hat zu wirkungsvollen Ergebnissen geführt:

  • Übergang von der manuellen Klassifizierung zur automatischen Trenderkennung. Durch die automatisierte KI-gestützte Trenderkennung konnten wir unsere Datenanalyse deutlich besser skalieren. Diese Umstellung spart Zeit und verbessert die Präzision, mit der wir Entwicklerfeedback in Supporttickets verstehen und darauf reagieren.
  • Identifizierung und Behebung häufiger Schwachstellen. Durch die Bündelung von Feedback können wir wiederkehrende Probleme schneller erkennen und effizienter lösen. Dadurch können Störungen minimiert und die Benutzerproduktivität auf der Plattform gesteigert werden.
  • Verbesserung der Featurepriorisierung. Wenn wir verstehen, was unsere Entwickler-Community am meisten braucht, können wir unsere Bemühungen auf die Funktionen konzentrieren, die ihnen den größten Nutzen bringen.
  • Datenbasierte Entscheidungen treffen. Indem sie die klaren, zusammengefassten Erkenntnisse nutzen, die unser Tool bietet, können unsere internen Teams fundiertere Entscheidungen treffen, die besser auf die Bedürfnisse und Wünsche unserer Entwickler-Community abgestimmt sind.
  • Entdecken Sie neue Möglichkeiten zur Selbstbedienung. Die gewonnenen Erkenntnisse ermöglichen die Identifizierung von Selbsthilfemöglichkeiten, mit denen Kunden Probleme schneller selbst lösen können. Dies beschleunigt die Problemlösung für Benutzer und verbessert ihre Fähigkeit, zukünftige Probleme selbstständig zu bewältigen, wodurch die Abhängigkeit vom direkten Support verringert wird.

Vorwärts gehen

Während wir unsere KI-gestützten Analysefunktionen weiter verfeinern und ausgefeiltere Techniken integrieren, freuen wir uns über das Potenzial, unser Verständnis von Kundenfeedback weiter zu verbessern. Unser Engagement für die Nutzung von KI zeigt nicht nur unser Engagement für Innovation, sondern stellt auch sicher, dass Die Stimme unserer Entwickler steht im Mittelpunkt all unserer Aktivitäten.

Zusammenfassend lässt sich sagen, dass die Nutzung von KI zur Analyse von Kundenfeedback die Art und Weise verändert hat, wie wir mit unserer Entwickler-Community interagieren und auf sie reagieren. Indem wir riesige Mengen an Feedback-Textdaten in umsetzbare Erkenntnisse umwandeln, sind wir besser gerüstet, um die Bedürfnisse unserer Benutzer zu erfüllen und die Zukunft der Softwareentwicklung voranzutreiben.

Denken Sie beim nächsten Mal daran, wenn Sie Feedback zu einer unserer Plattformen oder über ein Support-Ticket abgeben, und fügen Sie so viele Details wie möglich hinzu. Ihr detailliertes Feedback hilft uns, fundiertere Entscheidungen zu treffen und GitHub für alle zu verbessern.

Geschrieben von

Leitender Programmmanager, Supportability

[ad_2]

Source link

Posted in TechnologyTags:
Write a comment