KI im Werkzeugkasten des Designers: Mit ChatGPT die Zukunft gestalten
Veröffentlicht: 2023-02-08Welche neuen Horizonte werden sich für Design Thinking ergeben, wenn GPT die Messlatte höher legt und große Sprachmodelle immer ausgefeilter werden? Und wie werden sie die traditionelle Rolle der Produktdesigner stören?
Der Start von ChatGPT hat einen Wirbelsturm von Meinungen und Diskussionen ausgelöst, mit allen möglichen Leuten, die einen hitzigen Austausch darüber geführt haben, was das alles für uns bedeutet. Nun, wir sind die ersten, die zugeben, dass Vorhersagen und spekulative Prognosen ein Irrweg sein können, aber eines ist sicher – diese Modelle bewirken bereits eine seismische Veränderung in der Art und Weise, wie wir über unsere Produkte denken und sie herstellen.
Wenn Sie in der vergangenen Woche Inside Intercom gehört haben, wissen Sie, dass wir schnell auf den GPT-Zug aufgesprungen sind, neue KI-gestützte Funktionen entwickelt und sie an 160 Beta-Kunden ausgeliefert haben (Sie können sich gerne Teil 1 und Teil 2 ansehen). zwei des Gesprächs, falls Sie dies noch nicht getan haben). Heute, für die neueste Ausgabe unserer GPT-Chats, gesellen sich einige der Leute zu uns, die tatsächlich angewandte Designarbeit mit ChatGPT und großen Sprachmodellen durchgeführt haben, um echte Produkte zu entwickeln, die echte Probleme für Kunden lösen.
In dieser Folge hören Sie von uns selbst:
- Emmet Connolly, Vizepräsident für Produktdesign
- Molly Mahar, Produktdesignerin im Team für maschinelles Lernen
- Gustavs Cirulis, Senior Principal Product Designer
Sie sprechen über große Sprachmodelle (LLMs) wie ChatGPT und wie sie die Rolle eines Produktdesigners in den kommenden Jahren prägen werden. Wir können nicht wissen, was die Zukunft bringen wird, aber wenn Sie uns fragen, können Sie sich am besten darauf einlassen.
Hier sind einige der wichtigsten Erkenntnisse:
- GPT ist wirklich gut darin, Inhalte zusammenzufassen, Sprache zu verstehen und Text zu bearbeiten. Ein großes Problem ist jedoch, dass ihre Antworten manchmal plausibel klingen, aber faktisch falsch sind.
- Während sich die Technologie weiterentwickelt, werden Support-Organisationen von reaktiv zu proaktiv wechseln, indem sie die KI trainieren und sicherstellen, dass der Support auf eine dialogorientierte Weise erfolgt, die sich für Menschen natürlich anfühlt.
- Es könnten neue Entwurfsmuster entstehen, um mit Unsicherheiten und Erwartungen umzugehen, z. B. um Vertrauenswerte in die Funktionen einzubauen.
- Im Laufe der Zeit werden Unternehmen in der Lage sein, Open-Source-Modelle zu verwenden und Schichten mit spezialisiertem Wissen aufzubauen, indem sie proprietäre Daten aus ihrer Branche oder ihrem Unternehmen verwenden.
- In Zukunft kann die Interaktion mit KI Konversationsschnittstellen, grafische Schnittstellen zur Workflow-Erweiterung und sogar neuronale Schnittstellen umfassen.
- Die Rolle eines Designers besteht darin, eine KI-Schnittstelle zu erstellen, die als intelligenter, nicht bedrohlicher Kollege fungiert, der Ihren Workflow erweitern und Ihren Tag erleichtern kann.
Stellen Sie sicher, dass Sie keine Highlights verpassen, indem Sie Inside Intercom auf Apple Podcasts, Spotify, YouTube folgen oder den RSS-Feed in Ihrem bevorzugten Player abrufen. Was folgt, ist eine leicht bearbeitete Abschrift der Episode.
Erste Begegnungen
Emmet Connolly: Hallo zusammen. Willkommen beim Inside Intercom-Podcast. Ich freue mich sehr, heute von Molly und Gustavs vom Intercom Product Design Team begleitet zu werden. Seit dem Start von ChatGPT vor ein paar Wochen gab es viele hitzige Diskussionen, viele müßige Spekulationen und viel Gerüchte darüber, was das alles bedeutet. Das meiste davon, würde ich sagen, stammt von Leuten, die überhaupt nicht direkt mit der Technologie gearbeitet haben, weshalb ich mich sehr darauf freue, heute mit Molly und Gustavs zu sprechen. Weil Molly und Gustavs zwei der ziemlich winzigen Minderheit auf der ganzen Welt sind, die tatsächlich mit ChatGPT und verwandten Technologien echte angewandte Produktdesignarbeit geleistet haben. Ich meine, es tatsächlich zu verwenden, um Produkte zu integrieren und echte Produktprobleme für Kunden mit echten Produkten zu lösen, die in großem Maßstab betrieben werden. Also, Molly und Gustavs, willkommen zur Show. Vielleicht möchten Sie sich kurz vorstellen. Molly, willst du gehen?
Molly Mahar: Sicher, sicher. Ich bin Molly Mahar. Ich bin ein Staff Designer hier bei Intercom. Ich bin ziemlich neu. Ich bin Teil des Machine Learning-Teams, eines Teams von Ingenieuren, und wir erstellen viel Prototypen.
Gustavs Cirulis: Hey, ich bin Gustavs. Ich bin ein leitender Produktdesigner und schon etwas länger hier als Molly. Ich war ziemlich überall, aber im Moment arbeite ich im Wachstumsteam.
„Es erinnerte mich an die Verhaltensökonomie im College und den Dunning-Kruger-Effekt, wo man inkompetent, aber übermütig ist.“
Emmet: Heute werden wir über KI und große Sprachmodelle wie ChatGPT sprechen. Insbesondere darüber, was sie für Design und Designer bedeuten. Wir werden ein wenig darüber sprechen, welche neuen Möglichkeiten Designern insbesondere mit dieser neuen Technologie zur Verfügung stehen, wie es für Sie war oder was die Arbeit mit KI im Vergleich zu herkömmlichen Produkten anders war, und einige der Herausforderungen, denen Sie als Sie begegnet sind haben begonnen, diese KI-gestützten Funktionen zu entwickeln. Wir könnten sogar irgendwann in eine unkluge Vorhersage geraten. Aber fangen wir mit den Grundlagen an. Molly, was war deine erste Reaktion, als ChatGPT vor ein paar Wochen auf der Bildfläche landete und für ziemlich viel Aufsehen sorgte? Sie haben davor schon eine ganze Weile mit KI- und ML-Systemen gearbeitet.
Molly: Nun, zuerst wurde ich mit einer Reihe von Screenshots auf Slack bombardiert und fing an zu sehen, wie sie von Leuten aus dem ganzen Unternehmen und auf Twitter und allem hereinkamen. Ich probierte es aus und dachte: „Das ist sehr cool. Das ist auch sehr smart.“ Große Sprachmodelle (LLMs) gibt es schon seit einiger Zeit, aber jetzt haben sie eine Benutzeroberfläche in ihre API integriert. Und so können mehr Menschen überall sie verwenden, ohne Entwickler oder so etwas sein zu müssen, was ich ziemlich großartig finde und zeigt, wie begeistert die Leute von ihnen waren. Ich fing an, damit zu spielen, und es ist wirklich mächtig.
Sie können ihm viele Fragen stellen, Sie können nachfassen. Es fühlt sich wirklich unglaublich an. Es fühlt sich an wie ein Gespräch. Dann begannen wir als Team, uns damit auseinanderzusetzen, um es einem Stresstest zu unterziehen. Und ich hatte das Gefühl, ich begann den Hype zu sehen. Es erinnerte mich an die Verhaltensökonomie im College und den Dunning-Kruger-Effekt, wo man inkompetent, aber übermütig ist. Und so fühlte es sich manchmal an. Dieser ChatGPT ist so viel besser im Bullshit als ich. Ich staune darüber. Und so ging ich durch eine Welle von Gefühlen. Ich frage mich, ob es nützlich wäre, einen kurzen Überblick über LLMs zu geben.
„LLMs gibt es schon seit einiger Zeit, sie werden immer besser und schneller und schneller. Das Erstaunliche an ChatGPT ist, dass ich es als Person tatsächlich nutzen kann.“
Emmett: Ich denke schon. Ich denke, für viele Leute gibt es diese Assoziation mit ChatGPT als der KI, über die alle reden. Würde es Ihnen etwas ausmachen, in Laiensprache zu erklären, was ChatGPT ist und wie das mit anderen Begriffen wie großen Sprachmodellen zusammenhängt, von denen die Leute vielleicht gehört haben?
Molly: Ja, ich werde mein Bestes geben. Große Sprachmodelle, kurz LLMs, sind also Modelle, die auf einem riesigen Korpus öffentlicher Texte von überall her trainiert wurden – Bücher, das Internet, manchmal multimodale Quellen, denke ich. Milliarden und Abermilliarden und Abermilliarden von Datenstücken darin. Und sie werden dabei oft mit menschlichem Feedback geschult. Ich denke, das führt dazu, warum Sie dieses Gespräch mit ChatGPT führen können – Sie können ihm Feedback geben, und es wird tatsächlich darauf reagieren und seine Antworten ändern. LLMs gibt es schon seit einiger Zeit, sie werden immer besser und schneller und schneller. Das Erstaunliche an ChatGPT ist, dass ich es als Person tatsächlich nutzen kann. Und zweitens ist es wirklich sehr, sehr gut. ChatGPT ist im Grunde das Frontend, und ich vereinfache das ein wenig, aber es ist das Frontend für eine große Sprachmodell-API, die OpenAI im Hintergrund hat. Und sie haben eine Reihe davon.
Es gibt viele andere Unternehmen, die ebenfalls große Sprachmodelle haben. Google arbeitet an LaMDA, und es gibt andere Unternehmen. Daher würden wir hier heute vielleicht ChatGPT sagen, aber wir beziehen uns auf diese Technologie im Allgemeinen. Wir arbeiten tatsächlich mit den APIs dahinter, nicht mit ChatGPT, das derzeit nur über die Benutzeroberfläche verfügbar ist.
„Vorher war es nur eine Art ‚Hey, erstelle mir dieses Gedicht über was auch immer‘. Jetzt können Sie ein Hin- und Her-Gespräch führen. So interagieren Menschen miteinander“
Emmet: Ja. Und ich denke, eines der interessanten Dinge an ChatGPT ist, dass es in gewisser Weise aus technischer Sicht nicht so neu ist. ChatGPT ist eine App, die mit GPT-3.5 erstellt wurde und von einer Firma namens OpenAI entwickelt wurde. Aber GPT-3.5 gibt es schon eine Weile – mehrere Monate, richtig, Molly? Also, ich bin neugierig. Gustavs, wie war deine Reaktion? Warum gibt es Ihrer Meinung nach eine andere Reaktion auf das, was wir bei ChatGPT sehen, als auf die zugrunde liegende Technologie, die seit einiger Zeit verfügbar war?
Gustavs: Ich denke, der große Unterschied ist, dass die Präsentation wie ein Gespräch ist, bei dem man nachfragen und vertiefen kann. Früher war es nur eine Art "Hey, erstelle mir dieses Gedicht über was auch immer." Jetzt können Sie ein Hin- und Her-Gespräch führen. So interagieren Menschen miteinander. Es ist also viel vertrauter, als ihm eine einmalige Eingabeaufforderung zu geben. Als ich mit ChatGPT herumspielte, als es gerade herauskam, fühlte es sich wie Magie an. Es war wirklich schwer zu glauben, dass es so etwas gibt. Und ich habe einfach weiter damit herumgespielt, über verschiedene Themen gesprochen, und es fühlte sich an, als hätte ich einen persönlichen Nachhilfelehrer auf Abruf, der alles über alles weiß. Es sprach über alle möglichen Dinge über Technologie, Geschichte, Psychologie und sogar Comedy. Es stellt sich heraus, dass es wirklich gut darin ist, Standup-Comedy zu entwickeln, wenn Sie ihm eine gute Aufforderung geben. Es hat auch wirklich Spaß gemacht, das zu tun.
Ein Fall von Halluzinationen
Emmet: Ihr habt jetzt beide mehrere Wochen damit verbracht, damit zu arbeiten. Wir hatten alle diese sehr beeindruckende erste Reaktion, aber nachdem wir ein paar Wochen damit verbracht haben, dies auf echte Kundenprobleme anzuwenden, vielleicht mit der direkten Anwendung irgendwie zu ringen, hält es dem Hype stand, Gustavs?
Gustavs: Ja. Als ChatGPT herauskam, waren wir wirklich beeindruckt und erkannten, dass wir besser verstehen mussten, was es für unser Geschäft bedeutet. Es schien, als könnte es einen wirklich bedeutenden Einfluss auf die gesamte Kundendienstbranche haben, also bildeten wir eine kleine Arbeitsgruppe und untersuchten, worin ChatGPT gut ist, worin es schlecht ist und was es für unser Geschäft bedeuten könnte. Nachdem ich diese Übung durchgemacht hatte, ließen meine eigenen Ängste und Sorgen und der Hype ein wenig nach. Es scheint, als wäre die Technologie noch nicht ganz da, um unsere Jobs zu übernehmen und alles zu automatisieren.
„Das Model will dir gefallen, also will es dir eine Antwort geben, von der es denkt, dass du sie willst.“
Es stellt sich heraus, dass es in manchen Dingen wirklich gut ist, aber nicht in allem. Es eignet sich zum Beispiel gut für Dinge wie das Zusammenfassen von Inhalten oder das Verstehen von Sprache und Bearbeiten und kreatives Schreiben. Aber es hat einen großen Fehler von Halluzinationen, wo es nur Dinge erfindet, die sehr real klingen, aber sachlich falsch sind, was offensichtlich ein großes Problem für eine Kundendienstlösung ist. Sie wollen keine plausibel klingenden, sondern sachlich falschen Antworten geben. Aber es gibt viele interessante Dinge, auf die Sie es anwenden können. Und ich denke, der große Vorteil ist, dass sich diese Technologie sehr schnell entwickelt. Und es ist wirklich nur eine Frage der Zeit, bis es sachlich richtige Antworten geben kann. Und sobald das passiert, wird es wirklich störend sein.
Emmet: Du sagst also, es wird eine Antwort geben, egal was passiert. Und in einigen Fällen führt dies zu dem, was Sie Halluzinationen nennen. Molly, das scheint eine große Einschränkung für jeden zu sein, der versucht, dies wirklich zu nutzen. Was sind Halluzinationen und warum treten sie überhaupt auf?
Molly: Ja, es ist ein riesiges Problem, wie Gustavs sagte. Das Modell möchte Ihnen gefallen, also möchte es Ihnen eine Antwort geben, von der es glaubt, dass Sie sie wollen. Manchmal hat es eine zuverlässige Quelle für diese Informationen, und manchmal erfindet es nur Dinge. Es fühlt sich an wie ein Kind. "Warum hast du das getan?" „Nun, ich dachte, das war es, was du wolltest.“ Die Halluzination könnte aus vielen verschiedenen Quellen stammen. Wenn Sie ihm eine Frage zu Intercom stellen, weiß er nicht unbedingt etwas Neues. Und so könnte es Teile von dem nehmen, was es genau weiß, allgemeines Wissen von anderswo, das interpolieren und in gewisser Weise versuchen, den gesunden Menschenverstand zu verwenden, den es natürlich nicht hat. Es hat nicht wirklich logische Fähigkeiten. Es verwendet Wahrscheinlichkeiten wie „Nun, das könnte wahrscheinlich so funktionieren, also kann ich mir eine Antwort über etwas über die API von Intercom ausdenken“ oder so ähnlich. Und wie Gustavs sagte, es ist super plausibel. Es klingt sehr zuversichtlich.
Und wie Sie bereits erwähnt haben, konzentrieren sich verschiedene Unternehmen auf verschiedene Dinge. Es gibt Unternehmen, die sich ein bisschen mehr darauf konzentrieren, Halluzinationen zu minimieren. Während sich ChatGPT meiner Meinung nach oft stark auf Leitplanken und Ethik konzentriert und klar macht, was es nicht zu beantworten verweigert.
Emmet: Glaubst du, wir werden eine Vielzahl von vielen, vielen verschiedenen Modellen sehen und du kannst dasjenige auswählen, das am besten zu dem Kompromiss zwischen absolut korrekt und Halluzinationen passt, den du willst, oder ist das ein Problem, das es geben könnte einfach verschwinden, wenn die Modelle reifer werden?
„ChatGPT hat etwas Interessantes veranschaulicht, nämlich dass die UI und die UX von all dem sehr wichtig sind.“
Molly: Ich bin mir nicht sicher, ob es verschwinden wird. Aber ja, es gibt schon viele Modelle. Es gibt Open-Source-Modelle und es besteht die Möglichkeit, das, was wir als Feinabstimmung eines Modells bezeichnen, durchzuführen. GPT steht für Generative Pre-Trained Transformer, also generiert es Dinge. Es ist auf einem großen Korpus und Transformatoren vortrainiert. Verschiedene Unternehmen werden sich auf verschiedene Dinge konzentrieren. Es gibt Open-Source-Modelle, und Intercom kann als potenzieller Benutzer dieser Modelle möglicherweise noch eine Feinabstimmung vornehmen, um speziellere Kenntnisse über unsere Branche oder unser Unternehmen zu erhalten. Die Technik wird auch besser darin werden, weniger Daten zu verwenden und zu benötigen, um ein großartiges Modell zu haben. Und so werden die Modelle immer kleiner und kleiner. Und möglicherweise ist es an diesem Punkt für ein kleineres Unternehmen möglicherweise viel vernünftiger, ein Modell auf der Grundlage seiner Daten zu erstellen und es ziemlich spezialisiert, ziemlich sachkundig und sehr zuverlässig zu haben.
Emmet: Lassen Sie uns den Gang wechseln und genauer über Design sprechen. Natürlich waren GPT und KI im Allgemeinen in erster Linie eine Technologiegeschichte, aber ich denke, ChatGPT hat etwas Interessantes veranschaulicht, nämlich dass die UI und die UX von all dem sehr wichtig sind. Es scheint beispielsweise eine Verschiebung hin zu Conversational UIs zu geben. Glaubst du, das stimmt? Welche Rolle spielt Design bei der Gestaltung dessen, was wir mit dieser Technologie von hier machen, Molly?
Molly: Ich meine, Intercom ist sehr gut aufgestellt. In unserem Geschäft geht es um Konversation und Kundenservice, und die Leute freuen sich sehr, mit dieser Technologie Gespräche zu führen. Aber was wir kürzlich herausgefunden haben, ist, dass zumindest im Moment so viel Leistung in der Technologie verfügbar ist, die eigentlich nicht direkt auf Konversation abzielt, sondern auf Konversation und Sprache.
Wie bereits erwähnt, eignet es sich hervorragend zur Zusammenfassung, und es gibt eine Menge Workflows, bei denen die Zusammenfassung den Kundendienstmitarbeitern wirklich helfen kann. Wir haben kürzlich eine Betaversion für einige Kunden eingeführt, und die Zusammenfassung ist eines der Dinge, die die Leute wirklich, wirklich, wirklich wertvoll finden. Wir haben auch einige generative Textwerkzeuge hinzugefügt, damit Vertriebsmitarbeiter Änderungen an ihren Nachrichten vornehmen können, wenn sie Dinge umformulieren, freundlicher oder etwas formeller gestalten oder Hilfe bei der Klärung von Dingen erhalten möchten. Das ist Teil des Gesprächs, aber es führt kein direktes Gespräch mit ChatGPT. Wir finden es auch nützlich, um bei der Erstellung von Artikeln wie Hilfeartikeln zu helfen, die ebenfalls Teil dieser Beta-Version waren. Ein Großteil der Kraft liegt in einigen der eher versteckten Anwendungen, die für Laien nicht so offensichtlich sind, aber für Vertriebsmitarbeiter wirklich zeitaufwändig sind. Und damit können wir viel Wert schaffen.
„Sie suchen nach der Schnittmenge von Dingen, in denen die Technik gut ist, und Dingen, bei denen ein relativ geringes Risiko besteht. Und wir werden in den kommenden Monaten viele davon sehen.“
Gustavs: Ja. Es gibt viele Möglichkeiten, wie Sie diese Technologie verwenden können, und dadurch einige der Probleme umgehen, die wir gesehen haben, insbesondere bei Halluzinationen, bei denen sie Dinge erfindet, die nicht korrekt sind. Aber es ist wirklich gut in anderen Dingen. Es ist gut darin, bestehende Inhalte neu zu formulieren, und es ist sinnvoll, damit voranzugehen, weil es einen klaren Wert liefern kann. Das Endziel wäre, vollständig automatisiert zu sein und tatsächlich Antworten zu geben. Nur ist die Technik dafür noch nicht gut genug. Aber ich denke, wir werden es schaffen.
Emmet: Und ich vermute, dass wir die Dinge im Laufe des Jahres 2023 so sehen werden, weil ich mir vorstellen kann, dass wir anfangen werden, zu sehen, wie sich dies in viele verschiedene Produkte einschleicht, wahrscheinlich zunächst auf relativ einfache, narrensichere Weise und dann zunehmend das Boot herausdrängen in Bezug auf die Komplexität dessen, was es tun kann. Ich denke, wir alle sind diese Gelegenheit mit einer Mischung aus Aufregung und vielleicht auch ein bisschen gesunder Beklommenheit angegangen. Molly, du hast erwähnt, dass wir diese Funktionen derzeit von ChatGPT in der Beta unterstützen. Und das Feedback war äußerst ermutigend und positiv. Die ersten Anzeichen, die wir sehen, sind echte Kunden, die echten Nutzen aus Funktionen ziehen, wie z. B. das Zusammenfassen eines Gesprächs, bevor es an jemand anderen übergeben wird. Sie suchen nach dem Schnittpunkt von Dingen, in denen die Technologie gut ist, und Dingen, bei denen ein relativ geringes Risiko besteht. Und davon werden wir in den kommenden Monaten noch viele sehen. Das wird also spannend.
Konversations-KI
Emmet: Gustavs, du hast darüber eher langfristig nachgedacht. Kannst du das ein bisschen ansprechen? Sie haben Intercom erwähnt – einer der Gründe, warum wir hier darüber sprechen, ist, dass wir wahrscheinlich ziemlich gut positioniert sind, angesichts der Art unserer Produkte, die ein dialogorientierter Kundenservice sind, um das Beste daraus zu machen. Was denken Sie, wenn Sie an langfristige Produkt- und Designmöglichkeiten denken?
Gustavs: In den sehr frühen Tagen der Einführung von ChatGPT haben wir diesen Workshop durchgeführt, um zu versuchen, die Zukunft zu durchdenken, insbesondere darüber, wie die Welt aussehen würde, wenn wir ein Modell hätten, das dieses Halluzinationsproblem nicht hätte und geben könnte gute Antworten oder „Ich weiß nicht“ sagen. Es war wirklich vielversprechend und hat unser Vertrauen in viele Dinge, an die wir bereits geglaubt haben, aber es wird beschleunigt. Wir glauben, dass die Mehrheit der Supportanfragen vollautomatisch gelöst werden, ohne mit Menschen zu sprechen. Es nimmt bereits heute mit mehr von der Art von „Wenn dies, dann das“-Buildern zu, mit Bots und unserem eigenen Resolution-Bot, der einige maschinelle Lernfähigkeiten hat, aber nicht im gleichen Maße wie ChatGPT.
„Der Großteil der Unterstützung erfolgt auf eine Weise, die für Menschen am natürlichsten ist, nämlich durch Gespräche.“
Wir sind bereits auf diesem Weg, aber er wird beschleunigt. Und als Folge davon werden Support-Organisationen beginnen, sich von reaktiv und hauptsächlich im Posteingang hin zu proaktiv zu verlagern – Einrichtung und Schulung der KI; Schreiben von Inhalten, die die KI verwenden kann, um Gespräche zu lösen.
Ich denke, die Mehrheit der Unterstützung wird auf eine Weise erfolgen, die für Menschen am natürlichsten ist, nämlich durch Gespräche. Stellen Sie sich vor, Sie hätten jemanden, mit dem Sie immer sprechen können und der eine personalisierte Antwort nur für Sie hat. Das ist für Menschen die natürlichste Art zu interagieren. Dieses Such- und Stöbererlebnis, das wir heute haben, wo Sie bei Google nach etwas suchen und es scannen, um zu versuchen, schnell irgendwo im Inhalt Antworten zu finden, ist für Menschen nicht so natürlich. Es wird noch einige Versionen davon mit Vorschlägen für Inhalte geben, die für Sie relevant sein könnten, bevor Sie ein Gespräch beginnen. Aber wenn Sie damit interagieren, könnte es immer noch Konversation sein.
Wir glauben, dass wir aus mehreren Gründen auch eine Brücke bauen müssen, um dorthin zu gelangen. Ich denke, wir beginnen damit, dass wir sehen, wie die Support-Mitarbeiter durch Dinge wie Zusammenfassung oder Umformulierung erweitert werden. Später werden wir uns mit Vorschlägen für Antworten befassen, die Supportmitarbeiter bearbeiten und verbessern können, und später werden wir uns mit der vollständigen Automatisierung befassen. Es wird eine Weile dauern, sowohl für den technischen als auch für den menschlichen Aspekt, sich an die Verwendung von immer mehr Automatisierung zu gewöhnen.
Emmet: Sie beschreiben etwas, wo es über einen sehr breiten Oberflächenbereich des Produkts hinweg viele verschiedene Stellen gibt, an denen dies unsere Arbeitsweise verändern kann, sowohl das, was wir die Teamkollegen-Erfahrung als auch die Endbenutzer-Erfahrung in den beiden nennen Seiten des Gesprächs. Aber Sie beschreiben auch diese wolkige Vorstellung davon, wie wir zu dieser vagen Zukunft von „wir glauben, dass die Technologie dort hinkommt“ gelangen werden. Es scheint mir eine ganz andere Art zu denken, wie man heute an Design herangeht, und fast ein grundlegender Unterschied in der Art und Weise, wie wir über die Interaktion mit Computern denken, von etwas sehr Deterministischem, sehr Hartem – von Wahr und Falsch und Einsen und Nullen – zu etwas viel unschärfer.
Neue Designmuster
Emmet: Designer versuchen jetzt, mit diesem Material zu arbeiten, das sich viel unbekannter und plastischer und weniger starr anfühlt als CRUD-Apps, an die wir gewöhnt sind, „erstellen, schreiben, aktualisieren, löschen“. Was hast du gefunden? Gibt es einen wesentlichen Unterschied darin, wie Designer an ihre Arbeit herangehen müssen? Fanden Sie bestimmte Dinge schwierig oder herausfordernd? Müssen Designer neue Fähigkeiten erlernen? Wie groß ist die Veränderung für den Akt des Entwerfens, dass das Material, mit dem wir entwerfen, fast dieses Element der Unerkennbarkeit eingebrannt hat?
„Im Laufe der Zeit werden sich immer mehr neue Designmuster herausbilden, wie wir mit dieser Ungewissheit und Erwartungen auf allen Seiten umgehen können.“
Molly: Ich denke, es gibt noch vieles an unserem Job, das gleich bleiben wird. Wir finden Probleme, untersuchen die Arbeitsabläufe der Menschen und finden Muster. Eine große Sache ist es, für viel mehr Fehlerfälle zu entwerfen, da es nicht unbedingt Leitplanken gibt. Wenn Sie ein Gespräch führen, kann es auf so viele verschiedene Arten aus dem Ruder laufen. Und so ist es auch bei einem System wie diesem. Menschen als Spezies sind nicht besonders gut in Wahrscheinlichkeiten. Wenn wir uns den Wetterbericht ansehen und die Regenwahrscheinlichkeit bei 40 % liegt, haben wir keine Ahnung, was das bedeutet.
Emmet: Ja, du bist enttäuscht, wenn es nicht regnet, weil dir gesagt wurde, dass es regnen würde.
Molly: Ja. Ich bin in den Niederlanden – wenn ich die Chance auf Regen sehe, denke ich: „Es wird regnen. Die Frage ist nur, wie lange.“ Das bedeuten für mich die Prozentzahlen. Aber wir sind nicht so gut darin, sie zu interpretieren. Ich denke, das wird definitiv etwas sein, wenn wir uns ansehen, wie sicher diese Vorhersagen sind, weil sie Vorhersagen darüber sind, welche Wörter als nächstes kommen sollten. Und wir werden versuchen, darin besser zu werden. Es gibt viel zu tun damit, wie schnell sich diese Technologie bewegt und verändert, und ich glaube nicht, dass sich das ändern wird. Es gibt viel Prototyping und Reagieren und Nachdenken über Latenz. Die Latenz kann im Moment ziemlich lang sein – darauf ausgelegt. Und es gibt viele unerwartete Ergebnisse. Das sind einige der Dinge, die mir aufgefallen sind.
Gustavs: Ich denke, dass sich im Laufe der Zeit immer mehr neue Gestaltungsmuster herausbilden werden, wie man mit dieser Ungewissheit und Erwartungen auf allen Seiten umgehen kann. Im Moment experimentieren alle und sehen, was funktioniert. Wir sehen bereits einige Muster mit kleinen vordefinierten Eingabeaufforderungen zum Ändern von Text wie „erweitern“, „fassen Sie dies zusammen“, „machen Sie es freundlicher“. Es ist ein relativ neues Muster, das sich abzuzeichnen beginnt, und ich denke, wir werden mehr und mehr dieser Art von Mustern sehen. Sogar diese Interaktion, bei der, wenn Sie ChatGPT auffordern, Inhalte zu generieren, dieser sich langsam bewegende Cursor angezeigt wird. Das ist auch ein interessantes Designmuster. Es ist technisch erforderlich, aber es könnte wirklich gut funktionieren, um Erwartungen zu wecken: „Hey, das ist KI, die Inhalte im Handumdrehen generiert.“
„Denken wir in diesen neuen Systemen, die möglicherweise sehr automatisiert sind, darüber nach, wieder etwas Reibung hinzuzufügen, damit wir die Fähigkeiten behalten, die sich wertvoll anfühlen und die wir haben wollen?“
Emmet: Du sagst also, dass dieser Wort-für-Wort-Laufband-Tipp-Effekt, der, um es klar zu sagen, eine Funktion davon ist, wie die Technologie es Wort für Wort macht, synonym und zu einer visuellen Visitenkarte werden könnte . Vielleicht wird das passieren, vielleicht auch nicht, aber die Art von Dingen, die auftauchen, wenn wir diese Verschiebungen und das Aufkommen neuer Technologien sehen, könnte interessant sein, um die Idee des Auftauchens neuer Designmuster zu vertiefen, weil wir dies sehen, wenn neue Technologien auftauchen entlang. Molly, gibt es andere, denen Sie begegnet sind, entweder auf einer sehr niedrigen Ebene des Interaktionsdesigns oder auf der hohen Ebene, wie dies in Produkte eingenäht wird?
Molly: Es gibt ein paar andere Dinge, von denen ich denke, dass sie sich mehr zeigen werden. Wenn wir beispielsweise versuchen, eine Funktion zu entwickeln, führen Ingenieure Backtesting durch. Sie verwenden frühere Daten und machen Vorhersagen darüber und vergleichen sie dann zum Beispiel mit dem, was ein Teamkollege tatsächlich gesagt hat. Für solche Dinge müssen wir möglicherweise mit dem Start beginnen, nicht beim Endbenutzer, sondern auf der Teamkollegen- oder Administratorseite, wo Leute, die eine CS-Organisation verwalten, vielleicht einen, wie ich es nenne, dunklen Start haben möchten – sie haben die Dinge nicht live, sind aber vorhanden in der Lage, sie zu beobachten und ein Gefühl zu bekommen: „Okay, ich vertraue jetzt darauf, dass das geht.“ Unterschiedliche Phasen von Dark Launches, Entwurfsvorschlägen und verschiedene Stadien der Einführung einiger dieser Tools. Ich denke, das wird prominenter sein.
Ich weiß nicht, in welche Richtung es gehen wird, aber ich denke über Punkte nach, an denen wir möglicherweise wieder Reibung in das System einfügen müssen, damit wir nicht selbstzufrieden werden. Piloten führen immer noch bestimmte Teile eines Fluges durch, obwohl das Autopilotsystem den größten Teil davon übernimmt, weil sie nicht vergessen dürfen, wie man fliegt. Sie machen also die Landungen oder andere Dinge. Denken wir in diesen neuen Systemen, die möglicherweise stark automatisiert sind, darüber nach, wieder etwas Reibung hinzuzufügen, damit wir die Fähigkeiten behalten, die sich wertvoll anfühlen und die wir haben wollen?
Emmet: Und natürlich hat fast alles einen impliziten Vertrauenswert für die eingebaute Funktion, die Sie entwerfen müssen. Ist dies etwas, das wir den Vertriebsmitarbeitern und Administratoren oder ihren Kunden offenlegen würden? Es gibt eine höhere Schwelle für uns, um ihren Kunden Dinge offenzulegen, oder sogar auf einer niedrigeren Detailebene. Nutzen Sie die Fähigkeit, ein langes Gespräch zusammenzufassen. Posten Sie diese Zusammenfassung auf Knopfdruck direkt in den Konversationsthread oder geben Sie jemandem die Möglichkeit, sie zu überprüfen und zu genehmigen? Direkt durchlassen oder ein Genehmigungstor hinzufügen? Ich denke, wir werden wahrscheinlich viele Workflows entstehen sehen, zumindest anfangs, und fangen sie dann einfach an zu fallen, wenn die Technologie immer mehr Vertrauen aufbaut?
Molly: Ja, genau.
Gustavs: Sogar nur die Fähigkeit, Ihnen zu sagen, wie selbstbewusst es ist. Wenn die KI Ihnen sagen könnte: „Hey, das ist meine Antwort, und sie ist zu 40 % richtig“, könnten Sie sie einem Menschen zur Genehmigung vorlegen, bevor sie gesendet wird. Wenn Sie sich zu 90 % sicher sind, können Sie einfach weitermachen und es sofort senden und haben eine „Hey, das ist falsch“-Schaltfläche auf der Seite des Endbenutzers. Es hängt wirklich davon ab, wie sich die Technologie entwickelt. Das Design muss sich parallel dazu weiterentwickeln.
Emmet: Ja. Gott, gib mir das Vertrauen eines großen Sprachmodells, weil es absolut sicher eine totale Falschheit und die totale Wahrheit sagen wird, ohne zwischen ihnen zu unterscheiden. Und das ist die Vertrauenssache. Im Moment gibt es nichts, was sagt: „Ich bin zu 100 % von dieser Aussage überzeugt.“ Zumindest in ChatGPT. Ich glaube, dass wir in einigen der anderen Sprachmodelle beginnen, Quellen zu sehen, auf die verwiesen wird, was ein positiver Schritt zu sein scheint.
Schichten oben hinzufügen
Emmet: Es scheint, als gäbe es viele unbekannte Dinge, viele knifflige, tiefgreifende Designentscheidungen wie diese, in die man sich einmischen muss. Lassen Sie uns herauszoomen, was diese Megatrends für Design und Produkt bedeuten. Menschen haben die Ankunft großer, neuer Technologien miterlebt oder waren daran beteiligt. Ich denke an Dinge wie die Cloud oder die massive Umstellung auf das Internet und Mobilgeräte als große Schlüsseltechnologien, die zu dieser völlig neuen Welt von Designmustern und Produkten geführt haben, die vorher nicht verfügbar waren. Mit der Cloud sahen wir Formulare und Feeds und Likes und all die visuellen Veränderungen, die das Web durchmachte.
Vieles könnte man auch für Mobilgeräte sagen – alles von Feeds und Hamburger-Menüs über Pull bis Refresh und Swipe bis Delete, das wir jetzt als Teil des Toolkits eines Designers betrachten. Vielleicht kommen wir der Vorhersagezeit gefährlich nahe, aber was sind Ihre frühen Erfahrungen damit? Sagt es Ihnen etwas darüber, welche Arten von Produkten gewinnen oder verlieren werden und welche neuen Dinge auftauchen könnten, die vorher nicht einmal möglich waren?
„Ich denke, die Unternehmen, die gewinnen werden, sind diejenigen, die über eine Art proprietäre Daten und einen Schwungradeffekt verfügen, der diese Daten kontinuierlich sammelt und verbessert.“
Gustavs: Ich denke, im Laufe der Zeit werden die meisten Unternehmen diese öffentlich verfügbaren großen Sprachmodelle verwenden, anstatt ihre eigenen zu erstellen. Aber um sich voneinander zu unterscheiden, könnten sie Schichten mit Spezialwissen darüber bauen. Beispielsweise könnten Sie über geschäftsspezifische Daten verfügen – für ein Support-Tool könnten dies Antworten auf spezifische Fragen zu Ihrem Produkt sein, und Ihre Support-Mitarbeiter geben spezifische Antworten im Gegensatz zu allgemeinem Wissen. Es könnte wirklich tiefes Wissen auf einem bestimmten Gebiet sein, wie z. B. Recht.
Ich denke, die Unternehmen, die gewinnen werden, sind diejenigen, die über eine Art proprietäre Daten und einen Schwungradeffekt verfügen, der diese Daten kontinuierlich sammelt und verbessert. Das andere, was ich für interessant halte, ist zu sehen, was die großen Player wie Google, Apple und Microsoft mit dieser Technologie machen und wie sie sie in die Betriebssystemebene integrieren. Das könnte einen großen Einfluss darauf haben, welche Art von Nischen für andere Unternehmen verfügbar sind.
„OpenAI verliert jeden Tag Millionen, um ChatGPT zu betreiben, und es lohnt sich wahrscheinlich aus PR-Sicht oder was auch immer für Forschungsdaten sie sammeln, aber es bedeutet auch, dass es nicht kostenlos und gemächlich sein wird.“
Emmet: Du hast zu Beginn gesagt, dass die meisten Leute diese großen Sprachmodelle auf eine bestimmte Weise integrieren werden. Ich denke, dass Unternehmen, die es nicht schaffen, das zu tun, was Sie sagten, und tatsächlich eine Art Verteidigungsgraben finden, sich im Grunde als dünne Hülle über GPT wiederfinden werden, die sonst nicht wirklich viel tut. Da stimme ich dir also voll und ganz zu. Wenn Sie an so etwas wie den App Store oder mobile App Stores denken, gab es in den frühen Tagen viele Spielzeuge und Taschenlampen und ähnliches. Und dann, nach und nach, schüttelt es sich aus in große Dinge wie Uber, die ohne dieses Modell nicht existieren könnten, und Instagram und Mapping und so weiter. Molly, möchtest du aufgrund deiner Erfahrung noch etwas hinzufügen?
Molly: Ich bin mir nicht ganz sicher, ob jeder öffentliche LLMs verwenden wird. Ich habe eine kleine Befürchtung, dass sie entweder für viele Unternehmen zu teuer sein werden, um ihr Geschäftsmodell zum Laufen zu bringen, oder dass einige der großen Unternehmen sie privat halten könnten. Ich bin mir also nicht sicher, ob alle öffentliche verwenden werden oder ob die Leute sich mehr in Richtung Open Source bewegen und ihre fein abgestimmte Schicht oben drauf legen werden. Ich stimme den Datenmodi zu. Zum Beispiel haben wir bei Intercom viele Gesprächsdaten und können Dinge tun, die Apple nicht unbedingt auf Betriebssystemebene tun kann. Und das bietet uns einen gewissen Wert. Ich denke, die Produkte, die erfolgreich sein werden, werden diejenigen sein, die, wie Sie sagten, nicht nur eine Commodity-Schicht darüber sind, sondern ein Problem oder einen Workflow tiefgreifend verstehen und dies in ihren Datenmodus integrieren können.
Emmet: Du hast auch ein paar Dinge angesprochen, die vorerst im Zusammenhang mit Einschränkungen wichtig sein werden. Es ist langsam. Es dauert Sekunden, um eine Antwort zurückzugeben. Es wird einige Produkte oder Räume geben, wo es einfach ungeeignet ist. Es ist auch teuer in Bezug auf die Rechenleistung und daher teuer in Bezug auf das Geld. Sie wissen wahrscheinlich mehr darüber als ich, aber jede Anfrage kostet ein paar Cent. OpenAI verliert jeden Tag Millionen, um ChatGPT zu betreiben, und es lohnt sich wahrscheinlich aus PR-Sicht oder was auch immer für Forschungsdaten sie sammeln, aber es bedeutet auch, dass es nicht kostenlos und gemächlich sein wird. Und obwohl die Technologie die sehr gute Angewohnheit hat, mit der Zeit schneller und billiger zu werden, und dies könnte hier möglicherweise passieren, gibt es vorerst bestimmte Einschränkungen, die die Anwendung einschränken. Vielleicht sehen wir es weniger in Echtzeit-Apps. Vielleicht werden wir es weniger in B2C-Apps sehen, wo der Umfang und die Kosten für die Ausführung dieser Art von Abfragen enorm sein können. Es wird interessant sein zu sehen, wie sich die Dinge auch dort entwickeln.
Die Zukunft der Schnittstellen
Emmet: Ich bin neugierig darauf, tiefer in die Designdiskussion einzusteigen und tatsächlich über diese generativen Systeme nachzudenken und wie wir mit ihnen interagieren werden. Wir spielen auf all die neuen Taps und Swipes und Dinge an, die Sie tun können, wenn eine neue Plattform auftaucht. An dieser Stelle müssen wir uns zwangsläufig in die Welt der Vorhersagen begeben. Wir alle können in ein oder zwei Jahren darauf zurückblicken und darüber lachen, wie falsch wir liegen, aber es gibt ein interessantes Gefühl, dass sich dies vielleicht zu einer eher textbasierten, fast befehlszeilenbasierten Art der Interaktion verschiebt. Eine andere Art von Mikrotrend im Produkt war diese Befehls-+K-Palette, die Sie öffnen können, indem Sie eine Verknüpfung drücken und die Aktion eingeben, die Sie ausführen möchten. Wir sehen das in vielen Produkten, was zu diesem allgemeinen Gefühl einer Verlagerung hin zu Text und natürlicher Sprache als direkter Schnittstelle beiträgt.
„Ich glaube nicht, dass wir uns für eine Art der Interaktion mit KI entscheiden müssen. Es ist eine sehr breite Fähigkeit, die auf unterschiedliche Weise für verschiedene Anwendungsfälle angewendet werden kann.“
Wenn Sie sich andererseits frühere Trends ansehen, insbesondere die Reise, die wir von der Befehlszeilenschnittstelle aus unternommen haben, haben wir am Ende sehr detaillierte grafische Benutzeroberflächen aufgebaut. Und deshalb frage ich mich, ob Sie darüber spekulieren möchten, wohin Sie das führen sehen. Verheißt dies eine Verlagerung hin zu mehr Befehlszeilenschnittstellen für das 21. Jahrhundert? Ist dies eine vorübergehende Befehlszeilensache, bevor wir herausfinden, wie eine grafische Benutzeroberflächenebene für diese Dinge aussieht? Ist es einfach zu früh, um das zu sagen?
Gustavs: Nun, ich denke, das werden wir alle haben. Ich glaube nicht, dass wir uns für eine Art der Interaktion mit KI entscheiden müssen. Es ist eine sehr breite Fähigkeit, die auf unterschiedliche Weise für verschiedene Anwendungsfälle angewendet werden kann. Wenn Sie beispielsweise nach einer Antwort suchen, ist das Gespräch der wichtigste Weg, um eine Antwort zu erhalten. Aber wenn wir über Workflow-Augmentation mit KI sprechen, werden wir meiner Meinung nach grafische Oberflächen mit vordefinierten Aktionen sehen, die KI ausführen soll. Es ist dasselbe, was wir heute mit Zusammenfassungen, Neuformulierungen und der ganzen Welle von Co-Piloten für X sehen.
Mit Workflow-Automatisierung meine ich die Verwendung von KI zur Verbesserung Ihrer Arbeit. Im Kundensupport schreiben Sie beispielsweise Antworten an Kunden, indem Sie KI verwenden, um diese Antworten zu verbessern. Erweitern Sie wieder einen Punkt oder fassen Sie die Konversation bis zu diesem Punkt zusammen. Ich denke, es könnte grafische Schnittstellen für diese Art der Workflow-Erweiterung geben.
Molly: Ich bin schrecklich in Vorhersagen, aber wir könnten, wie Sie sagten, eine Art Vermehrung von Befehl + K-Schnittstellen oder verschiedenen Optionen haben, was Sie tun können. Eine der Herausforderungen bei dieser Technologie ist die Auffindbarkeit ihrer Möglichkeiten. Sie können alles in diese Eingabeaufforderung eingeben. „Schreib mir ein Shakespeare-Gedicht wie ein Pirat“ oder so. Wir werden einige Leitplanken setzen, aber ich denke, wir werden wahrscheinlich breit gehen und dann sehen, dass die Dinge ein wenig eingeengt werden, wenn die Dinge häufiger und nützlicher werden. Und vielleicht können wir dann irgendwann eher zu einer textbasierten oder konversationsbasierten oder weit offenen Schnittstelle wechseln, sobald wir ein Gefühl dafür haben, was diese Technologie leisten kann.
Da wir uns daran gewöhnen, mit unseren Systemen zu sprechen, freue ich mich auch über das Potenzial für neuronale Schnittstellen. Warum darüber reden, wenn ich es nur denken kann? Ich weiß, das ist ein weiter Weg, aber als ich in Berkeley war, haben einige meiner Kollegen daran gearbeitet. Es wäre wirklich cool. Es gibt viele Situationen, in denen Sie nicht sprechen und tippen möchten, und das öffnet die Dinge. Vielleicht werden wir in der Zukunft integrierte Systeme haben, die Nicht-GUI-Anweisungen entgegennehmen und in Aktionen umsetzen können. Wir sehen das bereits bei einigen dieser Systeme, die Abfragen und Anweisungen in natürlicher Sprache entgegennehmen und in Aktionen auf Ihrem Computer umwandeln können. Und Tatsache ist, dass einige dieser LLMs auch wirklich gut darin sind, Code zu generieren, wie GitHub Co-Pilot. Da steckt also einfach viel Potenzial drin.
Emmet: Ich vermute, dass die Textmanipulation ein großartiges Softwarejahr haben wird, weil es hier so viele unmittelbare Möglichkeiten gibt. Es fühlt sich sehr natürlich an, einen Textabschnitt hervorheben und sagen zu können: „Mach das freundlicher.“ Es fühlt sich fast so an, als ob das neben Fett und Kursiv in die Werkzeugpalette gehört. Es ist nur eine Möglichkeit, den vorhandenen Text zu manipulieren. Dann gibt es viele Möglichkeiten, dies weiterzuführen, wie Generierung oder Codegenerierung.
Ich persönlich habe die Erfahrung bei der Arbeit mit Bildgeneratoren als ganz anders empfunden. Nochmals, ein Großteil unserer Erfahrung mit diesen Systemen besteht darin, dass die Ergebnisse vorbeiscrollen, wie Screenshots von ChatGPT oder etwas, das von DALL-E, Midjourney oder Stable Diffusion erstellt wurde. Der Erstellungsprozess der Bildgeneratoren fühlt sich für mich klobig an und wird wahrscheinlich GUI-fähig sein und eine viel taktilere Bildschirmoberfläche haben. Die Eingabeaufforderung einfach mit kurzen F-Stopp-Trends zu abweichender Kunst zu füllen, um zu versuchen, sie dazu zu bringen, die gewünschten Ausgaben zu erstellen, ist so eindeutig ein Hack. Und es gibt viele Dimensionen verschiedener Stile, die Sie durchgehen möchten, die von Knöpfen und Zifferblättern und Schiebereglern viel besser bedient würden. Ich schätze, meine Vorhersage ist, dass wir sehen werden, dass das Prompt Engineering, wie es heute existiert, durch etwas hoffentlich viel Besseres ersetzt wird.
„Es ist interessant, dass die KI wie ein Kollege mit Superkräften ist, der die Tools verwenden kann, die Sie haben, und Sie können ihnen Klartext-Feedback geben, um sie zu verbessern.“
Und nur um den Gedanken zu beenden, Video und Audio sind sehr unterschiedlich, weil man sich lange hinsetzen und die Ergebnisse überprüfen muss. Sie können hundert Bilder angucken oder einen Text überfliegen, aber ich habe ehrlich gesagt weniger Meinungen dazu, weil ich weniger Zeit darin versenken konnte. Aber ich denke, es kommt auf das zurück, was Sie letztendlich gesagt haben, Gustavs. Es ist keine befriedigende Antwort, aber es wird massiv davon abhängen. Und ich denke, es wird sehr davon abhängen, was ich manipuliere. Und wir haben möglicherweise sehr unterschiedliche Benutzeroberflächen dafür, je nachdem.
Gustavs: Gleichzeitig denke ich, dass es neue interessante Anwendungsmöglichkeiten für den Unterricht in natürlicher Sprache geben wird. Eine Sache, die wir zum Beispiel interessant fanden, als wir unsere anfängliche Untersuchung durchführten, war, dass die Art und Weise, wie Sie KI trainieren können, sehr, sehr ähnlich oder praktisch gleich sein könnte, als ob die KI ein Support-Agent wäre und Sie ihnen Feedback zu Ihrer Richtlinie geben würden wie man mit Kunden interagiert oder welchen Tonfall man verwendet. Selbst wenn Sie Feedback zu einzelnen Gesprächen geben, können Sie diese einfach im Klartext geben, da es die natürliche Sprache und den Kontext versteht. Ich denke, das werden wir auch sehen. Und es ist interessant, dass die KI wie ein Kollege mit Superkräften ist, der die Tools verwenden kann, die Sie haben, und Sie können ihnen Klartext-Feedback geben, um sie zu verbessern.
Emmet: Molly hat angesprochen, was passiert, wenn diese Dinger nicht nur Text ausspucken, sondern zum Beispiel auch Aktionen ausführen können. Und das ist wahrscheinlich eine ganze zusätzliche Ebene dessen, wozu sie fähig sind.
Was machen wir jetzt?
Molly: Fergal, für diejenigen unter Ihnen, die sich einige frühere Podcasts anhören, ist der Direktor für maschinelles Lernen. Er sagt, dass sein Ideal für ein ML-System wie ein intelligenter Kollege sein sollte, der neben Ihnen sitzt, dem Sie Anweisungen geben können, und es wird diese tatsächlich gut ausführen. Das ist sozusagen der Traum. Wie Gustavs sagte, ist die Möglichkeit, Feedback in natürlicher Sprache zu geben, genau diese grundlegende Veränderung in der Art und Weise, wie wir damit umgehen können.
„Wie machen wir aus diesem intelligenten, potenziell bedrohlichen Kollegen einen Teamkollegen, der Sie besser macht?“
Emmet: Ich frage mich sogar, wie groß die Reichweite sein wird. Vor ein paar Jahren gab es eine Agentur namens Berg in London, die viele Experimente mit früheren KI-Iterationen durchführte. Aber eines ihrer Prinzipien lautete: „Sei schlau wie ein Welpe“, weil sie nicht wollten, dass sich die KI bedrohlich oder überwältigend anfühlt. Und das war ihr Prinzip, Grenzen um uns herum zu ziehen. Ich mag es nicht, Designer als den erhobenen Zeigefinger herauszuarbeiten, aber vielleicht ist es auch für Designer eine wichtige Rolle, diese sicheren Grenzen zu setzen.
Molly: Ich denke, diese Grenzen spielen eine Rolle. Ich möchte neben einem Welpen arbeiten, aber möchten Sie neben jemandem mit der Intelligenz eines Welpen arbeiten? Ich denke, die Rolle von Designern ist: Wie machen wir diesen intelligenten, potenziell bedrohlichen Kollegen, einen Teamkollegen, der Sie besser macht, der diese wirklich großartige Whiteboarding-, Brainstorming-Sitzung haben kann, in der Sie nur jeden abstreiten andere? Wie kommen wir darauf? Hier können wir diese Magie wirklich hinzufügen – den Arbeitstag verbessern, Arbeitsabläufe erweitern und KI zu einem echten Teamkollegen für Menschen machen.
Emmet: Selbstfahrende Autos sind derzeit wahrscheinlich die am weitesten fortgeschrittene Anwendung von KI, auch wenn sie nicht auf einer breiten Akzeptanzebene ist. Die Spannung dieser Ebenen des Selbstfahrens und das zunehmende Risiko, wenn Sie diese Ebenen durchlaufen – eine Version davon trifft wahrscheinlich auf viele dieser Dinge zu, wenn Sie darüber nachdenken.
Molly: Ja, ich meine, genau das haben wir bereits erwähnt. Ist es ein Vorschlag? Gibt es eine Bewertung? Gibt es eine Zulassung? Das ist nur unsere Version der fünf Ebenen autonomer Fahrzeuge.
Gustavs: Eine andere interessante Sache ist, dass die KI im Laufe der Zeit besser wird und in der Lage ist, nicht nur Antworten zu geben, sondern auch Aktionen in Ihrem Namen auszuführen, ähnlich wie es ein Kollege tun könnte, es wird eine interessante Design-Herausforderung sein, sich das vorzustellen einen Weg finden, damit es sich anfühlt, als würde jemand neben Ihnen sitzen und Ihnen helfen, im Gegensatz zu einem Hacker, der Ihren Computer entführt und herumklickt. Wenn Sie es mit Design zum Laufen bringen können, wird es sich magisch anfühlen. Oder es könnte verrückt gruselig sein. Das wird eine interessante Design-Herausforderung.
Emmet: Und es ist möglich, dass der Gesprächsweg der beste Weg ist, das zu tun. Es wird auch interessant sein zu sehen, inwieweit es als freundliche und gesprächige Person im Vergleich zu dem System, mit dem Sie aus der Ferne interagieren, dargestellt wird.
„Wird sich die Art der Produktion und der Ideenfindung stark verändern? Müssen wir neue Fähigkeiten wie Prompt Engineering erlernen?“
Vor ein paar Jahren hatten wir etwas, das man sich rückblickend als Bot-Hype-Zyklus vorstellen könnte. Und tatsächlich war Intercom ziemlich aktiv daran beteiligt, zu experimentieren und herauszufinden, was wir tun können. Natürlich haben wir Produkte, die sich das zunutze gemacht haben, wie wir bereits erwähnt haben. Dinge wie der Resolution Bot und Custom Bots. Aber wir haben während dieses Hype-Zyklus auch festgestellt, dass es eine ganze Reihe von Anwendungen gibt, die überhaupt nicht gut für die Conversational UI sind. Es gab einen Wetter-Bot, und Sie sagen: „Eigentlich brauche ich keinen Bot, um nach dem Wetter zu fragen – ich habe eine App oder eine Webseite, die dafür geeignet ist.“ Auch hier werden wir unweigerlich vieles davon erleben. Wahrscheinlich eine Überanwendung von Conversational UI, aber dann kommen die wirklich nützlichen Anwendungsfälle in den Vordergrund.
Eine zusätzliche Sache, die ich hinzufügen möchte, die mich in Bezug auf die Konversationssache ziemlich optimistisch macht, ist ein Problem, an dem wir seit langem arbeiten. Der Turing-Test ist nicht neu. Abgesehen davon habe ich vor einigen Jahren bei Google gearbeitet. Es gab eine Menge Arbeit bei der Suche und Stolz darauf, eine Frage wie „Wie hoch ist der Eiffelturm?“ zu beantworten. Etwas, das im Vergleich zu dem, was uns jetzt zur Verfügung steht, einfach super einfach erscheint. Sogar Sprachassistenten wie Siri wachten eines Morgens Ende November plötzlich auf, um fast veraltet zu sein.
Die Geschwindigkeit, mit der die Systeme besser werden, wird auch einen großen Teil davon ausmachen. Eines der interessanten und neuen Dinge für Designer ist, dass wir in größerem Maße mit dabei sind, als wir in der Vergangenheit mit Webtechnologien oder was auch immer gearbeitet haben. Wohin die Technologie von hier aus geht, wird die Dinge genauso bestimmen wie unsere Regie-Autorenvision als Designer.
„Ich denke, es wird für Designer wirklich wichtig sein, sich darauf einzulassen und einfach herumzuspielen und mit diesen Sprachmodellen zu basteln und zu sehen, wie Sie sie auf Ihr Produkt anwenden können.“
Eine letzte Dimension, an die ich in Bezug auf Design denke, sind insbesondere die Tools, die wir verwenden, und die Tatsache, dass sie das Potenzial haben, sich dramatisch zu verändern. Wird sich die Art der Produktion und der Ideenfindung stark verändern? Müssen wir neue Fähigkeiten wie Prompt Engineering erlernen? Gustavs, irgendwelche allgemeinen Gedanken darüber, was das für die sich verändernde Natur des eigentlichen Designmachens bedeutet?
Gustavs: Ja. Speziell in Bezug auf das Prompt Engineering werden wir meiner Meinung nach im Laufe der Zeit Best Practices dafür sehen, wie wir dies auf die gleiche Weise tun können, wie wir es für jede andere Technologie getan haben. Und natürlich werden sie sich im Laufe der Zeit weiterentwickeln und besser werden, aber ich glaube nicht, dass dies ein wichtiges Unterscheidungsmerkmal sein wird, das Ihr Unternehmen grundlegend prägen wird. Es ist schwer zu sagen, wie sich die Rolle des Designers verändern wird, und es hängt vom Zeitrahmen ab. Kurzfristig denke ich, dass es für Designer wirklich wichtig sein wird, sich darauf einzulassen und einfach herumzuspielen und mit diesen Sprachmodellen herumzuspielen und zu sehen, wie Sie sie auf Ihr Produkt anwenden können, wie andere Unternehmen es auf ihr Produkt anwenden Versuchen Sie, Muster und interessante Möglichkeiten zu finden, neue Dinge zu tun.
Aber langfristig ist es viel schwieriger zu sagen, welche Auswirkungen dies auf Designer in der gesamten Branche haben wird. Wenn die KI also besser wird und nicht nur Menschen erweitert, sondern auch das Schreiben und Ausführen von Aufgaben vollständig automatisiert, kann dies meiner Meinung nach viele Produkte und Branchen und sogar die Rolle, die Designer bei der Gestaltung dieser Produkte spielen, grundlegend verändern. Ich schätze, wir werden sehen. Viele offene Fragen, und es wird interessant sein zu sehen, wie es sich entwickelt.
Emmet: Ja. Eines der schönen Dinge bei dem, was wir tun, ist, dass Ihnen die Technologie gelegentlich ganz neue Möglichkeiten eröffnet, die Sie einschlagen können. Das fühlt sich definitiv so an, als würde es die Landschaft, in der wir arbeiten, grundlegend verändern und eine Menge neuer Herausforderungen und Möglichkeiten für Designer schaffen. Für uns bei Intercom ist es sehr aufregend, auf dem richtigen Weg und auf diesem Weg zu sein und ihm voll und ganz verpflichtet zu sein. Es wird zweifellos ein interessantes Jahr für KI und Design mit KI. Ich bin gespannt, wo wir hinkommen. Vielleicht können wir es dabei belassen. Molly, vielen Dank. Gustavs, tausend Dank. Es war großartig, mit Ihnen zu plaudern und aus Ihren früheren Erfahrungen mit dieser Technologie zu lernen. Vielleicht machen wir es noch einmal, wenn wir alle älter und klüger sind, aber im Moment vielen Dank.