Sztuczna inteligencja w zestawie narzędzi projektanta: kształtowanie przyszłości za pomocą ChatGPT
Opublikowany: 2023-02-08W miarę jak GPT podnosi poprzeczkę, a duże modele językowe stają się coraz bardziej wyrafinowane, jakie nowe horyzonty pojawią się w myśleniu projektowym? I jak zakłócą tradycyjną rolę projektantów produktów?
Uruchomienie ChatGPT wywołało lawinę opinii i dyskusji, w której wszelkiego rodzaju ludzie angażują się w gorącą wymianę zdań na temat tego, co to wszystko dla nas oznacza. Teraz jesteśmy pierwszymi, którzy przyznają, że przewidywania i spekulacyjne prognozy mogą być głupotą, ale jedno jest pewne – te modele już powodują sejsmiczne zmiany w sposobie, w jaki myślimy o naszych produktach i je budujemy.
Jeśli słuchałeś Inside Intercom w zeszłym tygodniu, wiesz, że szybko wskoczyliśmy na modę GPT, zaprojektowaliśmy nowe funkcje oparte na sztucznej inteligencji i wysłaliśmy je do 160 klientów beta (zapraszamy do zapoznania się z częścią pierwszą i częścią dwa z rozmowy, jeśli jeszcze tego nie zrobiłeś). Dzisiaj, w najnowszej odsłonie naszych czatów GPT, dołączają do nas niektórzy ludzie, którzy faktycznie wykonują prace projektowe z ChatGPT i dużymi modelami językowymi, aby tworzyć prawdziwe produkty, które rozwiązują rzeczywiste problemy klientów.
W tym odcinku usłyszysz od naszych:
- Emmet Connolly, wiceprezes ds. projektowania produktów
- Molly Mahar, Staff Product Designer w zespole Machine Learning
- Gustavs Cirulis, starszy główny projektant produktu
Opowiedzą o dużych modelach językowych (LLM), takich jak ChatGPT, oraz o tym, jak będą kształtować rolę projektanta produktu w nadchodzących latach. Nie wiemy, co przyniesie przyszłość, ale jeśli nas zapytasz, najlepsze, co możesz zrobić, to pochylić się nad nią.
Oto niektóre z kluczowych wniosków:
- GPT jest naprawdę dobry w streszczaniu treści, zrozumieniu języka i edytowaniu tekstu. Ale głównym problemem jest to, że czasami jego odpowiedzi brzmią wiarygodnie, ale są w rzeczywistości niepoprawne.
- W miarę rozwoju technologii organizacje wspierające będą przechodzić od reaktywności do proaktywności, szkoląc sztuczną inteligencję i upewniając się, że wsparcie odbywa się w sposób konwersacyjny, który wydaje się naturalny dla ludzi.
- Mogą pojawić się nowe wzorce projektowe do zarządzania niepewnością i oczekiwaniami, takie jak budowanie wyników zaufania do funkcji.
- Z biegiem czasu firmy będą mogły korzystać z modeli open source i budować warstwy na wierzchu ze specjalistyczną wiedzą, korzystając z zastrzeżonych danych z ich branży lub firmy.
- W przyszłości interakcja ze sztuczną inteligencją może obejmować interfejsy konwersacyjne, interfejsy graficzne do usprawnienia przepływu pracy, a nawet interfejsy neuronowe.
- Rolą projektanta będzie stworzenie interfejsu AI, który działa jako inteligentny, nie zagrażający współpracownik, który może usprawnić przepływ pracy i ułatwić dzień.
Upewnij się, że nie przegapisz żadnych najważniejszych wydarzeń, śledząc Inside Intercom w Apple Podcasts, Spotify, YouTube lub pobierając kanał RSS w wybranym odtwarzaczu. Poniżej znajduje się lekko zredagowana transkrypcja odcinka.
Pierwsze spotkania
Emmet Connolly: Cześć wszystkim. Witamy w podcaście Inside Intercom. Jestem bardzo podekscytowany, że dołączą do mnie Molly i Gustavs z zespołu projektowego produktu Intercom. Od czasu uruchomienia ChatGPT kilka tygodni temu, było wiele gorących dyskusji, wiele bezużytecznych przypadkowych spekulacji i wiele fotelowych rozgrywających o tym, co to wszystko znaczy. Powiedziałbym, że większość z nich pochodzi od ludzi, którzy tak naprawdę w ogóle nie pracowali bezpośrednio z tą technologią, dlatego jestem bardzo podekscytowany dzisiejszą rozmową z Molly i Gustavsem. Ponieważ Molly i Gustavs to dwie z dość malusieńkiej mniejszości na całym świecie, która faktycznie wykonała rzeczywistą pracę przy projektowaniu produktów z ChatGPT i powiązanymi technologiami. Mam na myśli faktyczne używanie go do integracji z produktami i rozwiązywania rzeczywistych problemów z produktami dla klientów z prawdziwymi produktami działającymi na dużą skalę. Molly i Gustavs, witajcie na przedstawieniu. Może zechcielibyście się bardzo krótko przedstawić. Molly, chcesz iść?
Molly Mahar: Jasne, jasne. Jestem Molly Mahar. Jestem projektantem personelu w firmie Intercom. Jestem całkiem nowy. Jestem osadzony w zespole uczenia maszynowego, w zespole inżynierów i wykonujemy wiele prototypów.
Gustavs Cirulis: Hej, jestem Gustavs. Jestem głównym projektantem produktów i jestem tu trochę dłużej niż Molly. Byłem w różnych miejscach, ale w tej chwili pracuję w zespole ds. wzrostu.
„Przypomniało mi to ekonomię behawioralną na studiach i efekt Dunninga-Krugera, w którym jesteś niekompetentny, ale zbyt pewny siebie”
Emmet: Dzisiaj porozmawiamy o sztucznej inteligencji i dużych modelach językowych, takich jak ChatGPT. W szczególności o tym, co oznaczają dla projektowania i projektantów. Porozmawiamy trochę o tym, jakie nowe możliwości są dostępne dla projektantów, szczególnie dzięki tej nowej technologii, jak to było dla ciebie lub czym różniła się praca ze sztuczną inteligencją w porównaniu z tradycyjnymi produktami, a także o niektórych wyzwaniach, które napotkałeś jako zaczęliśmy projektować te funkcje oparte na sztucznej inteligencji. W pewnym momencie możemy nawet wdać się w nierozsądne przewidywania. Ale zacznijmy od podstaw. Molly, jaka była Twoja pierwsza reakcja, gdy ChatGPT pojawił się na scenie i zrobił spory rozgłos zaledwie kilka tygodni temu? Wcześniej pracowałeś z systemami AI i ML.
Molly: Cóż, po pierwsze, zostałem zbombardowany wieloma zrzutami ekranu na Slack i zacząłem widzieć, jak przychodzą od ludzi z całej firmy i na Twitterze i wszystkim innym. Wypróbowałem to i pomyślałem: „To jest bardzo fajne. To również bardzo sprytne”. Duże modele językowe (LLM) istnieją już od jakiegoś czasu, ale teraz umieścili interfejs użytkownika w swoim interfejsie API. I tak więcej ludzi na całym świecie może z nich korzystać bez konieczności bycia programistą lub kimkolwiek, co moim zdaniem jest niesamowite i pokazuje, jak bardzo ludzie byli nimi podekscytowani. Zacząłem się nim bawić i jest naprawdę potężny.
Możesz zadać mu wiele pytań, możesz śledzić. To naprawdę niesamowite uczucie. Czuje się trochę jak rozmowa. Potem zaczęliśmy, jako zespół, zagłębiać się w to, aby spróbować przetestować to w warunkach skrajnych. I poczułem, że zaczynam dostrzegać ten hype. Przypomniało mi to ekonomię behawioralną na studiach i efekt Dunninga-Krugera, w którym jesteś niekompetentny, ale zbyt pewny siebie. I czasami tak się czułem. Ten ChatGPT jest o wiele lepszy w pierdoleniu niż ja. Jestem tym zdumiony. I tak przeszedłem przez falę uczuć na ten temat. Zastanawiam się, czy przydatne byłoby przedstawienie krótkiego przeglądu LLM.
„Systemy LLM istnieją już od jakiegoś czasu i stają się coraz lepsze, coraz szybsze i szybsze. Niesamowite w ChatGPT jest to, że jako osoba mogę z niego korzystać”
Emet: Myślę, że tak. Myślę, że dla wielu ludzi jest to skojarzenie z ChatGPT jako sztuczną inteligencją, o której wszyscy mówią. Czy mógłbyś więc wyjaśnić laikom, czym jest ChatGPT i jak to się ma do innych terminów, takich jak duże modele językowe, o których ludzie mogli słyszeć?
Molly: Tak, zrobię co w mojej mocy. Tak więc duże modele językowe, w skrócie LLM, to modele wyszkolone na ogromnym zbiorze tekstów publicznych z dowolnego miejsca – myślę, że czasami z książek, Internetu, źródeł multimodalnych. Miliardy, miliardy, miliardy kawałków danych w środku. I często są szkoleni z ludzkimi opiniami po drodze. Myślę, że to prowadzi do tego, dlaczego możesz prowadzić tę rozmowę z ChatGPT – możesz przekazać mu informację zwrotną, a on faktycznie zareaguje na to i zmieni swoje odpowiedzi. LLM istnieją już od jakiegoś czasu, stając się coraz lepszymi i szybszymi. Niesamowite w ChatGPT jest to, że jako osoba mogę z niego korzystać. A po drugie, jest naprawdę bardzo, bardzo dobry. ChatGPT jest w zasadzie interfejsem użytkownika i trochę to upraszczam, ale jest to interfejs API dużego modelu języka, który OpenAI ma w tle. A mają ich kilka.
Istnieje wiele innych firm, które również mają duże modele językowe. Google pracuje nad LaMDA, są też inne firmy. I tak, możemy powiedzieć tutaj ChatGPT dzisiaj, ale odnosimy się do tej technologii ogólnie. W rzeczywistości pracujemy z interfejsami API, które za tym stoją, a nie z ChatGPT, który jest obecnie dostępny tylko za pośrednictwem interfejsu użytkownika.
„Wcześniej było to po prostu coś w rodzaju:„ Hej, wygeneruj mi ten wiersz o czymkolwiek ”. Teraz możesz prowadzić rozmowę w tę iz powrotem. W ten sposób ludzie wchodzą ze sobą w interakcje”
Emmet: Tak. I myślę, że jedną z interesujących rzeczy w ChatGPT jest to, że pod pewnymi względami nie jest to coś nowego z technicznego punktu widzenia. ChatGPT to aplikacja zbudowana przy użyciu GPT-3.5 zbudowana przez firmę o nazwie OpenAI. Ale GPT-3.5 istnieje już od jakiegoś czasu – kilka miesięcy, prawda, Molly? Więc jestem ciekawy. Gustavs, jaka była twoja reakcja? Jak myślisz, dlaczego reakcja na to, co widzimy w ChatGPT, różni się od podstawowej technologii, która była dostępna przez jakiś czas?
Gustavs: Myślę, że dużą różnicą jest to, że prezentacja przypomina rozmowę, podczas której można zadawać dodatkowe pytania i zagłębiać się w temat. Wcześniej było to po prostu coś w rodzaju: „Hej, wygeneruj mi ten wiersz o czymkolwiek”. Teraz możesz prowadzić rozmowę w tę iz powrotem. W ten sposób ludzie wchodzą ze sobą w interakcje. Jest to więc o wiele bardziej znane niż jednorazowe monitowanie. Kiedy bawiłem się z ChatGPT, kiedy właśnie się pojawił, czułem się jak magia. Naprawdę trudno było uwierzyć, że to istnieje. Po prostu bawiłem się nim, rozmawiałem na różne tematy i czułem się, jakbym miał osobistego nauczyciela na żądanie, który wie wszystko o wszystkim. Mówiono o różnych rzeczach dotyczących technologii, historii, psychologii, a nawet komedii. Okazuje się, że jest naprawdę dobry w wymyślaniu komedii stand-up, jeśli dasz mu dobrą zachętę. Robienie tego też było naprawdę zabawne.
Przypadek halucynacji
Emmet: Obaj spędziliście nad tym kilka tygodni. Wszyscy mieliśmy bardzo imponującą początkową reakcję, ale po spędzeniu kilku tygodni na próbach zastosowania tego do rzeczywistych problemów klientów, może zmagając się z bezpośrednim zastosowaniem go w jakiś sposób, czy Gustavs wytrzymuje szum?
Gustaw: Tak. Gdy tylko pojawił się ChatGPT, byliśmy pod wrażeniem i zdaliśmy sobie sprawę, że musimy lepiej zrozumieć, co to oznacza dla naszej firmy. Wydawało się, że może to mieć naprawdę znaczący wpływ na całą branżę obsługi klienta, więc utworzyliśmy małą grupę roboczą i zbadaliśmy, w czym ChatGPT jest dobry, w czym jest zły i co może oznaczać dla naszej firmy. Po przejściu przez to ćwiczenie, moje własne obawy i zmartwienia oraz szum nieco opadły. Wygląda na to, że technologia nie jest jeszcze gotowa do przejęcia naszej pracy i zautomatyzowania wszystkiego.
„Model chce cię zadowolić, więc chce dać ci odpowiedź, której myśli, że chcesz”
Okazuje się, że jest naprawdę dobry w niektórych rzeczach, ale nie we wszystkim. Jest dobry na przykład w podsumowaniu treści lub zrozumieniu języka, a także w redagowaniu i kreatywnym pisaniu. Ale ma poważną wadę halucynacji, gdzie po prostu wymyśla rzeczy, które brzmią bardzo realistycznie, ale są niezgodne z rzeczywistością, co jest oczywiście dużym problemem dla rozwiązania obsługi klienta. Nie chcesz udzielać wiarygodnie brzmiących, ale merytorycznie niepoprawnych odpowiedzi. Ale jest wiele interesujących rzeczy, do których możesz to zastosować. I myślę, że dużym wnioskiem jest to, że ta technologia ewoluuje naprawdę szybko. I to naprawdę tylko kwestia czasu, zanim będzie w stanie udzielić merytorycznie poprawnych odpowiedzi. A kiedy to się stanie, będzie to naprawdę uciążliwe.
Emmet: Więc mówisz, że to da odpowiedź bez względu na wszystko. W niektórych przypadkach skutkuje to czymś, co nazwałeś halucynacjami. Molly, to wydaje się być jednym wielkim ograniczeniem dla każdego, kto próbuje tego używać naprawdę. Czym są halucynacje i dlaczego w ogóle się pojawiają?
Molly: Tak, to ogromny problem, jak powiedział Gustavs. Model chce cię zadowolić, więc chce dać ci odpowiedź, której myśli, że chcesz. Czasami ma wiarygodne źródło tych informacji, a czasami po prostu zmyśla. Czuje się jak dziecko. "Dlaczego to zrobiłeś?" - Cóż, myślałem, że tego właśnie chciałeś. Halucynacja może pochodzić z wielu różnych źródeł. Jeśli zadasz mu pytanie o interkom, niekoniecznie wie coś nowego. I tak, może wziąć kawałki tego, co wie, że jest dokładne, ogólną wiedzę z innych źródeł, interpolować to iw pewnym sensie próbować użyć zdrowego rozsądku, którego oczywiście nie ma. Tak naprawdę nie ma zdolności rozumowania. Wykorzystuje prawdopodobieństwa, takie jak: „Cóż, to prawdopodobnie może działać w ten sposób, więc mogę wymyślić odpowiedź na temat interfejsu API Intercomu” lub coś w tym stylu. I jak powiedział Gustavs, jest to bardzo prawdopodobne. Brzmi bardzo pewnie.
Jak wspomniałeś, różne firmy skupiają się na różnych rzeczach. Są firmy, które bardziej skupiają się na tym, jak zminimalizować halucynacje. Podczas gdy ChatGPT, jak sądzę, często koncentruje się na poręczach i etyce oraz jasno określa, na co odmawia odpowiedzi.
Emmet: Czy myślisz, że zobaczymy mnogość różnych modeli i będziesz mógł wybrać ten, który najlepiej pasuje do rodzaju kompromisu między absolutną poprawnością a halucynacjami, których chcesz, czy też jest to problem, który może po prostu zniknąć, gdy modelki staną się bardziej dojrzałe?
„ChatGPT zilustrował coś interesującego, a mianowicie, że interfejs użytkownika i UX tego wszystkiego są bardzo ważne”
Molly: Nie jestem pewna, czy zniknie. Ale tak, istnieje już wiele modeli. Istnieją modele open source i istnieje możliwość zrobienia tego, co nazywamy dopracowaniem modelu. GPT oznacza generatywny wstępnie wyszkolony transformator, więc generuje rzeczy. Jest wstępnie przeszkolony na dużym korpusie i transformatorach. Różne firmy będą koncentrować się na różnych rzeczach. Istnieją modele open source, a Intercom, jako potencjalny użytkownik tych modeli, może być w stanie dostroić się, aby uzyskać bardziej specjalistyczną wiedzę na temat naszej branży lub firmy. Technologia będzie również lepiej wykorzystywać i potrzebować mniej danych, aby mieć świetny model. I tak modele będą coraz mniejsze i mniejsze. I potencjalnie w tym momencie może być o wiele bardziej rozsądne, aby mniejsza firma stworzyła model na swoich danych, który byłby dość wyspecjalizowany, dość kompetentny i bardzo niezawodny.
Emmet: Zmieńmy biegi i porozmawiajmy bardziej szczegółowo o projektowaniu. Najwyraźniej GPT i sztuczna inteligencja, ogólnie rzecz biorąc, były przede wszystkim historią technologiczną, ale myślę, że ChatGPT zilustrował coś interesującego, a mianowicie, że interfejs użytkownika i UX tego wszystkiego są bardzo ważne. Wydaje się, że istnieje na przykład zmiana w kierunku konwersacyjnych interfejsów użytkownika. Czy myślisz, że to prawda? Jaka jest rola projektowania w kształtowaniu tego, co robimy z tą technologią stąd, Molly?
Molly: Mam na myśli, Interkom jest bardzo dobrze ustawiony. Nasza działalność polega na rozmowach i obsłudze klienta, a ludzie są naprawdę podekscytowani rozmowami z tą technologią. Ale ostatnio odkryliśmy, że przynajmniej na razie jest tyle mocy dostępnej w technologii, która w rzeczywistości nie jest bezpośrednio konwersacyjna, ale dotyczy rozmowy i języka.
Jak wspomnieliśmy, jest świetny w podsumowaniu, a istnieje mnóstwo przepływów pracy, w których podsumowanie może naprawdę pomóc pracownikom obsługi klienta. Niedawno udostępniliśmy niektórym klientom wersję beta, a podsumowanie jest jedną z rzeczy, które ludzie uważają za naprawdę, bardzo, bardzo cenne. Dodaliśmy również kilka generatywnych narzędzi tekstowych, aby umożliwić przedstawicielom modyfikację ich wiadomości, jeśli chcą przeformułować informacje, uczynić je bardziej przyjaznymi, nieco bardziej formalnymi lub uzyskać pomoc w wyjaśnieniu rzeczy. To część rozmowy, ale nie jest to bezpośrednia rozmowa z ChatGPT. Uważamy, że jest to również przydatne do generowania takich rzeczy, jak artykuły w Centrum pomocy, które również były częścią tej wersji beta. Wiele z tego jest w niektórych bardziej ukrytych aplikacjach, które nie są tak oczywiste dla laików, ale są naprawdę czasochłonne dla przedstawicieli. A dzięki temu możemy zapewnić wiele wartości.
„Szukasz tego skrzyżowania rzeczy, w których technologia jest dobra i rzeczy, w których ryzyko jest stosunkowo niskie. I zobaczymy wiele z nich w nadchodzących miesiącach”
Gustaw: Tak. Jest wiele sposobów na wykorzystanie tej technologii i uniknięcie w ten sposób niektórych problemów, które widzieliśmy, szczególnie z halucynacjami, gdzie wymyśla rzeczy, które nie są poprawne. Ale jest naprawdę dobry w innych rzeczach. Jest dobry w przeformułowywaniu istniejących treści i warto nim kierować, ponieważ może zapewnić wyraźną wartość. Ostatecznym celem byłoby całkowite zautomatyzowanie i faktyczne udzielanie odpowiedzi. Po prostu technologia nie jest jeszcze do tego wystarczająco dobra. Ale myślę, że tam dotrzemy.
Emmet: I podejrzewam, że tak właśnie będziemy postrzegać rzeczy przez cały 2023 rok, ponieważ wyobrażam sobie, że zaczniemy widzieć, jak to wkrada się do wielu różnych produktów, prawdopodobnie na początku w stosunkowo prostych, niezawodnych sposobach, a następnie coraz bardziej wypychając łódź pod względem złożoności tego, co może zrobić. Myślę, że wszyscy podeszliśmy do tej okazji z połączeniem podekscytowania i może trochę zdrowego niepokoju. Molly, wspomniałaś, że obecnie te funkcje są wspierane przez ChatGPT w wersji beta. A opinie były niezwykle pokrzepiające i pozytywne. Najwcześniejsze oznaki, jakie obserwujemy, to fakt, że prawdziwi klienci czerpią rzeczywistą użyteczność z takich funkcji, jak podsumowanie rozmowy przed przekazaniem jej komuś innemu. Szukasz tego skrzyżowania rzeczy, w których technologia jest dobra i rzeczy, w których ryzyko jest stosunkowo niskie. A wielu z nich zobaczymy w nadchodzących miesiącach. Więc to będzie ekscytujące.
Sztuczna inteligencja konwersacyjna
Emmet: Gustavs, myślałeś o tym bardziej w dłuższej perspektywie. Mógłbyś trochę z tym porozmawiać? Wspomniałeś o Interkomie – jednym z powodów, dla których tutaj o tym rozmawiamy, jest to, że prawdopodobnie mamy całkiem dobrą pozycję, biorąc pod uwagę charakter naszych produktów, czyli konwersacyjną obsługę klienta, aby jak najlepiej to wykorzystać. Co myślisz, kiedy myślisz o długoterminowych możliwościach produktowych i projektowych?
Gustavs: We wczesnych dniach premiery ChatGPT przeprowadziliśmy te warsztaty, aby spróbować przemyśleć przyszłość, a konkretnie to, jak wyglądałby świat, gdybyśmy mieli model, który nie miałby tego problemu z halucynacjami i byłby w stanie dać dobre odpowiedzi lub powiedzieć „nie wiem”. To było naprawdę obiecujące i naprawdę zwiększyło nasze zaufanie do wielu rzeczy, w które już wierzyliśmy, ale przyspieszamy. Wierzymy, że większość zapytań dotyczących pomocy technicznej zostanie rozwiązana całkowicie automatycznie, bez konieczności rozmowy z ludźmi. Już dziś rośnie dzięki większej liczbie konstruktorów typu „jeśli to, to tamto”, z botami i naszym własnym botem do rozwiązywania problemów, który ma pewne możliwości uczenia maszynowego, ale nie w takim stopniu jak ChatGPT.
„Większość wsparcia odbędzie się w sposób najbardziej naturalny dla ludzi, czyli poprzez rozmowę”
Jesteśmy już na tej ścieżce, ale będzie ona przyspieszana. W rezultacie organizacje wspierające zaczną przechodzić od reaktywności i przede wszystkim w skrzynce odbiorczej do proaktywności – tworzenia i szkolenia sztucznej inteligencji; pisanie treści, których sztuczna inteligencja może używać do rozwiązywania rozmów.
Myślę, że większość wsparcia nastąpi w sposób najbardziej naturalny dla ludzi, czyli poprzez rozmowę. Wyobraź sobie, że masz kogoś, z kim zawsze możesz porozmawiać i kto ma spersonalizowaną odpowiedź tylko dla Ciebie. To najbardziej naturalny sposób interakcji między ludźmi. Wyszukiwanie i przeglądanie, które mamy dzisiaj, polega na wyszukiwaniu czegoś w Google i skanowaniu w celu szybkiego znalezienia odpowiedzi gdzieś w treści, nie jest naturalne dla ludzi. Nadal będzie kilka wersji tego z sugestiami treści, które mogą być dla Ciebie istotne, zanim rozpoczniesz rozmowę. Ale kiedy wchodzisz z nim w interakcję, nadal może to być konwersacja.
Uważamy, że z wielu powodów będziemy musieli zbudować most, aby się tam dostać. Myślę, że zaczniemy od zwiększenia reputacji wsparcia za pomocą rzeczy takich jak podsumowanie lub przeformułowanie. Później zajmiemy się sugestiami odpowiedzi, które przedstawiciele pomocy technicznej mogą edytować i ulepszać, a później przejdziemy do pełnej automatyzacji. Przyzwyczajenie się do korzystania z coraz większej automatyzacji zajmie trochę czasu, zarówno w aspekcie technicznym, jak i ludzkim.
Emmet: Opisujesz coś, w czym na bardzo dużej powierzchni produktu istnieje wiele różnych miejsc, w których może to zmienić sposób naszej pracy, zarówno to, co nazywamy doświadczeniem członka zespołu, jak i doświadczenia użytkownika końcowego, w dwóch strony rozmowy. Ale opisujesz także to mgliste pojęcie o tym, jak dostaniemy się do tej niejasnej przyszłości „uważamy, że technologia się tam dostanie”. Uderza mnie to jako zupełnie inny sposób myślenia o podejściu do projektowania dzisiaj i prawie głęboka różnica w sposobie, w jaki myślimy o interakcji z komputerami, przechodząc od czegoś bardzo deterministycznego, bardzo ostrego – prawdy i fałszu oraz jedynek i zer – do czegoś o wiele bardziej rozmyte.
Nowe wzorce projektowe
Emmet: Projektanci zastanawiają się teraz nad pracą z tym materiałem, który wydaje się o wiele bardziej niepoznawalny, plastyczny i mniej sztywny niż aplikacje CRUD „twórz, pisz, aktualizuj, usuwaj”, do których byliśmy przyzwyczajeni. Co znalazłeś? Czy istnieje znacząca różnica w sposobie, w jaki projektanci muszą podchodzić do swojej pracy? Czy niektóre rzeczy były dla Ciebie trudne lub stanowiły wyzwanie? Czy projektanci będą musieli zdobywać nowe umiejętności? Jak duża jest to zmiana w akcie projektowania, fakt, że materiał, z którego projektujemy, prawie zawiera ten element niepoznawalności?
„Z biegiem czasu zobaczymy coraz więcej nowych wzorców projektowych, jak zarządzać tą niepewnością i oczekiwaniami ze wszystkich stron”
Molly: Myślę, że wiele rzeczy w naszej pracy pozostanie niezmienionych. Znajdujemy problemy, grzebiemy w przepływach pracy ludzi, znajdujemy wzorce. Jedną ważną rzeczą jest konieczność zaprojektowania znacznie większej liczby przypadków awarii, ponieważ niekoniecznie istnieją poręcze. Kiedy prowadzisz rozmowę, może ona wypaść z torów na wiele różnych sposobów. I tak samo jest z takim systemem. Ludzie, jako gatunek, nie są wybitni w prawdopodobieństwie. Kiedy patrzymy na prognozę pogody i widzimy 40% szans na deszcz, nie mamy pojęcia, co to oznacza.
Emmet: Tak, jesteś rozczarowany, jeśli nie pada, ponieważ powiedziano ci, że będzie padać.
Molly: Tak. Jestem w Holandii – kiedy widzę szansę na deszcz, myślę sobie: „Będzie padać. Pytanie tylko, jak długo”. To właśnie oznaczają dla mnie procenty. Ale nie jesteśmy tak świetni w ich interpretacji. Myślę, że to na pewno będzie coś, gdy spojrzymy na to, jak pewne są te prognozy, ponieważ są to przewidywania tego, jakie słowa powinny się pojawić w następnej kolejności. I postaramy się być w tym lepsi. Wiele zależy od tego, jak szybko ta technologia się porusza i zmienia, i nie sądzę, żeby to się zmieniło. Jest dużo prototypowania, reagowania i myślenia o opóźnieniach. Opóźnienie w tej chwili może być dość długie – projektowanie pod to. I jest wiele nieoczekiwanych wyników. To niektóre z rzeczy, które zauważyłem.
Gustavs: Myślę, że z biegiem czasu zobaczymy coraz więcej nowych wzorców projektowych, jak zarządzać tą niepewnością i oczekiwaniami ze wszystkich stron. W tej chwili wszyscy eksperymentują i sprawdzają, co działa. Widzimy już, jak pojawiają się pewne wzorce z małymi, predefiniowanymi podpowiedziami, jak zmienić tekst, na przykład „rozwiń to”, „podsumuj to”, „uczyń to bardziej przyjaznym”. To stosunkowo nowy wzór, który zaczyna się pojawiać i myślę, że zobaczymy coraz więcej tego typu wzorów. Nawet ta interakcja, w której, jeśli poprosisz ChatGPT o wygenerowanie treści, ma ten wolno poruszający się kursor. To również ciekawy wzór projektowy. Jest to wymagane z technicznego punktu widzenia, ale może naprawdę dobrze działać, aby ustawić oczekiwania, że „hej, to sztuczna inteligencja generuje treści w locie”.

„Czy w tych nowych systemach, które mogą być bardzo zautomatyzowane, zastanawiamy się nad dodaniem trochę tarcia, aby zachować umiejętności, które wydają się cenne i które chcemy mieć?”
Emmet: Więc mówisz, że ten efekt pisania słowo po słowie, który jest, żeby było jasne, funkcją tego, jak technologia tworzy słowo po słowie, może stać się synonimem i wizualną wizytówką . Może tak się stanie, może nie, ale takie rzeczy, które pojawiają się, gdy obserwujemy te zmiany i pojawiające się nowe technologie, mogą być interesujące, aby zagłębić się w ideę pojawiających się nowych wzorców projektowych, ponieważ widzimy to, gdy pojawiają się nowe technologie przed siebie. Molly, czy spotkałeś innych na bardzo niskim poziomie projektowania interakcji lub na wysokim poziomie tego, jak to zostaje wszyte w produkty?
Molly: Jest kilka innych rzeczy, które, jak sądzę, zaczną pojawiać się częściej. Na przykład, kiedy próbujemy opracować funkcję, inżynierowie przeprowadzają testy historyczne. Wykorzystują dane z przeszłości i robią na ich podstawie prognozy, a następnie porównują je na przykład z tym, co faktycznie powiedział kolega z zespołu. W przypadku takich rzeczy być może będziemy musieli rozpocząć uruchamianie nie po stronie użytkownika końcowego, ale po stronie członka zespołu lub administratora, gdzie osoby zarządzające organizacją CS mogą chcieć mieć coś, co nazywam ciemnym uruchomieniem – nie mają rzeczy na żywo, ale są w stanie je obserwować i wyczuć: „Ok, teraz ufam, że to się uda”. Różne etapy ciemnych uruchomień, sugestie robocze i różne etapy uruchamiania niektórych z tych narzędzi. Myślę, że to będzie bardziej widoczne.
Nie wiem, w jakim kierunku to pójdzie, ale myślę o punktach, w których być może będziemy musieli dodać tarcie z powrotem do systemu, abyśmy nie popadli w samozadowolenie. Piloci nadal wykonują pewne części lotu, mimo że system autopilota wykonuje większość z nich, ponieważ nie muszą zapominać, jak latać. Więc robią lądowania lub inne rzeczy. Czy w tych nowych systemach, które mogą być bardzo zautomatyzowane, myślimy o ponownym dodaniu trochę tarć, aby zachować umiejętności, które wydają się cenne i które chcemy posiadać?
Emmet: I oczywiście prawie wszystko ma niejawny wynik zaufania do wbudowanej funkcji, którą musisz zaprojektować. Czy jest to coś, co ujawnilibyśmy przedstawicielom i administratorom lub ich klientom? Dla nas istnieje wyższy próg ujawniania rzeczy ich klientom, a nawet niższy poziom szczegółowości. Wykorzystaj umiejętność podsumowania długiej rozmowy. Czy publikujesz to podsumowanie bezpośrednio w wątku rozmowy jednym kliknięciem, czy też dajesz komuś możliwość przejrzenia i zatwierdzenia? Przepuścić to prosto zamiast dodawać bramkę zatwierdzającą? Myślę, że prawdopodobnie zobaczymy wiele przepływów pracy, przynajmniej na początku, a potem, czy po prostu zaczną spadać, gdy technologia buduje coraz większe zaufanie?
Molly: Tak, dokładnie.
Gustavs: Nawet sama umiejętność mówienia ci, jak bardzo jest pewna siebie. Jeśli sztuczna inteligencja mogłaby ci powiedzieć: „Hej, to jest moja odpowiedź i jest w 40% poprawna”, mógłbyś przedstawić ją człowiekowi do zatwierdzenia, zanim zostanie wysłana. Jeśli jest w 90% pewny, możesz po prostu wysłać go od razu i mieć przycisk „hej, to jest nieprawidłowe” po stronie użytkownika końcowego. To naprawdę zależy od tego, jak rozwinie się technologia. Projekt będzie musiał ewoluować wraz z nim.
Emmet: Tak. Boże, obdarz mnie zaufaniem dużego modelu językowego, bo on z całą pewnością powie całkowity fałsz i całkowitą prawdę, nie rozróżniając między nimi. I to jest kwestia zaufania. W tej chwili nic nie mówi: „Jestem w 100% pewny tego stwierdzenia”. Przynajmniej w ChatGPT. Wydaje mi się, że w niektórych innych modelach językowych zaczynamy widzieć odniesienia do źródeł, co wydaje się pozytywnym krokiem.
Dodawanie warstw na wierzchu
Emmet: Wygląda na to, że jest wiele niewiadomych, wiele drobiazgowych, głębokich decyzji projektowych, w które można się zaangażować. Przyjrzyjmy się, co te megatrendy oznaczają dla projektowania i produktu. Ludzie byli świadkami lub byli częścią nadejścia dużych, nowych technologii. Myślę o takich rzeczach, jak chmura lub masowe przejście na Internet i urządzenia mobilne jako duże technologie wspomagające, które doprowadziły do tego zupełnie nowego świata wzorców projektowych i produktów, które nie były wcześniej dostępne. Dzięki chmurze widzieliśmy formularze, kanały i polubienia oraz całą wizualną transformację, przez którą przeszła sieć.
To samo można powiedzieć o urządzeniach mobilnych — wszystko, od kanałów informacyjnych i menu hamburgerów, po przeciąganie, odświeżanie i przesuwanie w celu usunięcia, które obecnie uważamy za część zestawu narzędzi projektanta. Być może zbliżamy się niebezpiecznie do czasu przewidywania, ale jakie są twoje wczesne doświadczenia z tą funkcją? Czy mówi ci coś o tym, jakie rodzaje produktów wygrają, a jakie przegrają i jakie nowe rzeczy mogą się pojawić, które wcześniej nie były nawet możliwe?
„Myślę, że firmy, które wygrają, to te, które będą miały jakieś zastrzeżone dane i efekt koła zamachowego, które będą stale gromadzić i ulepszać te dane”
Gustavs: Myślę, że z biegiem czasu większość firm będzie używać tych publicznie dostępnych dużych modeli językowych zamiast tworzyć własne. Aby jednak odróżnić się od siebie, mogą budować na sobie warstwy specjalistycznej wiedzy. Na przykład możesz mieć dane specyficzne dla Twojej firmy – w przypadku narzędzia wsparcia mogą to być odpowiedzi na konkretne pytania dotyczące Twojego produktu i przedstawicieli pomocy udzielających konkretnych odpowiedzi w przeciwieństwie do ogólnej wiedzy. Może to być naprawdę głęboka wiedza z określonej dziedziny, na przykład prawa.
Myślę, że firmy, które wygrają, to te, które będą miały jakieś zastrzeżone dane i efekt koła zamachowego, które będą stale gromadzić i ulepszać te dane. Inną rzeczą, która moim zdaniem będzie interesująca, jest zobaczenie, co duzi gracze, tacy jak Google, Apple i Microsoft, robią z tą technologią i jak integrują ją z poziomem systemu operacyjnego. Może to mieć ogromny wpływ na to, jakie nisze są dostępne dla innych firm.
„OpenAI traci miliony dziennie na prowadzenie ChatGPT i prawdopodobnie jest tego warte z punktu widzenia PR lub jakichkolwiek danych badawczych, które zbierają, ale oznacza to również, że nie będzie darmowe i wolne”
Emmet: Zacząłeś od stwierdzenia, że większość ludzi zamierza zintegrować te duże modele językowe w określony sposób. Myślę, że firmy, którym nie uda się zrobić tego, o czym mówiłeś, i które faktycznie znajdą jakąś obronną fosę, znajdą się w zasadzie w cienkiej warstwie GPT, która tak naprawdę nie robi wiele więcej. Więc tu się z Tobą w pełni zgadzam. Jeśli myślisz o czymś takim jak App Store lub sklepy z aplikacjami mobilnymi, na początku było mnóstwo zabawek, latarek i tym podobnych rzeczy. A potem, stopniowo, przekształca się w wielkie rzeczy, takie jak Uber, który nie mógłby istnieć, gdybyśmy nie mieli tego modelu, Instagram, tworzenie map i tak dalej. Molly, czy chciałbyś coś dodać w oparciu o swoje doświadczenie?
Molly: Nie jestem do końca pewna, czy wszyscy będą korzystać z publicznych LLM. Obawiam się, że albo będą zbyt drogie dla wielu firm, aby ich model biznesowy działał, albo że niektóre duże firmy mogą zachować ich prywatność. Nie jestem więc pewien, czy wszyscy będą używać publicznych, czy też ludzie będą bardziej skłaniać się ku open source i umieszczać swoją dopracowaną warstwę na wierzchu. Zgadzam się co do trybów transmisji danych. Na przykład w Intercom mamy dużo danych konwersacyjnych i jesteśmy w stanie robić rzeczy, których Apple niekoniecznie może robić na poziomie systemu operacyjnego. A to daje nam pewną wartość. Myślę, że produkty, które odniosą sukces, to te, które, jak powiedziałeś, nie są tylko warstwą towarową na wierzchu, ale głęboko rozumieją problem lub przepływ pracy i mogą zintegrować to ze swoim trybem danych.
Emmet: Dotknąłeś także kilku rzeczy, które na razie będą ważne w związku z ograniczeniami. To jest wolne. Odpowiedź zajmuje kilka sekund. Będą pewne produkty lub przestrzenie, w których po prostu się nie nadaje. Jest to również drogie pod względem mocy obliczeniowej, a zatem drogie pod względem pieniędzy. Prawdopodobnie wiesz o tym więcej niż ja, ale każda prośba kosztuje kilka centów. OpenAI traci miliony dziennie na prowadzenie ChatGPT i prawdopodobnie jest tego warte z punktu widzenia PR lub jakichkolwiek danych badawczych, które zbierają, ale oznacza to również, że nie będzie darmowe i wolne. I chociaż technologia ma bardzo dobrą tendencję do stawania się z czasem coraz szybszą i tańszą, co potencjalnie może się tutaj zdarzyć, na razie istnieją pewne ograniczenia, które ograniczają zastosowanie. Być może zobaczymy to mniej w aplikacjach czasu rzeczywistego. Być może zobaczymy to mniej w aplikacjach B2C, gdzie skala i koszt uruchamiania tego rodzaju zapytań może być ogromny. Ciekawie będzie zobaczyć, jak sprawy się tam rozwiną.
Przyszłość interfejsów
Emmet: Jestem ciekawy, jak zagłębić się w rozmowę o projektowaniu i naprawdę pomyśleć o tych systemach generatywnych i o tym, jak będziemy z nimi wchodzić w interakcje. Nawiązujemy do wszystkich nowych dotknięć i przeciągnięć oraz rzeczy, które możesz zrobić, gdy pojawi się nowa platforma. W tym miejscu nieuchronnie będziemy musieli przejść na palcach do świata prognoz. Wszyscy możemy spojrzeć wstecz na to za rok lub dwa i śmiać się z tego, jak bardzo się myliliśmy, ale istnieje interesujące poczucie, że być może przesuwa się to w kierunku bardziej tekstowego, prawie opartego na wierszu poleceń sposobu interakcji. Innym rodzajem mikro trendu w produkcie była ta paleta Command + K, którą można wyświetlić, naciskając skrót i wpisując czynność, którą chcesz wykonać. Widzimy to w wielu produktach, co przyczynia się do tego ogólnego poczucia przesunięcia w kierunku tekstu i języka naturalnego jako bezpośredniego sposobu komunikacji.
„Myślę, że nie musimy wybierać jednego sposobu interakcji z AI. To bardzo szerokie możliwości, które można zastosować na różne sposoby w różnych przypadkach użycia”
Z drugiej strony, jeśli spojrzeć na poprzednie trendy, zwłaszcza na podróż, którą przeszliśmy z interfejsu wiersza poleceń, skończyliśmy na zbudowaniu bardzo szczegółowego graficznego interfejsu użytkownika. Zastanawiam się więc, czy zechciałby pan spekulować, dokąd to zmierza. Czy to zapowiada przejście w kierunku większej liczby interfejsów wiersza poleceń na miarę XXI wieku? Czy to tymczasowa rzecz związana z wierszem poleceń, zanim dowiemy się, jak wygląda warstwa graficznego interfejsu użytkownika w tych rzeczach? Czy jest po prostu za wcześnie, żeby powiedzieć?
Gustavs: Cóż, myślę, że będziemy mieli to wszystko. Myślę, że nie musimy wybierać jednego sposobu interakcji z AI. To bardzo szerokie możliwości, które można zastosować na różne sposoby w różnych przypadkach użycia. Na przykład, jeśli szukasz odpowiedzi, rozmowa będzie głównym sposobem uzyskania odpowiedzi. Ale jeśli mówimy o ulepszeniu przepływu pracy za pomocą sztucznej inteligencji, myślę, że zobaczymy interfejsy graficzne z predefiniowanymi działaniami do wykonania przez sztuczną inteligencję. To samo, co widzimy dzisiaj z podsumowaniem, przeformułowaniem i całą falą drugiego pilota dla X.
Mówiąc o automatyzacji przepływu pracy, mam na myśli wykorzystanie sztucznej inteligencji do poprawy sposobu wykonywania pracy. Na przykład w dziale obsługi klienta piszesz odpowiedzi do klientów za pomocą sztucznej inteligencji, aby poprawić te odpowiedzi. Ponownie, rozwinięcie punktu lub podsumowanie rozmowy do tego momentu. Myślę, że mogą istnieć interfejsy graficzne dla tego typu usprawnień przepływu pracy.
Molly: Jestem okropna w przewidywaniach, ale możemy mieć pewnego rodzaju proliferację, jak powiedziałeś, interfejsów Command + K lub różnych opcji tego, co możesz zrobić. Jednym z wyzwań związanych z tą technologią jest wykrywalność tego, co może zrobić. W tym monicie możesz wpisać wszystko. „Napisz mi szekspirowski wiersz jak pirat” czy coś w tym rodzaju. Umieścimy poręcze, ale myślę, że prawdopodobnie pójdziemy szeroko, a potem zobaczymy, jak rzeczy się nieco zawężą, gdy rzeczy staną się bardziej powszechne i użyteczne. A potem, w końcu, być może będziemy w stanie przejść do bardziej tekstowego lub konwersacyjnego lub szeroko otwartego interfejsu, gdy będziemy mieli poczucie, co może zrobić ta technologia.
Ponieważ przyzwyczajamy się do komunikowania się z naszymi systemami, jestem również podekscytowany potencjałem interfejsów neuronowych. Po co o tym mówić, skoro mogę o tym myśleć? Wiem, że to daleko, ale kiedy byłem w Berkeley, niektórzy z moich kolegów nad tym pracowali. Byłoby naprawdę fajnie. Jest wiele sytuacji, w których nie chcesz rozmawiać i pisać, a to otwiera sprawę. Być może w dalszej przyszłości będziemy mieć zintegrowane systemy, które będą mogły przyjmować instrukcje inne niż GUI i przekładać je na działania. Widzimy to już w przypadku niektórych z tych systemów, które mogą przyjmować zapytania i instrukcje w języku naturalnym i przekształcać je w działania na komputerze. Faktem jest, że niektóre z tych LLM są również bardzo dobre w generowaniu kodu, na przykład drugi pilot GitHub. A więc jest tam po prostu duży potencjał.
Emmet: Podejrzewam, że manipulacja tekstem będzie miała wspaniały rok w oprogramowaniu, ponieważ jest tu tak wiele natychmiastowych możliwości. To bardzo naturalne, że możesz zaznaczyć fragment tekstu i powiedzieć „uczyń to bardziej przyjaznym”. Wydaje się, że należy to do palety narzędzi obok pogrubienia i kursywy. To tylko sposób manipulowania istniejącym tekstem. Następnie istnieje wiele sposobów pójścia dalej, takich jak generowanie lub generowanie kodu.
Osobiście uważam, że doświadczenie pracy z generatorami obrazów było zupełnie inne. Ponownie, wiele z naszych doświadczeń z tymi systemami polega na przewijaniu wyników, takich jak zrzuty ekranu ChatGPT lub coś, co stworzyły DALL-E, Midjourney lub Stable Diffusion. Proces tworzenia generatorów obrazów wydaje mi się niezgrabny i coś, co prawdopodobnie będzie oparte na GUI i będzie miało znacznie bardziej dotykowy interfejs na ekranie. Konieczność po prostu wypchania monitu krótkim trendem przysłony w dewiacyjnej sztuce, aby spróbować uzyskać pożądane wyniki, jest ewidentnie hackiem. Istnieje wiele wymiarów różnych stylów, przez które chcesz przejść, które byłyby o wiele lepiej obsługiwane przez pokrętła, pokrętła i pewnego rodzaju suwaki. Myślę, że moja prognoza jest taka, że szybka inżynieria, jaka istnieje dzisiaj, zostanie zastąpiona czymś, miejmy nadzieję, znacznie lepszym.
„Jest coś interesującego w tym, że sztuczna inteligencja jest jak supermocny kolega, który może korzystać z posiadanych narzędzi i możesz przekazywać mu informacje zwrotne w postaci zwykłego tekstu, aby pomóc je ulepszyć”
I żeby zakończyć myśl, wideo i audio są bardzo różne, ponieważ musisz usiąść przez długi czas i przejrzeć wyniki. Możesz przejrzeć setki obrazów lub przejrzeć tekst, ale szczerze mówiąc, mam mniej opinii na ten temat, ponieważ mogłem poświęcić temu mniej czasu. Ale myślę, że to wraca do tego, co ostatecznie powiedziałeś, Gustavs. To nie jest satysfakcjonująca odpowiedź, ale będzie to bardzo zależało. I myślę, że wiele będzie zależeć od tego, czym manipuluję. W zależności od tego możemy mieć bardzo różne interfejsy użytkownika.
Gustavs: Jednocześnie myślę, że pojawią się nowe ciekawe zastosowania udzielania instrukcji w języku naturalnym. Na przykład jedną z interesujących nas rzeczy podczas naszych wstępnych badań było to, że sposób, w jaki można trenować sztuczną inteligencję, może być bardzo, bardzo podobny lub praktycznie taki sam, jak gdyby sztuczna inteligencja była agentem wsparcia, a ty dawałbyś im informacje zwrotne na temat swojej polityki dotyczącej jak wchodzić w interakcje z klientami lub jakiego tonu głosu używać. Nawet jeśli przekazujesz opinie na temat poszczególnych rozmów, możesz po prostu przekazać je zwykłym tekstem, ponieważ rozumie on naturalny język i kontekst. Myślę, że to też zobaczymy. I jest coś interesującego w tym, że sztuczna inteligencja jest jak supermocny kolega, który może korzystać z posiadanych narzędzi i możesz przekazywać mu informacje zwrotne w postaci zwykłego tekstu, aby pomóc je ulepszyć.
Emmet: Molly poruszyła temat tego, co się dzieje, gdy te rzeczy nie tylko wypluwają tekst, ale także mogą na przykład podejmować działania. I to prawdopodobnie cały dodatkowy poziom tego, do czego są zdolni.
Dokąd idziemy stąd?
Molly: Fergal, dla tych z was, którzy słuchali wcześniejszych podcastów, jest dyrektorem ds. uczenia maszynowego. Mówi, że jego ideał dla systemu ML powinien być inteligentnym kolegą siedzącym obok, któremu można wydawać polecenia, a on faktycznie dobrze to wykona. To rodzaj snu. Tak więc, jak powiedział Gustavs, możliwość udzielania informacji zwrotnych w języku naturalnym to po prostu ogromna zmiana w sposobie, w jaki możemy sobie z tym poradzić.
„Jak uczynić tego inteligentnego, potencjalnie zagrażającego współpracownika, kolegą z zespołu, który czyni cię lepszym?”
Emmet: Zastanawiam się nawet, jak duży będzie zasięg. Kilka lat temu w Londynie istniała agencja Berg, która przeprowadziła wiele eksperymentów z wcześniejszymi wersjami sztucznej inteligencji. Ale jedną z ich zasad było „bądź mądry jak szczeniak”, ponieważ nie chcieli, aby sztuczna inteligencja wydawała się groźna lub przytłaczająca. I to była ich zasada wyznaczania granic wokół nas. Nie lubię wycinać projektantów w stylu „nie możesz tego zrobić”, ale być może wyznaczenie tych bezpiecznych granic jest również ważną rolą do odegrania przez projektantów.
Molly: Myślę, że te granice mają swoją rolę. Chcę pracować obok szczeniaka, ale czy chcesz pracować obok kogoś o inteligencji szczeniaka? Myślę, że rolą projektantów jest: jak sprawić, by ten inteligentny, potencjalnie zagrażający współpracownik, kolega z zespołu, który czyni cię lepszym, mógł mieć naprawdę świetną sesję burzy mózgów, podczas której po prostu odgadujesz każdy Inny? Jak do tego dojść? Właśnie tam możemy naprawdę dodać tę magię – usprawniając dzień pracy, usprawniając przepływy pracy i czyniąc sztuczną inteligencję prawdziwym członkiem zespołu dla ludzi.
Emmet: Samojezdne samochody to prawdopodobnie najbardziej zaawansowane obecnie zastosowanie sztucznej inteligencji, mimo że nie jest ono szeroko stosowane. Napięcie na tych poziomach autonomicznej jazdy i rosnące ryzyko w miarę przechodzenia przez te poziomy – wersja tego prawdopodobnie dotyczy wielu z tych rzeczy, jeśli się nad tym zastanowić.
Molly: Tak, to znaczy, dokładnie o tym już wspominaliśmy. Czy to sugestia? Czy jest recenzja? Czy jest zgoda? To tylko nasza wersja pięciu poziomów pojazdów autonomicznych.
Gustavs: Inną interesującą rzeczą jest to, że z biegiem czasu sztuczna inteligencja staje się coraz lepsza i jest w stanie nie tylko udzielać odpowiedzi, ale także wykonywać działania w twoim imieniu, podobnie jak kolega, wymyślenie znaleźć sposób, aby poczuć się tak, jakby ktoś siedział obok ciebie i pomagał, w przeciwieństwie do hakera, który przejmuje kontrolę nad twoim komputerem i klika różne rzeczy. Jeśli możesz sprawić, by działał z projektem, będzie magiczny. Albo może to być szalenie przerażające. To będzie ciekawe wyzwanie projektowe.
Emmet: Możliwe, że ścieżka konwersacyjna jest najlepszym sposobem na to. Interesujący będzie również stopień, w jakim jest przedstawiany jako osoba przyjazna i rozmowna w porównaniu z systemem, z którym wchodzisz w interakcje na odległość.
„Czy charakter produkcji i praca nad pomysłami bardzo się zmienią? Czy będziemy musieli uczyć się nowych umiejętności, takich jak szybka inżynieria?
Kilka lat temu mieliśmy coś, co z perspektywy czasu można nazwać cyklem szumu wokół botów. W rzeczywistości Intercom był dość aktywnie zaangażowany w eksperymentowanie i odkrywanie, co możemy zrobić. Oczywiście mamy produkty, które to wykorzystały, jak już wspomnieliśmy. Rzeczy takie jak Resolution Bot i Custom Bots. Ale podczas tego cyklu szumu stwierdziliśmy również, że istnieje cała masa aplikacji, które w ogóle nie nadają się do konwersacyjnego interfejsu użytkownika. Był bot pogodowy, a ty mówisz: „Właściwie nie potrzebuję bota, aby zapytać, jaka jest pogoda – mam aplikację lub stronę internetową, które się do tego nadają”. Nieuchronnie zobaczymy, że wiele z tego wydarzy się również tutaj. Prawdopodobnie nadmierne stosowanie konwersacyjnego interfejsu użytkownika, ale potem na pierwszy plan wysuwają się naprawdę przydatne przypadki użycia.
Dodatkową rzeczą, którą dodam, która sprawia, że jestem dość optymistycznie nastawiony do konwersacji, jest problem, nad którym pracowaliśmy od dłuższego czasu. Test Turinga nie jest nowy. Ale poza tym kilka lat temu pracowałem w Google. Poszukiwania wymagały ogromnej pracy i dumy, że udało się odpowiedzieć na pytanie typu „Jak wysoka jest Wieża Eiffla?” Coś, co wydaje się super proste w porównaniu z tym, co mamy teraz do dyspozycji. Nawet asystenci głosowi, tacy jak Siri, nagle obudzili się pewnego ranka pod koniec listopada, by być prawie przestarzałymi.
Szybkość, z jaką systemy stają się lepsze, również będzie miała duży wpływ na to. Jedną z interesujących i nowych rzeczy dla projektantów jest to, że jesteśmy bardziej zaangażowani w tę przejażdżkę niż w przeszłości, kiedy pracowaliśmy z technologiami sieciowymi czy czymkolwiek innym. To, dokąd zmierza technologia, będzie dyktować rzeczy w takim samym stopniu, jak nasza autorska wizja reżyserska jako projektantów.
„Myślę, że bardzo ważne będzie, aby projektanci pochylili się nad tym i po prostu bawili się i majstrowali przy tych modelach językowych oraz zobaczyli, jak można je zastosować w swoim produkcie”
Ostatnim wymiarem, o którym myślę, jeśli chodzi o projektowanie, są narzędzia, których używamy, oraz fakt, że mają one potencjał radykalnej zmiany. Czy charakter produkcji i pracy nad ideami bardzo się zmieni? Czy będziemy musieli uczyć się nowych umiejętności, takich jak szybka inżynieria? Gustavs, jakieś ogólne przemyślenia na temat tego, co to oznacza dla zmieniającego się charakteru faktycznego projektowania?
Gustaw: Tak. Jeśli chodzi konkretnie o szybką inżynierię, myślę, że z biegiem czasu zobaczymy pojawienie się najlepszych praktyk, jak to zrobić w taki sam sposób, jak w przypadku każdej innej technologii. I oczywiście będą ewoluować i ulepszać się z czasem, ale nie sądzę, że będzie to kluczowy wyróżnik, który zasadniczo ukształtuje twój biznes. Trudno powiedzieć, jak zmieni się rola projektanta, a to zależy od ram czasowych. Myślę, że na krótką metę bardzo ważne będzie, aby projektanci pochylili się nad tym i po prostu bawili się i majstrowali przy tych modelach językowych i zobaczyli, jak można je zastosować w swoim produkcie, jak inne firmy stosują je w swoich produktach i spróbuj znaleźć wzorce i ciekawe sposoby robienia nowych rzeczy.
Ale w dłuższej perspektywie znacznie trudniej jest powiedzieć, jaki wpływ będzie to miało na projektantów w całej branży. Tak więc, gdy sztuczna inteligencja staje się coraz lepsza, i to nie tylko w ulepszaniu ludzi, ale także w pełnej automatyzacji pisania i wykonywania zadań, myślę, że może to zasadniczo zakłócić wiele produktów i branż, a nawet rolę, jaką odgrywają projektanci w kształtowaniu tych produktów. Chyba zobaczymy. Mnóstwo otwartych pytań i ciekawe, jak to się potoczy.
Emmet: Tak. Jedną z miłych rzeczy w robieniu tego, co robimy, jest to, że od czasu do czasu technologia daje ci zupełnie nowy rodzaj drogi, którą możesz podążać. Zdecydowanie wydaje się, że jest to coś, co zasadniczo zmieni krajobraz, w którym pracujemy, i stworzy mnóstwo nowych wyzwań i możliwości dla projektantów. Dla nas w Intercom bardzo ekscytujące jest bycie na dobrej drodze i na tej ścieżce oraz pełne zaangażowanie w nią. Bez wątpienia będzie to interesujący rok dla sztucznej inteligencji i projektowania z wykorzystaniem sztucznej inteligencji. Nie mogę się doczekać, aby zobaczyć, gdzie do tego dojdziemy. Może tak to zostawmy. Molly, dziękuję bardzo. Gustavs, wielkie dzięki. Wspaniale było z Tobą rozmawiać i uczyć się na podstawie Twoich wcześniejszych doświadczeń w pracy z tą technologią. Może zrobimy to ponownie, kiedy wszyscy będziemy starsi i mądrzejsi, ale na razie bardzo dziękuję.