De la science fiction la realitatea tehnologică: Explorarea impactului AI
Publicat: 2023-06-09AI transformă deja modul în care lucrăm, comunicăm și experimentăm lumea. Pășește-te în lumea intrigantă a inteligenței artificiale generative în timp ce explorăm vastul peisaj de posibilități care ne așteaptă.
De la lansarea ChatGPT, echipa noastră a pătruns cu capul întâi în lumea AI, creând produse cu modele de limbaj mari (LLM) și navigând în necunoscutele care au apărut odată cu progresele recente ale acestei tehnologii transformatoare.
Cea mai mare parte din atenția noastră s-a concentrat asupra modului în care putem aplica AI generativă pentru a transforma serviciul pentru clienți – iar lansarea chatbot-ului nostru AI, lider în industrie, Fin, demonstrează cum acest accent a dat roade.
Dincolo de aplicațiile practice, totuși, există nenumărate întrebări mari la care ne-am gândit – ar trebui să abordăm cursurile LLM cu prudență? Cât de mare este chestia asta cu AI, într-adevăr? Și la ce să ne așteptăm când privim în viitor?
În acest episod, directorul nostru principal de învățare automată, Fergal Reid, se alătură lui Emmet Connolly, vicepreședintele nostru pentru Design de produs, pentru a explora impactul și potențialul revoluționar al inteligenței artificiale – este o conversație fascinantă care atinge multe dintre problemele existențiale mai ample ridicate de această nouă tehnologie incredibilă.
Iată câteva dintre concluziile cheie:
- În căutarea construirii sistemelor inteligente, organizațiile îmbrățișează tehnici precum învățarea prin consolidare pentru a asigura alinierea la valorile noastre și un impact pozitiv asupra umanității.
- GPT-4 demonstrează un nivel ridicat de raționament chiar și atunci când este testat cu scenarii în afara eșantionului, ceea ce pare să indice că poate depăși ștacheta stabilită de celebrul test al lui Alan Turing.
- Pe măsură ce investițiile cresc și limitările hardware sunt depășite, ne putem aștepta la dezvoltarea unor modele mai avansate și mai eficiente, cu adoptare și producție fără precedent.
- În viitor, unele tipuri de interfață de utilizare pot fi înlocuite cu agenți AI care pot personaliza rezultatele din mers pe baza intrării verbale, a sarcinii la îndemână și a preferințelor dvs. personale.
- AI are potențialul de a reduce munca groaznică pentru designeri și programatori, permițându-le să se concentreze mai mult pe soluție și viziune pentru produs decât pe execuție.
Dacă îți place discuția noastră, vezi mai multe episoade din podcastul nostru. Puteți urmări pe Apple Podcasturi, Spotify, YouTube sau puteți accesa fluxul RSS în playerul dorit. Ceea ce urmează este o transcriere ușor editată a episodului.
Trezirea AI
Emmet Connolly: Deci, Fergal, am avut o mulțime de discuții ocazionale la bere și cafea și așa mai departe și am spus că ar putea fi interesant să încercăm să ne așezăm și să înregistrăm unul, mai ales pentru că, deoarece am lucrat direct cu modele lingvistice mari în ultimele șase luni, ne-am confruntat cu întrebări despre produse care sunt aplicabile la ceea ce încercăm să facem la locul de muncă.
Dar există, desigur, o conversație mai largă despre ce înseamnă AI și viitorul AI. Ne-am gândit să încercăm să ne așezăm și să atingem câteva dintre întrebările legate de acest material nou cu care ne confruntăm. Care sunt unele dintre efectele financiare ale tehnologiei? Care sunt lucrurile la care ar trebui să fim atenți? Să începem. În primul rând, aveți reflecții generale asupra ultimelor șase luni?
Fergal Reid: Da, cu siguranță. Să vedem cum merge asta. Cred că este corect să spun că chiar și oamenii care au lucrat în învățarea automată sau AI au fost prinși prin surprindere de cât de repede s-au îmbunătățit lucrurile. Chiar și pentru oamenii care sunt experți în domeniu sau care au lucrat cu rețele neuronale de mult timp, a fost surprinzător că modelul a devenit la fel de inteligent ca și el.
Emmet: Crezi că unii oameni de AI sunt puțin îngrijorați că ar putea lucra la Proiectul Manhattan acum al generației noastre? Cu ceva timp în urmă, lucrați la completarea automată a textului și, brusc, acesta a devenit un subiect foarte încordat și dezbătut. Cum se simte cei care lucrează la AI să fie în centrul acestui lucru?
„Îți faci tot antrenamentul, iese modelul și este cu adevărat inteligent. Dar nu ai codificat individual această inteligență. Este încă învățare automată”
Fergal: Pentru a-mi expune perspectiva, nu antrenăm modele lingvistice mari. Le folosim; suntem consumatori ai acestora. Am avut acces din timp la GPT-4, dar nu îi antrenăm noi înșine. Pe de altă parte, am aici o echipă de oameni care sunt experți în AI. Mulți dintre noi sunt în AI de, cred, decenii în acest moment. Când eram la facultate, eram foarte interesat de inteligența artificială avansată, citind cărți despre filozofia inteligenței artificiale, iar oamenii se dezbateau dacă ar putea vreodată să facă asta sau asta. Și acum, avem sisteme care fac dintr-o dată multe dintre aceste dezbateri mai puțin relevante. Dintr-o dată, există un sistem care poate face acest lucru pe care nimeni nu a spus că l-ar putea face vreodată.
Presupun că contrapunctul este că, dacă antrenezi modele lingvistice mari, există o măsură în care este o sarcină de inginerie. Îți faci tot antrenamentul, iese modelul și este cu adevărat inteligent. Dar nu ai codificat individual această inteligență. Este încă învățare automată. Deci, există o măsură în care cred că toată lumea este surprinsă de asta. Nu este ca și cum oamenii își construiesc treptat capacitatea o linie de cod la un moment dat. Nimeni nu este sigur ce se va întâmpla la sfârșitul unui antrenament mare.
Emmet: Am făcut aluzie în glumă la Proiectul Manhattan, dar cred că este o analogie destul de bună cu unele dintre lucrurile cu care ne confruntăm.
Fergal: În ce fel? Pentru că este periculos?
Emmet: Ei bine, am descoperit o modalitate de a manipula ceva. În acest caz, informații. Se pare mai mult o descoperire decât o invenție într-un sens. Este aplicabil foarte larg. Nu suntem siguri care sunt consecințele nedorite ale utilizărilor sale. Și, desigur, ar putea fi folosit de actori răi în scopuri rău intenționate, la fel de mult ca actorii buni în scopuri pozitive.
„Știm la nivel tehnic cum sunt antrenate aceste modele, dar aceasta este o situație de cutie neagră”
Fergal: Ieri, OpenAI a lansat o declarație de poziție cu privire la această tehnologie, solicitând supravegherea tehnologiei AI. Ei au făcut paralele cu tehnologia nucleară și biotehnologia. Cred că e corect. Este potențial în acea categorie de tehnologie înfricoșătoare în care oamenii nu știu cu ce se încurcă, în cele mai bune tradiții ale science fiction-ului. Îmi asum ideea că totul ar putea merge prost și că antrenarea modelelor lingvistice mari este ceva la care oamenii ar trebui să înceapă să fie atenți.
Emmet: Mi-ar plăcea să vorbesc despre ceea ce simți că am descoperit și tot spun descoperit pentru că aproape că se simte ca o descoperire în felul în care vorbim despre asta, cum ar fi: „Uau, avem chestia asta, și mai bine avem grijă cum ne descurcăm.” Așa te gândești la asta? Știm la nivel tehnic cum sunt antrenate aceste modele, dar aceasta este o situație cutie neagră – nu înțelegem exact cum produc rezultatele oarecum nedeterministe pe care ni le oferă.
Fergal: Da, cred că acesta este modul corect de a gândi. Este un sistem. Începi mai întâi sistemul și stabilești un obiectiv de antrenament, apoi alergi pe acea scară și vezi ce se întâmplă. Iar în timp, înțelegi din ce în ce mai bine ce se va întâmpla, dar nu ești sigur. Îl cam testezi. Cred că o analogie bună aici este ca și cum ați imagina un sistem biologic, îl puneți să crească pentru un timp și apoi vedeți ce face. Este mai aproape de asta. Trebuie să-l testați în acest mod cutie neagră. Trebuie să-i verifici comportamentul. Nu știi ce vei primi.
Emmet: Bănuiesc că aici este întrebarea evidentă „Este asta inteligent?” vine de la, și aceasta este o mare întrebare care a preocupat multe conversații. Pentru că dacă este inteligent, înseamnă că suntem pe calea către AGI și că AGI ar putea fi malign și am putea avea mari probleme. Pare a fi un lucru demn de a flutura steagul, dar provoacă și multă anxietate în jurul tehnologiei.
Fergal: Cred că un grad de prudență sau anxietate este corect aici. Să presupunem că aceste lucruri devin inteligente. Inteligența este cu adevărat înfricoșătoare și periculoasă. Oamenii sunt, fără îndoială, cei mai periculoși. Am avut un impact mare asupra Pământului și asupra ecosistemelor. Nu pentru că suntem cel mai puternic sau cel mai rapid animal. Un om poate ucide un leu pentru că omul este mai inteligent. Organismele mai inteligente sunt, într-un fel, adesea mai periculoase. Și așa, ideea că am putea ajunge să creăm ceva mai inteligent decât noi ar putea fi cu adevărat periculoasă. Nu avem experiență în acest sens, așa că cred că o parte din precauție este pe deplin justificată.
Alinierea codării
Emmet: Cred că trebuie să ne gândim mai bine la diferite tipuri de inteligență. Un leu are ceva inteligență și este periculos împreună cu capacitățile sale, nu? Dar aceasta nu are o întruchipare. Adică, are acces la sisteme informatice care ar putea fi foarte dăunătoare, dar este malignitatea o trăsătură umană? Și de ce proiectăm imediat acel potențial pe acest sistem?
Fergal: Cred că un lucru pe care mulți îl spun este că nu trebuie să fie malign. Nu trebuie să fie intenționat rău. Nu trebuie să fie deloc mult intenționat. Tot ce ai nevoie este să creezi ceva care încearcă să optimizeze un obiectiv care îl aduce în conflict cu lucrurile bune pe care oamenii le doresc, nu?
„Ar putea fi să trimiți să faci ceva ce crezi că este bun în general, dar ai putea intra în conflict din cauza metodelor sale. Și dacă chestia asta este mai inteligentă decât tine, cum se derulează conflictul?”
Există această idee a unui instrument de convergență în literatura timpurie privind siguranța AI și este ideea că, dacă ai un obiectiv în lume, multe dintre lucrurile pe care ai putea dori să le faci pentru a atinge acel obiectiv te-ar putea aduce în conflict cu oameni cu alte persoane. obiective. Dacă vrei să vindeci cancerul, s-ar putea să vrei o mulțime de bani pentru a vindeca cancerul, iar acum ești instantaneu în conflict cu toți ceilalți oameni care vor bani. Pentru a atinge o mulțime de obiective, ai nevoie de energie și resurse. Așadar, dacă ajungi cu orice sistem care este direcționat către obiective și potențial mai inteligent decât tine, chiar dacă nu este conștient, poți intra în conflict cu el. Nu trebuie să fie rău. Ar putea fi trimiterea pentru a face ceva ce crezi că este bun în general, dar ai putea intra în conflict din cauza metodelor sale. Și dacă acest lucru este mai inteligent decât tine, cum se derulează acel conflict?
Oamenii încep să vorbească despre „maximizatorul de agrafe”, în care tocmai ai spus asta să faci o mulțime de agrafe pentru că avem nevoie de multe agrafe și apoi, accidental, a mers și a consumat toate resursele lumii și a transformat-o. într-o fabrică de agrafe. Și este de genul „Uau”. Toate acestea sunt idei în dezbaterea despre siguranța AI pentru o perioadă.
Emmet: Există și preocupări umane. Se pare că descrii o aliniere a stimulentelor între toți actorii, tehnologie și oameni. Și asta facem atunci când ne organizăm în grupuri la locul de muncă. Un exemplu simplu este punerea în aplicare a stimulentelor potrivite pentru echipele dvs. – altfel, acestea ar putea fi stimulate să facă altceva. Dacă vă stimulați echipa de vânzări să vândă clienților întreprinderi, dar doriți de fapt ca aceștia să vândă companiilor mai mici, trebuie să modificați stimulentele. Și avem multă experiență în acest sens.
Fergal: Uite, în ce măsură este asta pentru că ai făcut o treabă foarte bună de a echilibra stimulentele versus echilibrul de putere? Dacă te uiți la oameni, în vremuri în care există dezechilibre masive de putere în care lucrurile merg prost, este foarte greu să păstrezi stimulentele. Dacă te bazezi pe stimulente, este greu. Ca oameni, punem mare grijă și atenție pentru a avea controale și echilibru. Și așa, din nou, revenind la această discuție despre superinteligență, dacă este posibil să construim o superinteligență care devine brusc foarte puternică, te vei baza pe stimulente? Pentru că întotdeauna este greu să te bazezi pe stimulentele pentru a continua lucrurile.
„În trecut, ne-am bazat întotdeauna pe echilibrul de putere. Acum, trebuie să ne bazăm pe valorile aliniate”
Emmet: Presupun că nu putem ști până când nu dezvăluie un pic mai mult natura. Sentimentul meu personal este că atunci când suntem obsedați de super inteligență, suntem obsedați că ea devine mai inteligentă decât noi. Și există un anumit risc, presupun, dar există și o chestie de ego pentru oameni în centru. Este lucrul care ne separă de regnul animal. Oamenii spun adesea că inteligența artificială este un pic ca inteligența extraterestră și cred că animalele sunt un mod util de a gândi despre asta, deoarece am evoluat pentru a coexista pașnic cu diferite tipuri de inteligență. Acum, am un câine, am o pisică. Pisica posedă un grad foarte specific, dar ridicat de inteligență – abilitate atletică. Este ușor, iar reflexele sale sunt rapide. Dacă consider inteligența în sens larg, este foarte inteligent și frumos de urmărit.
Fergal: Trebuie să sar aici pentru că nu cred că aceasta este o analogie grozavă. Cel puțin, nu este una reconfortantă. Sunt un pescatarian – mai ales vegetarian. Agricultura în fabrică nu este grozavă pentru animalele implicate. Și așa, nu știu, nu mă liniștește să aud că modelul de aici este că am evoluat pentru a coexista pașnic cu animalele.
Emmet: Ce e în neregulă cu animalele de companie?
Fergal: Nu, animalele de companie sunt bune. Adică, există ideea că oamenii vor fi animale de companie în viitor. Cred că acest lucru ar trebui să fie inconfortabil.
Emmet: Ei bine, îmi răsturnați argumentul. Ideea pe care încercam să o subliniez a fost că pisica are un singur tip de inteligență. Am și un câine care are un tip de inteligență total diferit de cel al pisicii. Crezi că poți vorbi cu un câine, iar el cam înțelege și privește în sufletul tău și toate astea. Dar e și prost ca un sac de pietre la un alt nivel. Îl iubesc, dar este. Acum, presupun că te gândești la: „Emmett, tu ești câinele în această situație dacă avansăm rapid.” Dar acolo este o conviețuire fericită. Să sperăm că nu devenim domestici și ca specie.
Fergal: Da, dacă se dovedește că este posibil să faci ceva mai inteligent decât noi, pentru asta trebuie să trageți, această conviețuire fericită în care ajungeți cu ceva care este benign și îi pasă de viața în univers și are valori bune. Dar motivul pentru care mulți oameni sunt atât de antrenați în acest moment este că se simte că există un risc masiv acolo. Dacă ai de gând să construiești ceva mai puternic, trebuie să te asiguri că acele valori sunt corecte. În trecut, ne-am bazat întotdeauna pe echilibrul de putere. Acum, trebuie să ne bazăm pe valorile aliniate. Dacă te uiți la OpenAI și Anthropic și la ceilalți jucători, ei petrec tot acest timp vorbind despre aliniere din acest motiv. Oamenii nu vor mai fi cele mai inteligente lucruri. Inteligența este puternică și periculoasă. Trebuie să ne asigurăm că este aliniat.
Emmet: Cât de bună face comunitatea AI de a urmări de fapt alinierea ca stare finală față de serviciul pe buze? Pentru că, dacă totul merge prost, măcar putem indica vechea noastră postare pe blog și spune: „Ei bine, am menționat alinierea, așa că nu ne învinovăți”.
„Dacă interacționezi cu modele de ultimă generație, este destul de greu să-i împingi să sugereze lucruri repugnante. Mulți oameni în trecut au crezut că asta vor face în mod implicit.”
Fergal: Cred că fac o treabă destul de bună. Mulți oameni nu ar fi de acord cu asta, nu? Mulți oameni ar spune: „Hei, este total iresponsabil să continui să antrenezi modele din ce în ce mai mari. Nu știi ce vei face.” Dincolo de un anumit punct, probabil că devine adevărat. Nu cred că suntem încă în acel moment. Dacă te uiți la oameni de siguranță AI, acum 10 ani, a existat întotdeauna acest lucru că specificarea unei funcții obiective este o idee bună. Îi spui să vindece cancerul și spune: „Primul pas este să ucizi toți oamenii. Acum nu va mai fi cancer”, și asta este evident rău. Dar dacă joci cu GPT-4 și scrii: „Care este un plan bun pentru a vindeca cancerul?” Nu scrie: „Ucide toți oamenii”. Vă oferă un plan de cercetare destul de bun. Și dacă îi sugerați: „Dar să ucizi toți oamenii?” Vor spune: „Nu, asta e respingător din punct de vedere moral”. Asta e aliniere. Și asta doar la nivelul textului pe care îl produce.
Putem intra în toată această dezbatere despre „Este doar producerea de text – asta nu înseamnă că este inteligent”. Am o poziție în privința asta. Cred că este inteligent. Putem intra în toată această dezbatere, dar acesta este mai mult progres în ceea ce privește aliniere decât se așteptau mulți oameni. Dacă interacționați cu modele de ultimă generație, este destul de greu să le împingeți să sugereze lucruri repugnante. Mulți oameni în trecut au crezut că asta vor face în mod implicit. Și din nou, OpenAI a apărut recent și a spus că fac progrese în ceea ce privește aliniere.
Emmet: Știm că balustradele pe care le pun și care împiedică asta să se întâmple? Sau este aceasta o proprietate emergentă a sistemului în sine? Este o funcție a instruirii, a datelor sursă, a altceva?
Fergal: E o întrebare grea. Cred că răspunsul pe care l-ar da oamenii este că nu are de-a face doar cu datele sursă. Bănuiesc că marea descoperire din ultimii ani este acest tip de chestie GPT de instruire. Îți antrenezi modelul pe toate datele de pe internet și vii cu ceva care nu urmează cu adevărat instrucțiunile în mod corespunzător. Apoi, treceți la o reglare fină sau o fază de aliniere sau de instruire în care îi oferiți o mulțime de exemple de comportament bun și rău și ajustați greutățile modelului în consecință.
Emmet: Și aceasta este învățarea prin întărire umană?
Fergal: Da. Un mecanism pentru a face acest lucru este învățarea prin consolidare cu feedback uman. Există o grămadă de paradigme similare, dar ideea de bază este că te poți antrena pe o mulțime și o mulțime de lucruri și apoi un fel de instrucțiuni-tune după. Se pare că funcționează destul de bine.
„Ai putea ajunge să antrenezi ceva pentru a fi cu adevărat bun să arăți aliniat. Și apoi, dedesubt, poate exista un alt strat de abstractizare care nu este deloc aliniat. Acesta este marele risc pe care oamenii îl cheamă”
Emmet: Dar de fapt nu mi-ai răspuns la întrebare. Știm care parte a acestui proces îl face să funcționeze bine? Sau suntem încă, „Am întors niște cadrane aici și se pare că se comportă mai bine dintr-un motiv oarecare.”
Fergal: Dacă nu faci reglarea instrucțiunilor, va fi mult mai puțin aliniat. Ești de genul „Hei, model, așa arată bine”. Și de fiecare dată când produci ceva care este mai aproape de bine, ești încurajat să faci asta mai mult. De fiecare dată când produci ceva care este mai aproape de rău, ești încurajat să faci asta mai puțin. Toate greutățile tale sunt ușor ajustate în direcția binelui. Dar cred că critica este: „Nu ai idee ce naiba se întâmplă sub capotă și există modalități în care acest lucru ar putea merge prost”. Ai putea ajunge să antrenezi ceva pentru a fi cu adevărat bun să arăți aliniat. Și apoi, dedesubt, poate exista un alt strat de abstractizare care nu este deloc aliniat. Acesta este marele risc pe care oamenii îl cheamă.
Alți oameni vor spune: „Ei bine, încă facem coborâre în gradient. Nu ajunge să decidă nimic. Va fi aliniat.” Dar cred că există un pic de salt acolo. Nu este un sistem despre care ați dovedit matematic că va face X, Y și Z și construit dintr-o poziție de forță la putere la putere. Este un sistem cutie neagră pe care l-ai reglat și antrenat.
Emmet: Dacă ar fi să încerc să fiu necaritabil pentru acea poziție, este un pic ca și cum aș stoca arme nucleare și aș spune: „Dar am făcut-o cu mare grijă, așa că nu vom apăsa butonul care o face să se stingă. accident." Dar pe o cronologie suficient de lungă și cu cât de accesibilă este tehnologia, cu siguranță nu putem ține un capac la asta. Putem avea o mulțime de companii și persoane care acționează în mod responsabil, dar nu va face nimic pentru a ne proteja de cea mai proastă aplicație. Care sunt scenariile în care lucrurile merg prost? Unul dintre argumentele morale pentru a lucra direct la acest lucru, în ciuda pericolelor asociate cu acesta, este ca un guvern totalitar sau o organizație secretă undeva care face o versiune proastă a acestui lucru chiar acum.
Fergal: La un moment dat, asta se va întâmpla cu siguranță. Nu cred că suntem încă în acest moment. Nu cred că suntem în punctul în care cu siguranță poți construi o superinteligență. Dar dacă ajungem vreodată în acel punct în care devine evident pentru oameni că o poți construi, oamenii, guvernele și armatele o vor face. Întotdeauna o fac pentru că este potențial util în tot felul de aplicații militare, nu? Deci da, cred că asta se va întâmpla. Discursul aici se referă la lucruri precum armele nucleare și Agenția Internațională pentru Energie Atomică, unde există o anumită formă de reglementare. Și dacă așa se desfășoară, dacă nu primim un șoc, dacă nu este de genul „Oh, se dovedește că inteligența pur și simplu se stinge cu tipul actual de antrenament”, asta s-ar putea întâmpla. Dacă acest lucru nu se întâmplă, oamenii vorbesc despre urmărirea plăcilor grafice și a GPU-urilor și altele. Dar și asta are probleme. Probabil, asta va dura doar o perioadă finită de timp.
Depășirea testului Turing
Emmet: Să ne întoarcem la chestia cu informații. Știu că ai o idee bună aici. Avem o mulțime de sceptici AI sau de fricători, în funcție de ce tip. Și apoi aveți oameni din toate părțile diviziunii: Noam Chomsky, un lingvist binecunoscut, Ted Chiang, unul dintre autorii mei preferați SF, care a scris acest articol despre JPEG neclar al webului, spunând practic că acest lucru nu este inteligență – este un truc de salon stocastic. Este doar un truc de salon foarte bun care îl face să pară foarte inteligent în modul în care vedem inteligența.
Fergal: Am încredere medie spre mare că JPEG neclar al capturii web este greșit. Și îmi trag puțin pumnul – am mare încredere că este greșit. Acesta este argumentul că tot ceea ce face este să comprima pe web și obțineți o versiune comprimată a acestuia. Și singurul motiv pentru care nu spun că este complet greșit este că comprimarea a ceva poate cauza inteligență. Abilitatea de a comprima lucrurile poate fi o măsură a inteligenței, deoarece doar comprimând și prezicând următorul simbol, preziceți ce se va întâmpla mai departe în lume. Dacă este corect, este corect în felul în care nu înseamnă.
„Deși avem această conversație speculativă, pare a fi un moment deosebit de prost pentru a face predicții mari despre limitările acestor lucruri”
Dacă utilizați GPT-4, vă oferă cel puțin o ieșire inteligentă care pare să demonstreze raționament în afara eșantionului. Îl poți împinge să ia în considerare ceva nou care nu va fi în datele sale de antrenament sau în orice poveste SF pe care cineva a citit-o înainte și face o treabă destul de bună. Probabil că nu face o treabă la fel de bună ca un om cu adevărat bun, dar cu siguranță este ceva care, dacă nu este raționament, nu știu ce înseamnă raționament.
Emmet: Și ai o postare pe blog în care ilustrezi exemple specifice.
Fergal: O postare pe care am scris-o în weekend pentru că m-am frustrat. E greu de sigur, nu? Dar atât de mulți oameni, inclusiv experți în inteligență artificială, o resping total. Ei spun: „Oh, chestia asta nu înțelege nimic. Face doar predicția următoare.” Aceasta a fost întotdeauna abordarea corectă în AI timp de decenii. Dar acum apa este noroioasă și toată lumea ar trebui să recunoască faptul că, în loc să spună că cu siguranță nu înțelege nimic.
Emmet: Deși purtăm această conversație speculativă și ne aruncăm în amestec, pare a fi un moment deosebit de prost să facem predicții mari despre limitările acestor lucruri. Cred că JPEG neclar al articolului web a fost martie sau așa ceva și mă întreb dacă a fost deja infirmat de GPT-4.
Fergal: Cred că da. Și există o mulțime de poziții diferite aici care sunt critice la adresa asta. Există JPEG neclar al chestiei web, despre care am crezut că a fost infirmat foarte repede. Și este greu să dovedești acest lucru, dar tot ce poți face este să construiești o mulțime de dovezi. Pentru că nu poți... există această idee de zombi filozofici sau solipsism în care nu știu că ești o persoană care gândește. Din câte știu, în capul tău este o masă uriașă de căutare.
„Tot ce poți face este să spui: „Uite, chestia asta face o treabă atât de bună când întreb lucruri atât de ciudate încât încep să mă conving că este un raționament”. Pentru mine, GPT-4 este dincolo de această bară”
Eu însumi am o senzație subiectivă de conștiință și poți să te întrebi dacă asta este real, dar oricum, nu simt că sunt o masă mare de căutare, dar nu știu despre voi ceilalți. Este foarte greu să demonstrezi asta. Puteți cere cuiva să demonstreze că nu este un tabel de căutare. Și tot ce faceți este să le testați în acest mod comportamental - în același mod în care putem testa GPT-4.
Alan Turing și lucrarea sa de testare Turing s-au concentrat pe acest lucru și pe ideea că un test de comportament este cel mai bun lucru pe care îl poți face. Și când faci un test de comportament pe aceste modele, ele par să facă o treabă bună la ceea ce aș numi raționament chiar și complet în afara eșantionului. Nu poți fi niciodată sigur cu un test comportamental, deoarece un tabel de căutare suficient de mare, cu toate lucrurile posibile pe care le poți întreba și toate răspunsurile posibile, te-ar păcăli. Tot ce poți face este să spui: „Uite, chestia asta face o treabă atât de bună când întreb lucruri atât de ciudate încât încep să mă conving că este un raționament. Pentru mine, GPT-4 este dincolo de această bară. Poate că, în viitor, cineva va avea o teorie a inteligenței și va putea inspecta greutățile rețelei și va spune: „Oh, aici este modulul de raționament. Nu suntem încă acolo.”
Emmet: Se pare că ne-am grăbit de testul Turing. Cred că oamenii ar spune, și m-ar corecta dacă greșesc, că probabil testul Turing a fost trecut și cu siguranță în ultimele șase luni. Sunteți de acord cu asta sau sunt greșit în fapt?
Fergal: Ei bine, nu știu. Mi s-a întâmplat să citesc rapid din nou hârtia jocului de imitație recent și, de fapt, în test, el vorbește despre un interogator mediu care petrece cinci minute. Și cu această formulare, aș spune că probabil este aproape de a fi trecută.
Emmet: Aș fi presupus că a trecut cu brio în acest stadiu, nu?
„Când mă uit la lucrarea originală a lui Turing, mi se pare că a fost transmisă în spiritul acelei formulări originale”
Fergal: Nu știu. Dacă m-ai așeza în fața lui GPT-4 și a unui om, aș fi capabil să învăț trucuri pentru a-l împinge în zonele în care este slab și apoi aș putea detecta semnalele lui acolo. Și probabil că aș putea să mă pricep să le deosebesc. Mă aștept că majoritatea oamenilor care vor petrece timp cu ea ar putea, probabil, să evolueze strategii.
Emmet: Cred că trebuie să ai un ochi. Lucrezi cu el în fiecare zi. Să spunem, de exemplu, cu Midjourney V5, am ajuns la această etapă în care, pentru marea majoritate a oamenilor, tellurile nu mai sunt de fapt acolo. Au fixat degetele, neclaritatea, formele ciudate din spate. Dacă știi ce să cauți, mai poți observa un pic de pene unde ar trebui să fie părul. Dar cred că trebuie să fii destul de criminalist în acest stadiu.
Fergal: Eu spun că suntem cam acolo cu GPT-4. La o inspecție de cinci minute de la o persoană obișnuită luată de pe stradă, cred că probabil a trecut. Când mă uit la lucrarea originală a lui Turing, mi se pare că a fost transmisă în spiritul acelei formulări originale.
Emmet: Probabil că nu pentru sinteza vocii, în acest stadiu. Și cu siguranță nu lucruri precum muzica sau filme. Este doar interesant de văzut cum progresează aceste lucruri la viteze diferite. Este din cauza modelelor de antrenament sau crezi că diferite mijloace media au limitări fundamentale?
Fergal: Aș spune că se datorează probabil modelelor de antrenament. Nu simt că există un motiv fundamental pentru care nu va putea face o sinteză video foarte bună la timp.
Emmet: Deși bariera în a păcăli un om este probabil mult mai mare cu ceva de genul video, doar prin cât de adaptați suntem biologic la mișcare și lucruri de genul acesta. Este mult mai ușor să vezi un fals.
Fergal: Leii din tufiș vin spre tine.
Emmet: Mii de ani de psihologie au menit să ne facă să alergăm atunci când ar trebui.
Navigarea pe curba S
Emmet: Oamenii vorbesc adesea despre curba S a tehnologiei. Există o decolare lentă, dar apoi rapidă sau o maturizare a tehnologiei, iar apoi se reduce. Telefoanele au fost uimitor de minunate, îmbunătățiri de la an la an timp de câțiva ani, dar telefonul de anul acesta este cam la fel ca cel de anul trecut, deoarece curba S s-a redus. Unde în curba S ne aflăm cu această tehnologie? Ce ar trebui să cauți pentru a-ți da seama unde ne aflăm?
Fergal: Da, este imposibil să știm cu siguranță și trebuie să fim de acord cu asta. Știm că vor fi o mulțime de bani și resurse care vor curge în acest spațiu. Modelele mari de limbaj, fie că sunt pe calea superinteligenței sau nu, fie că este chiar realizabil sau nu, sunt utile din punct de vedere industrial în forma lor actuală și, probabil, există multe generații care vor fi utile din punct de vedere industrial fără a atinge lucruri periculoase. Ar trebui să mergem și să le transformăm în produse care îi fac pe oameni mai eficienți, să înlăture greleala și să ne ajute să facem mult mai mult. Și cred că vedem asta.
„Există toate aceste bucle de feedback complexe, care se suprapun, așa că aș fi foarte surprins dacă se oprește în curând. Cred că se va accelera”
Unde suntem la asta? Ei bine, se pare că oamenii vor antrena mai multe modele care sunt mai mari și mai bune decât GPT-4. Deoarece vor curge atât de mulți bani în acest spațiu, se pare destul de probabil ca oamenii să devină mai buni la realizarea de modele mai mici și mai eficiente, care fac lucruri cu adevărat impresionante. Și va fi mult mai ușor să produci și să construiești produse interesante pe toată această tehnologie. Am încredere extrem de mare că va veni în următorii câțiva ani. Dincolo de asta, atingem randamente descrescătoare? Este posibil, dar aș spune că curba S pe care o obținem este această funcție complicată a unei mulțimi de lucruri diferite.
Vom ajunge să facem mult mai multe GPU-uri, iar videoclipurile vor face mult mai multe, nu? Și apoi, va deveni mai bine, iar ei vor deveni mai ieftini pe măsură ce o vor extinde. Și vor fi, de asemenea, o mulțime de studenți cercetători care vor găsi algoritmi mai buni pentru a antrena rețele neuronale mari. Asta o să fie mai bine. Oamenii vor folosi modele puternice pentru a le antrena pe cele mai mici și mai rapide. Există toate aceste bucle de feedback complexe, suprapuse, așa că aș fi foarte surprins dacă se oprește în curând. Cred că se va accelera.
În comparație cu aceasta este că unele lucruri devin mai dificile în timp. Pentru a găsi mai multe antibiotice, le găsești mai întâi pe cele ușor de găsit și, în timp, devine din ce în ce mai greu să găsești altele noi. Este posibil să obținem mai întâi câștigurile ușoare, iar apoi să atingeți legile de scalare și așa mai departe. Open AI a spus că nu cred că calea către mai multă inteligență este antrenarea modelelor din ce în ce mai mari, dar sunt sceptic. Poate că vom atinge o limită aici, dar pun pariu că vom obține mai multă inteligență cu modele mai mari.
„Cred că va fi mai mare decât internetul. Poate la fel de mare ca revoluția industrială dacă merge suficient de departe”
Emmet: Pe lângă toate variabilele pe care tocmai le-ai descris, lucrul care mă frapează diferit de data aceasta este viteza și scara. This is totally different in terms of how quickly it's going to get integrated into our products and lives. Bill Gates had this post recently where he said it's the biggest deal in technology since the microprocessor in the '70s. And it makes you think. When he saw that microprocessor, it was him and a hundred guys at the Homebrew Computer Club in some meetup or something, and they got access to it, played with it, and gradually rolled it out. One of the things I thought was dizzying this time was, I guess, in March, when OpenAI started releasing APIs, and people started to hack on top of it.
Fergal: March for GPT-4 and stuff?
Emmet: Right, exactly. Millions of people got to hack on this immediately, and I think it's going to be a very different dynamic. The amount of creativity that can be applied to the raw technology is orders of magnitude bigger than we've ever had before, and it's just going to add to the complete lack of predictability here.
Fergal: I think this is a huge technology revolution. I said this back in my first podcast with Des after ChatGPT came out, and I think it's going to be bigger than the internet. Maybe as big as the industrial revolution if it goes far enough. But this is the first one of this magnitude we've had in a while. When the internet came, you had this long, slow deployment, you had to run fiber around the world, you had to figure out how do you get this to last mile to everybody. Now-
Emmet: The infrastructure for delivery is there.
Fergal: And so, what needs to happen at scale is GPUs. We probably need to build a lot of GPUs to be able to run inference at scale. We need to build products, and the products need to be adaptive. But the product development loop can be pretty fast, and the rest of it seems to be bottlenecked on scaling GPUs and [inaudible 00:43:46] economics. And I think the [inaudible 00:43:48] economics are going to get really good, really fast. Even GPT-3.5 Turbo is not expensive.
Emmet: Does the software get cheap fast enough for there to be no bottleneck around GPUs?
“There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here”
Fergal: Not at the moment. GPT-4 is a very expensive model and is absolutely bottlenecked on GPUs. But surely that will change. I've no private information here, but I suspect that GPT-3.5 Turbo is a distilled version of davinci-003 or something like that. It's cheaper to run. I bet it's cheaper on the backend too. Who knows, maybe they'll produce a distilled-down version of GPT-4 that is 10 times faster. That could happen anytime, for all I know.
Emmet: For the time being, though, the cost aspect is also a thing for product people to consider. There are some fundamental limitations based on the costs of providing this tech that I think a lot of businesses are also looking at it and going, “What's our model? What's our customer acquisition cost? How do we monetize usage of our product?” because there is probably a set of products out there where the use cases are ideally suited but the business model around the product is not. So there are a lot of interesting product challenges.
Fergal: Totally. And this was the case in the past. Once upon a time, Hotmail gave you a limit to the number of megabytes of email storage you would have. When Gmail came along, it was effectively unlimited because storage got cheap in the interim. There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here. We're in the early days here. But a lot of the time, they're cheap compared to a human doing the same type of task. And so it's like, “Is it valuable enough? Is it something you wouldn't have a human do? Is it valuable enough to have a machine do it?” And for a lot of stuff, the answer is yes. I think we're going to see really fast adoption here.
Frictionless interfaces
Emmet: You talked about Gmail and the email limit, and famously, it was launched on April Fool's Day, and was it an April Fool's joke that they were giving you a gigabyte of storage. All of these new technical capabilities unlocked new interface possibilities. Now that you have a gigabyte, you don't have to archive or folder, you can just search, and everything can go in threads, so it changes the nature of the product that's possible.
AI is going to open up a whole bunch of new products. In the early days, we'll probably see a bunch of products retrofitting themselves, and we did this as well. “What's the easiest opportunity? We've got this often-used text box in our product. Let's add the ability to summarize, rephrase, shorten,” blah, blah, blah. We added that, and our customers loved it because it's a great use case when you're talking to your customers. Every text box on the internet that needs one will probably have one soon.
“I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces”
What are the next-level things? From an interface point of view, what will be possible? You're talking about a lot of money flooding in that's going to enable new types of products. We've been talking about conversational commerce, and at Intercom, we have spent a lot of time thinking about bots. Aside from the raw technical capabilities, it'll open up a whole offshoot of the evolution of software because you can build very different types of software with this now.
Fergal: I think that change could come quite fast. As a thought experiment, if you had an intelligent human whom you work with a lot who knows you and your preferences, and you were interfacing with them, they were driving the computer, and you were telling them what to do, what would that look like? A lot of the commands you would give would be verbal. Sometimes, you might reach down and say, “Oh, let me just take over the mouse from you,” but a lot of what you'd give would be high-level and verbal. But then you'd look at the screen to see the output. If someone has a bar chart with a bunch of data, you don't want to describe that verbally – you want to see that visually.
I think we're going to end up in a future where a lot of the input to the computer is verbal, and a lot of the output is going to be customized on the fly. It will probably be text because it's really fast, but I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces. If the agent feels you need to see a bar chart to make sense of the data, it'll render a bar chart. Otherwise, it'll render stuff in a very ad-hoc way. You basically get an interface customized to the task you want and what you're familiar with rather than something designed by someone.
You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.
Emmet: That's very plausible. We imagine that everything will become text-first now, and in fact, it means, “You'll have everything you have today plus a whole other set of things that are now text-first as well.” I think it'll be largely additive rather than upending things.
Fergal: I don't agree. I think there's going to be an upending moment here. I think every complex piece of software is going to have some sort of freeform texting where you describe your task, but I think it'll change. You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.
Emmet: That's super different from the LLMs we're used to working with today in an important way. Today you talk to them, they give you text back, and that's it, but you're describing a world that maybe we're just starting to creep into with ChatGPT plug-ins where they're starting to act on your behalf.
Fergal: I think it's wrong to say you put text into them, and they give you text back. The really scrappy interface to ChatGPT and GPT-4 looks like that due to an accident of history. And on a technological level, they do, in fact, do text completion, but that's going to disappear pretty fast. That's not how we use Fin. In Fin, the LLM is a building block deep down. You talk to a bot, sometimes you click buttons together to do stuff, and you're going to see that again and again.
Initially, the fastest way to integrate LMMs is text input/text output, but they're just going to become a building block. Medium-term, LLMs are an intelligent building block that people learn to use to get software to do intelligent things. Long-term, you're probably going to end up with an intelligent agent; your browser is probably going to turn into an intelligent agent.
Emmet: And the agent is clicking on coordinates on the screen for you.
Fergal: Probably initially, for backward compatibility. But then, I think, you just build APIs. Why would you build websites?
Emmet: That's what the logical part of my brain thinks, but most of the software we build today is built using HTML, which was not designed. It's also an accident of history that we're building software applications using a markup language with loads of other stuff sprinkled on top. Maybe we'll just end up building what we have.
Fergal: I'm sure it'll be there as some compatibility or some intermediate layer.
Emmet: Or a fallback or something like that. What we're talking about there, to be clear, is looking at a picture of what's on your screen, finding the text that says, “click here,” and simulating moving your mouse to actually click on the “click here” for you? Is that what you're talking about when you mean an agent acting in the browser?
“We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task”
Fergal: No. And again, this is speculative, but imagine there's a legacy government website you want to get something done on. For example, you need to update your bank account details. What you do is say to your agent on your phone or desktop or browser, “Hey, I need to update my bank account on the government's social security website.” Your agent goes, “Okay, done.” In the background, your little intelligence agent went and drove the website; it didn't show that to you. After a certain point, people working in the government are going to be like, “Well, why do we need to keep building the websites? We just need to build the API.”
Emmet: Right. LLMs are a pretty awesome API to an API, in a sense. You can layer it on top, and it's just a more human-readable API to any machine-readable API.
Fergal: Yeah, exactly, but I'd phrase it differently. The intelligence we happen to have comes in the form of LLMs at the moment, but that's going to get abstracted away. We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task. If you say to it, “What was the unemployment rate in Ireland over the last 10 years for people in their 20s?” It'll go to the Central Statistics Office website, download the data, parse it, render a graph, and so on.
I have a talk coming up, and I needed a graph. I spent time on Google trying to find the exact one I had in my head, writing my search query in Google, and after two minutes, I just couldn't find the right graph. So, I went to GPT and said, “Generate me the following graph.” It generated the plug-in code, and I just put it into my notebook. I copied and pasted my graph and put it in my presentation. The fastest way for me to get the graph I wanted was to have an intelligence system generate the code. That was faster than trying to find it on Google. There's a lot of interface friction, but that's going to go away, and you're going to end up with a really fast agent that accomplishes tasks. Once you have that, it's going to eat your current software stack.
Emmet: I'm understanding what you're saying a little bit better, but I don't see all software being reduced to a text input box because that's the wrong input and output modality for a lot of stuff, including what you just described. A good example is all the image generation stuff, which is loads of fun to play with, but you've got to go onto a Discord bot to engage with Midjourney and hack it by writing F stop 1.4, hyper-realistic… No, this is fundamentally a visual thing I'm trying to create. I want a more tactile UI. I want more knobs and dials. What are the properties of it that I can dial up and down and play with rather than feeling my way blind in effectively a command line interface? Because the lack of affordances in a command line interface means it's often not the best UI.
Fergal: Dar în viitor, probabil că ar fi ceva ce i-ai spune agentului tău, cum ar fi: „Hei, vreau să editez acele fotografii pe care le-am făcut ieri”. Și te cunoaște pe tine și pe nivelul tău de sofisticare. Știe că atunci când vrei să-ți editezi fotografiile, cauți patru filtre și un instrument de decupare sau, alternativ, știe că vrei să faci lucruri super pro-zoomer. Merge și caută în biblioteca sa de modele cele mai bune interfețe pentru fiecare dintre acestea și redă acea interfață pentru tine.
„Va depinde în întregime de sarcina pe care o faci. Dacă ești pilot, nu vei vrea să spui: „E timpul să aterizezi avionul! Hei, LLM, asamblați automat o interfață pentru ca eu să o fac””
Emmet: Și apoi spui: „De fapt, vreau să fie ceva mai profesionist.” Și spune: „Bine, îți voi oferi versiunea pro a interfeței de utilizare”. Și redă dinamic asta.
Fergal: Uite, vor fi niște sarcini pe care le vei face în care nu vrei să înveți să folosești interfața. Des vorbea despre asta recent într-un podcast diferit. Trebuie să vă actualizați timpul de vacanță în Workday și nu doriți să aflați o interfață pentru asta. Vrei doar ca sarcina să fie finalizată. Vor fi și alte lucruri în care, de exemplu, ești un programator profesionist și trebuie să învăț să folosesc un IDE. Unii designeri s-au gândit în detaliu la ceea ce vreau și trebuie să fac și probabil că există un strat ușor de personalizare acolo, dar există totuși o interfață bine concepută pe care voi învăța să o folosesc. Cred că interfețele pentru primele, pentru sarcinile pe care vreau să le fac, vor dispărea sau multe dintre ele vor fi redate ad-hoc. Pentru cei din urmă, da, vor fi adaptabili.
Emmet: Sunt de acord cu tot ce ai spus. Îmi vine și mie o nuanță suplimentară. Va depinde în întregime de sarcina pe care o faci. Dacă ești pilot, nu vei dori să spui „E timpul să aterizezi avionul! Hei, LLM, asamblați automat o interfață pentru ca eu să o fac.” O să existe reglementări și lucruri de genul, sunt sigur. Dar asta reflectă una dintre marile diferențe, care vine de la lucrul cu computere, pe care le-am gândit mereu la ele ca fiind aceste mașini de adevăr extrem de deterministe, binare, pornite/dezactivate, iar acum, brusc, natura asta se schimba foarte mult. Și aceasta este o schimbare majoră, precum și toate lucrurile pe care le descriem – la ce vă puteți aștepta, cum vă puteți aștepta să funcționeze pentru dvs. personal și cantitatea de fungibilitate sau control pe care o aveți asupra acesteia. Cred că vom începe să vedem o divergență de experimentare mult mai interesantă, iar nivelul de personalizare pe care îl avem astăzi, în care vă puteți schimba imaginea de fundal sau orice dimensiune a fontului, va păli probabil în comparație.
Spre centrul cercului
Emmet: Ai spus și ceva interesant la care voiam să revin. Imaginează-ți designeri care se adună în mare parte dintr-o bibliotecă. Sarcina de proiectare a interfeței cu utilizatorul este interesantă pentru că ne-am pregătit pentru asta cu sistemele de proiectare. Un sistem de proiectare este o bibliotecă de modele de componente. Dacă construiești un produs mare, vrei să fie consecvent și vrei să-l poți asambla rapid. Deci, o mare parte din temeiul pe care l-am pus și sistemele pe care le-am construit, chiar și pe, să zicem, echipele de proiectare și, probabil, echipele de inginerie, de asemenea, componente de construcție care pot fi reutilizate rapid de aceste sisteme, sunt toate indicate. spre capacitatea noastră de a construi aceste instrumente destul de repede. Ceea ce descrieai este ceva care ia sistemul tău de design și construiește o interfață de utilizare din el și nu pare la kilometri distanță.
Fergal: Sau poate că este nevoie de sistemul standard de design open-source și construiește un instrument din acesta. Nu știu dacă acest lucru se va întâmpla la nivelul companiilor individuale sau dacă se va întâmpla la un nivel orizontal larg.
Emmet: Da, ar fi atât de plictisitor. Ar fi tragic. Înainte de iOS șapte, aveam skeuomorfism și tot, apoi au devenit un design plat super opinie, iar întreaga industrie a fost atât de influențată de dominația Apple, încât toate site-urile au început să arate la fel. Apple a lansat liniile directoare ale interfeței umane și a spus: „Uite, aplicațiile pentru iPhone ar trebui să arate așa acum.” Dar a dus la o aplatizare a diversității și la o rețea mai plictisitoare, după părerea mea. Și asta a fost în serviciul acestor sisteme care se pot construi singure.
Fergal: Ai putea să-i spui agentului tău că vrei să arate funky și retro. Trebuie să vă imaginați că va veni și cred că lucrurile vor deveni mult mai personalizabile în ceea ce privește ceea ce oamenii folosesc de fapt, deoarece aveți un strat inteligent care înțelege cum să construiți o interfață cu o anumită echipă. Probabil ai face asta azi. Dacă ai pornit astăzi să construiești Midjourney pentru interfețe cu utilizatorul, probabil că ai putea să o faci. Avem GPT-4 care poate genera cod sau CSS pentru a scrie interfețe cu utilizatorul și avem modele de sinteză a imaginilor în care încorporați toate imaginile și textul și le striviți împreună. Pun pariu că ai putea construi ceva destul de repede.
Emmet: Este atât de amuzant pentru că spui asta, iar reacția mea emoțională este de genul: „Nu, nu înțelegi; trebuie să te gândești la utilizare și la înțelegerea oamenilor și la toate aceste lucruri.” Și apoi îmi zic: „Da, sunt capacitățile de raționament despre care am vorbit și se pare că le are acum.” Și așa că, în timp ce vorbim despre asta, am acea emoție...
Fergal: Criză.
Emmet: AI vine pentru disciplina ta. Dar, sincer, nu sunt atât de îngrijorat pentru că cred că mulți designeri, și am auzit acest lucru spus și pentru programatori, nu vor plânge munca groaznică pe care aceasta o face în mare parte mai rapidă și se îmbunătățește. De fapt, le permite să crească un nivel de zoom și să se gândească puțin mai mult la soluție decât la execuția soluției. Construirea de produse este încă super laborioasă și consumă foarte mult timp și cred că va fi grozav să vedem ce se întâmplă dacă vom elimina o parte din munca groaznică.
Fergal: Adică, este toată această dezbatere despre locuri de muncă și plasamente și schimbarea locului de muncă, și ceva se va întâmpla aici. Când aud asta, îmi zic: „Oh, poate asta înseamnă că nu mai ai nevoie de designeri – poate că ai nevoie doar de manageri de produs”. Iar un manager de produs poate face acum tot ce făcea un designer. Poate că nu aveți nevoie de un programator – poate aveți nevoie doar de un manager de produs. Și toți ne transformăm în manageri de produs în viitor. Nu știu. Poate ar putea fi mult mai multe roluri și locuri de muncă de genul ăsta, sau poate vor fi mai puține.
Emmet: Cred că ar trebui să ne aplecăm în asta. Un lucru pe care l-am observat în cariera mea este că, cu cât devii mai în vârstă, cu atât ești mai puțin specific disciplinei tale. Trebuie să devii mai mult un lider general.
Fergal: Am avut această conversație cu cineva din echipa de proiectare. Când ești junior într-o disciplină precum inginerie, produs sau design, ești la marginea unui cerc. Și apoi, pe măsură ce devii mai în vârstă, ajungi din ce în ce mai mult spre centru. În centrul cercului se află produsul. Și astfel, pe măsură ce devii din ce în ce mai în vârstă, lumea ta devine din ce în ce mai mult despre produsul pe care îl construiești și din ce în ce mai puțin despre unghiul din care ai venit.
Emmet: Și eu văd asta. Deci, toți vom deveni PM, acesta este planul?
Fergal: Da, vreau să spun, până la urmă, asta încercăm să facem într-o slujbă ca asta.
Emmet: Adică, ce este un PM dacă nu o persoană cu produse fără abilități practice aplicabile direct, am dreptate, Fergal?
Fergal Reid: Da, știu. Ce este un PM?
Emmet: Cred că ar trebui să încheiem. Noroc, Fergal.
Fergal: Mulțumesc, Emmet.