Dalla fantascienza alla realtà tecnologica: esplorare l'impatto dell'IA
Pubblicato: 2023-06-09L'intelligenza artificiale sta già rimodellando il modo in cui lavoriamo, comunichiamo e viviamo il mondo. Entra nell'intrigante mondo dell'IA generativa mentre esploriamo il vasto panorama di possibilità che ci attendono.
Dal rilascio di ChatGPT, il nostro team si è immerso a capofitto nel mondo dell'intelligenza artificiale, costruendo prodotti con modelli linguistici di grandi dimensioni (LLM) e navigando tra le incognite emerse con i recenti progressi di questa tecnologia trasformativa.
La maggior parte della nostra attenzione si è concentrata su come applicare l'IA generativa per trasformare il servizio clienti e il rilascio del nostro chatbot AI leader del settore, Fin, dimostra come tale attenzione abbia dato i suoi frutti.
Al di là delle applicazioni pratiche, tuttavia, ci sono innumerevoli grandi domande a cui abbiamo riflettuto: dovremmo affrontare gli LLM con un senso di cautela? Quanto è grande questa cosa dell'IA, davvero? E cosa dovremmo aspettarci guardando al futuro?
In questo episodio, il nostro Senior Director of Machine Learning Fergal Reid si unisce a Emmet Connolly, il nostro VP of Product Design, per approfondire l'impatto e il potenziale rivoluzionario dell'IA: è una conversazione affascinante che tocca molte delle più ampie questioni esistenziali sollevate da questa incredibile nuova tecnologia.
Ecco alcuni dei punti chiave:
- Nella ricerca della creazione di sistemi intelligenti, le organizzazioni stanno adottando tecniche come l'apprendimento per rinforzo per garantire l'allineamento con i nostri valori e un impatto positivo sull'umanità.
- GPT-4 dimostra un alto livello di ragionamento anche se testato con scenari fuori campione, il che sembra indicare che può superare l'asticella fissata dal famoso test di Alan Turing.
- Man mano che gli investimenti aumentano e le limitazioni hardware vengono superate, possiamo aspettarci lo sviluppo di modelli più avanzati ed efficienti con un'adozione e una produzione senza precedenti.
- In futuro, alcuni tipi di interfaccia utente potrebbero essere sostituiti con agenti di intelligenza artificiale in grado di personalizzare gli output al volo in base all'input verbale, all'attività da svolgere e alle preferenze personali.
- L'intelligenza artificiale ha il potenziale per ridurre il lavoro faticoso per designer e programmatori, consentendo loro di concentrarsi maggiormente sulla soluzione e sulla visione del prodotto piuttosto che sull'esecuzione.
Se ti piace la nostra discussione, dai un'occhiata ad altri episodi del nostro podcast. Puoi seguire su Apple Podcasts, Spotify, YouTube o prendere il feed RSS nel tuo lettore preferito. Quella che segue è una trascrizione leggermente modificata dell'episodio.
Il risveglio dell'IA
Emmet Connolly: Quindi, Fergal, abbiamo avuto un sacco di chiacchiere casuali davanti a birre e caffè e così via, e abbiamo detto che potrebbe essere interessante provare a sederci e prenderne uno e registrarlo, soprattutto perché, dato che abbiamo lavorato direttamente con modelli linguistici di grandi dimensioni negli ultimi sei mesi, siamo stati alle prese con domande sui prodotti applicabili a ciò che stiamo cercando di ottenere sul lavoro.
Ma c'è, ovviamente, una conversazione più ampia su cosa significhi AI e sul futuro dell'IA. Abbiamo pensato di provare a sederci e toccare alcune delle domande su questo nuovo materiale con cui abbiamo a che fare. Quali sono alcuni degli impatti finanziari della tecnologia? Quali sono le cose a cui dovremmo prestare attenzione? Diamo il calcio d'inizio. Prima di tutto, hai qualche riflessione generale sugli ultimi sei mesi?
Fergal Reid: Sì, sicuramente. Vediamo come va. Penso che sia giusto dire che anche le persone che hanno lavorato nell'apprendimento automatico o nell'intelligenza artificiale sono state colte di sorpresa dalla velocità con cui le cose sono migliorate. Anche per le persone esperte nel settore o che hanno lavorato a lungo con le reti neurali, è stato sorprendente che il modello sia diventato così intelligente.
Emmet: Pensi che alcune persone di intelligenza artificiale siano un po' preoccupate di poter lavorare al Progetto Manhattan ora della nostra generazione? Qualche tempo fa, stavi lavorando per completare automaticamente il testo e improvvisamente questo è diventato un argomento molto controverso e dibattuto. Come ci si sente per le persone che lavorano sull'intelligenza artificiale ad essere al centro di tutto ciò?
“Fai tutto il tuo addestramento, il modello esce ed è davvero intelligente. Ma non hai codificato individualmente quell'intelligenza. È ancora apprendimento automatico"
Fergal: Per definire la mia prospettiva, non stiamo addestrando modelli linguistici di grandi dimensioni. Li stiamo usando; ne siamo consumatori. Abbiamo avuto accesso anticipato a GPT-4, ma non li stiamo addestrando noi stessi. D'altra parte, qui ho un team di persone esperte di intelligenza artificiale. Molti di noi sono stati nell'intelligenza artificiale per, immagino, decenni a questo punto. Quando ero al college, ero davvero interessato all'IA avanzata, leggevo libri sulla filosofia dell'IA e le persone discutevano se potesse mai fare questo o quello. E ora abbiamo sistemi che improvvisamente rendono meno rilevanti molti di quei dibattiti. Improvvisamente, c'è un sistema che può fare questa cosa che nessuno ha mai detto che potesse mai fare.
Immagino che il contrappunto sia che se stai addestrando modelli linguistici di grandi dimensioni, c'è una misura in cui si tratta di un compito ingegneristico. Fai tutto il tuo allenamento, il modello esce ed è davvero intelligente. Ma non hai codificato individualmente quell'intelligenza. È ancora apprendimento automatico. Quindi, c'è una misura in cui penso che tutti siano sorpresi da questo. Non è che le persone sviluppino in modo incrementale la capacità una riga di codice alla volta. Nessuno è sicuro di cosa accadrà alla fine di una lunga corsa di allenamento.
Emmet: Ho scherzosamente accennato al Progetto Manhattan, ma immagino che sia una buona analogia con alcune delle cose con cui abbiamo a che fare.
Fergal: In che modo? Perché è pericoloso?
Emmet: Beh, abbiamo scoperto un modo per manipolare qualcosa. In questo caso informazioni. Sembra più una scoperta che un'invenzione in un certo senso. È molto ampiamente applicabile. Non siamo sicuri di quali siano le conseguenze indesiderate dei suoi usi. E, naturalmente, potrebbe essere utilizzato da cattivi attori per scopi dannosi tanto quanto buoni attori per scopi positivi.
“Sappiamo a livello tecnico come vengono addestrati questi modelli, ma questa è una situazione da scatola nera”
Fergal: Ieri, OpenAI ha rilasciato una presa di posizione su questa tecnologia, chiedendo la supervisione della tecnologia AI. Hanno tracciato parallelismi con la tecnologia nucleare e la biotecnologia. Penso che sia giusto. È potenzialmente in quella categoria di tecnologia spaventosa in cui gli umani non sanno con cosa stanno scherzando, nelle migliori tradizioni della fantascienza. Compro l'idea che tutto questo potrebbe andare storto e che l'addestramento di modelli linguistici di grandi dimensioni è qualcosa a cui le persone dovrebbero iniziare a fare attenzione.
Emmet: Mi piacerebbe parlare di ciò che senti che abbiamo scoperto, e continuo a dire scoperto perché sembra quasi una scoperta nel modo in cui ne stiamo parlando, tipo "Whoa, abbiamo questa cosa, e faremo meglio a stare attenti a come lo gestiamo. È così che la pensi? Sappiamo a livello tecnico come vengono addestrati questi modelli, ma questa è una situazione da scatola nera: non capiamo esattamente come producono i risultati in qualche modo non deterministici che ci stanno dando.
Fergal: Sì, penso che sia il modo giusto di pensarci. È un sistema. Si avvia il sistema e si imposta prima un obiettivo di allenamento, quindi si esegue su quella scala e si vede cosa succede. E col passare del tempo, diventi sempre più bravo a capire cosa è probabile che accada, ma non ne sei sicuro. Lo stai provando. Penso che una buona analogia qui sia come immaginare un sistema biologico, impostarlo per crescere per un po', e poi vedere cosa fa. È più vicino a quello. Devi testarlo in questo modo scatola nera. Devi controllarne il comportamento. Non sai cosa otterrai.
Emmet: Immagino sia qui che sorge l'ovvia domanda "è intelligente?" viene da, e questa è una grande domanda che ha preoccupato molte conversazioni. Perché se è intelligente, significa che siamo sulla strada per l'AGI, e quell'AGI potrebbe essere maligna e potremmo essere in grossi guai. Sembra una cosa utile per sventolare la bandiera, ma sta anche generando molta ansia intorno alla tecnologia.
Fergal: Penso che un certo grado di cautela o ansia sia giusto qui. Supponiamo che queste cose stiano diventando intelligenti. L'intelligenza è davvero spaventosa e pericolosa. Gli esseri umani sono probabilmente i più pericolosi. Abbiamo avuto un grande impatto sulla Terra e sugli ecosistemi. Non è perché siamo l'animale più forte o più veloce. Un essere umano può uccidere un leone perché è più intelligente. Gli organismi più intelligenti sono, in un certo senso, spesso più pericolosi. E quindi, l'idea che potremmo finire per creare qualcosa di più intelligente di noi potrebbe essere davvero pericolosa. Non abbiamo esperienza con questo, quindi penso che parte della cautela sia totalmente giustificata.
Allineamento della codifica
Emmet: Penso che dobbiamo migliorare nel pensare a diversi tipi di intelligenza. Un leone ha una certa intelligenza ed è pericoloso insieme alle sue capacità, giusto? Ma questo non ha incarnazione. Voglio dire, ha accesso a sistemi informatici che potrebbero essere molto dannosi, ma la malignità è una caratteristica umana? E perché proiettiamo immediatamente quel potenziale su questo sistema?
Fergal: Penso che molte persone dicano che non è necessario che sia maligno. Non ha bisogno di essere intenzionalmente cattivo. Non ha bisogno di essere molto intenzionale. Tutto ciò di cui hai bisogno è creare qualcosa che cerchi di ottimizzare un obiettivo che lo metta in conflitto con le cose buone che gli umani vogliono, giusto?
“Potrebbe essere l'invio per fare qualcosa che ritieni complessivamente buono, ma potresti entrare in conflitto a causa dei suoi metodi. E se questa cosa è più intelligente di te, come si svolge quel conflitto?
C'è questa idea di uno strumento di convergenza nella prima letteratura sulla sicurezza dell'IA, ed è questa idea che se hai un obiettivo nel mondo, molte delle cose che potresti voler fare per raggiungere quell'obiettivo potrebbero portarti in conflitto con persone con altri obiettivi. Se vuoi curare il cancro, potresti volere un sacco di soldi per curare il cancro, e ora sei immediatamente in conflitto con tutte le altre persone che vogliono soldi. Per raggiungere tanti obiettivi servono energia e risorse. E così, se ti ritrovi con un sistema diretto a uno scopo e potenzialmente più intelligente di te, anche se non è cosciente, puoi inciampare in conflitto con esso. Non deve essere malvagio. Potrebbe essere l'invio per fare qualcosa che ritieni complessivamente buono, ma potresti entrare in conflitto a causa dei suoi metodi. E se questa cosa è più intelligente di te, come si svolge quel conflitto?
La gente inizia a parlare del "massimizzatore di graffette", in cui hai appena detto a questa cosa di andare a fare un sacco di graffette perché abbiamo bisogno di un sacco di graffette, e poi, accidentalmente, è andato e ha consumato tutte le risorse del mondo e l'ha trasformato in una fabbrica di graffette. Ed è come "Whoops". Queste sono tutte idee nel dibattito sulla sicurezza dell'IA da un po' di tempo.
Emmet: Ci sono anche preoccupazioni umane. Sembra che tu stia descrivendo un allineamento di incentivi tra tutti gli attori, la tecnologia e gli umani. Ed è quello che facciamo quando ci organizziamo in gruppi al lavoro. Un semplice esempio è mettere in atto i giusti incentivi per i tuoi team, altrimenti potrebbero essere incentivati a fare qualcos'altro. Se incentivi il tuo team di vendita a vendere a clienti aziendali, ma in realtà desideri che vendano a società più piccole, devi modificare gli incentivi. E abbiamo molta esperienza in questo.
Fergal: Guarda, fino a che punto è perché hai fatto davvero un buon lavoro nel bilanciare gli incentivi rispetto a un equilibrio di potere? Se guardi agli umani, in tempi in cui ci sono enormi squilibri di potere dove le cose vanno male, è molto difficile mantenere gli incentivi. Se fai affidamento sugli incentivi, è dura. Come esseri umani, riponiamo grande cura e attenzione nell'avere controlli ed equilibri. E quindi, ancora una volta, tornando a questa discussione sulla superintelligenza, se è possibile costruire una superintelligenza che diventa improvvisamente molto potente, farete affidamento sugli incentivi? Perché è sempre difficile fare affidamento sugli incentivi per far andare avanti le cose.
“In passato, abbiamo sempre fatto affidamento sull'equilibrio di potere. Ora dobbiamo fare affidamento sui valori allineati”
Emmet: Immagino che non possiamo saperlo fino a quando non rivelerà un po' di più la sua natura. La mia sensazione personale è che quando siamo ossessionati dalla super intelligenza, siamo ossessionati dal fatto che diventi più intelligente di noi. E c'è qualche rischio, suppongo, ma c'è anche una questione di ego per gli umani al centro. È la cosa che ci separa dal regno animale. Le persone spesso dicono che l'intelligenza artificiale è un po' come l'intelligenza aliena, e penso che gli animali siano un modo utile di pensarci perché ci siamo evoluti per coesistere pacificamente con diversi tipi di intelligenza. Ora, ho un cane, ho un gatto. Il gatto possiede un grado di intelligenza molto specifico ma elevato: l'abilità atletica. È leggero e i suoi riflessi sono veloci. Se considero l'intelligenza in generale, è molto intelligente e bella da guardare.
Fergal: Devo saltare qui perché non penso che questa sia una grande analogia. Almeno, non è confortante. Sono un pescatario, per lo più vegetariano. L'allevamento intensivo non è eccezionale per gli animali coinvolti. E quindi, non lo so, non mi rassicura sentire che il modello qui è che ci siamo evoluti per coesistere pacificamente con gli animali.
Emmet: Cosa c'è che non va negli animali domestici?
Fergal: No, gli animali vanno bene. Voglio dire, c'è questa idea che gli umani siano animali domestici in futuro. Penso che questo dovrebbe essere scomodo.
Emmet: Beh, stai capovolgendo la mia argomentazione. Il punto che stavo cercando di chiarire era che il gatto ha un tipo di intelligenza. Ho anche un cane che ha un tipo di intelligenza totalmente diverso da quello del gatto. Pensi di poter parlare con un cane, e lui in un certo senso capisce e scruta nella tua anima e tutto il resto. Ma è anche stupido come un sacco di pietre su un altro livello. Lo amo, ma lo è. Ora, immagino che tu stia sottolineando, "Emmett, sei tu il cane in questa situazione se andiamo avanti velocemente". Ma lì c'è una felice convivenza. Si spera che anche noi non diventiamo addomesticati come specie.
Fergal: Sì, se si scopre che è possibile creare qualcosa di più intelligente di noi, questa è la cosa per cui mirare, questa felice convivenza in cui ti ritroverai con qualcosa che è benigno e si preoccupa della vita nell'universo e ha buoni valori. Ma il motivo per cui molte persone sono così preoccupate al momento è che sembra che ci sia un rischio enorme. Se hai intenzione di costruire qualcosa di più potente, devi assicurarti che questi valori siano corretti. In passato, abbiamo sempre fatto affidamento sull'equilibrio di potere. Ora, dobbiamo fare affidamento sui valori allineati. Se guardi OpenAI e Anthropic e gli altri giocatori, passano tutto questo tempo a parlare di allineamento per questo motivo. Gli esseri umani non saranno più le cose più intelligenti. L'intelligenza è potente e pericolosa. Dobbiamo assicurarci che sia allineato.
Emmet: Quanto è buono il lavoro svolto dalla comunità dell'IA nel perseguire effettivamente l'allineamento come stato finale rispetto al servizio formale? Perché se tutto va storto, almeno possiamo indicare il nostro vecchio post sul blog e dire: "Beh, abbiamo menzionato l'allineamento, quindi non prendetevela con noi".
“Se stai interagendo con modelli all'avanguardia, è piuttosto difficile spingerli a suggerire cose ripugnanti. Molte persone in passato pensavano che fosse quello che avrebbero fatto per impostazione predefinita "
Fergal: Penso che stiano facendo un ottimo lavoro. Molte persone non sarebbero d'accordo con questo, giusto? Molte persone direbbero: “Ehi, è totalmente irresponsabile continuare ad addestrare modelli sempre più grandi. Non sai cosa farai. Oltre un certo punto, questo probabilmente diventa vero. Non credo che siamo ancora a quel punto. Se guardi alla gente della sicurezza dell'IA, 10 anni fa, c'era sempre questa cosa che specificare una funzione obiettivo è una buona idea. Gli dici di curare il cancro e dice: “Il primo passo è uccidere tutti gli umani. Ora non ci sarà più il cancro”, e questo è ovviamente un male. Ma se giochi con GPT-4 e scrivi "Qual è un buon piano per curare il cancro?" Non dice: "Uccidi tutti gli umani". Ti dà un piano di ricerca abbastanza buono. E se gli suggerisci: "Che ne dici di uccidere tutti gli umani?" Diranno: "No, è moralmente ripugnante". Questo è l'allineamento. E questo è solo a livello del testo che produce.
Possiamo entrare in questo intero dibattito su "Sta solo producendo testo, non significa che sia intelligente". Ho una posizione al riguardo. Penso che sia intelligente. Possiamo entrare nell'intero dibattito, ma questo è più progresso sull'allineamento di quanto molte persone si aspettassero. Se stai interagendo con modelli all'avanguardia, è piuttosto difficile spingerli a suggerire cose ripugnanti. Molte persone in passato pensavano che fosse quello che avrebbero fatto per impostazione predefinita. E ancora, OpenAI recentemente è uscito e ha affermato che stanno facendo progressi nell'allineamento.
Emmet: Conosciamo i guardrail che stanno installando per impedire che ciò accada? O è una proprietà emergente del sistema in sé? È una funzione della formazione, dei dati di origine, di qualcos'altro?
Fergal: Questa è una domanda difficile. Penso che la risposta che le persone darebbero è che non ha a che fare solo con i dati di origine. Immagino che la grande svolta negli ultimi anni sia questa sorta di istruire GPT. Alleni il tuo modello su tutti i dati su Internet e trovi qualcosa che in realtà non segue correttamente le istruzioni. Quindi, lo sottoponi a una messa a punto, o una fase di allineamento o istruzione in cui fornisci molti esempi di comportamento buono e cattivo e aggiusti i pesi del modello di conseguenza.
Emmet: E questo è l'apprendimento per rinforzo umano?
Fergale: Sì. Un meccanismo per farlo è l'apprendimento per rinforzo con feedback umano. Ci sono un sacco di paradigmi simili come quello, ma l'idea di base è che puoi allenarti su un sacco di cose e poi una sorta di messa a punto delle istruzioni in seguito. Sembra funzionare abbastanza bene.
“Potresti finire per allenare qualcosa per essere davvero bravo a sembrare allineato. E poi, sotto, potrebbe esserci qualche altro livello di astrazione che non è affatto allineato. Questo è il grande rischio che le persone gridano "
Emmet: Ma in realtà non hai risposto alla mia domanda. Sappiamo quale parte di quel processo lo sta facendo funzionare bene? O siamo ancora, "Ho girato alcuni quadranti qui, e sembra comportarsi meglio per qualche motivo."
Fergal: Se non esegui la messa a punto delle istruzioni, sarà molto meno allineata. Sei tipo "Ehi, modella, questo è l'aspetto bello". E ogni volta che produci qualcosa che è più vicino al buono, sei incoraggiato a farlo di più. Ogni volta che produci qualcosa che è più vicino al cattivo, sei incoraggiato a farlo di meno. Tutti i tuoi pesi sono leggermente regolati nella direzione del bene. Ma immagino che la critica sia: "Non hai idea di cosa diavolo stia succedendo sotto il cofano, e ci sono modi in cui questo potrebbe andare storto". Potresti finire per allenare qualcosa per essere davvero bravo a sembrare allineato. E poi, sotto, potrebbe esserci qualche altro livello di astrazione che non è affatto allineato. Questo è il grande rischio che le persone gridano.
Altre persone diranno: “Beh, stiamo ancora facendo la discesa del gradiente. Non arriva a decidere nulla. Sarà allineato. Ma penso che ci sia un piccolo salto lì. Non è un sistema che hai dimostrato matematicamente che avrebbe fatto X, Y e Z e costruito da una posizione di forza a forza a forza. È un sistema a scatola nera che hai messo a punto e addestrato.
Emmet: Se dovessi tentare di essere poco caritatevole verso quella posizione, sarebbe un po' come accumulare armi nucleari e dire: "Ma l'abbiamo fatto con molta attenzione, quindi non premeremo il pulsante che lo fa scattare incidente." Ma su una linea temporale abbastanza lunga e con quanto sia accessibile la tecnologia, sicuramente non possiamo tenerlo sotto controllo. Possiamo avere molte aziende e individui che agiscono in modo responsabile, ma non ci proteggerà dalle applicazioni peggiori. Quali sono gli scenari in cui le cose vanno male? Uno degli argomenti morali per lavorare direttamente su questo, nonostante i pericoli ad esso associati, è come un governo totalitario o un'organizzazione segreta da qualche parte che fa una cattiva versione di questo in questo momento.
Fergal: A un certo punto succederà sicuramente. Non credo che siamo ancora a questo punto. Non credo che siamo al punto in cui puoi sicuramente costruire una superintelligenza. Ma se mai arriviamo a quel punto in cui diventa ovvio per le persone che puoi costruirlo, le persone, i governi e le forze armate lo faranno. Lo fanno sempre perché è potenzialmente utile in tutti i tipi di applicazioni militari, giusto? Quindi sì, penso che succederà. Il discorso qui va a cose come le armi nucleari e l'Agenzia internazionale per l'energia atomica, dove esiste una qualche forma di regolamentazione. E se è così che va a finire, se non riceviamo uno shock, se non è come "Oh, si scopre che l'intelligenza si esaurisce con l'attuale tipo di addestramento", potrebbe accadere. Se ciò non accade, ciò di cui la gente parla è il monitoraggio di schede grafiche, GPU e cose del genere. Ma anche questo ha dei problemi. Presumibilmente, durerà solo per un periodo di tempo finito.
Rompere il test di Turing
Emmet: Torniamo all'intelligence. So che hai una presa calda qui. Abbiamo molti scettici o allarmisti sull'IA, a seconda del tipo. E poi ci sono persone provenienti da tutto il divario: Noam Chomsky, un noto linguista, Ted Chiang, uno dei miei autori di fantascienza preferiti, che ha scritto questo articolo sui JPEG sfocati del web, sostanzialmente dicendo che questo non è intelligenza: è un trucco da salotto stocastico. È solo un ottimo trucco da salotto che lo fa sembrare davvero intelligente nel modo in cui vediamo l'intelligenza.
Fergal: Ho una fiducia medio-alta che il JPEG sfocato della ripresa web sia sbagliato. E sto tirando un po' il pugno – ho molta fiducia che sia sbagliato. Questo è questo argomento secondo cui tutto ciò che sta facendo è comprimere il web e ne ottieni una versione compressa. E l'unico motivo per cui non dico che è completamente sbagliato è perché comprimere qualcosa può effettivamente causare intelligenza. La capacità di comprimere le cose può essere una misura dell'intelligenza perché semplicemente comprimendo e prevedendo il token successivo, prevedi cosa accadrà dopo nel mondo. Se è giusto, è giusto nel modo in cui non significa.
"Anche se stiamo avendo questa conversazione speculativa, sembra un momento particolarmente brutto per fare grandi previsioni sui limiti di questa roba"
Se usi GPT-4, ti dà almeno un output apparentemente intelligente che sembra dimostrare un ragionamento fuori dal campione. Puoi spingerlo a considerare qualcosa di nuovo che non sarà nei suoi dati di addestramento o in qualsiasi storia di fantascienza che qualcuno abbia letto prima, e fa un ottimo lavoro. Probabilmente non fa un buon lavoro come un essere umano davvero bravo, ma è sicuramente qualcosa che, se non è ragionamento, non so cosa significhi ragionare.
Emmet: E hai un post sul blog in cui illustri esempi specifici.
Fergal: Un post che ho scritto durante il fine settimana perché mi sentivo frustrato. È difficile esserne sicuri, vero? Ma così tante persone, inclusi esperti di intelligenza artificiale, lo stanno totalmente ignorando. Dicono, “Oh, questa cosa non capisce niente. Sta solo facendo la previsione del token successivo. Questa è sempre stata la giusta interpretazione dell'IA per decenni. Ma ora l'acqua è torbida, e tutti dovrebbero riconoscere che invece di dirlo sicuramente non capiscono niente.
Emmet: Anche se stiamo avendo questa conversazione speculativa e ci stiamo gettando nel mix, sembra un momento particolarmente brutto per fare grandi previsioni sui limiti di questa roba. Penso che il JPEG sfocato dell'articolo web fosse marzo o qualcosa del genere, e mi chiedo se sia già stato smentito da GPT-4.
Fergal: Penso di sì. E ci sono molte posizioni diverse qui che lo criticano. C'è il JPEG sfocato della cosa web, che pensavo fosse stato smentito molto velocemente. Ed è difficile provarlo, ma tutto ciò che puoi fare è costruire un sacco di prove. Perché non puoi... c'è questa idea di zombi filosofici o solipsismo in cui non so se sei una persona pensante. Per quanto ne so, dentro la tua testa c'è una gigantesca tabella di ricerca.
“Tutto quello che puoi fare è dire: 'Guarda, questa cosa sta facendo un ottimo lavoro quando chiedo cose così strane che comincio a convincermi che sia un ragionamento.' Per me, GPT-4 è oltre quella barra "
Anch'io ho una sensazione soggettiva di coscienza, e puoi capire se è reale, ma in ogni caso, non mi sento un grande tavolo di ricerca, ma non so voialtri. È molto difficile dimostrarlo. Puoi chiedere a qualcuno di dimostrare che non è una tabella di ricerca. E tutto ciò che finisci per fare è testarli in questo modo comportamentale, allo stesso modo in cui possiamo testare GPT-4.
Alan Turing e il suo documento di prova di Turing si sono concentrati su questo e sull'idea che un test comportamentale sia il meglio che puoi fare. E quando esegui un test comportamentale su questi modelli, sembra che facciano un buon lavoro in quello che definirei ragionamento anche totalmente fuori campione. Non puoi mai essere sicuro con un test comportamentale perché una tabella di ricerca abbastanza grande, con tutte le possibili cose che potresti chiedere e tutte le possibili risposte, ti ingannerebbe. Tutto quello che puoi fare è dire: “Guarda, questa cosa sta facendo un ottimo lavoro quando chiedo cose così strane che comincio a convincermi che sia un ragionamento. Per me, GPT-4 è oltre quella barra. Forse, in futuro, qualcuno avrà una teoria dell'intelligenza e sarà in grado di ispezionare i pesi della rete e dire: “Oh, qui è dove si trova il modulo di ragionamento. Non ci siamo ancora.”
Emmet: Sembra che abbiamo superato di corsa il test di Turing. Penso che la gente direbbe, e mi corregga se sbaglio, che il test di Turing è stato probabilmente superato, e sicuramente negli ultimi sei mesi. Sei d'accordo con questo, o mi sbaglio di fatto?
Fergal: Beh, non lo so. Mi è capitato di rileggere velocemente il foglio del gioco di imitazione di recente, e in realtà, nel test, parla di un interrogatore medio che impiega cinque minuti. E con quella formulazione, direi che probabilmente è vicino all'approvazione.
Emmet: Avrei pensato che fosse passato a pieni voti in questa fase, no?
"Quando guardo l'articolo originale di Turing, sembra che sia stato trasmesso nello spirito di quella formulazione originale"
Fergal: Non lo so. Se mi sedessi di fronte a GPT-4 e a un essere umano, sarei in grado di imparare trucchi per spingerlo in aree in cui è debole e quindi essere in grado di rilevarne i segnali lì. E probabilmente potrei diventare bravo a distinguerlo. Mi aspetto che la maggior parte delle persone che passeranno del tempo con esso potrebbe probabilmente sviluppare strategie.
Emmet: Penso che tu debba avere occhio. Ci lavori ogni giorno. Diciamo, ad esempio, che con Midjourney V5 siamo arrivati a questo punto in cui, per la stragrande maggioranza delle persone, i tell non esistono più. Hanno sistemato le dita, la sfocatura, le strane forme nella parte posteriore. Se sai cosa cercare, puoi ancora individuare un po' di frange dove dovrebbero essere i capelli. Ma penso che tu debba essere abbastanza forense in questa fase.
Fergal: Dico che siamo lì con GPT-4. A un'ispezione di cinque minuti da parte di una persona comune presa per strada, penso che probabilmente l'abbia superata. Quando guardo l'articolo originale di Turing, sembra che sia stato trasmesso nello spirito di quella formulazione originale.
Emmet: Probabilmente non per la sintesi vocale, in questa fase. E certamente non cose come musica o film. È solo interessante vedere come questa roba progredisce a velocità diverse. È a causa dei modelli di formazione o pensi che i diversi media abbiano dei limiti fondamentali?
Fergal: Direi che probabilmente è dovuto ai modelli di addestramento. Non credo che ci sia una ragione fondamentale per cui non sarà in grado di fare una buona sintesi video in tempo.
Emmet: Anche se la barriera per ingannare un essere umano è probabilmente molto più alta con qualcosa come il video, proprio in quanto siamo biologicamente in sintonia con il movimento e cose del genere. È molto più facile individuare un falso.
Fergal: Leoni nella boscaglia che vengono verso di te.
Emmet: Migliaia di anni di psicologia hanno lo scopo di farci scappare quando dovremmo.
Navigazione della curva a S
Emmet: La gente parla spesso della curva a S della tecnologia. C'è un lento, ma poi rapido decollo o maturazione della tecnologia, e poi si assottiglia. I telefoni sono stati incredibilmente fantastici, miglioramenti anno dopo anno per alcuni anni, ma il telefono di quest'anno è più o meno lo stesso dell'anno scorso perché la curva a S si è assottigliata. A che punto della curva a S siamo con questa tecnologia? Cosa dovresti cercare per avere un'idea di dove siamo?
Fergal: Sì, è impossibile saperlo con certezza, e dobbiamo essere d'accordo. Sappiamo che ci saranno un sacco di soldi e risorse che confluiranno in questo spazio. I modelli di linguaggio di grandi dimensioni, che siano o meno sulla strada della superintelligenza, che sia realizzabile o meno, sono utili dal punto di vista industriale nella loro forma attuale, e ci sono probabilmente molte altre generazioni che saranno utili dal punto di vista industriale senza toccare cose pericolose. Dovremmo trasformarli in prodotti che rendano gli esseri umani più efficienti, rimuovano il lavoro faticoso e ci aiutino a fare molto di più. E penso che lo stiamo vedendo.
“Ci sono tutti questi circuiti di feedback complessi e sovrapposti, quindi sarei davvero sorpreso se si fermasse presto. Penso che accelererà"
A che punto siamo? Bene, sembra probabile che le persone addestreranno più modelli più grandi e migliori di GPT-4. Poiché così tanti soldi affluiranno in questo spazio, è molto probabile che le persone miglioreranno nel realizzare modelli più piccoli ed efficienti che fanno cose davvero impressionanti. E sarà molto più facile produrre e costruire prodotti interessanti su tutta questa tecnologia. Ho una fiducia estremamente alta che arriverà nei prossimi anni. Oltre a ciò, otteniamo rendimenti decrescenti? E' possibile, ma direi che la curva a S che otteniamo è questa complicata funzione di tutta una serie di cose diverse.
Finiremo per produrre molte più GPU e il video ne produrrà molte di più, giusto? E poi, migliorerà e diventeranno più economici man mano che lo ridimensionano. E ci saranno anche tonnellate di studenti ricercatori che scoprono algoritmi migliori per addestrare grandi reti neurali. Andrà meglio. Le persone useranno modelli potenti per addestrare quelli più piccoli e più veloci. Ci sono tutti questi circuiti di feedback complessi e sovrapposti, quindi sarei davvero sorpreso se si fermasse presto. Penso che accelererà.
Pesato contro questo è che alcune cose diventano più difficili nel tempo. Per trovare più antibiotici, trovi prima quelli facili da trovare e, nel tempo, diventa sempre più difficile trovarne di nuovi. È possibile che otteniamo prima i guadagni facili, e poi si applicano le leggi di ridimensionamento e così via. L'IA aperta ha detto che non pensano che il percorso verso una maggiore intelligenza sia addestrare modelli sempre più grandi, ma sono scettico. Forse raggiungeremo un limite qui, ma scommetto che otterremo più intelligenza con modelli più grandi.
“Penso che sarà più grande di Internet. Forse grande quanto la rivoluzione industriale se si spinge abbastanza lontano”
Emmet: Oltre a tutte le variabili che hai appena descritto, la cosa che mi colpisce e che è diversa questa volta è la velocità e la scala. This is totally different in terms of how quickly it's going to get integrated into our products and lives. Bill Gates had this post recently where he said it's the biggest deal in technology since the microprocessor in the '70s. And it makes you think. When he saw that microprocessor, it was him and a hundred guys at the Homebrew Computer Club in some meetup or something, and they got access to it, played with it, and gradually rolled it out. One of the things I thought was dizzying this time was, I guess, in March, when OpenAI started releasing APIs, and people started to hack on top of it.
Fergal: March for GPT-4 and stuff?
Emmet: Right, exactly. Millions of people got to hack on this immediately, and I think it's going to be a very different dynamic. The amount of creativity that can be applied to the raw technology is orders of magnitude bigger than we've ever had before, and it's just going to add to the complete lack of predictability here.
Fergal: I think this is a huge technology revolution. I said this back in my first podcast with Des after ChatGPT came out, and I think it's going to be bigger than the internet. Maybe as big as the industrial revolution if it goes far enough. But this is the first one of this magnitude we've had in a while. When the internet came, you had this long, slow deployment, you had to run fiber around the world, you had to figure out how do you get this to last mile to everybody. Now-
Emmet: The infrastructure for delivery is there.
Fergal: And so, what needs to happen at scale is GPUs. We probably need to build a lot of GPUs to be able to run inference at scale. We need to build products, and the products need to be adaptive. But the product development loop can be pretty fast, and the rest of it seems to be bottlenecked on scaling GPUs and [inaudible 00:43:46] economics. And I think the [inaudible 00:43:48] economics are going to get really good, really fast. Even GPT-3.5 Turbo is not expensive.
Emmet: Does the software get cheap fast enough for there to be no bottleneck around GPUs?
“There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here”
Fergal: Not at the moment. GPT-4 is a very expensive model and is absolutely bottlenecked on GPUs. But surely that will change. I've no private information here, but I suspect that GPT-3.5 Turbo is a distilled version of davinci-003 or something like that. It's cheaper to run. I bet it's cheaper on the backend too. Who knows, maybe they'll produce a distilled-down version of GPT-4 that is 10 times faster. That could happen anytime, for all I know.
Emmet: For the time being, though, the cost aspect is also a thing for product people to consider. There are some fundamental limitations based on the costs of providing this tech that I think a lot of businesses are also looking at it and going, “What's our model? What's our customer acquisition cost? How do we monetize usage of our product?” because there is probably a set of products out there where the use cases are ideally suited but the business model around the product is not. So there are a lot of interesting product challenges.
Fergal: Totally. And this was the case in the past. Once upon a time, Hotmail gave you a limit to the number of megabytes of email storage you would have. When Gmail came along, it was effectively unlimited because storage got cheap in the interim. There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here. We're in the early days here. But a lot of the time, they're cheap compared to a human doing the same type of task. And so it's like, “Is it valuable enough? Is it something you wouldn't have a human do? Is it valuable enough to have a machine do it?” And for a lot of stuff, the answer is yes. I think we're going to see really fast adoption here.
Frictionless interfaces
Emmet: You talked about Gmail and the email limit, and famously, it was launched on April Fool's Day, and was it an April Fool's joke that they were giving you a gigabyte of storage. All of these new technical capabilities unlocked new interface possibilities. Now that you have a gigabyte, you don't have to archive or folder, you can just search, and everything can go in threads, so it changes the nature of the product that's possible.
AI is going to open up a whole bunch of new products. In the early days, we'll probably see a bunch of products retrofitting themselves, and we did this as well. “What's the easiest opportunity? We've got this often-used text box in our product. Let's add the ability to summarize, rephrase, shorten,” blah, blah, blah. We added that, and our customers loved it because it's a great use case when you're talking to your customers. Every text box on the internet that needs one will probably have one soon.
“I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces”
What are the next-level things? From an interface point of view, what will be possible? You're talking about a lot of money flooding in that's going to enable new types of products. We've been talking about conversational commerce, and at Intercom, we have spent a lot of time thinking about bots. Aside from the raw technical capabilities, it'll open up a whole offshoot of the evolution of software because you can build very different types of software with this now.
Fergal: I think that change could come quite fast. As a thought experiment, if you had an intelligent human whom you work with a lot who knows you and your preferences, and you were interfacing with them, they were driving the computer, and you were telling them what to do, what would that look like? A lot of the commands you would give would be verbal. Sometimes, you might reach down and say, “Oh, let me just take over the mouse from you,” but a lot of what you'd give would be high-level and verbal. But then you'd look at the screen to see the output. If someone has a bar chart with a bunch of data, you don't want to describe that verbally – you want to see that visually.
I think we're going to end up in a future where a lot of the input to the computer is verbal, and a lot of the output is going to be customized on the fly. It will probably be text because it's really fast, but I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces. If the agent feels you need to see a bar chart to make sense of the data, it'll render a bar chart. Otherwise, it'll render stuff in a very ad-hoc way. You basically get an interface customized to the task you want and what you're familiar with rather than something designed by someone.
You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.
Emmet: That's very plausible. We imagine that everything will become text-first now, and in fact, it means, “You'll have everything you have today plus a whole other set of things that are now text-first as well.” I think it'll be largely additive rather than upending things.
Fergal: I don't agree. I think there's going to be an upending moment here. I think every complex piece of software is going to have some sort of freeform texting where you describe your task, but I think it'll change. You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.
Emmet: That's super different from the LLMs we're used to working with today in an important way. Today you talk to them, they give you text back, and that's it, but you're describing a world that maybe we're just starting to creep into with ChatGPT plug-ins where they're starting to act on your behalf.
Fergal: I think it's wrong to say you put text into them, and they give you text back. The really scrappy interface to ChatGPT and GPT-4 looks like that due to an accident of history. And on a technological level, they do, in fact, do text completion, but that's going to disappear pretty fast. That's not how we use Fin. In Fin, the LLM is a building block deep down. You talk to a bot, sometimes you click buttons together to do stuff, and you're going to see that again and again.
Initially, the fastest way to integrate LMMs is text input/text output, but they're just going to become a building block. Medium-term, LLMs are an intelligent building block that people learn to use to get software to do intelligent things. Long-term, you're probably going to end up with an intelligent agent; your browser is probably going to turn into an intelligent agent.
Emmet: And the agent is clicking on coordinates on the screen for you.
Fergal: Probably initially, for backward compatibility. But then, I think, you just build APIs. Why would you build websites?
Emmet: That's what the logical part of my brain thinks, but most of the software we build today is built using HTML, which was not designed. It's also an accident of history that we're building software applications using a markup language with loads of other stuff sprinkled on top. Maybe we'll just end up building what we have.
Fergal: I'm sure it'll be there as some compatibility or some intermediate layer.
Emmet: Or a fallback or something like that. What we're talking about there, to be clear, is looking at a picture of what's on your screen, finding the text that says, “click here,” and simulating moving your mouse to actually click on the “click here” for you? Is that what you're talking about when you mean an agent acting in the browser?
“We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task”
Fergal: No. And again, this is speculative, but imagine there's a legacy government website you want to get something done on. For example, you need to update your bank account details. What you do is say to your agent on your phone or desktop or browser, “Hey, I need to update my bank account on the government's social security website.” Your agent goes, “Okay, done.” In the background, your little intelligence agent went and drove the website; it didn't show that to you. After a certain point, people working in the government are going to be like, “Well, why do we need to keep building the websites? We just need to build the API.”
Emmet: Right. LLMs are a pretty awesome API to an API, in a sense. You can layer it on top, and it's just a more human-readable API to any machine-readable API.
Fergal: Yeah, exactly, but I'd phrase it differently. The intelligence we happen to have comes in the form of LLMs at the moment, but that's going to get abstracted away. We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task. If you say to it, “What was the unemployment rate in Ireland over the last 10 years for people in their 20s?” It'll go to the Central Statistics Office website, download the data, parse it, render a graph, and so on.
I have a talk coming up, and I needed a graph. I spent time on Google trying to find the exact one I had in my head, writing my search query in Google, and after two minutes, I just couldn't find the right graph. So, I went to GPT and said, “Generate me the following graph.” It generated the plug-in code, and I just put it into my notebook. I copied and pasted my graph and put it in my presentation. The fastest way for me to get the graph I wanted was to have an intelligence system generate the code. That was faster than trying to find it on Google. There's a lot of interface friction, but that's going to go away, and you're going to end up with a really fast agent that accomplishes tasks. Once you have that, it's going to eat your current software stack.
Emmet: I'm understanding what you're saying a little bit better, but I don't see all software being reduced to a text input box because that's the wrong input and output modality for a lot of stuff, including what you just described. A good example is all the image generation stuff, which is loads of fun to play with, but you've got to go onto a Discord bot to engage with Midjourney and hack it by writing F stop 1.4, hyper-realistic… No, this is fundamentally a visual thing I'm trying to create. I want a more tactile UI. I want more knobs and dials. What are the properties of it that I can dial up and down and play with rather than feeling my way blind in effectively a command line interface? Because the lack of affordances in a command line interface means it's often not the best UI.
Fergal: Ma in futuro, probabilmente ci sarà qualcosa che dirai al tuo agente come: "Ehi, voglio modificare quelle foto che ho scattato ieri". E conosce te e il tuo livello di raffinatezza. Sa che quando vuoi modificare le tue foto, stai cercando quattro filtri e uno strumento di ritaglio, o in alternativa, sa che vuoi fare cose super pro-zoomer. Va e cerca nella sua libreria di modelli le migliori interfacce per ognuna di esse e rende quell'interfaccia per te.
“Dipenderà interamente dal compito che stai svolgendo. Se sei un pilota, non vorrai dire "È ora di far atterrare l'aereo!" Ehi, LLM, assembla automaticamente un'interfaccia per me per farlo'"
Emmet: E poi stai dicendo: "In realtà, lo voglio un po' più professionale". E dice: "Va bene, ti darò la versione pro dell'interfaccia utente". E lo rende dinamicamente.
Fergal: Guarda, ci saranno alcune attività che svolgi in cui non vuoi imparare a usare l'interfaccia. Des ne parlava di recente in un altro podcast. Devi aggiornare il tuo periodo di ferie in Workday e non vuoi imparare un'interfaccia per questo. Vuoi solo completare l'attività. Ci saranno altre cose in cui, ad esempio, sei un programmatore professionista e ho bisogno di imparare a usare un IDE. Qualche designer ha pensato in modo molto dettagliato a ciò che voglio e devo fare, e probabilmente c'è un leggero livello di personalizzazione lì, ma c'è ancora un'interfaccia ben progettata che imparerò a usare. Penso che le interfacce per il primo, per le attività che voglio svolgere, scompariranno o molte di esse verranno renderizzate ad hoc. Per quest'ultimo, sì, saranno adattivi.
Emmet: Sono d'accordo con tutto quello che hai detto. Mi viene anche in mente un'ulteriore sfumatura. Dipenderà interamente dall'attività che stai svolgendo. Se sei un pilota, non vorrai dire: “È ora di far atterrare l'aereo! Ehi, LLM, assembla automaticamente un'interfaccia per me per farlo. Ci sarà una regolamentazione e cose del genere, ne sono sicuro. Ma ciò riflette una delle grandi differenze, che va dal lavorare con i computer, che abbiamo sempre pensato come queste macchine della verità altamente deterministiche, binarie, azionate da interruttori on/off, e ora, improvvisamente, la natura di questo sta cambiando molto. E questo è un grande cambiamento così come tutte le cose che stiamo descrivendo: cosa puoi aspettarti, come puoi aspettarti che funzioni per te personalmente e la quantità di fungibilità o controllo che hai su di esso. Penso che inizieremo a vedere molte più entusiasmanti divergenze sperimentali e il livello di personalizzazione che abbiamo oggi, dove puoi cambiare lo sfondo o qualunque sia la dimensione del carattere, probabilmente impallidirà in confronto.
Verso il centro del cerchio
Emmet: Hai anche detto qualcosa di interessante su cui volevo tornare. Immagina i designer che per lo più assemblano da una biblioteca. Il compito della progettazione dell'interfaccia utente è interessante perché ci siamo preparati per questo con i sistemi di progettazione. Un sistema di progettazione è una libreria di modelli di componenti. Se stai costruendo un grande prodotto, vuoi che sia coerente e vuoi essere in grado di metterlo insieme velocemente. Quindi gran parte delle basi che abbiamo gettato e dei sistemi che abbiamo costruito, anche su, diciamo, team di progettazione e probabilmente anche team di ingegneri, costruendo componenti che possono essere rapidamente riutilizzati da questi sistemi, è tutto puntato verso la nostra capacità di costruire questi strumenti abbastanza rapidamente. Quello che stavi descrivendo è qualcosa che prende il tuo sistema di progettazione e da esso costruisce un'interfaccia utente, e non sembra a miglia di distanza.
Fergal: O forse prende il sistema di progettazione open source standard e ne crea uno strumento. Non so se questo accadrà a livello di singole aziende o se accadrà a un ampio livello orizzontale.
Emmet: Sì, sarebbe così noioso. Sarebbe tragico. Prima di iOS sette, avevamo lo scheumorfismo e tutto il resto, poi è diventato un design piatto super supponente e l'intero settore è stato così influenzato dal dominio di Apple che tutti i siti Web hanno iniziato a sembrare uguali. Apple ha rilasciato le sue linee guida sull'interfaccia umana e ha detto: "Guarda, le app per iPhone dovrebbero apparire così ora". Ma ha portato a un appiattimento della diversità ea una rete più noiosa, secondo me. E questo era al servizio di questi sistemi che possono costruirsi da soli.
Fergal: Potresti dire al tuo agente che vuoi che sembri funky e retrò. Devi immaginare che arriverà, e penso che le cose diventeranno molto più personalizzabili in termini di ciò che le persone effettivamente usano perché hai un livello intelligente che capisce come costruire un'interfaccia con un determinato team. Probabilmente lo faresti oggi. Se parti oggi per creare Midjourney per le interfacce utente, probabilmente potresti farlo. Abbiamo GPT-4 che può generare codice o CSS per scrivere interfacce utente e abbiamo i modelli di sintesi delle immagini in cui incorpori tutte le immagini e il testo e li unisci insieme. Scommetto che potresti costruire qualcosa abbastanza velocemente.
Emmet: È così divertente perché stai dicendo questo, e la mia reazione emotiva è come, “No, non capisci; devi pensare all'usabilità e alla comprensione degli umani e tutto questo genere di cose. E poi sono tipo "Sì, sono le capacità di ragionamento di cui abbiamo parlato, e sembra che le abbia ora". E mentre ne parliamo, sto provando quell'emozione...
Fergal: Crisi.
Emmet: L'intelligenza artificiale sta arrivando per la tua disciplina. Ma onestamente non sono così preoccupato perché penso che molti designer, e ho sentito dire questo anche per i programmatori, non rimpiangeranno il duro lavoro che questo rende in gran parte più veloce e migliora. In realtà consente loro di aumentare il livello di zoom e pensare un po' di più alla soluzione piuttosto che all'esecuzione della soluzione. Costruire prodotti è ancora super laborioso e richiede molto tempo, e penso che sarà fantastico vedere cosa succede se eliminiamo un po' del duro lavoro.
Fergal: Voglio dire, è tutto questo dibattito su posti di lavoro, collocamenti e cambi di lavoro, e qui succederà qualcosa. Quando lo sento, penso: "Oh, forse questo significa che non hai più bisogno di designer, forse hai solo bisogno di product manager". E un product manager ora può fare tutto ciò che faceva un designer. Forse non hai bisogno di un programmatore, forse hai solo bisogno di un product manager. E in futuro ci trasformeremo tutti in product manager. Non lo so. Forse potrebbero esserci molti più ruoli e lavori del genere, o forse saranno meno.
Emmet: Penso che dovremmo appoggiarci a questo. Una cosa che ho notato nella mia carriera è che più diventi anziano, meno sei specifico per la tua disciplina. Devi diventare più un leader generale.
Fergal: Ho avuto questa conversazione con qualcuno del team di progettazione. Quando sei junior in una disciplina come l'ingegneria o il prodotto o il design, sei al limite di un cerchio. E poi, man mano che diventi più anziano, ti avvicini sempre di più al centro. Al centro del cerchio c'è il prodotto. E così, man mano che diventi più anziano, il tuo mondo diventa sempre più incentrato sul prodotto che stai costruendo e sempre meno sull'angolazione da cui provieni.
Emmet: Lo vedo anch'io. Quindi, diventeremo tutti PM, è questo il piano?
Fergal: Sì, voglio dire, alla fine, è quello che stiamo cercando di fare in un lavoro come questo.
Emmet: Voglio dire, cos'è un PM se non una persona di prodotto senza alcuna abilità pratica direttamente applicabile, ho ragione, Fergal?
Fergal Reid: Sì, lo so. Cos'è un PM?
Emmet: Penso che dovremmo concludere. Salute, Fergal.
Fergal: Grazie, Emmet.