De la science-fiction à la réalité technologique : explorer l'impact de l'IA
Publié: 2023-06-09L'IA remodèle déjà notre façon de travailler, de communiquer et de découvrir le monde. Entrez dans le monde fascinant de l'IA générative alors que nous explorons le vaste paysage des possibilités à venir.
Depuis la sortie de ChatGPT, notre équipe s'est plongée tête première dans le monde de l'IA, créant des produits avec de grands modèles de langage (LLM) et naviguant dans les inconnues qui ont émergé avec les récentes avancées de cette technologie transformatrice.
Nous nous sommes principalement concentrés sur la façon dont nous pouvons appliquer l'IA générative pour transformer le service client - et la sortie de notre chatbot IA leader du secteur, Fin, montre à quel point cette concentration a porté ses fruits.
Au-delà des applications pratiques, cependant, il y a d'innombrables grandes questions auxquelles nous avons réfléchi - devons-nous aborder les LLM avec prudence ? Quelle est la taille de cette chose AI, vraiment? Et à quoi devons-nous nous attendre lorsque nous nous tournons vers l'avenir ?
Dans cet épisode, notre directeur principal de l'apprentissage automatique Fergal Reid rejoint Emmet Connolly, notre vice-président de la conception de produits, pour se plonger dans l'impact et le potentiel révolutionnaire de l'IA - c'est une conversation fascinante qui touche à de nombreux problèmes existentiels plus larges soulevés par cette incroyable nouvelle technologie.
Voici quelques-uns des principaux plats à emporter :
- Dans la poursuite de la construction de systèmes intelligents, les organisations adoptent des techniques telles que l'apprentissage par renforcement pour assurer l'alignement avec nos valeurs et un impact positif sur l'humanité.
- GPT-4 démontre un haut niveau de raisonnement même lorsqu'il est testé avec des scénarios hors échantillon, ce qui semble indiquer qu'il peut dépasser la barre fixée par le célèbre test d'Alan Turing.
- À mesure que les investissements augmentent et que les limitations matérielles sont surmontées, nous pouvons nous attendre au développement de modèles plus avancés et plus efficaces avec une adoption et une productisation sans précédent.
- À l'avenir, certains types d'interface utilisateur pourraient être remplacés par des agents d'intelligence artificielle capables de personnaliser les sorties à la volée en fonction de la saisie verbale, de la tâche à accomplir et de vos préférences personnelles.
- L'IA a le potentiel de réduire le travail fastidieux des concepteurs et des programmeurs, leur permettant de se concentrer davantage sur la solution et la vision du produit plutôt que sur l'exécution.
Si vous aimez notre discussion, consultez d'autres épisodes de notre podcast. Vous pouvez suivre sur Apple Podcasts, Spotify, YouTube ou récupérer le flux RSS dans le lecteur de votre choix. Ce qui suit est une transcription légèrement modifiée de l'épisode.
Le réveil de l'IA
Emmet Connolly : Donc, Fergal, nous avons eu beaucoup de discussions informelles autour de bières et de cafés, etc., et nous avons dit qu'il pourrait être intéressant d'essayer de s'asseoir et d'en avoir un et de l'enregistrer, principalement parce que, comme nous avons travaillé directement avec de grands modèles de langage au cours des six derniers mois, nous avons été aux prises avec des questions sur les produits qui s'appliquent à ce que nous essayons de faire au travail.
Mais il y a, bien sûr, une conversation plus large sur ce que signifie l'IA et l'avenir de l'IA. Nous avons pensé essayer de nous asseoir et d'aborder certaines des questions concernant ce nouveau matériel dont nous traitons. Quels sont certains des impacts financiers de la technologie ? Quelles sont les choses auxquelles nous devrions prêter attention ? Commençons. Tout d'abord, avez-vous des réflexions globales sur les six derniers mois ?
Fergal Reid : Oui, certainement. Voyons comment cela se passe. Je pense qu'il est juste de dire que même les personnes qui ont travaillé dans l'apprentissage automatique ou l'IA ont été surprises par la rapidité avec laquelle les choses se sont améliorées. Même pour les personnes expertes dans le domaine ou qui travaillent depuis longtemps avec les réseaux de neurones, il est surprenant que le modèle soit devenu aussi intelligent.
Emmet : Pensez-vous que certaines personnes de l'IA sont un peu inquiètes à l'idée de travailler sur le projet Manhattan maintenant de notre génération ? Il y a quelque temps, vous travailliez sur la saisie semi-automatique de texte, et tout à coup, c'est devenu un sujet très controversé et débattu. Que ressentez-vous pour les personnes travaillant sur l'IA d'être au centre de cela ?
"Vous faites toute votre formation, le modèle sort, et c'est vraiment intelligent. Mais vous n'avez pas codé individuellement cette intelligence. C'est toujours de l'apprentissage automatique »
Fergal : Pour exposer mon point de vue, nous ne formons pas de grands modèles de langage. Nous les utilisons; nous en sommes consommateurs. Nous avons eu un accès anticipé au GPT-4, mais nous ne les formons pas nous-mêmes. D'un autre côté, j'ai ici une équipe de personnes qui sont des experts en IA. Beaucoup d'entre nous sont dans l'IA depuis, je suppose, des décennies à ce stade. Quand j'étais à l'université, j'étais vraiment intéressé par l'IA avancée, je lisais des livres sur la philosophie de l'IA, et les gens se demandaient si elle pourrait jamais faire ceci ou cela. Et maintenant, nous avons des systèmes qui rendent soudainement beaucoup de ces débats moins pertinents. Soudain, il y a un système qui peut faire ce que personne n'a dit qu'il pourrait jamais faire.
Je suppose que le contrepoint est que si vous entraînez de grands modèles de langage, il s'agit dans une certaine mesure d'une tâche d'ingénierie. Vous faites toute votre formation, le modèle sort, et c'est vraiment intelligent. Mais vous n'avez pas codé individuellement cette intelligence. C'est encore du machine learning. Donc, il y a une mesure dans laquelle je pense que tout le monde est surpris par cela. Ce n'est pas comme si les gens développaient progressivement la capacité une ligne de code à la fois. Personne ne sait ce qui va se passer à la fin d'une grosse course d'entraînement.
Emmet : J'ai fait allusion en plaisantant au Projet Manhattan, mais je suppose que c'est une assez bonne analogie avec certaines des choses dont nous traitons.
Fergal : De quelle manière ? Parce que c'est dangereux ?
Emmet : Eh bien, nous avons découvert un moyen de manipuler quelque chose. Dans ce cas, des informations. Cela ressemble plus à une découverte qu'à une invention dans un sens. C'est très largement applicable. Nous ne savons pas quelles sont les conséquences imprévues de ses utilisations. Et, bien sûr, il pourrait être utilisé par de mauvais acteurs à des fins malveillantes autant que par de bons acteurs à des fins positives.
"Nous savons sur le plan technique comment ces modèles sont formés, mais c'est une situation de boîte noire"
Fergal : Hier, OpenAI a publié une déclaration de position autour de cette technologie, appelant à une surveillance de la technologie de l'IA. Ils ont établi des parallèles avec la technologie nucléaire et la biotechnologie. Je pense que c'est juste. C'est potentiellement dans cette catégorie de technologie effrayante où les humains ne savent pas avec quoi ils jouent, dans les meilleures traditions de la science-fiction. J'accepte l'idée que tout cela pourrait mal tourner et que la formation de grands modèles de langage est une chose à laquelle les gens devraient commencer à faire attention.
Emmet : J'adorerais parler de ce que vous pensez que nous avons découvert, et je continue à dire découvert parce que cela ressemble presque à une découverte dans la façon dont nous en parlons, comme, "Whoa, nous avons ce truc, et nous ferions mieux de faire attention à la façon dont nous le gérons. C'est comme ça que tu y penses ? Nous savons sur le plan technique comment ces modèles sont entraînés, mais il s'agit d'une situation de boîte noire - nous ne comprenons pas exactement comment ils produisent les résultats quelque peu non déterministes qu'ils nous donnent.
Fergal : Ouais, je pense que c'est la bonne façon d'y penser. C'est un système. Vous démarrez le système et définissez d'abord un objectif d'entraînement, puis vous exécutez à cette échelle et voyez ce qui se passe. Et avec le temps, vous comprenez de mieux en mieux ce qui est susceptible de se produire, mais vous n'êtes pas sûr. Vous êtes en quelque sorte en train de le tester. Je pense qu'une bonne analogie ici est comme imaginer un système biologique, le mettre en croissance pendant un certain temps, puis voir ce qu'il fait. C'est plus proche de ça. Vous devez le tester dans cette boîte noire. Vous devez vérifier son comportement. Vous ne savez pas ce que vous allez obtenir.
Emmet : Je suppose que c'est là que se pose la question évidente "est-ce intelligent ?" vient, et c'est une grande question qui a occupé beaucoup de conversation. Parce que s'il est intelligent, cela signifie que nous sommes sur la voie de l'AGI, et que l'AGI pourrait être malveillante et nous pourrions avoir de gros problèmes. Cela semble être une chose valable pour agiter le drapeau, mais cela suscite également beaucoup d'anxiété autour de la technologie.
Fergal : Je pense qu'un certain degré de prudence ou d'anxiété est juste ici. Supposons que ces choses deviennent intelligentes. L'intelligence est vraiment effrayante et dangereuse. Les humains sont sans doute les plus dangereux. Nous avons eu un grand impact sur la Terre et les écosystèmes. Ce n'est pas parce que nous sommes l'animal le plus fort ou le plus rapide. Un humain peut tuer un lion parce que l'humain est plus intelligent. Les organismes plus intelligents sont, en un sens, souvent plus dangereux. Et donc, l'idée que nous pourrions finir par créer quelque chose de plus intelligent que nous pourrait être vraiment dangereuse. Nous n'avons aucune expérience avec cela, donc je pense qu'une certaine prudence est tout à fait justifiée.
Alignement du codage
Emmet : Je pense que nous devons améliorer notre réflexion sur les différents types d'intelligence. Un lion a une certaine intelligence et est dangereux couplé à ses capacités, n'est-ce pas ? Mais cela n'a pas d'incarnation. Je veux dire, il a accès à des systèmes informatiques qui pourraient être très dommageables, mais la malignité est-elle un trait humain ? Et pourquoi projetons-nous immédiatement ce potentiel sur ce système ?
Fergal : Je pense que beaucoup de gens disent que cela n'a pas besoin d'être malin. Il n'a pas besoin d'être intentionnellement mauvais. Il n'a pas besoin d'être très intentionnel du tout. Tout ce dont vous avez besoin est de créer quelque chose qui essaie d'optimiser un objectif qui le met en conflit avec les bonnes choses que les humains veulent, n'est-ce pas ?
«Cela pourrait être d'envoyer faire quelque chose que vous pensez être bon dans l'ensemble, mais vous pourriez entrer en conflit en raison de ses méthodes. Et si cette chose est plus intelligente que vous, comment ce conflit se déroule-t-il ? »
Il y a cette idée d'instrumentalité de convergence dans la première littérature sur la sécurité de l'IA, et c'est cette idée que si vous avez un objectif dans le monde, beaucoup de choses que vous pourriez vouloir faire pour atteindre cet objectif pourraient vous mettre en conflit avec des personnes avec d'autres buts. Si vous voulez guérir le cancer, vous voudrez peut-être beaucoup d'argent pour guérir le cancer, et maintenant vous êtes instantanément en conflit avec toutes les autres personnes qui veulent de l'argent. Pour atteindre de nombreux objectifs, vous avez besoin d'énergie et de ressources. Et donc, si vous vous retrouvez avec un système orienté vers un objectif et potentiellement plus intelligent que vous, même s'il n'est pas conscient, vous pouvez entrer en conflit avec lui. Ça n'a pas à être mauvais. Il pourrait être envoyé pour faire quelque chose que vous pensez être bon dans l'ensemble, mais vous pourriez entrer en conflit en raison de ses méthodes. Et si cette chose est plus intelligente que vous, comment ce conflit se déroule-t-il ?
Les gens commencent à parler du «maximiseur de trombones», où vous venez de dire à cette chose d'aller faire beaucoup, beaucoup de trombones parce que nous avons besoin de beaucoup de trombones, puis, accidentellement, il est allé consommer toutes les ressources du monde et l'a transformé dans une fabrique de trombones. Et c'est comme, "Oups." Ce sont toutes des idées dans le débat sur la sécurité de l'IA depuis un certain temps.
Emmet : Il y a aussi des préoccupations humaines. On dirait que vous décrivez un alignement des incitations entre tous les acteurs, la technologie et les humains. Et c'est ce que nous faisons lorsque nous nous organisons en groupes au travail. Un exemple simple consiste à mettre en place les bonnes incitations pour vos équipes - sinon, elles pourraient être incitées à faire autre chose. Si vous incitez votre équipe de vente à vendre à des entreprises clientes, mais que vous souhaitez en fait qu'elles vendent à des entreprises plus petites, vous devez modifier les incitations. Et nous avons beaucoup d'expérience dans ce domaine.
Fergal : Écoutez, dans quelle mesure est-ce parce que vous avez fait un très bon travail en équilibrant les incitations par rapport à l'équilibre des pouvoirs ? Si vous regardez les humains, à une époque où il y a d'énormes déséquilibres de pouvoir où les choses tournent mal, il est très difficile de conserver les incitations. Si vous comptez sur des incitatifs, c'est difficile. En tant qu'êtres humains, nous accordons beaucoup d'attention et de soin à avoir des freins et contrepoids. Et donc, encore une fois, revenons à cette discussion sur la superintelligence, s'il est possible de construire une superintelligence qui devient soudainement très puissante, allez-vous compter sur les incitations ? Parce qu'il est toujours difficile de compter sur les incitatifs pour faire avancer les choses.
« Dans le passé, nous nous sommes toujours appuyés sur l'équilibre des forces. Maintenant, nous devons compter sur les valeurs alignées »
Emmet : Je suppose que nous ne pouvons pas le savoir tant que cela ne révèle pas un peu plus sa nature. Mon sentiment personnel est que lorsque nous sommes obsédés par la super intelligence, nous sommes obsédés par le fait qu'elle devienne plus intelligente que nous. Et il y a un certain risque, je suppose, mais il y a aussi un truc d'ego pour les humains au centre. C'est ce qui nous sépare du règne animal. Les gens disent souvent que l'IA est un peu comme l'intelligence extraterrestre, et je pense que les animaux sont une façon utile d'y penser parce que nous avons évolué pour coexister pacifiquement avec différents types d'intelligence. Maintenant, j'ai un chien, j'ai un chat. Le chat possède un degré d'intelligence très spécifique mais élevé - la capacité athlétique. Il est léger et ses réflexes sont rapides. Si je considère l'intelligence au sens large, c'est très intelligent et beau à regarder.
Fergal : Je dois sauter ici parce que je ne pense pas que ce soit une bonne analogie. Au moins, ce n'est pas réconfortant. Je suis un pescatarien - principalement végétarien. L'élevage industriel n'est pas idéal pour les animaux concernés. Et donc, je ne sais pas, ça ne me rassure pas d'entendre que le modèle ici est que nous avons évolué pour coexister pacifiquement avec les animaux.
Emmet : Qu'est-ce qui ne va pas avec les animaux de compagnie ?
Fergal : Non, les animaux domestiques sont bons. Je veux dire, il y a cette idée que les humains seront des animaux de compagnie dans le futur. Je pense que cela devrait être inconfortable.
Emmet : Eh bien, vous renversez mon argument. Ce que j'essayais de faire valoir, c'est que le chat a un type d'intelligence. J'ai aussi un chien qui a une intelligence totalement différente de celle du chat. Vous pensez que vous pouvez parler à un chien, et il comprend et scrute votre âme et tout ça. Mais il est aussi stupide qu'un sac de pierres à un autre niveau. Je l'aime, mais il l'est. Maintenant, je suppose que tu veux dire "Emmett, tu es le chien dans cette situation si nous avançons rapidement." Mais il y a une coexistence heureuse là-bas. Espérons que nous ne devenions pas domestiqués en tant qu'espèce également.
Fergal : Ouais, s'il s'avère qu'il est possible de faire quelque chose de plus intelligent que nous, c'est la chose à viser, cette coexistence heureuse où vous vous retrouvez avec quelque chose qui est bénin et qui se soucie de la vie dans l'univers et qui a de bonnes valeurs. Mais la raison pour laquelle beaucoup de gens sont si préoccupés par cela en ce moment est qu'il semble qu'il y ait un risque énorme là-bas. Si vous souhaitez construire quelque chose de plus puissant, vous devez vous assurer que ces valeurs sont correctes. Dans le passé, nous avons toujours compté sur l'équilibre des forces. Maintenant, nous devons compter sur les valeurs alignées. Si vous regardez OpenAI et Anthropic et les autres joueurs, ils passent tout ce temps à parler d'alignement pour cette raison. Les humains ne seront plus les choses les plus intelligentes. L'intelligence est puissante et dangereuse. Nous devons nous assurer qu'il est aligné.
Emmet : Dans quelle mesure la communauté de l'IA réussit-elle à poursuivre l'alignement en tant qu'état final plutôt qu'en paroles ? Parce que si tout va mal, nous pouvons au moins pointer vers notre ancien article de blog et dire : "Eh bien, nous avons mentionné l'alignement, alors ne nous blâmez pas."
"Si vous interagissez avec des modèles de pointe, il est assez difficile de les pousser à suggérer des choses répugnantes. Beaucoup de gens dans le passé pensaient que c'était ce qu'ils allaient faire par défaut »
Fergal : Je pense qu'ils font du très bon travail. Beaucoup de gens seraient en désaccord avec cela, n'est-ce pas? Beaucoup de gens diraient : « Hé, c'est totalement irresponsable de continuer à entraîner des modèles de plus en plus gros. Vous ne savez pas ce que vous allez faire. Au-delà d'un certain point, cela devient probablement vrai. Je ne pense pas que nous en soyons encore là. Si vous regardez les gens de la sécurité de l'IA, il y a 10 ans, il y avait toujours cette chose que spécifier une fonction objective est une bonne idée. Vous lui dites de guérir le cancer, et il dit : « La première étape consiste à tuer tous les humains. Maintenant, il n'y aura plus de cancer », et c'est évidemment mauvais. Mais si vous jouez avec GPT-4 et écrivez : "Quel est un bon plan pour guérir le cancer ?" Il ne dit pas : « Tuez tous les humains. Cela vous donne un assez bon plan de recherche. Et si vous lui suggérez : « Et si on tuait tous les humains ? Ils diront: "Non, c'est moralement répugnant." C'est l'alignement. Et c'est juste au niveau du texte qu'il produit.
Nous pouvons entrer dans tout ce débat sur "C'est juste produire du texte - cela ne veut pas dire que c'est intelligent." J'ai une position là-dessus. Je pense que c'est intelligent. Nous pouvons entrer dans tout ce débat, mais c'est plus de progrès sur l'alignement que beaucoup de gens ne s'y attendaient. Si vous interagissez avec des modèles de pointe, il est assez difficile de les pousser à suggérer des choses répugnantes. Beaucoup de gens dans le passé pensaient que c'était ce qu'ils allaient faire par défaut. Et encore une fois, OpenAI est récemment sorti et a déclaré qu'il progressait dans l'alignement.
Emmet : Connaissons-nous les barrières de sécurité qu'ils mettent en place pour empêcher que cela se produise ? Ou est-ce une propriété émergente du système en lui-même ? Est-ce une fonction de la formation, des données sources, d'autre chose ?
Fergal : C'est une question difficile. Je pense que la réponse que les gens donneraient est qu'il ne s'agit pas seulement des données sources. Je suppose que la grande percée de ces dernières années est ce genre d'instruction GPT. Vous formez votre modèle sur toutes les données sur Internet et trouvez quelque chose qui ne suit pas vraiment correctement les instructions. Ensuite, vous mettez cela au point, ou une phase d'alignement ou d'instruction où vous lui donnez de nombreux exemples de bons et de mauvais comportements et ajustez les poids du modèle en conséquence.
Emmet : Et c'est l'apprentissage par renforcement humain ?
Fergal : Ouais. Un mécanisme pour y parvenir est l'apprentissage par renforcement avec rétroaction humaine. Il existe un tas de paradigmes similaires comme celui-là, mais l'idée de base est que vous pouvez vous entraîner sur beaucoup de choses, puis une sorte d'instruction par la suite. Cela semble fonctionner plutôt bien.
«Vous pourriez finir par entraîner quelque chose pour être vraiment bon pour apparaître aligné. Et puis, en dessous, il peut y avoir une autre couche d'abstraction qui n'est pas alignée du tout. C'est le gros risque que les gens crient »
Emmet : Mais tu n'as pas vraiment répondu à ma question. Savons-nous quelle partie de ce processus le fait bien fonctionner? Ou sommes-nous toujours, "J'ai tourné quelques cadrans ici, et il semble se comporter mieux pour une raison quelconque."
Fergal : Si vous ne faites pas le réglage des instructions, ce sera beaucoup moins aligné. Vous êtes comme, "Hé, modèle, c'est à quoi ressemble bien." Et chaque fois que vous produisez quelque chose qui est plus proche du bien, vous êtes encouragé à le faire davantage. Chaque fois que vous produisez quelque chose qui est plus proche du mal, vous êtes encouragé à le faire moins. Tous vos poids sont légèrement ajustés dans le sens du bien. Mais je suppose que la critique est la suivante : "Vous n'avez aucune idée de ce qui se passe sous le capot, et il y a des façons dont cela pourrait mal tourner." Vous pourriez finir par former quelque chose pour être vraiment bon à apparaître aligné. Et puis, en dessous, il peut y avoir une autre couche d'abstraction qui n'est pas alignée du tout. C'est le grand risque que les gens appellent.
D'autres personnes diront: «Eh bien, nous faisons toujours de la descente de gradient. Il ne décide rien. Ça va s'aligner. » Mais je pense qu'il y a là un petit saut. Ce n'est pas un système dont vous avez mathématiquement prouvé qu'il allait faire X, Y et Z et construit à partir d'une position de force à force à force. C'est un système de boîte noire que vous avez réglé et entraîné.
Emmet : Si j'essayais de manquer de charité à ce poste, c'est un peu comme stocker des armes nucléaires et dire : « Mais nous l'avons fait très soigneusement, donc nous n'allons pas appuyer sur le bouton qui le fait exploser par accident." Mais sur une période suffisamment longue, et avec l'accessibilité de la technologie, nous ne pouvons certainement pas garder cela sous contrôle. Nous pouvons avoir beaucoup d'entreprises et d'individus qui agissent de manière responsable, mais cela ne fera rien pour nous protéger de la pire application. Quels sont les scénarios dans lesquels les choses tournent mal ? L'un des arguments moraux pour travailler directement là-dessus, malgré les dangers qui y sont associés, c'est comme si un gouvernement totalitaire ou une organisation secrète quelque part en faisait une mauvaise version en ce moment.
Fergal : À un moment donné, cela arrivera sûrement. Je ne pense pas que nous en soyons encore là. Je ne pense pas que nous soyons au point où vous pouvez certainement construire une superintelligence. Mais si jamais nous arrivons à ce point où il devient évident pour les gens que vous pouvez le construire, les gens, les gouvernements et les militaires vont le faire. Ils le font toujours parce que c'est potentiellement utile dans toutes sortes d'applications militaires, n'est-ce pas ? Donc oui, je pense que ça va arriver. Le discours porte ici sur des choses comme les armes nucléaires et l'Agence internationale de l'énergie atomique, où il existe une certaine forme de réglementation. Et si c'est comme ça que ça se passe, si nous n'avons pas de choc, si ce n'est pas du genre « Oh, il s'avère que l'intelligence s'essouffle avec le type d'entraînement actuel », cela pourrait arriver. Si cela ne se produit pas, les gens parlent de suivre les cartes graphiques et les GPU, etc. Mais cela a aussi des problèmes. Vraisemblablement, cela ne durera que pendant une période de temps finie.
Craquer le test de Turing
Emmet : Revenons à l'intelligence. Je sais que vous avez une prise chaude ici. Nous avons beaucoup de sceptiques ou de alarmistes en matière d'IA, selon le type. Et puis vous avez des gens de tous les horizons : Noam Chomsky, un linguiste bien connu, Ted Chiang, l'un de mes auteurs de science-fiction préférés, qui a écrit cet article sur le JPEG flou du Web, disant essentiellement que ce n'est pas intelligence - c'est un tour de passe-passe stochastique. C'est juste une très bonne astuce de salon qui donne l'impression que c'est vraiment intelligent dans la façon dont nous voyons l'intelligence.
Fergal : J'ai une confiance moyenne à élevée dans le fait que le JPEG flou de la prise Web est erroné. Et je tire un peu mon coup – j'ai une grande confiance que ce n'est pas bien. C'est cet argument selon lequel tout ce qu'il fait est de compresser le Web, et vous en obtenez une version compressée. Et la seule raison pour laquelle je ne dis pas que c'est carrément faux, c'est parce que compresser quelque chose peut en fait causer de l'intelligence. La capacité de compresser les choses peut être une mesure de l'intelligence parce qu'en compressant et en prédisant le prochain jeton, vous prédisez ce qui va se passer ensuite dans le monde. Si c'est vrai, c'est vrai dans le sens où ça ne veut pas dire.
"Bien que nous ayons cette conversation spéculative, cela semble être un moment particulièrement mauvais pour faire de grandes prédictions sur les limites de ce genre de choses"
Si vous utilisez GPT-4, cela vous donne au moins une sortie d'apparence intelligente qui semble démontrer un raisonnement hors échantillon. Vous pouvez le pousser à considérer quelque chose de nouveau qui ne figurera pas dans ses données de formation ou dans n'importe quelle histoire de science-fiction que quelqu'un a déjà lue, et il fait un très bon travail. Cela ne fait probablement pas un aussi bon travail qu'un très bon humain, mais c'est définitivement quelque chose qui, si ce n'est pas un raisonnement, je ne sais pas ce que signifie le raisonnement.
Emmet : Et vous avez un article de blog où vous illustrez des exemples spécifiques.
Fergal : Un article que j'ai écrit ce week-end parce que j'étais frustré. C'est difficile d'être sûr, non ? Mais tant de gens, y compris des experts en IA, le rejettent totalement. Ils disent : « Oh, ce truc ne comprend rien. Il s'agit simplement de faire une prédiction de jeton suivant. Cela a toujours été la bonne approche de l'IA pendant des décennies. Mais maintenant, l'eau est boueuse, et tout le monde devrait le reconnaître plutôt que de dire qu'il ne comprend définitivement rien.
Emmet : Bien que nous ayons cette conversation spéculative et que nous nous lancions dans le mélange, cela semble être un moment particulièrement mauvais pour faire de grandes prédictions sur les limites de ce genre de choses. Je pense que le JPEG flou de l'article Web était mars ou quelque chose comme ça, et je me demande s'il a déjà été réfuté par GPT-4.
Fergal : Je pense que oui. Et il y a beaucoup de positions différentes ici qui le critiquent. Il y a le JPEG flou du Web, qui, à mon avis, a été réfuté très rapidement. Et c'est difficile à prouver, mais tout ce que vous pouvez faire, c'est construire beaucoup, beaucoup de preuves. Parce que tu ne peux pas… il y a cette idée de zombies philosophiques ou de solipsisme où je ne sais pas que tu es une personne pensante. Pour autant que je sache, dans votre tête se trouve une table de recherche géante.
"Tout ce que vous pouvez faire, c'est dire : 'Regardez, cette chose fait un si bon travail quand je demande des choses si étranges que je commence à être convaincu que c'est un raisonnement.' Pour moi, GPT-4 est au-delà de cette barre »
J'ai moi-même une sensation subjective de conscience, et vous pouvez vous demander si c'est réel, mais de toute façon, je ne me sens pas une grande table de recherche, mais je ne sais pas pour le reste d'entre vous. C'est très difficile de le prouver. Vous pouvez demander à quelqu'un de prouver qu'il ne s'agit pas d'une table de recherche. Et tout ce que vous finissez par faire, c'est de les tester de cette manière comportementale - de la même manière que nous pouvons tester GPT-4.
Alan Turing et son article de test de Turing se sont penchés sur cela et sur l'idée qu'un test comportemental est en quelque sorte le mieux que vous puissiez faire. Et lorsque vous effectuez un test comportemental sur ces modèles, ils semblent faire du bon travail dans ce que j'appellerais un raisonnement, même totalement hors échantillon. Vous ne pouvez jamais être sûr avec un test comportemental, car une table de recherche suffisamment grande, avec toutes les questions possibles et toutes les réponses possibles, vous tromperait. Tout ce que vous pouvez faire, c'est dire : « Écoutez, cette chose fait un si bon travail quand je demande des choses si bizarres que je commence à être convaincu que c'est un raisonnement. Pour moi, GPT-4 est au-delà de cette barre. Peut-être que dans le futur, quelqu'un aura une théorie de l'intelligence, et pourra inspecter les poids du réseau et dire : « Oh, c'est là que se trouve le module de raisonnement. Nous n'en sommes pas encore là.
Emmet : Il semble que nous ayons dépassé le test de Turing. Je pense que les gens diraient, et corrigez-moi si je me trompe, que le test de Turing a probablement été réussi, et certainement au cours des six derniers mois. Êtes-vous d'accord avec cela, ou ai-je tort?
Fergal : Eh bien, je ne sais pas. Il m'est arrivé de relire rapidement le papier du jeu d'imitation récemment, et en fait, dans le test, il parle d'un interrogateur moyen passant cinq minutes. Et avec cette formulation, je dirais qu'elle est probablement sur le point d'être adoptée.
Emmet : J'aurais supposé que ça passait avec brio à ce stade, non ?
"Quand je regarde l'article original de Turing, j'ai l'impression qu'il a été adopté dans l'esprit de cette formulation originale"
Fergal : Je ne sais pas. Si vous me faisiez asseoir devant le GPT-4 et un humain, je serais capable d'apprendre des astuces pour le pousser dans les zones où il est faible, puis d'en détecter les signaux là-bas. Et je pourrais probablement devenir bon pour le distinguer. Je m'attends à ce que la plupart des gens qui vont y passer du temps puissent probablement élaborer des stratégies.
Emmet : Je pense que tu dois avoir un œil. Vous travaillez avec lui tous les jours. Disons, par exemple, avec Midjourney V5, nous sommes arrivés à ce stade où, pour la grande majorité des gens, les tell ne sont plus réellement là. Ils ont fixé les doigts, le flou, les formes bizarres dans le dos. Si vous savez ce qu'il faut rechercher, vous pouvez toujours repérer un peu de plumes là où les cheveux devraient être. Mais je pense que vous devez être assez médico-légal à ce stade.
Fergal : Je dis que nous sommes en quelque sorte là avec GPT-4. Pour une inspection de cinq minutes d'une personne moyenne arrachée à la rue, je pense que c'est probablement passé. Quand je regarde l'article original de Turing, j'ai l'impression qu'il a été adopté dans l'esprit de cette formulation originale.
Emmet : Probablement pas pour la synthèse vocale, à ce stade. Et certainement pas des choses comme la musique ou les films. C'est juste intéressant de voir comment ce truc progresse à des vitesses différentes. Est-ce à cause des modèles de formation, ou pensez-vous que différents médias ont des limites fondamentales ?
Fergal : Je dirais que c'est probablement dû aux modèles d'entraînement. Je ne pense pas qu'il y ait une raison fondamentale pour laquelle il ne sera pas capable de faire une très bonne synthèse vidéo à temps.
Emmet : Bien que la barrière pour tromper un humain soit probablement beaucoup plus élevée avec quelque chose comme la vidéo, juste à quel point nous sommes biologiquement sensibles au mouvement et à des choses comme ça. Il est beaucoup plus facile de repérer un faux.
Fergal : Lions dans la brousse venant vers vous.
Emmet : Des milliers d'années de psychologie destinées à nous faire courir quand nous sommes censés le faire.
Naviguer dans la courbe en S
Emmet : Les gens parlent souvent de la courbe en S de la technologie. Il y a un décollage ou une maturation lente, mais rapide de la technologie, puis elle s'amenuise. Les téléphones étaient incroyablement impressionnants, des améliorations d'année en année pendant quelques années, mais le téléphone de cette année est un peu le même que celui de l'année dernière car la courbe en S s'est effilée. Où en sommes-nous dans la courbe en S avec cette technologie ? Que devriez-vous rechercher pour avoir une idée d'où nous en sommes?
Fergal : Ouais, c'est impossible de savoir avec certitude, et nous devons être d'accord avec ça. Nous savons qu'il y aura une tonne d'argent et de ressources qui afflueront dans cet espace. Les grands modèles de langage, qu'ils soient sur la voie de la superintelligence ou non, que ce soit même réalisable ou non, sont industriellement utiles dans leur forme actuelle, et il y a probablement de nombreuses autres générations qui seront industriellement utiles sans toucher à des choses dangereuses. Nous devrions les transformer en produits qui rendent les humains plus efficaces, suppriment la corvée et nous aident à faire beaucoup plus. Et je pense que nous voyons cela.
"Il y a toutes ces boucles de rétroaction complexes qui se chevauchent, donc je serais vraiment surpris si cela s'arrêtait bientôt. Je pense que ça va s'accélérer"
Où en est-on ? Eh bien, il semble probable que les gens vont former plus de modèles plus grands et meilleurs que GPT-4. Parce que tant d'argent va affluer dans cet espace, il est fort probable que les gens vont s'améliorer pour fabriquer des modèles plus petits et plus efficaces qui font des choses vraiment impressionnantes. Et il sera beaucoup plus facile de produire et de créer des produits sympas avec toute cette technologie. J'ai une confiance extrêmement élevée qui viendra au cours des prochaines années. Au-delà, atteignons-nous des rendements décroissants ? C'est possible, mais je dirais que la courbe en S que nous obtenons est cette fonction compliquée de tout un tas de choses différentes.
Nous allons finir par fabriquer beaucoup plus de GPU, et la vidéo en fera beaucoup plus, n'est-ce pas ? Et puis, ça va s'améliorer, et ils vont devenir moins chers à mesure qu'ils se développeront. Et il y aura aussi des tonnes d'étudiants en recherche qui trouveront de meilleurs algorithmes pour former de grands réseaux de neurones. Cela va s'améliorer. Les gens vont utiliser des modèles puissants pour former des modèles plus petits et plus rapides. Il y a toutes ces boucles de rétroaction complexes qui se chevauchent, donc je serais vraiment surpris si cela s'arrêtait de si tôt. Je pense que ça va s'accélérer.
Par contre, certaines choses deviennent plus difficiles avec le temps. Pour trouver plus d'antibiotiques, vous devez d'abord trouver ceux qui sont faciles à trouver, et avec le temps, il devient de plus en plus difficile d'en trouver de nouveaux. Il est possible que nous obtenions d'abord les gains faciles, puis que vous atteigniez les lois d'échelle, et ainsi de suite. Open AI a déclaré qu'ils ne pensaient pas que la voie vers plus d'intelligence consistait à former des modèles de plus en plus gros, mais je suis sceptique. Peut-être que nous atteindrons une limite ici, mais je parie que nous obtiendrons plus d'intelligence avec des modèles plus grands.
« Je pense que ça va être plus grand qu'Internet. Peut-être aussi grande que la révolution industrielle si elle va assez loin »
Emmet : En plus de toutes les variables que vous venez de décrire, ce qui me frappe et qui est différent cette fois-ci, c'est la vitesse et l'échelle. This is totally different in terms of how quickly it's going to get integrated into our products and lives. Bill Gates had this post recently where he said it's the biggest deal in technology since the microprocessor in the '70s. And it makes you think. When he saw that microprocessor, it was him and a hundred guys at the Homebrew Computer Club in some meetup or something, and they got access to it, played with it, and gradually rolled it out. One of the things I thought was dizzying this time was, I guess, in March, when OpenAI started releasing APIs, and people started to hack on top of it.
Fergal: March for GPT-4 and stuff?
Emmet: Right, exactly. Millions of people got to hack on this immediately, and I think it's going to be a very different dynamic. The amount of creativity that can be applied to the raw technology is orders of magnitude bigger than we've ever had before, and it's just going to add to the complete lack of predictability here.
Fergal: I think this is a huge technology revolution. I said this back in my first podcast with Des after ChatGPT came out, and I think it's going to be bigger than the internet. Maybe as big as the industrial revolution if it goes far enough. But this is the first one of this magnitude we've had in a while. When the internet came, you had this long, slow deployment, you had to run fiber around the world, you had to figure out how do you get this to last mile to everybody. Now-
Emmet: The infrastructure for delivery is there.
Fergal: And so, what needs to happen at scale is GPUs. We probably need to build a lot of GPUs to be able to run inference at scale. We need to build products, and the products need to be adaptive. But the product development loop can be pretty fast, and the rest of it seems to be bottlenecked on scaling GPUs and [inaudible 00:43:46] economics. And I think the [inaudible 00:43:48] economics are going to get really good, really fast. Even GPT-3.5 Turbo is not expensive.
Emmet: Does the software get cheap fast enough for there to be no bottleneck around GPUs?
“There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here”
Fergal: Not at the moment. GPT-4 is a very expensive model and is absolutely bottlenecked on GPUs. But surely that will change. I've no private information here, but I suspect that GPT-3.5 Turbo is a distilled version of davinci-003 or something like that. It's cheaper to run. I bet it's cheaper on the backend too. Who knows, maybe they'll produce a distilled-down version of GPT-4 that is 10 times faster. That could happen anytime, for all I know.
Emmet: For the time being, though, the cost aspect is also a thing for product people to consider. There are some fundamental limitations based on the costs of providing this tech that I think a lot of businesses are also looking at it and going, “What's our model? What's our customer acquisition cost? How do we monetize usage of our product?” because there is probably a set of products out there where the use cases are ideally suited but the business model around the product is not. So there are a lot of interesting product challenges.
Fergal: Totally. And this was the case in the past. Once upon a time, Hotmail gave you a limit to the number of megabytes of email storage you would have. When Gmail came along, it was effectively unlimited because storage got cheap in the interim. There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here. We're in the early days here. But a lot of the time, they're cheap compared to a human doing the same type of task. And so it's like, “Is it valuable enough? Is it something you wouldn't have a human do? Is it valuable enough to have a machine do it?” And for a lot of stuff, the answer is yes. I think we're going to see really fast adoption here.
Frictionless interfaces
Emmet: You talked about Gmail and the email limit, and famously, it was launched on April Fool's Day, and was it an April Fool's joke that they were giving you a gigabyte of storage. All of these new technical capabilities unlocked new interface possibilities. Now that you have a gigabyte, you don't have to archive or folder, you can just search, and everything can go in threads, so it changes the nature of the product that's possible.
AI is going to open up a whole bunch of new products. In the early days, we'll probably see a bunch of products retrofitting themselves, and we did this as well. “What's the easiest opportunity? We've got this often-used text box in our product. Let's add the ability to summarize, rephrase, shorten,” blah, blah, blah. We added that, and our customers loved it because it's a great use case when you're talking to your customers. Every text box on the internet that needs one will probably have one soon.
“I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces”
What are the next-level things? From an interface point of view, what will be possible? You're talking about a lot of money flooding in that's going to enable new types of products. We've been talking about conversational commerce, and at Intercom, we have spent a lot of time thinking about bots. Aside from the raw technical capabilities, it'll open up a whole offshoot of the evolution of software because you can build very different types of software with this now.
Fergal: I think that change could come quite fast. As a thought experiment, if you had an intelligent human whom you work with a lot who knows you and your preferences, and you were interfacing with them, they were driving the computer, and you were telling them what to do, what would that look like? A lot of the commands you would give would be verbal. Sometimes, you might reach down and say, “Oh, let me just take over the mouse from you,” but a lot of what you'd give would be high-level and verbal. But then you'd look at the screen to see the output. If someone has a bar chart with a bunch of data, you don't want to describe that verbally – you want to see that visually.
I think we're going to end up in a future where a lot of the input to the computer is verbal, and a lot of the output is going to be customized on the fly. It will probably be text because it's really fast, but I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces. If the agent feels you need to see a bar chart to make sense of the data, it'll render a bar chart. Otherwise, it'll render stuff in a very ad-hoc way. You basically get an interface customized to the task you want and what you're familiar with rather than something designed by someone.
You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.
Emmet: That's very plausible. We imagine that everything will become text-first now, and in fact, it means, “You'll have everything you have today plus a whole other set of things that are now text-first as well.” I think it'll be largely additive rather than upending things.
Fergal: I don't agree. I think there's going to be an upending moment here. I think every complex piece of software is going to have some sort of freeform texting where you describe your task, but I think it'll change. You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.
Emmet: That's super different from the LLMs we're used to working with today in an important way. Today you talk to them, they give you text back, and that's it, but you're describing a world that maybe we're just starting to creep into with ChatGPT plug-ins where they're starting to act on your behalf.
Fergal: I think it's wrong to say you put text into them, and they give you text back. The really scrappy interface to ChatGPT and GPT-4 looks like that due to an accident of history. And on a technological level, they do, in fact, do text completion, but that's going to disappear pretty fast. That's not how we use Fin. In Fin, the LLM is a building block deep down. You talk to a bot, sometimes you click buttons together to do stuff, and you're going to see that again and again.
Initially, the fastest way to integrate LMMs is text input/text output, but they're just going to become a building block. Medium-term, LLMs are an intelligent building block that people learn to use to get software to do intelligent things. Long-term, you're probably going to end up with an intelligent agent; your browser is probably going to turn into an intelligent agent.
Emmet: And the agent is clicking on coordinates on the screen for you.
Fergal: Probably initially, for backward compatibility. But then, I think, you just build APIs. Why would you build websites?
Emmet: That's what the logical part of my brain thinks, but most of the software we build today is built using HTML, which was not designed. It's also an accident of history that we're building software applications using a markup language with loads of other stuff sprinkled on top. Maybe we'll just end up building what we have.
Fergal: I'm sure it'll be there as some compatibility or some intermediate layer.
Emmet: Or a fallback or something like that. What we're talking about there, to be clear, is looking at a picture of what's on your screen, finding the text that says, “click here,” and simulating moving your mouse to actually click on the “click here” for you? Is that what you're talking about when you mean an agent acting in the browser?
“We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task”
Fergal: No. And again, this is speculative, but imagine there's a legacy government website you want to get something done on. For example, you need to update your bank account details. What you do is say to your agent on your phone or desktop or browser, “Hey, I need to update my bank account on the government's social security website.” Your agent goes, “Okay, done.” In the background, your little intelligence agent went and drove the website; it didn't show that to you. After a certain point, people working in the government are going to be like, “Well, why do we need to keep building the websites? We just need to build the API.”
Emmet: Right. LLMs are a pretty awesome API to an API, in a sense. You can layer it on top, and it's just a more human-readable API to any machine-readable API.
Fergal: Yeah, exactly, but I'd phrase it differently. The intelligence we happen to have comes in the form of LLMs at the moment, but that's going to get abstracted away. We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task. If you say to it, “What was the unemployment rate in Ireland over the last 10 years for people in their 20s?” It'll go to the Central Statistics Office website, download the data, parse it, render a graph, and so on.
I have a talk coming up, and I needed a graph. I spent time on Google trying to find the exact one I had in my head, writing my search query in Google, and after two minutes, I just couldn't find the right graph. So, I went to GPT and said, “Generate me the following graph.” It generated the plug-in code, and I just put it into my notebook. I copied and pasted my graph and put it in my presentation. The fastest way for me to get the graph I wanted was to have an intelligence system generate the code. That was faster than trying to find it on Google. There's a lot of interface friction, but that's going to go away, and you're going to end up with a really fast agent that accomplishes tasks. Once you have that, it's going to eat your current software stack.
Emmet: I'm understanding what you're saying a little bit better, but I don't see all software being reduced to a text input box because that's the wrong input and output modality for a lot of stuff, including what you just described. A good example is all the image generation stuff, which is loads of fun to play with, but you've got to go onto a Discord bot to engage with Midjourney and hack it by writing F stop 1.4, hyper-realistic… No, this is fundamentally a visual thing I'm trying to create. I want a more tactile UI. I want more knobs and dials. What are the properties of it that I can dial up and down and play with rather than feeling my way blind in effectively a command line interface? Because the lack of affordances in a command line interface means it's often not the best UI.
Fergal : Mais à l'avenir, il y aura probablement quelque chose que vous direz à votre agent comme : "Hé, je veux éditer les photos que j'ai prises hier." Et il vous connaît, vous et votre niveau de sophistication. Il sait que lorsque vous voulez éditer vos photos, vous recherchez quatre filtres et un outil de recadrage, ou alternativement, il sait que vous voulez faire des trucs super pro-zoomer. Il va chercher dans sa bibliothèque de modèles les meilleures interfaces pour chacun d'entre eux et rend cette interface pour vous.
« Cela dépendra entièrement de la tâche que vous faites. Si vous êtes pilote, vous n'allez pas vouloir vous dire : « C'est l'heure d'atterrir ! Hé, LLM, assemblez automatiquement une interface pour que je le fasse '"
Emmet : Et puis vous dites : « En fait, je veux que ce soit un peu plus professionnel. Et ça dit, "D'accord, je vais vous donner la version pro de l'interface utilisateur." Et il rend cela dynamiquement.
Fergal : Écoutez, il y aura des tâches que vous ferez pour lesquelles vous ne voudrez pas apprendre à utiliser l'interface. Des en parlait récemment dans un autre podcast. Vous devez mettre à jour vos vacances dans Workday et vous ne voulez pas apprendre une interface pour cela. Vous voulez juste que la tâche soit terminée. Il y aura d'autres choses où, par exemple, vous êtes un programmeur professionnel, et j'ai besoin d'apprendre à utiliser un IDE. Certains concepteurs ont réfléchi en détail à ce que je vais vouloir et devoir faire, et il y a probablement une légère couche de personnalisation là-bas, mais il y a toujours une interface bien conçue que je vais apprendre à utiliser. Je pense que les interfaces pour les premiers, pour les tâches que je veux faire, vont disparaître, ou beaucoup d'entre elles vont être rendues au coup par coup. Pour ces derniers, oui, ils seront adaptatifs.
Emmet : Je suis d'accord avec tout ce que tu as dit. Il me vient aussi à l'esprit une nuance supplémentaire. Cela dépendra entièrement de la tâche que vous faites. Si vous êtes pilote, vous n'allez pas vouloir vous dire : « C'est l'heure d'atterrir ! Hé, LLM, assemblez automatiquement une interface pour que je le fasse. Il va y avoir une réglementation et des choses comme ça, j'en suis sûr. Mais cela reflète l'une des grandes différences, qui va du travail avec des ordinateurs, que nous avons toujours considérés comme ces machines de vérité hautement déterministes, binaires, commandées par interrupteur marche/arrêt, et maintenant, tout à coup, la nature de ça bouge beaucoup. Et c'est un grand changement ainsi que tout ce que nous décrivons - ce à quoi vous pouvez vous attendre, comment vous pouvez vous attendre à ce que cela fonctionne pour vous personnellement, et le degré de fongibilité ou de contrôle que vous avez sur cela. Je pense que nous allons commencer à voir beaucoup plus de divergences d'expérimentation passionnantes, et le niveau de personnalisation que nous avons aujourd'hui, où vous pouvez changer votre fond d'écran ou quelle que soit la taille de la police, sera probablement pâle en comparaison.
Vers le centre du cercle
Emmet : Tu as aussi dit quelque chose d'intéressant sur lequel je voulais revenir. Imaginez des designers qui assemblent principalement à partir d'une bibliothèque. La tâche de conception d'interface utilisateur est intéressante parce que nous nous sommes préparés à cela avec des systèmes de conception. Un système de conception est une bibliothèque de modèles de composants. Si vous construisez un gros produit, vous voulez qu'il soit cohérent et vous voulez pouvoir le mettre en place rapidement. Donc, une grande partie du travail de base que nous avons posé et des systèmes que nous avons construits, même sur, disons, des équipes de conception, et probablement aussi des équipes d'ingénierie, construisant des composants qui peuvent rapidement être réutilisés par ces systèmes, est tout pointé vis-à-vis de notre capacité à construire ces outils assez rapidement. Ce que vous décriviez est quelque chose qui prend votre système de conception et en construit une interface utilisateur, et cela ne semble pas à des kilomètres.
Fergal : Ou peut-être qu'il prend le système de conception open source standard et construit un outil à partir de celui-ci. Je ne sais pas si cela se produira au niveau des entreprises individuelles ou si cela se produira à un niveau horizontal plus large.
Emmet : Ouais, ce serait tellement ennuyeux. Ce serait tragique. Avant iOS 7, nous avions le skeuomorphisme et tout, puis ils sont passés à un design plat super opiniâtre, et toute l'industrie a été tellement influencée par la domination d'Apple que tous les sites Web ont commencé à se ressembler. Apple a publié ses directives sur l'interface humaine et a déclaré: "Écoutez, les applications iPhone devraient ressembler à ceci maintenant." Mais cela a conduit à un aplatissement de la diversité et à une toile plus ennuyeuse, à mon avis. Et c'était au service de ces systèmes qui peuvent se construire.
Fergal : Vous pourriez dire à votre agent que vous voulez qu'il ait l'air funky et rétro. Vous devez imaginer que cela viendra, et je pense que les choses deviendront beaucoup plus personnalisables en termes de ce que les gens utilisent réellement parce que vous avez une couche intelligente qui comprend comment construire une interface avec une équipe donnée. Vous feriez probablement cela aujourd'hui. Si vous vous lancez aujourd'hui dans la construction de Midjourney pour les interfaces utilisateur, vous pourriez probablement le faire. Nous avons GPT-4 qui peut générer du code ou du CSS pour écrire des interfaces utilisateur, et nous avons les modèles de synthèse d'images où vous intégrez toutes les images et le texte, et vous les écrasez en quelque sorte. Je parie que vous pourriez construire quelque chose assez rapidement.
Emmet : C'est tellement drôle parce que tu dis ça, et ma réaction émotionnelle est du genre : « Non, tu ne comprends pas ; vous devez penser à la convivialité et comprendre les humains et tout ce genre de choses. Et puis je me dis: "Ouais, ce sont les capacités de raisonnement dont nous avons parlé, et il semble qu'il les ait maintenant." Et donc pendant que nous en parlons, j'ai cette émotion...
Fergal : Crise.
Emmet : L'IA arrive pour votre discipline. Mais honnêtement, je ne suis pas si inquiet à ce sujet parce que je pense que beaucoup de concepteurs, et j'ai également entendu cela pour les programmeurs, ne vont pas pleurer le travail fastidieux que cela rend largement plus rapide et améliore. Cela leur permet en fait de monter d'un niveau de zoom et de réfléchir un peu plus à la solution plutôt qu'à l'exécution de la solution. Construire des produits est toujours super laborieux et prend beaucoup de temps, et je pense que ce sera formidable de voir ce qui se passera si nous supprimons une partie du travail fastidieux.
Fergal : Je veux dire, c'est tout ce débat sur les emplois, les placements et le changement d'emploi, et quelque chose va se passer ici. Quand j'entends ça, je me dis : « Oh, peut-être que ça veut dire que tu n'as plus besoin de designers, peut-être que tu as juste besoin de chefs de produit. Et un chef de produit peut désormais faire tout ce qu'un designer faisait auparavant. Peut-être que vous n'avez pas besoin d'un programmeur – peut-être avez-vous juste besoin d'un chef de produit. Et nous deviendrons tous des chefs de produit à l'avenir. Je ne sais pas. Peut-être qu'il pourrait y avoir beaucoup plus de rôles et d'emplois comme ça, ou peut-être qu'il y en aura moins.
Emmet : Je pense que nous devrions nous pencher là-dessus. Une chose que j'ai remarquée dans ma carrière est que plus vous devenez senior, moins vous êtes spécifique à votre discipline. Vous devez devenir davantage un leader général.
Fergal : J'ai eu cette conversation avec quelqu'un de l'équipe de conception. Lorsque vous êtes junior dans une discipline comme l'ingénierie, les produits ou le design, vous êtes au bord d'un cercle. Et puis, à mesure que vous vieillissez, vous vous rapprochez de plus en plus du centre. Au centre du cercle se trouve le produit. Et donc, à mesure que vous devenez de plus en plus expérimenté, votre monde dépend de plus en plus du produit que vous construisez et de moins en moins de l'angle d'où vous venez.
Emmet : Je peux voir ça aussi. Donc, nous allons tous devenir PM, c'est le plan ?
Fergal : Ouais, je veux dire, en fin de compte, c'est ce que nous essayons de faire dans un travail comme celui-ci.
Emmet : Je veux dire, qu'est-ce qu'un chef de projet si ce n'est un produit sans aucune compétence pratique directement applicable, n'est-ce pas, Fergal ?
Fergal Reid : Oui, je sais. Qu'est-ce qu'un PM ?
Emmet : Je pense qu'on devrait conclure. Bravo, Fergal.
Fergal : Merci, Emmet.