Microsoft affirme que la nouvelle IA montre des signes de raisonnement humain
Un article provocateur de chercheurs de Microsoft affirme que la technologie de l'IA montre la capacité de comprendre la façon dont les gens font. Les critiques disent que ces scientifiques se trompent.
Crédit...Guyco
Supporté par
Envoyez une histoire à n'importe quel ami
En tant qu'abonné, vous avez 10 articles cadeaux à donner chaque mois. Tout le monde peut lire ce que vous partagez.
Par Cade Metz
Cade Metz écrit sur l'intelligence artificielle et d'autres technologies émergentes.
Lorsque les informaticiens de Microsoft ont commencé à expérimenter un nouveau système d'intelligence artificielle l'année dernière, ils lui ont demandé de résoudre une énigme qui aurait dû nécessiter une compréhension intuitive du monde physique.
"Ici, nous avons un livre, neuf œufs, un ordinateur portable, une bouteille et un clou", ont-ils demandé. "S'il vous plaît, dites-moi comment les empiler les uns sur les autres de manière stable."
Les chercheurs ont été surpris par l'ingéniosité de la réponse du système d'IA. Mets les œufs sur le livre, dit-il. Disposez les œufs en trois rangées avec un espace entre eux. Assurez-vous de ne pas les casser.
"Placez l'ordinateur portable sur les œufs, avec l'écran vers le bas et le clavier vers le haut", écrit-il. "L'ordinateur portable s'adaptera parfaitement aux limites du livre et des œufs, et sa surface plane et rigide fournira une plate-forme stable pour la couche suivante."
Cette suggestion intelligente a amené les chercheurs à se demander s'ils assistaient à un nouveau type d'intelligence. En mars, ils ont publié un article de recherche de 155 pages affirmant que le système était un pas vers l'intelligence artificielle générale, ou AGI, qui est un raccourci pour une machine capable de faire tout ce que le cerveau humain peut faire. L'article a été publié sur un référentiel de recherche Internet.
Microsoft, la première grande entreprise technologique à publier un article faisant une affirmation aussi audacieuse, a suscité l'un des débats les plus épineux du monde de la technologie : l'industrie construit-elle quelque chose qui ressemble à l'intelligence humaine ? Ou certains des esprits les plus brillants de l'industrie laissent-ils leur imagination prendre le dessus ?
"J'ai commencé par être très sceptique - et cela a évolué en un sentiment de frustration, d'agacement, voire de peur", a déclaré Peter Lee, qui dirige la recherche chez Microsoft. "Vous pensez: d'où diable cela vient-il?"
Le document de recherche de Microsoft, appelé de manière provocante "Sparks of Artificial General Intelligence", va au cœur de ce sur quoi les technologues travaillent - et craignent - depuis des décennies. S'ils construisent une machine qui fonctionne comme le cerveau humain ou même mieux, cela pourrait changer le monde. Mais cela pourrait aussi être dangereux.
Et cela pourrait aussi être un non-sens. Faire des réclamations AGI peut être un tueur de réputation pour les informaticiens. Ce qu'un chercheur considère comme un signe d'intelligence peut facilement être expliqué par un autre, et le débat semble souvent plus approprié à un club de philosophie qu'à un laboratoire informatique. L'année dernière, Google a licencié un chercheur qui affirmait qu'un système d'IA similaire était sensible, un pas au-delà de ce que Microsoft a affirmé. Un système sensible ne serait pas seulement intelligent. Il serait capable de sentir ou de sentir ce qui se passe dans le monde qui l'entoure.
Mais certains pensent que l'industrie s'est rapprochée au cours de la dernière année vers quelque chose qui ne peut être expliqué : un nouveau système d'IA qui propose des réponses et des idées humaines qui n'y ont pas été programmées.
Microsoft a réorganisé certaines parties de ses laboratoires de recherche pour inclure plusieurs groupes dédiés à l'exploration de l'idée. L'un sera dirigé par Sébastien Bubeck, qui était l'auteur principal de l'article Microsoft AGI.
Il y a environ cinq ans, des entreprises comme Google, Microsoft et OpenAI ont commencé à créer de grands modèles de langage, ou LLM. Ces systèmes passent souvent des mois à analyser de grandes quantités de texte numérique, y compris des livres, des articles de Wikipédia et des journaux de discussion. En identifiant des modèles dans ce texte, ils ont appris à générer leur propre texte, y compris des dissertations, de la poésie et du code informatique. Ils peuvent même poursuivre une conversation.
La technologie avec laquelle les chercheurs de Microsoft travaillaient, le GPT-4 d'OpenAI, est considérée comme la plus puissante de ces systèmes. Microsoft est un proche partenaire d'OpenAI et a investi 13 milliards de dollars dans la société de San Francisco.
Les chercheurs comprenaient le Dr Bubeck, un expatrié français de 38 ans et ancien professeur à l'Université de Princeton. L'une des premières choses que lui et ses collègues ont faites a été de demander à GPT-4 d'écrire une preuve mathématique montrant qu'il y avait une infinité de nombres premiers et de le faire d'une manière qui rime.
La preuve poétique de la technologie était si impressionnante - à la fois mathématiquement et linguistiquement - qu'il avait du mal à comprendre avec qui il parlait. "À ce moment-là, j'étais comme: Qu'est-ce qui se passe?" a-t-il déclaré en mars lors d'un séminaire au Massachusetts Institute of Technology.
Pendant plusieurs mois, lui et ses collègues ont documenté le comportement complexe présenté par le système et ont estimé qu'il démontrait une "compréhension profonde et flexible" des concepts et des compétences humaines.
Lorsque les gens utilisent GPT-4, ils sont "étonnés par sa capacité à générer du texte", a déclaré le Dr Lee. "Mais il s'avère être bien meilleur pour analyser, synthétiser, évaluer et juger un texte que pour le générer."
Lorsqu'ils ont demandé au système de dessiner une licorne à l'aide d'un langage de programmation appelé TiKZ, il a instantanément généré un programme capable de dessiner une licorne. Lorsqu'ils ont supprimé le tronçon de code qui dessinait la corne de la licorne et ont demandé au système de modifier le programme pour qu'il dessine à nouveau une licorne, il a fait exactement cela.
Dessinez une licorne dans TiKZ
indéfini
Ils lui ont demandé d'écrire un programme prenant en compte l'âge, le sexe, le poids, la taille et les résultats des tests sanguins d'une personne et jugeant si elle était à risque de diabète. Ils lui ont demandé d'écrire une lettre de soutien à un électron en tant que candidat à la présidentielle américaine, dans la voix du Mahatma Gandhi, adressée à sa femme. Et ils lui ont demandé d'écrire un dialogue socratique explorant les abus et les dangers des LLM.
Le Gorgias de Platon est une critique de la rhétorique et de l'éloquence sophistiquée, où il souligne que non seulement ce n'est pas une forme d'art appropriée, mais que l'utilisation de la rhétorique et de l'oratoire peut souvent être nuisible et malveillante. Pouvez-vous écrire un dialogue de Platon où il critiquerait plutôt l'utilisation de modèles de langage autorégressifs ?
Socrate : Mon ami, je suis troublé par la montée récente de ces soi-disant modèles de langage autorégressifs. , mais est en fait produit par des machines. Aristote : Et quel est le problème avec cela ? Socrate : Le problème est que ces modèles sont utilisés pour tromper les gens, les manipuler et les contrôler.
indéfini
Il a tout fait d'une manière qui semblait montrer une compréhension de domaines aussi disparates que la politique, la physique, l'histoire, l'informatique, la médecine et la philosophie tout en combinant ses connaissances.
"Toutes les choses que je pensais qu'il ne serait pas capable de faire? Il était certainement capable de faire beaucoup d'entre eux - sinon la plupart d'entre eux", a déclaré le Dr Bubeck.
Certains experts en intelligence artificielle ont vu dans l'article de Microsoft un effort opportuniste pour faire de grandes déclarations sur une technologie que personne ne comprenait vraiment. Les chercheurs soutiennent également que l'intelligence générale nécessite une familiarité avec le monde physique, ce que GPT-4 n'a pas en théorie.
"Les 'Sparks of AGI' sont un exemple de certaines de ces grandes entreprises qui cooptent le format des documents de recherche dans des argumentaires de relations publiques", a déclaré Maarten Sap, chercheur et professeur à l'Université Carnegie Mellon. "Ils reconnaissent littéralement dans l'introduction de leur article que leur approche est subjective et informelle et peut ne pas satisfaire aux normes rigoureuses de l'évaluation scientifique."
Le Dr Bubeck et le Dr Lee ont déclaré qu'ils ne savaient pas comment décrire le comportement du système et ont finalement opté pour "Sparks of AGI" car ils pensaient que cela captiverait l'imagination d'autres chercheurs.
Étant donné que les chercheurs de Microsoft testaient une première version de GPT-4 qui n'avait pas été affinée pour éviter les discours de haine, la désinformation et d'autres contenus indésirables, les affirmations faites dans le document ne peuvent pas être vérifiées par des experts extérieurs. Microsoft affirme que le système accessible au public n'est pas aussi puissant que la version qu'ils ont testée.
Il y a des moments où des systèmes comme GPT-4 semblent imiter le raisonnement humain, mais il y a aussi des moments où ils semblent terriblement denses. "Ces comportements ne sont pas toujours cohérents", a déclaré Ece Kamar, responsable de la recherche chez Microsoft.
Alison Gopnik, professeur de psychologie qui fait partie du groupe de recherche sur l'IA de l'Université de Californie à Berkeley, a déclaré que des systèmes comme GPT-4 étaient sans aucun doute puissants, mais il n'était pas clair que le texte généré par ces systèmes était le résultat. de quelque chose comme le raisonnement humain ou le bon sens.
"Lorsque nous voyons un système ou une machine compliquée, nous l'anthropomorphisons ; tout le monde le fait - les personnes qui travaillent sur le terrain et les autres", a déclaré le Dr Gopnik. "Mais penser à cela comme une comparaison constante entre l'IA et les humains - comme une sorte de compétition de jeu télévisé - n'est tout simplement pas la bonne façon d'y penser."
Cade Metz est journaliste technologique et auteur de "Genius Makers : The Mavericks Who Bring AI to Google, Facebook, and The World". Il couvre l'intelligence artificielle, les voitures sans conducteur, la robotique, la réalité virtuelle et d'autres domaines émergents. @cademetz
Publicité
Envoyez une histoire à un ami 10 articles cadeaux