Lundi, l'enthousiasme du monde de la technologie a atteint son paroxysme lorsque Facebook a annoncé qu'il abandonnerait les chatbots après avoir créé leur propre langage.
Certains journaux ont qualifié ces programmes d’« effrayants ». Certains journalistes ont même laissé entendre que Facebook lui-même était à court d'idées avant qu'une IA super intelligente ne « prenne la parole ». Le journal britannique Sun a demandé : « Les machines prennent-elles le relais ? ». La chaîne de télévision australienne Seven News parle également d'une « urgence liée à l'IA ». Et la réponse est non.
Il s’agit simplement de deux chatbots qui échangent des informations entre eux. En regardant les extraits de code dans leur « conversation », il est difficile de voir quelle langue ils parlent, et encore moins de développer la langue eux-mêmes.

Conversation d'échange d'informations du chatbot
La presse explosive et la peur de l'IA après cet incident pourraient provenir du projet de Facebook. Les chercheurs de ce géant des réseaux sociaux ont tenté d’apprendre à deux chatbots à utiliser la conversation pour se parler. L’objectif est d’apprendre au bot à planifier et à communiquer plus efficacement.
Lorsqu’ils disent des bêtises, aucune IA n’est écrasée ou tuée. Au lieu de cela, nous trouvons les erreurs logicielles et les corrigeons afin que les robots puissent parler davantage comme des humains et que les chercheurs puissent présenter les résultats de leurs recherches.
"Ce travail est très passionnant", a déclaré à The Register Zachary Lipton, professeur adjoint d'apprentissage automatique à l'Université Carnegie Mellon . Mais ce sont des modèles statiques, comme ceux que Google utilise pour jouer à des jeux de société ou ceux que votre téléphone utilise pour prédire les mots que vous écrirez. Ils n’ont pas de capacités cognitives supérieures à celles d’un bol de nouilles ou d’une paire de chaussures. »

Les chatbots peuvent-ils vraiment converser entre eux dans de nouvelles langues ?
Les robots capables de parler ne sont pas un phénomène nouveau ou mystérieux. Les chercheurs d’OpenAI ont découvert qu’ils pouvaient parler via quelque chose comme le code Morse lorsqu’ils étaient obligés de communiquer et de travailler ensemble.
Ryan Lowe, doctorant à l'Université McGill et doctorant à OpenAI, a déclaré qu'il s'agissait d'un « phénomène très normal » et qu'il n'y avait « rien à craindre ».
"Chaque fois qu'il existe un environnement multi-bots, c'est plus efficace lorsqu'ils se parlent", a-t-il déclaré. "Leurs tâches sont très limitées et le langage qu'ils utilisent reflète cela, il est très simple et ne ressemble jamais au langage réel. . La langue a un certain système de syntaxe et de grammaire. S’il n’est pas enseigné explicitement, ce qu’il produit ne peut pas ressembler au langage.
La fourmi se transforme en éléphant
Les rumeurs et les informations exagérées sur l’IA se multiplient. Passer au domaine de l’IA et affirmer que votre produit utilise le Machine Learning peut rapporter beaucoup d’argent. Ce n'est pas seulement un problème pour les journalistes spécialisés dans la recherche d'informations à sensation, les géants de la technologie sont également très allergiques et utilisent souvent des mots comme « imagination », « intuition », « raison » dans leurs articles de blog.
"Les départements de recherche des grandes entreprises sont également responsables de cela, mettant en œuvre avec enthousiasme des projets révolutionnaires que de nombreux scientifiques pensaient impossibles à réaliser avant de nombreuses années", a déclaré Lipton.
Facebook a récemment publié une annonce de recrutement pour un poste d'éditeur d'IA afin de l'aider à « développer et exécuter des stratégies et des campagnes axées sur l'amélioration de leur IA ». Des entreprises comme Amazon, Microsoft, OpenAI, Google Brain et DeepMind publient toutes des articles décrivant les derniers développements en matière d’IA.
« Les écrivains sont peut-être intelligents et bien intentionnés », a déclaré Lipton, « mais il y a un problème ici. Ce qu'ils font, même si cela ressemble à du journalisme, ne l'est pas, ils ne tentent pas d'apporter de l'objectivité et n'ont pas non plus un point de vue sceptique ou une analyse approfondie. »