Selon un récit révélateur du Washington Post samedi, un ingénieur de Google a déclaré qu’après des centaines d’interactions avec un système d’IA de pointe et inédit appelé LaMDA, il pensait que le programme avait atteint un niveau de conscience.
Dans des interviews et des déclarations publiques, de nombreux membres de la communauté de l’IA ont repoussé les affirmations de l’ingénieur, tandis que certains ont souligné que son histoire met en évidence comment la technologie peut amener les gens à lui attribuer des attributs humains. Mais la conviction que l’IA de Google pourrait être sensible met sans doute en évidence à la fois nos craintes et nos attentes quant à ce que cette technologie peut faire.
LaMDA, qui signifie “Modèle de langage pour les applications de dialogue”, est l’un des nombreux systèmes d’IA à grande échelle qui a été formé sur de larges bandes de texte provenant d’Internet et peut répondre à des invites écrites. Ils sont essentiellement chargés de trouver des modèles et de prédire quel mot ou quels mots devraient venir ensuite. De tels systèmes sont devenus de plus en plus efficaces pour répondre aux questions et écrire d’une manière qui peut sembler humainement convaincante – et Google lui-même a présenté LaMDA en mai dernier dans un article de blog comme celui qui peut “s’engager de manière fluide sur un nombre apparemment infini de sujets. ” Mais les résultats peuvent aussi être loufoques, bizarres, dérangeants et sujets à la divagation.
L’ingénieur, Blake Lemoine, aurait déclaré au Washington Post qu’il avait partagé avec Google des preuves que LaMDA était sensible, mais la société n’était pas d’accord. Dans un communiqué, Google a déclaré lundi que son équipe, qui comprend des éthiciens et des technologues, “a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations”.
Le 6 juin, Lemoine a publié sur Medium que Google l’avait mis en congé administratif payé “dans le cadre d’une enquête sur des problèmes d’éthique liés à l’IA que je soulevais au sein de l’entreprise” et qu’il pourrait être licencié “bientôt”. (Il a mentionné l’expérience de Margaret Mitchell, qui avait dirigé l’équipe Ethical AI de Google jusqu’à ce que Google la licencie au début de 2021 suite à son franc-parler concernant la sortie fin 2020 de Timnit Gebru, alors co-leader. Gebru a été évincé après des échauffourées internes, dont un lié à un document de recherche dont la direction de l’IA de l’entreprise lui a dit de se retirer de la considération pour une présentation lors d’une conférence, ou de retirer son nom.)
Un porte-parole de Google a confirmé que Lemoine reste en congé administratif. Selon le Washington Post, il a été mis en congé pour avoir enfreint la politique de confidentialité de l’entreprise.
Lemoine n’était pas disponible pour commenter lundi.
L’émergence continue de programmes informatiques puissants formés sur des données massives a également suscité des inquiétudes quant à l’éthique régissant le développement et l’utilisation de ces technologies. Et parfois, les progrès sont considérés à travers le prisme de ce qui peut arriver, plutôt que de ce qui est actuellement possible.
Les réponses des membres de la communauté de l’IA à l’expérience de Lemoine ont ricoché sur les médias sociaux au cours du week-end, et ils sont généralement arrivés à la même conclusion : l’IA de Google est loin d’être consciente. Abeba Birhane, chercheur principal en IA digne de confiance chez Mozilla,
tweeté dimanche, “nous sommes entrés dans une nouvelle ère de” ce réseau neuronal est conscient “et cette fois, il va drainer tellement d’énergie pour réfuter.”
Gary Marcus, fondateur et PDG de Geometric Intelligence, qui a été vendu à Uber, et auteur de livres dont “Rebooting AI: Building Artificial Intelligence We Can Trust”, a qualifié l’idée de LaMDA de sensible
“des bêtises sur des échasses” dans un tweet. Il a rapidement écrit un article de blog soulignant que tous ces systèmes d’IA font correspondre des modèles en puisant dans d’énormes bases de données de langage.
Dans une interview lundi avec CNN Business, Marcus a déclaré que la meilleure façon de penser à des systèmes tels que LaMDA est comme une “version glorifiée” du logiciel de saisie semi-automatique que vous pouvez utiliser pour prédire le mot suivant dans un message texte. Si vous tapez “J’ai vraiment faim, je veux aller dans un”, cela pourrait suggérer “restaurant” comme mot suivant. Mais c’est une prédiction faite à l’aide de statistiques.
“Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente”, a-t-il déclaré.
Dans une interview, Gebru, qui est le fondateur et directeur exécutif du Distributed AI Research Institute, ou DAIR, a déclaré que Lemoine est victime de nombreuses entreprises affirmant que l’IA consciente ou l’intelligence générale artificielle – une idée qui fait référence à l’IA qui peut effectuer tâches humaines et interagir avec nous de manière significative – ne sont pas loin.
Par exemple, a-t-elle noté, Ilya Sutskever, co-fondateur et scientifique en chef d’OpenAI,
tweeté en février qu'”il se peut que les grands réseaux de neurones d’aujourd’hui soient légèrement conscients”. Et la semaine dernière, le vice-président de Google Research et collègue Blaise Aguera y Arcas a écrit dans un article pour The Economist que lorsqu’il a commencé à utiliser LaMDA l’année dernière, “j’avais de plus en plus l’impression de parler à quelque chose d’intelligent”. (Cet article comprend maintenant une note de l’éditeur soulignant que Lemoine a depuis « été mis en congé après avoir affirmé dans une interview avec le Washington Post que LaMDA, le chatbot de Google, était devenu « conscient ». »)
“Ce qui se passe, c’est qu’il y a une telle course pour utiliser plus de données, plus de calcul, pour dire que vous avez créé cette chose générale qui sait tout, répond à toutes vos questions ou autre, et c’est le tambour que vous avez joué”, a déclaré Gebru. . « Alors, comment es-tu surpris quand cette personne pousse les choses à l’extrême ? »
Dans sa déclaration, Google a souligné que LaMDA a fait l’objet de 11 “examens distincts des principes de l’IA”, ainsi que de “recherches et tests rigoureux” liés à la qualité, à la sécurité et à la capacité de formuler des déclarations fondées sur des faits. “Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles”, a déclaré la société.
“Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne connaissons personne d’autre faisant des affirmations de grande envergure, ou anthropomorphisant LaMDA, comme l’a fait Blake”, a déclaré Google.