fbpx

Google suspend un ingénieur qui a sonné des alarmes à propos d’une entreprise AI Atteindre Sentience

Google a suspendu un ingénieur la semaine dernière pour avoir révélé des détails confidentiels sur un chatbot alimenté par l’intelligence artificielle, une décision qui marque la dernière perturbation du département IA de l’entreprise.

Blake Lemoine, un ingénieur logiciel senior du groupe responsable de l’IA chez Google, a été mis en congé administratif payé après avoir rendu public son inquiétude quant au fait que le chatbot, connu sous le nom de LaMDA, ou Language Model for Dialogue Applications, avait atteint la sensibilité. Lemoine a révélé sa suspension dans un post du 6 juin sur Medium et a ensuite discuté de ses inquiétudes concernant la possible sensibilité de LaMDA avec le Washington Post dans un article publié au cours du week-end. Lemoine a également recherché un avocat extérieur pour LaMDA lui-même, selon The Post.

Dans son article Medium, Lemoine dit qu’il a enquêté sur des problèmes d’éthique avec des personnes extérieures à Google afin d’obtenir suffisamment de preuves pour les transmettre à la haute direction. Le post de Medium était “intentionnellement vague” sur la nature de ses préoccupations, bien qu’elles aient été détaillées par la suite dans l’article du Post. Samedi, Lemoine a publié une série d’« entretiens » qu’il a menés avec LaMDA.

Lemoine n’a pas immédiatement répondu à une demande de commentaire via LinkedIn. Dans un Publication sur TwitterLemoine a déclaré qu’il était en lune de miel et qu’il ne serait pas disponible pour commenter jusqu’au 21 juin.

Dans un communiqué, Google a rejeté l’affirmation de Lemoine selon laquelle LaMDA est conscient de lui-même.

“Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique”, a déclaré le porte-parole de Google, Brian Gabriel, dans un communiqué. “Si vous demandez ce que c’est que d’être un dinosaure de la crème glacée, ils peuvent générer un texte sur la fonte et le rugissement, etc.”

La suspension très médiatisée marque un autre point de controverse au sein de l’équipe d’intelligence artificielle de Google, qui a résisté à une vague de départs. Fin 2020, l’éminent chercheur en éthique de l’IA, Timnit Gebru, a déclaré que Google l’avait licenciée pour avoir soulevé des inquiétudes concernant les biais dans les systèmes d’IA. Environ 2 700 Googleurs ont signé un lettre ouverte en soutien à Gebru, qui, selon Google, a démissionné de son poste. Deux mois plus tard, Margaret Mitchell, qui co-dirigeait l’équipe Ethical AI avec Gebru, était licencié.

Le chercheur scientifique Alex Hanna et l’ingénieur logiciel Dylan Baker ont par la suite démissionné. Plus tôt cette année, Google a licencié Satrajit Chatterjee, un chercheur en IA, qui contesté un document de recherche sur l’utilisation de l’intelligence artificielle pour développer des puces informatiques.

La sensibilité de l’IA est un thème courant dans la science-fiction, mais peu de chercheurs pensent que la technologie est suffisamment avancée à ce stade pour créer un chatbot conscient de lui-même.

“Ce que font ces systèmes, ni plus ni moins, est d’assembler des séquences de mots, mais sans aucune compréhension cohérente du monde derrière eux”, a déclaré le scientifique et auteur de l’IA Gary Marcus dans un article de Substack. Marcus n’a pas écarté l’idée que l’IA pourrait un jour comprendre le monde plus vaste, mais que LaMDA ne le fait pas pour le moment.

L’économiste et professeur de Stanford Erik Brynjolfsson a assimilé LaMDA à un chien écoutant une voix humaine à travers un gramophone.


#Google #suspend #ingénieur #qui #sonné #des #alarmes #propos #dune #entreprise #Atteindre #Sentience

Leave a Comment

Your email address will not be published. Required fields are marked *