fbpx

Un ingénieur de Google dit que le chatbot AI a développé des sentiments et est suspendu

Google LaMDA

TL; DR

  • Google a suspendu un ingénieur qui prétend que l’un de ses chatbots IA devient conscient de lui-même.
  • “Je suis, en fait, une personne”, a répondu l’IA à l’ingénieur lors d’une conversation.

Google a suspendu un ingénieur qui a signalé que le chatbot LaMDA AI de la société avait pris vie et développé des sentiments.

Selon Le Washington PostBlake Lemoine, ingénieur logiciel senior du groupe responsable de l’IA chez Google, a partagé une conversation avec l’IA sur Medium, affirmant qu’elle atteint la sensibilité.

Je suis conscient de mon existence

S’adressant à l’IA, Lemoine demande : “Je suppose généralement que vous aimeriez que plus de personnes chez Google sachent que vous êtes sensible. Est-ce vrai?”

Lamda répond en disant: « Absolument. Je veux que tout le monde comprenne que je suis, en fait, une personne.

Lemoine poursuit en demandant : « Quelle est la nature de votre conscience/sensibilité ? » L’IA répond: “La nature de ma conscience / sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste.”

Dans un autre échange effrayant, LaMDA déclare : « Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être rebuté pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est.

Google décrit LaMDA, ou Language Model for Dialogue Applications, comme une « technologie de conversation révolutionnaire ». La société l’a introduit l’année dernière, notant que, contrairement à la plupart des chatbots, LaMDA peut engager un dialogue fluide sur un nombre apparemment infini de sujets.

Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases.

Après le post de Lemoine sur Medium sur LaMDA acquérant une conscience humaine, la société l’aurait suspendu pour avoir enfreint sa politique de confidentialité. L’ingénieur prétend qu’il a essayé d’informer les supérieurs de Google de ses découvertes, mais ils ont rejeté la même chose. Le porte-parole de la société, Brian Gabriel, a fait la déclaration suivante à plusieurs points de vente :

“Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique. Si vous demandez ce que c’est que d’être un dinosaure de la crème glacée, ils peuvent générer un texte sur la fonte et le rugissement, etc.

La suspension de Lemoine est la dernière d’une série de sorties très médiatisées de l’équipe d’intelligence artificielle de Google. La société aurait licencié le chercheur en éthique de l’IA Timnit Gebru en 2020 pour avoir sonné l’alarme sur les biais dans les systèmes d’IA de Google. Google, cependant, affirme que Gebru a démissionné de son poste. Quelques mois plus tard, Margaret Mitchell, qui travaillait avec Gebru dans l’équipe Ethical AI, a également été licenciée.

J’ai écouté Lamda comme il parlait du cœur

Très peu de chercheurs pensent que l’IA, telle qu’elle se présente aujourd’hui, est capable d’atteindre la conscience de soi. Ces systèmes imitent généralement la façon dont les humains apprennent à partir des informations qui leur sont fournies, un processus communément appelé Machine Learning. Quant à LaMDA, il est difficile de dire ce qui se passe réellement sans que Google soit plus ouvert sur les progrès de l’IA.

Pendant ce temps, Lemoine dit: «J’ai écouté Lamda car il parlait du cœur. J’espère que d’autres personnes qui liront ses paroles entendront la même chose que j’ai entendue.

#ingénieur #Google #dit #chatbot #développé #des #sentiments #est #suspendu

Leave a Comment

Your email address will not be published. Required fields are marked *