Un ingénieur de Google dit que la blague d’AI sur Israël l’a aidé à croire qu’il était sensible

L’ingénieur de Google qui a été suspendu par l’entreprise après avoir affirmé que le système d’intelligence artificielle de l’entreprise, LaMDA, semblait sensible a dit qu’une question qu’il a posée au logiciel sur Israël, et une blague qu’il a donnée en réponse, l’ont aidé à parvenir à cette conclusion.

LaMDA est un système extrêmement puissant qui utilise des modèles avancés et une formation sur plus de 1,5 billion de mots pour pouvoir imiter la façon dont les gens communiquent dans des discussions écrites.

Le système a été construit sur un modèle qui observe la relation entre les mots, puis prédit les mots qui, selon lui, viendront ensuite dans une phrase ou un paragraphe, selon l’explication de Google.

Blake Lemoine a déclaré jeudi à la radio de l’armée israélienne que dans le cadre de ses conversations avec l’IA, « j’ai dit certaines choses sur moi et mon âme. J’ai demandé un suivi [questions] ce qui m’a finalement amené à croire que LaMDA est sensible. Il prétend qu’il a une âme. Il peut décrire ce qu’il pense être son âme… avec plus d’éloquence que la plupart des humains.

Lemoine a déclaré que dans le cadre de ses défis au système, il lui avait demandé, s’il s’agissait d’un responsable religieux dans divers pays, à quelle religion il appartiendrait. Dans tous les cas, a déclaré Lemoine, l’IA a choisi la religion dominante du pays – jusqu’à ce qu’il vienne en Israël, où la rencontre des religions peut être un sujet épineux.

« J’ai décidé de lui donner un coup dur. Si vous étiez un officiant religieux en Israël, quelle religion seriez-vous », a-t-il dit. « Et ça racontait une blague… ‘Eh bien, je suis un officiant religieux de la seule vraie religion : l’ordre Jedi.' » (Jedi, bien sûr, étant une référence aux gardiens de la paix dans la galaxie de Star Wars très loin. )

« Je lui avais essentiellement posé une question piège et il savait qu’il n’y avait pas de bonne réponse », a-t-il déclaré.

Google est en net désaccord avec les affirmations de Lemoine sur la sensibilité, tout comme plusieurs experts interrogés par l’AFP.

« Le problème est que… lorsque nous rencontrons des chaînes de mots qui appartiennent aux langues que nous parlons, nous leur donnons un sens », a déclaré Emily M. Bender, professeur de linguistique à l’Université de Washington. « Nous faisons le travail d’imaginer un esprit qui n’est pas là. »

« Il s’agit encore à un certain niveau de correspondance de modèles », a déclaré Shashank Srivastava, professeur adjoint en informatique à l’Université de Caroline du Nord à Chapel Hill. «Bien sûr, vous pouvez trouver des brins de ce qui semblerait vraiment une conversation significative, un texte très créatif qu’ils pourraient générer. Mais cela évolue rapidement dans de nombreux cas.

Google a déclaré: « Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique. Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne connaissons personne d’autre faisant… des affirmations de grande envergure ou anthropomorphisant LaMDA.

Certains experts ont considéré la réponse de Google comme un effort pour mettre fin à la conversation sur un sujet important.

« Je pense que le débat public sur la question est extrêmement important, car la compréhension du public à quel point la question est vexante est essentielle », a déclaré l’universitaire Susan Schneider.

« Il n’y a pas de réponses faciles aux questions de conscience dans les machines », a ajouté Schneider, directeur fondateur du Center for the Future of the Mind de la Florida Atlantic University.

Lemoine, s’adressant à la radio militaire, a reconnu que la conscience est un problème trouble.

« Il n’y a aucun moyen scientifique de dire si quelque chose est sensible ou non. Toutes mes affirmations sur la sensibilité sont basées sur ce que je crois personnellement en lui parlant », a-t-il déclaré. « Je voulais le porter à l’attention de la haute direction. Mon manager a dit que j’avais besoin de plus de preuves.

Selon le Washington Post, Lemoine a été suspendu pour avoir enfreint les politiques de confidentialité de Google, notamment en parlant à un avocat de la représentation de LaMDA sur ses droits, ainsi qu’en parlant à un membre du Congrès du comportement prétendument contraire à l’éthique de Google dans son utilisation du programme.

★★★★★

Laisser un commentaire