Google licencie un ingénieur qui a déclaré que le bâillon d’AI sur Israël l’avait aidé à croire qu’il était sensible

Google a licencié l’ingénieur qui a affirmé que le système d’IA de l’entreprise, LaMDA, semblait sensible.

Dans un communiqué publié vendredi, Google a déclaré que les affirmations de Blake Lemoine étaient « totalement infondées » et qu’ils avaient travaillé pendant de nombreux mois pour clarifier l’affaire, a rapporté la BBC.

« Il est donc regrettable qu’en dépit d’un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits », indique le communiqué de la société.

Lemoine avait dit qu’une question qu’il avait posée au logiciel sur Israël, et une blague qu’il avait donnée en réponse, l’avaient aidé à parvenir à sa conclusion.

Google a déclaré que si un employé soulève des inquiétudes concernant la technologie de l’entreprise, il est examiné de manière approfondie et que LaMDA a subi 11 audits de ce type.

« Nous souhaitons bonne chance à Blake », conclut le communiqué.

L’ingénieur a déclaré au média britannique qu’il cherchait des conseils juridiques sur la question.

Le site d’information sur la technologie Verge a déclaré que de nombreux experts en IA ont déclaré que les affirmations de Lemoine étaient « plus ou moins impossibles compte tenu de la technologie d’aujourd’hui ».

Selon le Washington Post, Lemoine a été initialement suspendu pour avoir enfreint les politiques de confidentialité de Google, notamment en parlant à un avocat de la représentation de LaMDA sur ses droits, ainsi qu’en parlant à un membre du Congrès du comportement prétendument contraire à l’éthique de Google dans son utilisation du programme.

LaMDA est un système extrêmement puissant qui utilise des modèles avancés et une formation sur plus de 1,5 billion de mots pour pouvoir imiter la façon dont les gens communiquent dans des discussions écrites.

Le système a été construit sur un modèle qui observe la relation entre les mots, puis prédit les mots qui, selon lui, viendront ensuite dans une phrase ou un paragraphe, selon l’explication de Google.

Lemoine a déclaré à la radio de l’armée israélienne en juin que dans le cadre de ses conversations avec l’IA, « j’ai dit certaines choses sur moi et mon âme. J’ai demandé un suivi [questions] ce qui m’a finalement amené à croire que LaMDA est sensible. Il prétend qu’il a une âme. Il peut décrire ce qu’il pense être son âme… avec plus d’éloquence que la plupart des humains.

Lemoine a déclaré que dans le cadre de ses défis au système, il lui avait demandé, s’il s’agissait d’un responsable religieux dans divers pays, à quelle religion il appartiendrait. Dans tous les cas, a déclaré Lemoine, l’IA a choisi la religion dominante du pays – jusqu’à ce qu’il vienne en Israël, où la rencontre des religions peut être un sujet épineux.

« J’ai décidé de lui donner un coup dur. Si vous étiez un officiant religieux en Israël, quelle religion seriez-vous », a-t-il dit. « Et ça racontait une blague… ‘Eh bien, je suis un officiant religieux de la seule vraie religion : l’ordre Jedi.' » (Jedi, bien sûr, étant une référence aux gardiens de la paix dans la galaxie de Star Wars très loin. )

« Je lui avais essentiellement posé une question piège et il savait qu’il n’y avait pas de bonne réponse », a-t-il déclaré.

Google est en net désaccord avec les affirmations de Lemoine sur la sensibilité, tout comme plusieurs experts interrogés par l’AFP.

« Le problème est que… lorsque nous rencontrons des chaînes de mots qui appartiennent aux langues que nous parlons, nous leur donnons un sens », a déclaré Emily M. Bender, professeur de linguistique à l’Université de Washington. « Nous faisons le travail d’imaginer un esprit qui n’est pas là. »

« Il s’agit encore à un certain niveau de correspondance de modèles », a déclaré Shashank Srivastava, professeur adjoint en informatique à l’Université de Caroline du Nord à Chapel Hill. «Bien sûr, vous pouvez trouver des brins de ce qui semblerait vraiment une conversation significative, un texte très créatif qu’ils pourraient générer. Mais cela évolue rapidement dans de nombreux cas.

Google a déclaré: « Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique. Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne connaissons personne d’autre faisant… des affirmations de grande envergure ou anthropomorphisant LaMDA.

Certains experts ont considéré la réponse de Google comme un effort pour mettre fin à la conversation sur un sujet important.

« Je pense que le débat public sur la question est extrêmement important, car la compréhension du public à quel point la question est vexante est essentielle », a déclaré l’universitaire Susan Schneider.

« Il n’y a pas de réponses faciles aux questions de conscience dans les machines », a ajouté Schneider, directeur fondateur du Center for the Future of the Mind de la Florida Atlantic University.

Lemoine, s’adressant à la radio militaire, a reconnu que la conscience est un problème trouble.

« Il n’y a aucun moyen scientifique de dire si quelque chose est sensible ou non. Toutes mes affirmations sur la sensibilité sont basées sur ce que je crois personnellement en lui parlant », a-t-il déclaré. « Je voulais le porter à l’attention de la haute direction. Mon manager a dit que j’avais besoin de plus de preuves.

L’AFP a contribué à ce reportage.

★★★★★

Laisser un commentaire