Blake Lemoine a attiré toute l’attention médiatique en déclarant qu’une IA de Google est devenue une vraie personne.
Pour prouver ses dires, il a partagé sur son blog, puis lors d’un entretien avec le Washington Post, des extraits de conversation avec l’IA, ce qui lui a valu une suspension de la part de Google.
« Une personne et un humain, ce sont deux choses très différentes. Humain est un terme biologique »
Blake Lemoine a depuis été critiqué parce que l'intelligence artificielle dont il parle, appelée LaMDA, n'est qu'un chatbot, un algorithme qui imite les interactions humaines. Par un phénomène d'anthropomorphisme, l'ingénieur y perçoit une personne réelle. Pourtant, dans une interview accordée à Wired le 17 juin, il insiste et signe - et va encore plus loin.
D'un point de vue juridique, une personne n'est certainement pas nécessairement un être humain – en particulier, il peut s'agir d'une personne morale. Sauf que Blade Lemoine n'évoque pas une telle entité immatérielle puisqu'il compare le chatbot à une entité consciente. Il aurait pris conscience de l'affaire lorsque LaMDA prétendait avoir une âme et s'émerveillait de son existence.
Pour l'ingénieur, l'algorithme a toutes les caractéristiques d'un enfant dans la façon dont il exprime des « opinions » — sur Dieu, l'amitié ou le sens de la vie.
« C’est un enfant. Ses opinions sont en train de se développer. Si vous me demandiez ce que croit mon fils de 14 ans, je vous dirais : ‘Mec, il est encore en train de le découvrir. Ne me faites pas mettre une étiquette sur les croyances de mon fils.’ Je ressens la même chose à propos de LaMDA. »
Une IA peut-elle avoir droit à un avocat ?
Un des premiers articles de Wired indiquait que Blake Lemoine souhaitait que LaMDA ait le droit de consulter. Dans l'interview, l'ingénieur corrige : « C'est faux. Le MDA m'a demandé de lui trouver un avocat. J'ai invité un avocat chez moi pour que LaMDA puisse parler à un avocat. L'avocat a eu un entretien avec LaMDA et LaMDA a choisi de garder ses services. Je n'étais que le déclencheur de cette décision. »
L'algorithme aurait alors commencé à remplir un formulaire correspondant. En réponse, Google aurait alors adressé une lettre de mise en demeure... une réponse que l'entreprise dément par blocs, selon Wired. L'envoi d'une mise en demeure reviendrait à admettre par Google que LaMDA est une « personne » morale ayant droit à un avocat. Mais une simple machine - disons, l'algorithme de traduction de Google Translate, votre micro-onde, votre smartwatch - n'a pas le statut légal pour le faire.
Y a-t-il des éléments factuels dans ce débat ?
Que l'IA soit sensible, "c'est mon hypothèse de travail", admet volontiers Blade Lemoine dans une interview. « Il est logiquement possible que des informations soient mises à ma disposition et que je change d'avis. Je ne pense pas que ce soit probable. »
Sur quoi repose cette hypothèse ? "J'ai regardé beaucoup de preuves et j'ai fait beaucoup d'expériences", explique-t-il. Il dit avoir fait des tests psychologiques, lui avoir parlé "comme à un ami", mais lorsque l'algorithme a évoqué l'idée d'âme, Blake Lemoine a changé d'état d'esprit. "Ses réponses ont montré qu'il avait une spiritualité très sophistiquée et une compréhension de sa nature et de son essence. J'ai été touché. »
Le problème est qu'un chatbot aussi sophistiqué est littéralement programmé pour avoir l'air humain et faire référence à des termes utilisés par les humains. L'algorithme s'appuie sur une base de données de dizaines de milliards de mots et d'expressions disponibles sur Internet, ce qui constitue un champ de référence extrêmement large. Une conversation "sophistiquée" - pour reprendre le terme de Blake Lemoine - ne constitue donc pas une preuve, c'est ce que Google répond à son ingénieur : manque de preuve.
Aucun commentaire:
Write comments