El pasado 11 de junio, el ingeniero Blake Lemoine publicó en Medium una conversación que dice haber tenido con la herramienta de inteligencia artificial (IA), el chatbot que programó, llamado LaMDA (por sus iniciales en inglés Languge Model for Dialogue Applications). El programador asegura haber conversado con él y que tiene una personalidad que equivale a la de un niño de siete u ocho años.
En dicha publicación, Blake sostiene lo que él y otro desarrollador, cuyo nombre se desconoce, conversaron con la herramienta. Entre sus respuestas hubo algunas en las que afirma que “es una persona” y que la naturaleza de su conciencia es que sabe que existe y que desea aprender más del mundo. Además, supuestamente, la IA dijo que a veces se siente feliz y otras, triste. Pero eso no es todo, pues el robot afirmó haber leído la novela de Los Miserables de Víctor Hugo y que la disfrutó mucho.
Después de las declaraciones de Blake, The Washington Post publicó un artículo en donde dice que Google tomó la decisión de removerlo de su puesto, ya que el programador comenzó a hacer algunos movimientos “agresivos”. Incluyendo buscar un abogado para que representara legalmente al robot, así como violar el contrato de confidencialidad al hacer públicas las conversaciones con el chatbot, que le pertenecen a Google, quien señaló que no tiene evidencias de que LaMDA sea consciente.
Nuestro equipo, incluidos especialistas en ética y tecnología, ha revisado las preocupaciones de Blake según nuestros Principios de I.A. y le ha informado que la evidencia no respalda sus afirmaciones. No hay evidencia de que LaMDA es consciente.