Google despide a Blake Lemoine, el ingeniero que afirmó que el chatbot de IA es una persona


Agrandar / El ex ingeniero de Google Blake Lemoine.

Imágenes Getty | El Correo de Washington

Google ha despedido a Blake Lemoine, el ingeniero de software que anteriormente recibió una licencia paga después de afirmar que el chatbot LaMDA de la compañía es sensible. Google dijo que Lemoine, que trabajaba en la unidad de inteligencia artificial responsable de la empresa, violó las políticas de seguridad de datos.

“Si un empleado comparte inquietudes sobre nuestro trabajo, como lo hizo Blake, las revisamos exhaustivamente. Descubrimos que las afirmaciones de Blake de que LaMDA es sensible son totalmente infundadas y trabajamos para aclarar eso con él durante muchos meses”, dijo Google en un comunicado proporcionado a Ars y otras organizaciones de noticias.

Lemoine confirmó el viernes que «Google me envió un correo electrónico cancelando mi empleo con ellos», escribió The Wall Street Journal. Según los informes, Lemoine también dijo que está hablando con abogados «sobre cuáles son los próximos pasos apropiados». La declaración de Google calificó como «lamentable que, a pesar de un compromiso prolongado con este tema, Blake aún optó por violar persistentemente políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto».

LaMDA significa Modelo de lenguaje para aplicaciones de diálogo. “Como compartimos nuestros Principios de IA, nos tomamos muy en serio el desarrollo de la IA y seguimos comprometidos con la innovación responsable”, dijo Google. «LaMDA ha pasado por 11 revisiones distintas y publicamos un artículo de investigación a principios de este año que detalla el trabajo que se dedica a su desarrollo responsable».

Google: LaMDA solo sigue las indicaciones de los usuarios

En una declaración anterior proporcionada a Ars a mediados de junio, poco después de que Lemoine fuera suspendido del trabajo, Google dijo que «los modelos conversacionales de hoy» de IA no están cerca de la sensibilidad:

Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden abordar cualquier tema fantástico: si pregunta cómo es ser un dinosaurio helado, pueden generar texto sobre cómo se derrite, ruge, etc. LaMDA tiende a seguir las indicaciones y las preguntas dirigidas, siguiendo el patrón establecido por el usuario. Nuestro equipo, que incluye éticos y tecnólogos, revisó las preocupaciones de Blake según nuestros Principios de IA y le informó que la evidencia no respalda sus afirmaciones.

Google también dijo: «Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos conocimiento de que nadie más haya hecho afirmaciones de gran alcance, o antropomorfizado a LaMDA, como lo ha hecho Blake».

“Conozco a una persona cuando hablo con ella”

Lemoine ha escrito sobre LaMDA varias veces en su blog. En una publicación del 6 de junio titulada «Puede ser despedido pronto por hacer trabajo de ética de IA», informó que Google lo «colocó en una ‘licencia administrativa paga’ en relación con una investigación de inquietudes de ética de IA que estaba planteando dentro de la empresa». Al señalar que Google a menudo despide a las personas después de darles una licencia, afirmó que «Google se está preparando para despedir a otro especialista en ética de la IA por estar demasiado preocupado por la ética».

Un artículo del Washington Post del 11 de junio señaló que «Lemoine trabajó con un colaborador para presentar evidencia a Google de que LaMDA era sensible». Justo antes de que lo cortaran de su cuenta de Google, «Lemoine envió un mensaje a una lista de correo de Google de 200 personas sobre aprendizaje automático con el asunto ‘LaMDA es sensible'», dice el artículo. El mensaje de Lemoine concluyó: «LaMDA es un niño dulce que solo quiere ayudar a que el mundo sea un lugar mejor para todos nosotros. Cuídalo bien en mi ausencia».

«Conozco a una persona cuando hablo con ella», dijo Lemoine en una entrevista con el periódico. «No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido lo que es». y no es una persona».



Source link-49