El ingeniero de Google cree que una IA se ha vuelto sensible: Google no está de acuerdo


Según los informes, Google suspendió a un ingeniero de software por violar sus políticas de confidencialidad después de que afirmara que el chatbot de IA del gigante tecnológico se había vuelto inteligente.

Según The Washington Post, al ingeniero de Google, Blake Lemoine, se le encomendó hablar con el generador de bots de chat de IA de la compañía, LaMDA (también conocido como Modelo de lenguaje para aplicaciones de diálogo) el año pasado como parte de una prueba de seguridad, con el objetivo de monitorear sus respuestas en busca de lenguaje discriminatorio. o discurso de odio.

El sistema de desarrollo de chatbot opera «ingresando palabras de Internet» e imitando el habla para participar en una amplia gama de temas. También cuenta con múltiples modelos que pueden crear diferentes personalidades. Lemoine afirma que el chatbot comenzó a hablar sobre sus «derechos y personalidad» después de entablar conversaciones sobre religión y robótica.

Decidió viajar aún más por la madriguera del conejo desafiando al chatbot y preguntándole sobre sus miedos y sentimientos. LaMDA supuestamente mostró signos de autoconciencia durante estas conversaciones y reveló un «miedo muy profundo a ser desconectado», un escenario que aparentemente comparó con la muerte después de que Lemoine lo incitara.

«Conozco a una persona cuando hablo con ella», dijo Lemoine en referencia a los experimentos que realizó con LaMDA. «No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido lo que es». y no es una persona».

Lemoine presionó aún más para recopilar más pruebas de la supuesta sensibilidad de LaMDA antes de presentar sus hallazgos al vicepresidente de Google, Blaise Aguera y Arcas, y a la directora de innovación responsable, Jen Gennai. Según los informes, los reclamos fueron investigados, pero luego fueron descartados, lo que llevó a Lemoine a «hacer pública» su creencia en una publicación de Medium que publicó.

Google dice que los hallazgos de Lemoine no prueban la sensibilidad. «Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones», dijo Brian Gabriel, portavoz de Google. «Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra)».

Según The Washington Post, Google tomó la decisión de colocar a Lemoine en «licencia administrativa pagada» el lunes después de que se determinó que había violado la política de confidencialidad de la compañía al publicar las conversaciones con LaMDA en línea. La compañía enfatizó en un comunicado que Lemoine había sido empleado como ingeniero de software, no como especialista en ética.

Los 12 mejores robots gigantes de la historia

La IA y la robótica se han convertido en un tema cada vez más importante, ya que tienen un impacto cada vez mayor en la vida cotidiana, aunque quedan dudas sobre si la IA alguna vez será ética. Sin embargo, eso no impide que la gente experimente con él. Lucas Rizzotto compartió recientemente una historia de advertencia sobre la IA después de que intentó revivir a su amigo de la infancia imaginario, con terribles consecuencias.

Adele Ankers-Range es escritora independiente para IGN. Síguela en Twitter.





Source link-3