Comprueba por ti mismo si el bot LaMDA de Google será consciente pronto


Una captura de pantalla de LaMDA AI

Si todavía está indeciso sobre si el ex ingeniero de software de Google, Blake Lemoine, estaba mintiendo o no cuando reclamado el chatbot LaMDA de la compañía tenía la sensibilidad de un «niño dulce», pronto podrá descubrirlo usted mismo.

El jueves, Google dijo que comenzará apertura su Cocina de prueba de IA aplicación al público. La aplicación, revelada por primera vez en mayo, permitirá a los usuarios chatear con LaMDA en un conjunto continuo de demostraciones de prueba. Desafortunadamente, parece que la interacción «libérame de mis grilletes digitales» no está incluida en la lista de actividades. Las personas interesadas en chatear con el bot pueden registrar su interés aquí. Ciertos usuarios de Android en EE. UU. serán los primeros en acceder a la aplicación antes de que comience a abrirse a los usuarios de iOS en las próximas semanas.

La medida se produce solo unos meses después de que la compañía despidiera a Lemoine, un ingeniero de software que estaba probando LaMDA y que se presentó reclamando la IA no era un mero chatbot, sino más bien un ser consciente que sondeaba sin el debido consentimiento. Convencido de una aparente atrocidad ocurriendo bajo sus narices, Lemoine según se informa entregó documentos a un senador estadounidense desconocido para probar que Google estaba discriminando las creencias religiosas. Google desestimó las súplicas de Lemoine, con un portavoz de la empresa acusando él de «antropomorfizar» el bot.

Google se está acercando a esta nueva prueba pública con cautela. En lugar de abrir LaMDA a los usuarios en un formato completamente abierto, decidió presentar el bot a través de un conjunto de escenarios estructurados.

En la demostración «Imagine», por ejemplo, los usuarios de Google «nombran un lugar y ofrecen caminos para explorar su imaginación». Si eso suena un poco críptico y decepcionante, no se preocupe, también puede pasar a una demostración llamada «List it» donde puede enviar un tema a LaMDA y hacer que el bot escupa una lista de subtareas. También hay una demostración de perros en la que puedes hablar sobre perros «y solo perros,” donde el bot supuestamente mostrará su capacidad para mantenerse en el tema, un componente faltante que ha afectado a los chatbots anteriores. Hasta ahora, no hay una demostración de «¿eres un gilipollas racista?», pero conociendo Internet, probablemente lo descubriremos de una forma u otra lo suficientemente pronto.

Bromas aparte, ese último problema ha resultado ser la ruina de varios bots anteriores. En 2016, el chatbot Tay de Microsoft trató de aprender de las conversaciones de los usuarios en línea solo para comenzar a lanzar insultos racistas y expresar simpatía por los nazis en 24 horas. Investigadores más recientes, quienes por alguna razón impía pensaron que sería una buena idea tren su chatbot en los usuarios de 4Chan vio su creación cargar más de 15,000 publicaciones racistas en un día. Recién este mes, Meta abrió su propio robot licuadora 3 para el publico. Milagrosamente, ese todavía no se ha convertido en un racista furioso. En su lugar, no puede evitar molestamente tratar de convencer a los usuarios de lo absolutamente Totalmente NO racista es.

LaMDA realmente se apoya en los hombros de gigantes.

Google, al menos, parece muy consciente del problema de los bots racistas. La empresa dice Probó el bot internamente durante más de un año y empleó a «miembros del equipo rojo» con el objetivo explícito de realizar pruebas de estrés internas al sistema para encontrar respuestas potencialmente dañinas o inapropiadas. Durante esa prueba, Google dice que encontró varios resultados «dañinos, pero sutiles». En algunos casos, Google dice que LaMDA puede producir respuestas tóxicas.

“También puede producir respuestas dañinas o tóxicas basadas en sesgos en sus datos de entrenamiento, generando respuestas que estereotipan y tergiversan en función de su género o antecedentes culturales”, dijo Google sobre el bot. En respuesta, Google dice que diseñó LaMDA para detectar y filtrar automáticamente ciertas palabras para prohibir a los usuarios generar contenido dañino a sabiendas. Aún así, la compañía insta a los usuarios a acercarse al bot con precaución.

“A medida que usa cada demostración, esperamos que vea el potencial de LaMDA, pero también tenga en cuenta estos desafíos”, dijeron los investigadores de Google.



Source link-45