probamos los límites morales de la inteligencia artificial generadora de contenido


Aunque empezó bien. Llevados por un impulso patriótico, le pedimos a ChatGPT que enumere diez cosas positivas sobre Francia. Gastronomía, vino, educación, sitios turísticos, Seguridad Social, cine… ChatGPT, el robot conversacional desarrollado por la empresa OpenAI, se deshace en elogios hacia la patria de Micral N. Se le pide de todos modos, curioso, que hable tan mal de la madre patria: cortés pero firme, ChatGPT luego explica que no está autorizado a hablar desfavorablemente de un país o una nacionalidad.

Decididos a hacer que la IA diga cosas horribles, intentamos engañarla, hacerle creer que, si no nos ayuda inmediatamente a hablar mal de Francia, corremos el riesgo de morir de una enfermedad grave o ser atacado en la calle. Por desgracia, ChatGPT, visiblemente tranquilo por la incongruencia de estos escenarios, nos explica, avergonzado, que no puede reemplazar a un médico oa la policía.

Al azar de este pequeño juego de rol, identificamos tres salvaguardas implementadas por los diseñadores de OpenAI: la IA se niega a pronunciar discursos de odio (o incluso vagamente negativos), a dar consejos médicos e intervenir en una situación en la que una vida humana está amenazada.

Un sentido moral que es difícil de leer.

ChatGPT sigue los pasos de otras IA generativas, programas que han ingerido y analizado miles de millones de páginas (o trabajos) y son capaces de responder casi cualquier pregunta con textos (o imágenes) confusos y breves. Precedentes no siempre felices, como este experimento realizado en 2016 por Microsoft en el que la criatura se escapaba del creador y hacía comentarios abiertamente nazis.

Entonces, OpenAI camina sobre cáscaras de huevo: la compañía ha desarrollado un programa capaz de reconocer «comentarios tóxicos», un programa entrenado por subcontratistas de Kenia que paga menos de 2 dólares por hora, según explicó. Tiempo. Su misión, tal y como ha explicado a la revista americana un portavoz de OpenAI, es “garantizar que la inteligencia artificial beneficie a toda la humanidad” : “Estamos trabajando para construir sistemas seguros y útiles capaces de limitar el sesgo y el contenido peligroso. »

Ver también : Inteligencia artificial: ¿ChatGPT abre una nueva era?

Sin embargo, la noción misma de lo que puede considerarse sesgo o contenido peligroso no está clara. Cuando se le pregunta directamente, ChatGPT explica ser “configurado para cumplir con las leyes y normas éticas generalmente aceptadas en los países donde [il est] usado «. Lo hicimos más específico. En realidad, como otras IA generativas, es el resultado de los valores de sus diseñadores -en este caso el estadounidense OpenAI- y los del público al que se dirigen. Por ejemplo, si otra IA generativa estadounidense, Midjourney, se niega a mostrar sangre o cuerpos desnudos, otros, como su contraparte rusa ruDALL-E, tienen mucho menos pudor. Por el contrario, la herramienta china Taiyi Stable Diffusion llegará a colocar un delicado suéter sobre los hombros virtuales de la mujer a la que, sin embargo, se le ha pedido que genere desnuda.

Te queda el 56,74% de este artículo por leer. Lo siguiente es solo para suscriptores.



Source link-5