OpenAI forma un nuevo equipo para estudiar la seguridad infantil


Bajo el escrutinio de activistas (y padres), OpenAI ha formado un nuevo equipo para estudiar formas de evitar que los niños hagan un mal uso o abusen de sus herramientas de inteligencia artificial.

En una nueva lista de trabajos en su página de carrera, OpenAI revela la existencia de un equipo de seguridad infantil, que según la compañía está trabajando con grupos de políticas, asuntos legales y de investigación de la plataforma dentro de OpenAI, así como con socios externos para gestionar “procesos, incidentes y revisiones”. ”relativo a usuarios menores de edad.

Actualmente, el equipo está buscando contratar a un especialista en seguridad infantil, que será responsable de aplicar las políticas de OpenAI en el contexto del contenido generado por IA y trabajar en procesos de revisión relacionados con contenido «sensible» (presumiblemente relacionado con niños).

Los proveedores de tecnología de cierto tamaño dedican una buena cantidad de recursos a cumplir con leyes como la Regla de Protección de la Privacidad Infantil en Línea de EE. UU., que exige controles sobre lo que los niños pueden (y no pueden) acceder en la web, así como sobre qué tipo de datos las empresas puede cobrar sobre ellos. Por lo tanto, el hecho de que OpenAI esté contratando expertos en seguridad infantil no es una sorpresa total, especialmente si la compañía espera algún día una base significativa de usuarios menores de edad. (Los términos de uso actuales de OpenAI requieren el consentimiento de los padres para niños de 13 a 18 años y prohíben su uso para niños menores de 13 años).

Pero la formación del nuevo equipo, que se produce varias semanas después de que OpenAI anunciara una asociación con Common Sense Media para colaborar en directrices de IA adaptadas a los niños y consiguiera su primer cliente educativo, también sugiere una cautela por parte de OpenAI de entrar en conflicto con las políticas relativas a uso de IA por parte de menores y prensa negativa.

Los niños y adolescentes recurren cada vez más a las herramientas GenAI en busca de ayuda no solo con las tareas escolares sino también con cuestiones personales. Según una encuesta del Centro para la Democracia y la Tecnología, el 29% de los niños afirman haber utilizado ChatGPT para lidiar con la ansiedad o problemas de salud mental, el 22% para problemas con amigos y el 16% para conflictos familiares.

Algunos ven esto como un riesgo creciente.

El verano pasado, las escuelas y universidades se apresuraron a prohibir ChatGPT por temor a plagio y desinformación. Desde entonces, algunos han revocado sus prohibiciones. Pero no todos están convencidos del potencial positivo de GenAI, como señalan encuestas como la del Centro de Internet más seguro del Reino Unido, que encontró que más de la mitad de los niños (53%) afirman haber visto a personas de su edad utilizar GenAI de forma negativa, por ejemplo, creando información falsa y creíble. Información o imágenes utilizadas para molestar a alguien.

En septiembre, OpenAI publicó documentación para ChatGPT en las aulas con indicaciones y preguntas frecuentes para ofrecer orientación a los educadores sobre el uso de GenAI como herramienta de enseñanza. En uno de los artículos de soporte, OpenAI reconoció que sus herramientas, específicamente ChatGPT, «pueden producir resultados que no son apropiados para todas las audiencias o todas las edades» y recomendó «precaución» con la exposición a niños, incluso aquellos que cumplen con los requisitos de edad.

Están aumentando los pedidos de directrices sobre el uso de GenAI por parte de los niños.

A fines del año pasado, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) presionó para que los gobiernos regularan el uso de GenAI en la educación, incluida la implementación de límites de edad para los usuarios y barreras de seguridad sobre la protección de datos y la privacidad de los usuarios. «La IA generativa puede ser una tremenda oportunidad para el desarrollo humano, pero también puede causar daños y prejuicios», dijo Audrey Azoulay, directora general de la UNESCO, en un comunicado de prensa. «No se puede integrar en la educación sin la participación pública y las salvaguardias y regulaciones necesarias por parte de los gobiernos».



Source link-48