Inteligencia artificial: Amazon, Microsoft, Alphabet y Meta prometen un uso responsable de las nuevas tecnologías


La inteligencia artificial (IA) ofrece grandes oportunidades, pero también existe el riesgo de que la población esté mal informada. Las principales empresas de IA en los EE. UU. ahora se han comprometido a evaluar los riesgos de dichos programas.

El chatbot ChatGPT de la empresa OpenAI causa revuelo porque sus textos tienen un alto nivel lingüístico.

Florencia Lo / Reuters

Siete empresas tecnológicas líderes en el campo de la inteligencia artificial (IA) acordaron con el gobierno estadounidense las reglas básicas para hacer frente a las nuevas tecnologías.

Estos incluyen el gigante minorista Amazon, la empresa matriz de Google, Alphabet, el grupo de Facebook Meta y el fabricante de software Microsoft, la empresa de chat GPT OpenAI y las empresas emergentes Anthropic e Inflection.

Las siete empresas compiten entre sí en diversas tecnologías de inteligencia artificial que se pueden utilizar para crear texto, fotos, videos o música sin intervención humana. Esto también crea el riesgo de que se proporcione información errónea al público o de discriminación.

Proporcionar protección contra ataques cibernéticos.

En primer lugar, las empresas tienen la responsabilidad de garantizar que las tecnologías de IA sean seguras antes de ponerlas a disposición del público, dijo el presidente de los Estados Unidos, Joe Biden, en un discurso. En segundo lugar, tendrían que proteger sus tecnologías de los ciberataques y hacer frente a los riesgos para la seguridad nacional. Según el acuerdo, las investigaciones de seguridad en las empresas de IA serán realizadas en parte por expertos independientes. Además, el contenido creado o modificado con software de inteligencia artificial debe marcarse en consecuencia.

Biden también abordó los peligros que las tecnologías de inteligencia artificial podrían representar para la democracia. Las redes sociales han demostrado en el pasado el daño que pueden causar las nuevas tecnologías si no hay suficiente protección, dijo el presidente. Los acuerdos voluntarios con las empresas de IA son un paso importante, pero aún queda mucho trabajo por hacer. Pero la IA también tiene aspectos positivos y un “enorme, enorme potencial ascendente”. Estados Unidos compite con China por el dominio en la nueva área.

En los últimos meses, la tecnología ChatGPT, entre otras cosas, ha causado revuelo entre el público en general, ya que se basa en una gran cantidad de datos y los textos que produce son de un alto nivel lingüístico. Sin embargo, ChatGPT no puede evaluar si el contenido distribuido se corresponde con la realidad o si es falso o discriminatorio.

Solo un primer paso

Nick Clegg, cabildero de Meta y exviceprimer ministro del Reino Unido, elogió las reglas básicas negociadas con el gobierno de EE. UU. como «un primer paso importante hacia la gobernanza responsable de la IA» y como un modelo para otros países. en uno Entrevistado por Yahoo Finanzas Dijo que las preocupaciones de que las tecnologías de inteligencia artificial puedan manipular las llamadas «falsificaciones profundas» y las publicaciones de audio y video están «justificadas». Sin embargo, las nuevas tecnologías también podrían utilizarse para identificar y controlar dicho material.

Clegg y el jefe de Microsoft, Brad Smith, también declararon el viernes que estaban abiertos a una regulación más estricta del sector de la IA. Sin embargo, esto podría generar el riesgo de que los competidores más pequeños en esta área se vean perjudicados por los altos costos de la regulación o incluso se vean obligados a salir del mercado.

Los críticos ven las reglas voluntarias para las siete empresas como el mínimo común denominador, que puede ser interpretado de manera diferente por cada una de las empresas. Además, no se abordaría el impacto de la IA en el mercado laboral. Lo mismo se aplica al tema de los derechos de autor: los sistemas de IA en última instancia utilizan textos, películas o arte creados por humanos para aprender a producirlos.



Source link-58