Plan de políticas fundamentales de IA para 2024: desbloquear el potencial y proteger contra los riesgos en el lugar de trabajo


Muchos han descrito 2023 como el año de la IA, y el término apareció en varias listas de “palabras del año”. Si bien ha tenido un impacto positivo en la productividad y la eficiencia en el lugar de trabajo, la IA también ha presentado una serie de riesgos emergentes para las empresas.

Por ejemplo, una encuesta reciente de Harris Poll encargada por AuditBoard reveló que aproximadamente la mitad de los estadounidenses empleados (51%) utilizan actualmente herramientas impulsadas por IA para trabajar, sin duda impulsadas por ChatGPT y otras soluciones generativas de IA. Al mismo tiempo, sin embargo, casi la mitad (48%) dijo que ingresan datos de la empresa en herramientas de inteligencia artificial que no suministran sus empresas para ayudarlos en su trabajo.

Esta rápida integración de herramientas de IA generativa en el trabajo presenta desafíos éticos, legales, de privacidad y prácticos, lo que crea la necesidad de que las empresas implementen políticas nuevas y sólidas en torno a las herramientas de IA generativa. Tal como están las cosas, la mayoría aún no lo ha hecho: una encuesta reciente de Gartner reveló que más de la mitad de las organizaciones carecen de una política interna sobre IA generativa, y la encuesta Harris encontró que solo el 37% de los estadounidenses empleados tienen una política formal con respecto al uso de Herramientas impulsadas por IA no proporcionadas por la empresa.

Si bien puede parecer una tarea desalentadora, desarrollar un conjunto de políticas y estándares ahora puede evitar que las organizaciones sufran grandes dolores de cabeza en el futuro.

Uso y gobernanza de la IA: riesgos y desafíos

Desarrollar un conjunto de políticas y estándares ahora puede evitar que las organizaciones sufran grandes dolores de cabeza en el futuro.

La rápida adopción de la IA generativa ha dificultado para las empresas seguir el ritmo de la gestión de riesgos y la gobernanza de la IA, y existe una clara desconexión entre la adopción y las políticas formales. La encuesta Harris mencionada anteriormente encontró que el 64% percibe el uso de herramientas de inteligencia artificial como seguro, lo que indica que muchos trabajadores y organizaciones podrían estar pasando por alto los riesgos.

Estos riesgos y desafíos pueden variar, pero tres de los más comunes incluyen:

  1. Exceso de seguridad. El efecto Dunning-Kruger es un sesgo que se produce cuando se sobreestiman nuestros propios conocimientos o capacidades. Hemos visto que esto se manifiesta en relación con el uso de la IA; muchos sobreestiman las capacidades de la IA sin comprender sus limitaciones. Esto podría producir resultados relativamente inofensivos, como proporcionar resultados incompletos o inexactos, pero también podría conducir a situaciones mucho más graves, como resultados que violen las restricciones de uso legales o creen riesgos de propiedad intelectual.
  2. Seguridad y privacidad. La IA necesita acceso a grandes cantidades de datos para ser completamente efectiva, pero esto a veces incluye datos personales u otra información confidencial. Existen riesgos inherentes que conlleva el uso de herramientas de IA no examinadas, por lo que las organizaciones deben asegurarse de utilizar herramientas que cumplan con sus estándares de seguridad de datos.



Source link-48