{"id":984049,"date":"2024-01-28T04:52:38","date_gmt":"2024-01-28T04:52:38","guid":{"rendered":"https:\/\/magazineoffice.com\/plan-de-politicas-fundamentales-de-ia-para-2024-desbloquear-el-potencial-y-proteger-contra-los-riesgos-en-el-lugar-de-trabajo\/"},"modified":"2024-01-28T04:52:41","modified_gmt":"2024-01-28T04:52:41","slug":"plan-de-politicas-fundamentales-de-ia-para-2024-desbloquear-el-potencial-y-proteger-contra-los-riesgos-en-el-lugar-de-trabajo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/plan-de-politicas-fundamentales-de-ia-para-2024-desbloquear-el-potencial-y-proteger-contra-los-riesgos-en-el-lugar-de-trabajo\/","title":{"rendered":"Plan de pol\u00edticas fundamentales de IA para 2024: desbloquear el potencial y proteger contra los riesgos en el lugar de trabajo"},"content":{"rendered":"
\n<\/p>\n
\n\t\t\t\t\t\t\tRichard Marcos<\/span> \t\tRichard Marcus es el jefe de seguridad de la informaci\u00f3n en AuditBoard.\t<\/p>\n<\/p><\/div>\n<\/div>\n Muchos han descrito<\/span> 2023 como el a\u00f1o de la IA, y el t\u00e9rmino apareci\u00f3 en varias listas de \u201cpalabras del a\u00f1o\u201d. Si bien ha tenido un impacto positivo en la productividad y la eficiencia en el lugar de trabajo, la IA tambi\u00e9n ha presentado una serie de riesgos emergentes para las empresas.<\/p>\n Por ejemplo, una encuesta reciente de Harris Poll encargada por AuditBoard revel\u00f3 que aproximadamente la mitad de los estadounidenses empleados (51%) utilizan actualmente herramientas impulsadas por IA para trabajar, sin duda impulsadas por ChatGPT y otras soluciones generativas de IA. Al mismo tiempo, sin embargo, casi la mitad (48%) dijo que ingresan datos de la empresa en herramientas de inteligencia artificial que no suministran sus empresas para ayudarlos en su trabajo.<\/p>\n Esta r\u00e1pida integraci\u00f3n de herramientas de IA generativa en el trabajo presenta desaf\u00edos \u00e9ticos, legales, de privacidad y pr\u00e1cticos, lo que crea la necesidad de que las empresas implementen pol\u00edticas nuevas y s\u00f3lidas en torno a las herramientas de IA generativa. Tal como est\u00e1n las cosas, la mayor\u00eda a\u00fan no lo ha hecho: una encuesta reciente de Gartner revel\u00f3 que m\u00e1s de la mitad de las organizaciones carecen de una pol\u00edtica interna sobre IA generativa, y la encuesta Harris encontr\u00f3 que solo el 37% de los estadounidenses empleados tienen una pol\u00edtica formal con respecto al uso de Herramientas impulsadas por IA no proporcionadas por la empresa.<\/p>\n Si bien puede parecer una tarea desalentadora, desarrollar un conjunto de pol\u00edticas y est\u00e1ndares ahora puede evitar que las organizaciones sufran grandes dolores de cabeza en el futuro.<\/p>\n \t\t\tDesarrollar un conjunto de pol\u00edticas y est\u00e1ndares ahora puede evitar que las organizaciones sufran grandes dolores de cabeza en el futuro.\t\t\t\t\t<\/p><\/blockquote><\/div>\n La r\u00e1pida adopci\u00f3n de la IA generativa ha dificultado para las empresas seguir el ritmo de la gesti\u00f3n de riesgos y la gobernanza de la IA, y existe una clara desconexi\u00f3n entre la adopci\u00f3n y las pol\u00edticas formales. La encuesta Harris mencionada anteriormente encontr\u00f3 que el 64% percibe el uso de herramientas de inteligencia artificial como seguro, lo que indica que muchos trabajadores y organizaciones podr\u00edan estar pasando por alto los riesgos.<\/p>\n Estos riesgos y desaf\u00edos pueden variar, pero tres de los m\u00e1s comunes incluyen:<\/p>\n
\n\t\t\t\t\t\tContribuyente<\/span>\n\t\t<\/p>\n<\/p><\/div>\nUso y gobernanza de la IA: riesgos y desaf\u00edos<\/h2>\n
\n
\n