{"id":635885,"date":"2023-05-19T16:21:05","date_gmt":"2023-05-19T16:21:05","guid":{"rendered":"https:\/\/magazineoffice.com\/apple-restringe-el-uso-de-chatgpt-y-herramientas-de-inteligencia-artificial-por-parte-de-los-empleados-informe-de-reclamos\/"},"modified":"2023-05-19T16:21:08","modified_gmt":"2023-05-19T16:21:08","slug":"apple-restringe-el-uso-de-chatgpt-y-herramientas-de-inteligencia-artificial-por-parte-de-los-empleados-informe-de-reclamos","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/apple-restringe-el-uso-de-chatgpt-y-herramientas-de-inteligencia-artificial-por-parte-de-los-empleados-informe-de-reclamos\/","title":{"rendered":"Apple restringe el uso de ChatGPT y herramientas de inteligencia artificial por parte de los empleados, informe de reclamos"},"content":{"rendered":"


\n<\/p>\n

\n

Seg\u00fan un informe publicado por el Wall Street Journal (WSJ), Apple ha implementado restricciones con respecto a c\u00f3mo sus empleados usan herramientas de inteligencia artificial como ChatGPT, lo que no es tan sorprendente dado que la compa\u00f1\u00eda de tecnolog\u00eda de Cupertino desconf\u00eda de las filtraciones. El informe del WSJ sugiere que los empleados de Apple no se ver\u00e1n perjudicados por la falta de asistencia de IA para siempre, porque Apple est\u00e1 ocupada creando \u00absu propia tecnolog\u00eda similar\u00bb. El informe se basa en un documento interno de Apple que parec\u00eda respaldar estas afirmaciones, as\u00ed como en fuentes an\u00f3nimas \u00abfamiliarizadas con el asunto\u00bb.<\/p>\n

Uno de los problemas con el uso de IA basada en modelos de lenguaje grande (LLM) es que las herramientas generalmente usan su interacci\u00f3n (entradas, preguntas, etc.) como datos de entrenamiento. Samsung se encontr\u00f3 con este tipo de problema en abril, cuando se filtraron datos propietarios del uso de ChatGPT. Los ingenieros fab del gigante tecnol\u00f3gico de Corea del Sur estaban utilizando la asistencia de ChatGPT para codificar, tomar notas y analizar datos sobre el rendimiento y el rendimiento fab, y se rastrearon tres instancias de fugas de datos hasta el uso de ChatGPT. <\/p>\n

ChatGPT no solo es propenso a filtrar los datos de otros usuarios a trav\u00e9s de la capacitaci\u00f3n; como todo software, tambi\u00e9n tiene vulnerabilidades y errores. A principios de semana vimos su vulnerabilidad a la inyecci\u00f3n inmediata a trav\u00e9s de transcripciones de YouTube. En marzo, ChatGPT se desconect\u00f3 durante un breve per\u00edodo despu\u00e9s de que se descubri\u00f3 que algunos de sus usuarios pod\u00edan ver los t\u00edtulos de los historiales de chat de otros usuarios.<\/p>\n

\n
\n
\n

<\/picture><\/p>\n<\/div>\n<\/div>

(Cr\u00e9dito de la imagen: Apple)<\/span><\/figcaption><\/figure>\n

Despu\u00e9s del crecimiento de los informes sobre la seguridad de los datos, OpenAI ha introducido nuevos controles de privacidad, as\u00ed como un \u00abmodo de inc\u00f3gnito\u00bb para la asistencia de IA en documentos confidenciales. Quiz\u00e1s, estos pasos no han ido lo suficientemente lejos para Apple. Otra herramienta de inteligencia artificial mencionada espec\u00edficamente en el informe del WSJ es Copilot de GitHub (Microsoft), que los desarrolladores utilizan para ahorrar tiempo con su funcionalidad de autocompletado de c\u00f3digo inteligente.<\/p>\n