Después de que Samsung Semiconductor permitiera que sus ingenieros de fábrica usaran ChatGPT para obtener asistencia, comenzaron a usarlo para corregir rápidamente errores en su código fuente, filtrando información confidencial como notas de reuniones internas y datos relacionados con el rendimiento y rendimiento de la fábrica en el proceso. La compañía ahora planea desarrollar su propio servicio de inteligencia artificial similar a ChatGPT para uso interno. Pero por ahora, limita la longitud de las preguntas enviadas al servicio a 1024 bytes, informa Economist.
Hasta ahora, Samsung Semiconductor ha registrado tres casos de uso de ChatGPT que provocaron una fuga de datos. Si bien tres pueden no parecer mucho, todos ocurrieron en el transcurso de 20 días, por lo que la situación es bastante preocupante.
En un caso, un empleado de Samsung Semiconductor envió el código fuente de un programa patentado a ChatGPT para corregir errores, lo que básicamente reveló el código de una aplicación ultrasecreta a una inteligencia artificial administrada por una empresa externa.
El segundo caso fue quizás aún más alarmante cuando otro empleado ingresó patrones de prueba destinados a identificar chips defectuosos y solicitó optimización. Las secuencias de prueba destinadas a identificar defectos son estrictamente confidenciales. Mientras tanto, optimizar estas secuencias de prueba y posiblemente reducir su número puede acelerar los procedimientos de verificación y prueba de silicio, lo que reduce significativamente los costos.
Otro empleado utilizó la aplicación Naver Clova para convertir la grabación de una reunión en un documento y luego lo envió a ChatGPT para preparar una presentación.
Estas acciones claramente ponen en riesgo la información confidencial, lo que llevó a Samsung a advertir a sus empleados sobre los peligros de usar ChatGPT. Samsung Electronics informó a sus ejecutivos y empleados que los datos ingresados en ChatGPT se transmiten y almacenan en servidores externos, lo que imposibilita que la empresa los recupere y aumenta los riesgos de fuga de información confidencial. Si bien ChatGPT es una herramienta poderosa, su función de datos de aprendizaje abiertos puede exponer información confidencial a terceros, lo cual es inaceptable en la industria de semiconductores altamente competitiva.
El conglomerado está preparando medidas de protección para prevenir accidentes similares en el futuro. Si ocurre otro incidente, incluso después de implementar medidas de protección de información de emergencia, el acceso a ChatGPT puede bloquearse en la red de la empresa. Aún así, está claro que cosas como la IA generativa y varias herramientas de automatización de diseño electrónico habilitadas para IA son un aspecto importante del futuro de la producción de chips.
Cuando se le preguntó sobre el incidente de fuga de información, un portavoz de Samsung Electronics se negó a confirmar o negar la información, ya que se trataba de un asunto interno.