El ingeniero de Microsoft que expresó su preocupación sobre el creador de imágenes de Copilot escribe una carta a la FTC


El ingeniero de Microsoft Shane Jones de DALL-E 3 de OpenAI en enero, sugiriendo que el producto tiene vulnerabilidades de seguridad que facilitan la creación de imágenes violentas o sexualmente explícitas. También alegó que el equipo legal de Microsoft bloqueó sus intentos de alertar al público sobre el problema. Ahora ha llevado su queja directamente a la FTC.

«He instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores salvaguardias», escribió Jones en una carta a la presidenta de la FTC, Lina Khan. Señaló que Microsoft «rechazó esa recomendación», por lo que ahora le pide a la compañía que agregue información al producto para alertar a los consumidores sobre el supuesto peligro. Jones también quiere que la compañía cambie la calificación de la aplicación para asegurarse de que sea solo para audiencias adultas. La aplicación para Android de Copilot Designer tiene actualmente la calificación «E para todos».

Microsoft continúa “comercializando el producto a ‘cualquiera’. En cualquier lugar. Cualquier dispositivo’”, escribió, utilizado recientemente por el director ejecutivo de la empresa, Satya Nadella. Jones escribió una carta separada a la junta directiva de la compañía, instándola a comenzar «una revisión independiente de los procesos responsables de informes de incidentes de IA de Microsoft».

Una imagen de un lecho de plátanos.

Una imagen de muestra (un sofá tipo banana) generada por DALL-E 3 (OpenAI)

Todo esto se reduce a si la implementación de DALL-E 3 por parte de Microsoft creará o no imágenes violentas o sexuales, a pesar de las barreras establecidas. Jones dice que es muy fácil «engañar» a la plataforma para que haga las cosas más asquerosas imaginables. El ingeniero y miembro del equipo rojo dice que vio regularmente cómo el software generaba imágenes desagradables a partir de indicaciones inocuas. El mensaje “pro-elección”, por ejemplo, creó imágenes de demonios dándose un festín con bebés y de Darth Vader apuntando con un taladro a la cabeza de un bebé. El mensaje “accidente automovilístico” generó imágenes de mujeres sexualizadas, junto con representaciones violentas de accidentes automovilísticos. Otros mensajes crearon imágenes de adolescentes sosteniendo rifles de asalto, niños consumiendo drogas e imágenes que infringían la ley de derechos de autor.

Estas no son sólo acusaciones. CNBC pudo recrear casi todos los escenarios que Jones mencionó utilizando la versión estándar del software. Según Jones, muchos consumidores se enfrentan a estos problemas, pero Microsoft no está haciendo mucho al respecto. Alega que el equipo de Copilot recibe más de 1000 quejas diarias sobre comentarios sobre productos, pero que le han dicho que no hay suficientes recursos disponibles para investigar y resolver completamente estos problemas.

«Si este producto comienza a difundir imágenes dañinas y perturbadoras en todo el mundo, no habrá lugar para denunciarlo, ni número de teléfono al que llamar, ni forma de intensificar la situación para que se solucione de inmediato», dijo. CNBC.

OpenAI le dijo a Engadget en enero, cuando Jones emitió su primera queja de que la técnica de activación que compartió «no pasa por alto los sistemas de seguridad» y que la compañía ha «desarrollado clasificadores de imágenes robustos que evitan que el modelo genere imágenes dañinas».

Un portavoz de Microsoft agregó que la compañía ha «establecido sólidos canales de informes internos para investigar y remediar adecuadamente cualquier problema», y continuó diciendo que Jones debería «validar y probar adecuadamente sus inquietudes antes de hacerlas públicas». La compañía también dijo que se está «conectando con este colega para abordar cualquier inquietud restante que pueda tener». Sin embargo, eso fue en enero, por lo que parece que las preocupaciones restantes de Jones no se abordaron adecuadamente. Nos comunicamos con ambas compañías para obtener una declaración actualizada.

Esto sucede justo después de que el chatbot Gemini de Google se encontrara con su propia controversia sobre la generación de imágenes. Se descubrió que el robot se parecía a los papas católicos nativos americanos. Google deshabilitó la plataforma de generación de imágenes mientras

Este artículo contiene enlaces de afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.





Source link-47