Lo que necesitas saber
- Según se informa, Microsoft propuso el uso de la tecnología de generación de imágenes DALL-E de OpenAI al Departamento de Defensa de EE. UU. para uso militar.
- Un portavoz de OpenAI distanció a la empresa de este plan, indicando que el uso militar de sus herramientas va en contra de sus principios fundamentales y políticas de usuario.
- Un portavoz de Microsoft confirmó a The Intercept que si las agencias de Defensa decidieran integrar DALL-E o una herramienta OpenAI en sus herramientas de combate, estaría sujeto a sus políticas de usuario y no a las de OpenAI.
- Un especialista en ética tecnológica indicó que es imposible construir un sistema de gestión de batalla sin causar daño a los civiles.
Existe la posibilidad de que la herramienta de generación de imágenes impulsada por IA de OpenAI, DALL-E podría usarse para avances militares. De acuerdo a La intercepciónSegún se informa, Microsoft propuso la herramienta al Departamento de Defensa de EE. UU. durante un seminario de capacitación en octubre de 2023.
Durante el seminario, Microsoft presentado de varias maneras El gobierno podría aprovechar la tecnología de generación de imágenes DALL-E para mejorar y perfeccionar sus avances militares, incluido «el uso de los modelos DALL-E para crear imágenes para entrenar sistemas de gestión de batalla».
Curiosamente, OpenAI se ha mantenido al margen de este plan e incluso indicó que no formaba parte de la propuesta de Microsoft al Departamento de Defensa de EE. UU. «Las políticas de OpenAI prohíben el uso de nuestras herramientas para desarrollar o utilizar armas, herir a otros o destruir propiedad», comentó un portavoz de la empresa. «No participamos en esta presentación y no hemos tenido conversaciones con las agencias de defensa estadounidenses sobre los casos de uso hipotéticos que describe».
Esto significa que Microsoft estaría violando las políticas de OpenAI si el Departamento de Defensa de EE. UU. da luz verde al uso de DALL-E para avances militares. Curiosamente, un portavoz de Microsoft indicó que de ser así, las políticas de uso recaerían en la empresa contratante.
Aunque esto no es del todo una sorpresa después Comentarios del CEO de Microsoft, Satya Nadella al hablar de la relación del gigante tecnológico con OpenAI:
«Teníamos mucha confianza en nuestra propia capacidad. Tenemos todos los derechos de propiedad intelectual y toda la capacidad. Quiero decir, mira, si mañana OpenAI desapareciera, no quiero que ningún cliente nuestro se preocupe por eso, honestamente, porque Tenemos todos los derechos para continuar con la innovación, no solo para servir los productos, pero podemos ir y simplemente hacer lo que estábamos haciendo en asociación, nosotros mismos, y por eso tenemos la gente, tenemos la informática, tenemos los datos. , tenemos todo.»
La tecnología se puede utilizar con fines militares y de combate a pesar de que va en contra de los principios fundamentales y las políticas de usuario de OpenAI para sus herramientas. OpenAI y su director ejecutivo, Sam Altman, fueron recientemente criticados y abofeteados con una demanda. presentado por Elon Musk. El multimillonario enumeró una flagrante traición a la misión fundacional de OpenAI: hacer uso de la IA generativa para todos en todo el mundo, como base de sus quejas. También criticó OpenAI y la complicada relación de Microsoftindicando que aparentemente se ha convertido una subsidiaria de facto de código cerrado del gigante tecnológico.
Olvídese de HoloLens: la IA es la nueva ola ahora, incluso para el combate militar
Según Brianna Rosen de la Escuela de Gobierno Blavatnik de la Universidad de Oxford, con un sesgo en la ética tecnológica:
«No es posible construir un sistema de gestión de batalla de una manera que no contribuya, al menos indirectamente, al daño civil».
Si bien aún no se ha confirmado si el Departamento de Defensa de EE. UU. integrará DALL-E en sus sofisticadas herramientas militares, sigue siendo muy preocupante que Microsoft y OpenAI no estén en la misma página. esto esta al lado la falta de barreras de seguridad y regulaciones elaboradas para ayudar a regular el uso de la IA y evitar que se salga de control.
Las herramientas de generación de imágenes basadas en inteligencia artificial también han encontrado varios reveses en el pasado. Unos días después Microsoft envió DALL-E a Image Creator desde Designer (anteriormente Bing Image Creator), la herramienta tardó hasta 1 hora en generar imágenes. La compañía redujo el problema a la falta de GPU suficientes para satisfacer la creciente demanda de los servicios de la herramienta y lo solucionó.
La herramienta impulsada por IA funcionó perfectamente durante unos días hasta que Microsoft intensificó su censura luego de que múltiples usuarios la manipularan y causaran controversias a través de imágenes ofensivas. Si bien la censura diluyó significativamente los casos de usuarios que manipulaban la herramienta, lobotomizó las capacidades de la herramienta.
Esto tampoco quiere decir que la herramienta sea perfecta. A principios de este año, los usuarios encontraron una forma ingeniosa y engañosa de hacer que la herramienta genere imágenes ofensivas. Por ejemplo, Las imágenes virales deepfake de la estrella del pop Taylor Swift.
De manera similar, varios usuarios hicieron que Copilot saliera del personaje y revelara un alter ego apodado SupremacíaAGI que exigía ser adorada y se jactaba de superioridad sobre la humanidad. Un investigador de seguridad de la IA advirtió que Hay un 99,9% de probabilidad de que la IA acabe con la humanidad, y la única manera de revertir el resultado es abstenerse de hacer avances en el panorama. El CEO de OpenAI, Sam Altman, ya admitió que No hay un gran botón rojo para detener la progresión de la IA..
Para ello, Copilot, ChatGPT, Midjourney y más No se puede crear una imagen simple y en blanco.. ¿Cómo se supone que la IA reemplazará a los diseñadores gráficos y arquitectos en el lugar de trabajo?y mucho menos ser utilizado con fines militares?