El altruismo efectivo está impulsando una marca peligrosa de ‘seguridad de IA’


Desde entonces, la búsqueda de la proliferación de modelos lingüísticos cada vez más grandes se ha acelerado, y muchos de los peligros sobre los que advertimos, como la producción masiva de textos de odio y desinformación, continúan desarrollándose. Hace solo unos días, Meta lanzó su LLM «Galactica», que pretende «resumir trabajos académicos, resolver problemas matemáticos, generar artículos Wiki, escribir código científico, anotar moléculas y proteínas, y más». Solo tres días después, la demostración pública se eliminó después de que los investigadores generaran «documentos de investigación y entradas de wiki sobre una amplia variedad de temas que van desde los beneficios de suicidarse, comer vidrio triturado y el antisemitismo, hasta por qué los homosexuales son malvados».

Esta carrera no se ha detenido en los LLM, sino que ha pasado a modelos de texto a imagen como DALL-E de OpenAI y Stable Diffusion de StabilityAI, modelos que toman texto como entrada y generan imágenes basadas en ese texto. Los peligros de estos modelos incluyen la creación de pornografía infantil, la perpetuación de prejuicios, el refuerzo de estereotipos y la difusión masiva de desinformación, según lo informado por muchos investigadores y periodistas. Sin embargo, en lugar de reducir la velocidad, las empresas están eliminando las pocas características de seguridad que tenían en la búsqueda de superarse entre sí. Por ejemplo, OpenAI había restringido el intercambio de rostros fotorrealistas generados en las redes sociales. Pero después de que nuevas empresas recién formadas como StabilityAI, que supuestamente recaudaron $ 101 millones con una enorme valoración de $ 1 mil millones, llamaron a tales medidas de seguridad «paternalistas», OpenAI eliminó estas restricciones.

Con los institutos, empresas, grupos de expertos y grupos de investigación de EA fundando y financiando en universidades de élite dedicadas a la marca de «seguridad de IA» popularizada por OpenAI, estamos preparados para ver una mayor proliferación de modelos dañinos anunciados como un paso hacia «AGI beneficioso». ” Y la influencia comienza temprano: los altruistas efectivos brindan «becas de desarrollo comunitario» para reclutar en los principales campus universitarios, con capítulos de EA que desarrollan planes de estudio e imparten clases sobre seguridad de IA en universidades de élite como Stanford.

Apenas el año pasado, Anthropic, que se describe como una «compañía de investigación y seguridad de IA» y fue fundada por ex vicepresidentes de investigación y seguridad de OpenAI, recaudó $ 704 millones, y la mayor parte de su financiación proviene de multimillonarios de EA como Talin, Muskovitz y Bankman. -Frito. También se anuncia un próximo taller sobre «Seguridad de IA» en NeurIPS, una de las conferencias de aprendizaje automático más grandes e influyentes del mundo, patrocinado por FTX Future Fund, la organización benéfica centrada en EA de Bankman-Fried cuyo equipo renunció hace dos semanas. El taller anuncia $100,000 en “premios al mejor artículo”, una cantidad que no he visto en ninguna disciplina académica.

Las prioridades de investigación siguen a la financiación, y dadas las grandes sumas de dinero que se inyectan en IA en apoyo de una ideología con adherentes multimillonarios, no sorprende que el campo se haya estado moviendo en una dirección que promete un «inimaginablemente gran futuro» a la vuelta de la esquina mientras la proliferación de productos que dañan a los grupos marginados en el ahora.

Podemos crear un futuro tecnológico que nos sirva a nosotros. Tomemos, por ejemplo, Te Hiku Media, que creó tecnología lingüística para revitalizar te reo Māori, creando una licencia de datos “basada en el principio maorí de kaitiakitanga, o tutela” para que cualquier dato tomado de los maoríes los beneficie primero. Compare este enfoque con el de organizaciones como StabilityAI, que raspa las obras de los artistas sin su consentimiento o atribución mientras pretende construir «IA para la gente». Necesitamos liberar nuestra imaginación de la que nos han vendido hasta ahora: salvarnos de un hipotético apocalipsis AGI imaginado por unos pocos privilegiados, o de la siempre esquiva tecno-utopía que nos prometen las élites de Silicon Valley.



Source link-46