Un experto en seguridad nacional hace cálculos sobre los peligros de la IA


Un tipo de riesgo que le ha interesado mucho durante mucho tiempo es el «riesgo biológico». cual es el el peor ¿Qué podría pasar? Llévanos a través de eso.

Comencé en salud pública antes de trabajar en seguridad nacional, trabajando en el control de enfermedades infecciosas: malaria y tuberculosis. En 2002, el primer virus se sintetizó desde cero en un proyecto Darpa, y fue una especie de momento de «oh mierda» para las biociencias y la comunidad de salud pública, al darse cuenta de que la biología se convertirá en una disciplina de ingeniería que podría potencialmente usarse indebidamente. Estaba trabajando con veteranos de la campaña de erradicación de la viruela y pensaron: «Mierda, acabamos de pasar décadas erradicando una enfermedad que ahora podría sintetizarse desde cero».

Luego pasé a trabajar en bioseguridad, tratando de descubrir cómo podríamos aumentar la seguridad alrededor de los biolaboratorios para que sea menos probable que se utilicen. ¿Cómo podemos detectar programas de armas biológicas? Que, lamentablemente, todavía existen en cantidades significativas en algunos lugares del mundo. Además, ¿cómo podemos incorporar más seguridad a la sociedad para que seamos más resilientes cuando se trata no sólo de una pandemia diseñada sino también de pandemias naturales?

Hay mucha vulnerabilidad que permanece en la sociedad. Covid fue una demostración de esto. Este fue un virus relativamente leve en términos históricos (tenía una tasa de mortalidad por infección inferior al 1 por ciento), mientras que hay algunos virus naturales que tienen tasas de mortalidad muy superiores al 50 por ciento. Hay virus sintéticos que tienen una letalidad cercana al 100 por ciento y, al mismo tiempo, son tan transmisibles como el SARS-CoV-2. Aunque sabemos cómo diseñar vacunas y fabricarlas muy rápidamente, lograr su aprobación lleva hoy aproximadamente tanto tiempo como hace unos 20 años. Entonces, la cantidad de tiempo que se necesitaría para vacunar a una población es aproximadamente la misma hoy que para nuestros padres e incluso para nuestros abuelos.

Cuando comencé a interesarme por la bioseguridad en 2002, construir un poliovirus, un virus muy, muy pequeño, costaba muchos millones de dólares. Habría costado cerca de mil millones de dólares sintetizar un virus de la viruela, un virus muy grande. Hoy en día, el costo es inferior a $100.000, por lo que es una disminución de 10.000 veces durante ese período. Mientras tanto, el costo de las vacunas en realidad se ha triplicado durante ese período. La asimetría defensa-ofensiva avanza en la dirección equivocada.

¿Y cuál cree que es nuestro mayor adversario en materia de riesgos biológicos?

Primero está la naturaleza. La evolución de los virus naturales continúa. Tendremos futuras pandemias virales. Algunos de ellos serán peores que el Covid, otros no serán tan malos como el Covid, pero tenemos que ser resilientes ante ambos. El Covid le costó sólo a la economía estadounidense más de 10 billones de dólares y, sin embargo, lo que invertimos en prevenir la próxima pandemia son quizás entre 2.000 y 3.000 millones de dólares de inversión federal.

Otra categoría son los ataques biológicos intencionales. Aum Shinrikyo era una secta apocalíptica en Japón que tenía un programa de armas biológicas. Creían que cumplirían la profecía al matar a todos los habitantes del planeta. Afortunadamente, estaban trabajando con la biología de los años 90, que no era tan sofisticada. Desafortunadamente, luego recurrieron a las armas químicas y lanzaron los ataques con gas sarín en Tokio.

Hoy en día tenemos individuos y grupos que tienen la intención de causar víctimas en masa y expresan cada vez más interés en la biología como arma. Lo que les impide utilizar la biología de manera efectiva no son los controles sobre las herramientas o las materias primas, porque ahora todo eso está disponible en muchos laboratorios y en eBay; ahora se puede comprar un sintetizador de ADN por mucho menos de 100.000 dólares. Puede obtener todos los materiales y consumibles que necesita en la mayoría de las tiendas de suministros científicos.

Lo que le faltaría a un grupo apocalíptico es el conocimiento para convertir esas herramientas en un arma biológica. Existe la preocupación de que la IA haga que el conocimiento esté más disponible. Algunas de las investigaciones realizadas por [AI safety and research company] Anthropic ha analizado las evaluaciones de riesgos para ver si estas herramientas podrían ser utilizadas indebidamente por alguien que no tuviera una sólida formación biológica. ¿Podrían básicamente obtener formación de posgrado de un tutor digital en forma de un modelo de lenguaje de gran tamaño? Ahora mismo probablemente no. Pero si se analiza el progreso de los últimos años, la barrera de entrada para alguien que quiera llevar a cabo un ataque biológico se está erosionando.



Source link-46