5 tecnologías de IA que los piratas informáticos pueden usar de formas terriblemente nuevas


Andrew Heinzman / Geek de instrucciones

Las tecnologías de IA pueden estar alterando numerosas industrias, pero al menos en la mayoría de los casos, podemos ver cómo serán más útiles que dañinas a largo plazo. Sin embargo, estas nuevas herramientas también están abriendo muchas nuevas oportunidades para tipos nefastos.

IA de lenguaje natural para ataques de phishing sobrealimentados

Ser capaz de comprender y producir el lenguaje humano natural ha sido uno de los principales objetivos de la investigación de IA desde los primeros días. Hoy en día, tenemos producción de voz sintética, chatbots altamente sofisticados, generadores de texto en lenguaje natural y muchas más tecnologías relacionadas impulsadas por IA.

Estas aplicaciones son perfectas para ataques de phishing, donde los piratas informáticos se hacen pasar por entidades legítimas y sus representantes como una forma de obtener información confidencial de las personas. Con estas nuevas tecnologías, podría hacer que los agentes de IA se hagan pasar por personas en masa a través de correo electrónico, llamadas telefónicas, mensajería instantánea o en cualquier otro lugar donde los humanos hablen entre sí a través de un sistema informático.

A diferencia del phishing que conocemos, esto sería como el phishing de «lanza» turbocargado, donde los intentos están dirigidos contra individuos específicos con información sobre ellos en particular para que la estafa sea más efectiva. Por ejemplo, el software de inteligencia artificial podría hacerse pasar por el jefe de alguien y pedir que se ingrese dinero en una cuenta en una variante de phishing conocida como fraude del director ejecutivo.

Ingeniería social falsificada

La ingeniería social es una práctica dentro de la piratería que se enfoca en las debilidades de la psicología y el comportamiento humanos para eludir las estrictas medidas tecnológicas de seguridad. Por ejemplo, un pirata informático podría llamar a la secretaria de una persona importante haciéndose pasar por un trabajador de saneamiento, preguntándole dónde se tira la basura actualmente. Luego, el criminal se dirige a ese lugar para buscar documentos desechados u otras pistas que puedan juntarse para crear exploits.

Los sistemas de aprendizaje profundo que pueden replicar caras y voces (conocidos como deepfakes) han avanzado hasta el punto en que pueden usarse en tiempo real. Hay servicios como Podcastle’s Revoice y Voicebot AI donde puede enviar muestras de su propia voz y luego tener texto a voz que suene como usted. En principio, una tecnología como esta podría usarse para clonar la voz de cualquier persona. Entonces todo lo que tendrías que hacer es llamar por teléfono o hacer una videollamada a alguien que se haga pasar por quien quieras, siendo las figuras públicas el objetivo más fácil de todos.

Descifrado de códigos más inteligente y descubrimiento automatizado de vulnerabilidades

A los humanos les lleva horas y horas recorrer líneas de código en busca de vulnerabilidades, ya sea para solucionarlas o explotarlas. Ahora hemos visto que los modelos de aprendizaje automático como ChatGPT pueden escribir código y reconocer vulnerabilidades en el código enviado, lo que abre la posibilidad de que la IA pueda estar escribiendo malware más temprano que tarde.

Malware que aprende y se adapta a través del aprendizaje automático

La fortaleza clave del aprendizaje automático es cómo puede tomar grandes cantidades de datos y extraer reglas e información útiles de ellos. Es razonable esperar que el futuro malware aproveche este concepto general para adaptarse rápidamente a las contramedidas.

Esto puede conducir a una situación en la que tanto el malware como los sistemas antimalware se conviertan efectivamente en sistemas de aprendizaje automático en guerra que se lleven rápidamente entre sí a niveles más altos de sofisticación.

IA generativa para crear datos falsos

Las tecnologías de IA ahora pueden generar imágenes, video, texto y audio aparentemente de la nada. Estas tecnologías han llegado al punto en que los expertos no pueden decir que son falsas (al menos no de un vistazo). Esto significa que puede esperar una avalancha de datos falsos en Internet en el futuro.

Como ejemplo, los perfiles de redes sociales falsos en este momento pueden ser bastante fáciles de detectar, por lo que evitar las estafas de catfishing o las simples campañas de bots para sembrar desinformación no ha sido tan difícil para las audiencias informadas. Sin embargo, estas nuevas tecnologías de IA podrían generar perfiles falsos que no se pueden distinguir de los reales.

“Personas” con rostros únicos con fotos generadas de toda su vida falsa, información de perfil única y coherente, y redes completas de amigos y familiares compuestas por otras personas falsas. Todos tienen conversaciones entre ellos como personas reales. Con redes de agentes en línea falsos como estos, los actores maliciosos podrían realizar varias estafas y campañas de desinformación.

RELACIONADO: 5 tecnologías que significan que nunca más podrás creer nada en Internet

¿Es la IA tanto la cura como la enfermedad?

Es inevitable que algunas personas intenten usar cualquier tecnología nueva por motivos maliciosos. Lo que hace que esta nueva generación de tecnología de IA sea diferente es cómo rápidamente va más allá de la capacidad humana para detectarla.

Esto significa, irónicamente, que nuestra mejor defensa contra estas vías de ataque mejoradas por IA serán otras tecnologías de IA que combatan el fuego con fuego. Esto parecería dejarte sin otra opción que ver cómo se pelean y esperar que los «buenos» lleguen a la cima. Sin embargo, hay varias cosas que puede hacer para mantenerse protegido en línea, evitar el ransomware y detectar estafas en plataformas populares como Facebook, Facebook Marketplace, PayPal y LinkedIn.





Source link-39