Las estafas en Internet pueden volverse mucho más peligrosas ahora, gracias a que los estafadores tienen acceso sin obstáculos a ChatGPT, el chatbot impulsado por IA. (se abre en una pestaña nueva) que nunca parece salir de los titulares.
Eso es según un informe. (se abre en una pestaña nueva) publicado a principios de este mes por los investigadores de seguridad cibernética Norton. En él, la compañía presentó tres formas clave en que los actores de amenazas podrían abusar de ChatGPT para hacer que las estafas en Internet sean más efectivas: a través de la generación de contenido falso, el phishing a escala y la creación de malware más rápido.
Norton también argumenta que la capacidad de generar «información errónea de alta calidad o desinformación a escala» podría ayudar a las granjas de bots a avivar la división de manera más eficiente, lo que permitiría a los actores de amenazas «sembrar desconfianza y dar forma a narrativas en diferentes idiomas» con facilidad.
Luchando contra la desinformación
Los estafadores que buscan administrar reseñas falsas también podrían tener un día de campo con ChatGPT, dicen, generándolas en masa y en diferentes tonos de voz.
Finalmente, el ya famoso chatbot podría usarse en «campañas de acoso» en las redes sociales, para silenciar o intimidar a las personas, dice Norton, y agrega que las consecuencias podrían ser «escalofriantes»:
Los piratas informáticos también pueden usar ChatGPT en campañas de phishing que, en muchos casos, están a cargo de atacantes sin conocimientos nativos del idioma inglés, lo que ayuda a las víctimas a detectar un intento de estafa evidente en el caso de mala ortografía y gramática. Con ChatGPT, los actores de amenazas podrían crear correos electrónicos muy convincentes, a escala.
Finalmente, es posible que la codificación de malware ya no esté reservada para piratas informáticos experimentados. “Con el mensaje correcto, los autores de malware novatos pueden describir lo que quieren hacer y obtener fragmentos de código que funcionen”, dijeron los investigadores.
En consecuencia, podríamos ser testigos de un aumento en el número y la sofisticación del malware, dicen. Además, con la capacidad de ChatGPT para «traducir» el código fuente a lenguajes de programación menos comunes de forma rápida y sencilla, más malware podría superar las soluciones antivirus.
Al igual que con cualquier herramienta nueva anterior, los estafadores y piratas informáticos probablemente también utilizarán ChatGPT para avanzar en sus objetivos. Depende de los usuarios, así como de la comunidad de ciberseguridad en general, proporcionar las respuestas a estas nuevas amenazas, concluyeron los investigadores.