Este chatbot les da a los estafadores de llamadas telefónicas una muestra de su propia medicina


Un grupo de expertos en seguridad cibernética en Australia está desarrollando un chatbot que puede hacerse pasar por un ser humano y participar en una llamada telefónica fraudulenta para hacerle perder el tiempo a un estafador.

Investigadores de la Universidad Macquarie en Sydney están creando el sistema de chatbot para que actúe como un «honeypot» que atrae a los estafadores a conversaciones de 40 minutos de duración que no llegan a nada.

“Nuestro modelo los ata, les hace perder el tiempo y reduce la cantidad de estafas exitosas”, dice(Se abre en una nueva ventana) Dali Kaafar, profesor de la Universidad de Macquarie. «Podemos alterar su modelo de negocio y hacer que sea mucho más difícil para ellos ganar dinero».

El proyecto comenzó después de que Kaafar recibió una llamada no deseada y mantuvo al estafador en línea durante 40 minutos mientras entretenía a sus hijos durante el almuerzo. Otros han hecho lo mismo, lo que puede incluir bromas.(Se abre en una nueva ventana) llamador. Pero aunque puede ser divertido o gratificante darle la vuelta a un estafador, hacerlo lleva tiempo.

«Entonces comencé a pensar en cómo podríamos automatizar todo el proceso y utilizar el procesamiento del lenguaje natural para desarrollar un chatbot computarizado que pudiera tener una conversación creíble con el estafador», dice Kaafar.

El resultado es Apate(Se abre en una nueva ventana), un chatbot que lleva el nombre de la diosa griega del engaño. Básicamente, toma la tecnología de estilo ChatGPT y la combina con la clonación de voz para crear un humano ficticio diseñado para mantener conversaciones largas y convincentes con un estafador. El equipo de Kaafar ha estado entrenando a Apate en transcripciones de conversaciones fraudulentas del mundo real, incluidas llamadas telefónicas, correos electrónicos y mensajes de redes sociales, para que el bot pueda generar respuestas similares a las humanas cuando responde una llamada fraudulenta.

Modelo de despliegue de Apate

(Crédito: Apate)

Según la universidad, el equipo ha estado probando Apate en llamadas fraudulentas reales a través de un prototipo, que puede asumir una amplia gama de personalidades. Para generar llamadas, «hemos puesto estos números ‘sucios’ en Internet, metiéndolos en algunas aplicaciones de spam o publicándolos en páginas web, etc., para que sea más probable que reciban llamadas fraudulentas», dice Kaafar.

Recomendado por Nuestros Editores

El objetivo es hacer que el bot sea lo suficientemente inteligente como para engañar a un estafador en una conversación de 40 minutos. Actualmente, Apate solo tiene un promedio de 5 minutos. Pero Kaafar señala: «Descubrimos que los bots reaccionan bastante bien ante algunas situaciones complicadas en las que no esperábamos salirnos con la nuestra, con estafadores que piden información para la que no entrenamos a los bots, pero los bots se están adaptando y están surgiendo». con respuestas muy creíbles”.

El desarrollo de Apate también ocurre cuando los estafadores ya están explotando las tecnologías de inteligencia artificial, como la clonación de voz y las falsificaciones profundas, para promover sus propios esquemas. Entonces, en cierto sentido, Kaafar está explorando si las mismas tecnologías podrían usarse para contraatacar.

«Sugiero que el meta-escenario final podría ver a los estafadores adoptar la IA ellos mismos, entrenar a sus propios bots de chat de estafa, que luego se desvían para hablar con los bots de chat propiedad de los proveedores de telecomunicaciones», dice, señalando que su equipo ya está en conversaciones con una serie de proveedores de telecomunicaciones sobre Apate.

¿Te gusta lo que estás leyendo?

Matricularse en Vigilancia de la seguridad boletín de noticias para nuestras principales historias de privacidad y seguridad directamente en su bandeja de entrada.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38