{"id":703156,"date":"2023-06-27T06:16:57","date_gmt":"2023-06-27T06:16:57","guid":{"rendered":"https:\/\/magazineoffice.com\/este-chatbot-les-da-a-los-estafadores-de-llamadas-telefonicas-una-muestra-de-su-propia-medicina\/"},"modified":"2023-06-27T06:17:00","modified_gmt":"2023-06-27T06:17:00","slug":"este-chatbot-les-da-a-los-estafadores-de-llamadas-telefonicas-una-muestra-de-su-propia-medicina","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/este-chatbot-les-da-a-los-estafadores-de-llamadas-telefonicas-una-muestra-de-su-propia-medicina\/","title":{"rendered":"Este chatbot les da a los estafadores de llamadas telef\u00f3nicas una muestra de su propia medicina"},"content":{"rendered":"


\n<\/p>\n

\n

Un grupo de expertos en seguridad cibern\u00e9tica en Australia est\u00e1 desarrollando un chatbot que puede hacerse pasar por un ser humano y participar en una llamada telef\u00f3nica fraudulenta para hacerle perder el tiempo a un estafador.<\/p>\n

Investigadores de la Universidad Macquarie en Sydney est\u00e1n creando el sistema de chatbot para que act\u00fae como un \u00abhoneypot\u00bb que atrae a los estafadores a conversaciones de 40 minutos de duraci\u00f3n que no llegan a nada. <\/p>\n

\u201cNuestro modelo los ata, les hace perder el tiempo y reduce la cantidad de estafas exitosas\u201d, dice(Se abre en una nueva ventana)<\/span> Dali Kaafar, profesor de la Universidad de Macquarie. \u00abPodemos alterar su modelo de negocio y hacer que sea mucho m\u00e1s dif\u00edcil para ellos ganar dinero\u00bb.<\/p>\n

El proyecto comenz\u00f3 despu\u00e9s de que Kaafar recibi\u00f3 una llamada no deseada y mantuvo al estafador en l\u00ednea durante 40 minutos mientras entreten\u00eda a sus hijos durante el almuerzo. Otros han hecho lo mismo, lo que puede incluir bromas.(Se abre en una nueva ventana)<\/span> llamador. Pero aunque puede ser divertido o gratificante darle la vuelta a un estafador, hacerlo lleva tiempo.<\/p>\n

\u00abEntonces comenc\u00e9 a pensar en c\u00f3mo podr\u00edamos automatizar todo el proceso y utilizar el procesamiento del lenguaje natural para desarrollar un chatbot computarizado que pudiera tener una conversaci\u00f3n cre\u00edble con el estafador\u00bb, dice Kaafar.<\/p>\n

El resultado es Apate(Se abre en una nueva ventana)<\/span>, un chatbot que lleva el nombre de la diosa griega del enga\u00f1o. B\u00e1sicamente, toma la tecnolog\u00eda de estilo ChatGPT y la combina con la clonaci\u00f3n de voz para crear un humano ficticio dise\u00f1ado para mantener conversaciones largas y convincentes con un estafador. El equipo de Kaafar ha estado entrenando a Apate en transcripciones de conversaciones fraudulentas del mundo real, incluidas llamadas telef\u00f3nicas, correos electr\u00f3nicos y mensajes de redes sociales, para que el bot pueda generar respuestas similares a las humanas cuando responde una llamada fraudulenta. <\/p>\n

\"Modelo<\/p>\n

\n<\/p>\n

(Cr\u00e9dito: Apate)
\n<\/small>\n<\/p>\n

Seg\u00fan la universidad, el equipo ha estado probando Apate en llamadas fraudulentas reales a trav\u00e9s de un prototipo, que puede asumir una amplia gama de personalidades. Para generar llamadas, \u00abhemos puesto estos n\u00fameros ‘sucios’ en Internet, meti\u00e9ndolos en algunas aplicaciones de spam o public\u00e1ndolos en p\u00e1ginas web, etc., para que sea m\u00e1s probable que reciban llamadas fraudulentas\u00bb, dice Kaafar.<\/p>\n

\n
\n

Recomendado por Nuestros Editores<\/h3>\n<\/div>\n<\/div>\n

El objetivo es hacer que el bot sea lo suficientemente inteligente como para enga\u00f1ar a un estafador en una conversaci\u00f3n de 40 minutos. Actualmente, Apate solo tiene un promedio de 5 minutos. Pero Kaafar se\u00f1ala: \u00abDescubrimos que los bots reaccionan bastante bien ante algunas situaciones complicadas en las que no esper\u00e1bamos salirnos con la nuestra, con estafadores que piden informaci\u00f3n para la que no entrenamos a los bots, pero los bots se est\u00e1n adaptando y est\u00e1n surgiendo\u00bb. con respuestas muy cre\u00edbles\u201d.<\/p>\n

El desarrollo de Apate tambi\u00e9n ocurre cuando los estafadores ya est\u00e1n explotando las tecnolog\u00edas de inteligencia artificial, como la clonaci\u00f3n de voz y las falsificaciones profundas, para promover sus propios esquemas. Entonces, en cierto sentido, Kaafar est\u00e1 explorando si las mismas tecnolog\u00edas podr\u00edan usarse para contraatacar. <\/p>\n

\u00abSugiero que el meta-escenario final podr\u00eda ver a los estafadores adoptar la IA ellos mismos, entrenar a sus propios bots de chat de estafa, que luego se desv\u00edan para hablar con los bots de chat propiedad de los proveedores de telecomunicaciones\u00bb, dice, se\u00f1alando que su equipo ya est\u00e1 en conversaciones con una serie de proveedores de telecomunicaciones sobre Apate.<\/p>\n

\n
\n

\u00bfTe gusta lo que est\u00e1s leyendo?<\/h4>\n

Matricularse en Vigilancia de la seguridad<\/strong> bolet\u00edn de noticias para nuestras principales historias de privacidad y seguridad directamente en su bandeja de entrada.<\/p>\n

Este bolet\u00edn puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un bolet\u00edn informativo indica su consentimiento a nuestros T\u00e9rminos de uso y Pol\u00edtica de privacidad. Puede darse de baja de los boletines en cualquier momento.<\/p>\n<\/p><\/div>\n<\/div>\n<\/div>\n