Una vieja estafa de SEO tiene una nueva cara generada por IA


A lo largo de los años, Engadget ha sido el objetivo de una estafa de SEO común, en la que alguien reclama la propiedad de una imagen y exige un banco de enlaces a un sitio web en particular. Muchos otros sitios web le dirían lo mismo, pero ahora los estafadores están haciendo que sus avisos de eliminación de DMCA falsos y sus amenazas de acciones legales parezcan más legítimos con la ayuda de herramientas de inteligencia artificial de fácil acceso.

Según un informe de 404Medios, el editor del sitio web Tedium recibió la semana pasada un «aviso de infracción de derechos de autor» por correo electrónico de una firma de abogados llamada Commonwealth Legal. Al igual que intentos similares más antiguos de engañar al destinatario, el remitente dijo que se están comunicando «en relación con una imagen» conectada a su cliente. En este caso, el remitente exigió que se agregara un «enlace visible y en el que se pudiera hacer clic» a un sitio web llamado «tech4gods» debajo de la foto supuestamente robada.

Dado que Tedium en realidad utilizó una fotografía de un proveedor libre de regalías, el editor investigó la demanda, encontró el sitio web del bufete de abogados y, tras una inspección más detallada, se dio cuenta de que las imágenes de sus abogados habían sido generadas por IA. Como 404Medios Como señala, las imágenes de los abogados tenían miradas vacías en los ojos que se ven comúnmente en fotografías creadas con herramientas de inteligencia artificial. Si realiza una búsqueda inversa de imágenes en ellos, obtendrá resultados de un sitio web con la URL generate.photos, que utiliza inteligencia artificial para crear «fotos de modelos únicas y sin preocupaciones… desde cero». El editor también descubrió que la dirección del bufete de abogados que se supone que está en el cuarto piso de un edificio apunta a una estructura de un piso en Google Street View. El propietario de tech4gods dijo que no tuvo nada que ver con la estafa, pero admitió que solía comprar vínculos de retroceso para su sitio web.

Este es solo un ejemplo de cómo los malos actores pueden usar herramientas de inteligencia artificial para engañar y estafar a las personas, y tenemos que estar más atentos ya que casos como este probablemente seguirán creciendo. Los motores de búsqueda de imágenes inversas son tus amigos, pero es posible que no sean infalibles y no siempre ayuden. Los deepfakes, por ejemplo, se han convertido en un gran problema en los últimos años, ya que los malos actores continúan usándolos para crear videos y audio convincentes no solo para estafar a las personas, sino también para difundir información errónea en línea.



Source link-47