¿Podría la pornografía generada por IA ayudar a proteger a los niños?


Ahora que generativo Los modelos de inteligencia artificial pueden producir imágenes fotorrealistas y falsas de abuso sexual infantil, pero los reguladores y los defensores de la seguridad infantil temen que una práctica que ya es aborrecible se salga aún más de control. Pero en este miedo se pierde una posibilidad incómoda: que el material sexual infantil generado por IA pueda en realidad beneficiar a la sociedad a largo plazo al proporcionar una alternativa menos dañina al ya enorme mercado de imágenes de abuso sexual infantil.

El creciente consenso entre los científicos es que la pedofilia es de naturaleza biológica y que mantener a raya los impulsos pedófilos puede ser increíblemente difícil. «Lo que nos excita sexualmente no lo decidimos nosotros, lo descubrimos», dijo el psiquiatra Dr. Fred Berlin, director de la Clínica de Sexo y Género Johns Hopkins y experto en trastornos parafílicos. “No es porque [pedophiles have] elegido tener este tipo de impulsos o atracciones. Han descubierto, sin tener la culpa, que esta es la naturaleza de lo que los aflige en términos de su propia constitución sexual… Estamos hablando de no ceder a un anhelo, un anhelo que tiene sus raíces en la biología, no a diferencia de alguien que tiene ansias de heroína”.

Lo ideal sería que los psiquiatras desarrollaran un método para curar a los espectadores de pornografía infantil de su inclinación a verla. Pero aparte de eso, reemplazar el mercado de la pornografía infantil con imágenes simuladas puede ser un recurso provisional útil.

hay bueno Razones para ver las imágenes generadas por IA como el último avance negativo en la lucha contra el abuso sexual infantil. Los reguladores y las fuerzas del orden ya revisan una enorme cantidad de imágenes todos los días para intentar identificar a las víctimas, según un artículo reciente del Stanford Internet Observatory y Thorn. A medida que las imágenes generadas por IA entran en escena, se vuelve más difícil discernir qué imágenes incluyen a víctimas reales que necesitan ayuda. Además, las imágenes generadas por IA se basan en semejanzas de personas reales o de niños reales como punto de partida, lo que, si las imágenes conservan esas semejanzas, es un abuso de naturaleza diferente. (Dicho esto, la IA no necesita inherentemente capacitarse en pornografía infantil real para desarrollar una versión simulada de la misma, sino que puede combinar la capacitación en pornografía de adultos con su capacitación en imágenes de niños).

Encontrar un método práctico para discernir qué imágenes son reales, qué imágenes son de personas reales puestas en circunstancias falsas y qué imágenes son completamente falsas es más fácil de decir que de hacer. El informe Thorn afirma que dentro de un año será mucho más fácil para la IA generar imágenes que sean esencialmente indistinguibles de las imágenes reales. Pero ésta también podría ser un área en la que la IA podría desempeñar un papel en la solución de un problema que ha creado. La IA se puede utilizar para distinguir entre diferentes formas de contenido, ayudando así a la aplicación de la ley, según Rebecca Portnoff, jefa de ciencia de datos de Thorn. Por ejemplo, los reguladores podrían exigir a las empresas de inteligencia artificial que incorporen marcas de agua en archivos de imágenes generados de código abierto, o las fuerzas del orden podrían utilizar mecanismos de detección pasiva existentes para rastrear el origen de los archivos de imágenes.

En lo que respecta a las imágenes generadas en sí, no todo el mundo está de acuerdo en que satisfacer los impulsos pedófilos en primer lugar pueda detenerlos a largo plazo.

“La pornografía infantil echa leña al fuego”, afirmó Anna Salter, psicóloga especializada en perfiles de delincuentes de alto riesgo. En opinión de Salter y otros especialistas, la exposición continuada puede reforzar las atracciones existentes al legitimarlas, esencialmente abriendo el apetito de los espectadores, como algunos delincuentes han indicado que es el caso. E incluso sin ese resultado, muchos creen que ver actos inmorales simulados daña el propio carácter moral del actor y, por tanto, quizás también el tejido moral de la sociedad. Desde esa perspectiva, cualquier visualización inapropiada de niños es un mal inherente, independientemente de si un niño específico sufre daño. Además de eso, la posible normalización de esas visualizaciones puede considerarse un daño para todos los niños.



Source link-46