Los fiscales generales de los 50 estados instan al Congreso a ayudar a combatir el CSAM generado por IA


Los fiscales generales de los 50 estados prohibieron juntos y enviaron una carta abierta al Congreso, pidiendo mayores medidas de protección contra las imágenes de abuso sexual infantil mejoradas con IA, como informó originalmente AP. La carta pide a los legisladores que «establezcan una comisión de expertos para estudiar los medios y métodos de la IA que pueden utilizarse para explotar específicamente a los niños».

La carta enviada a los líderes republicanos y demócratas de la Cámara y el Senado también insta a los políticos a ampliar las restricciones existentes sobre los materiales de abuso sexual infantil para cubrir específicamente imágenes y videos generados por IA. Esta tecnología es extremadamente nueva y, como tal, todavía no hay nada en los libros que coloque explícitamente las imágenes generadas por IA en la misma categoría que otros tipos de materiales de abuso sexual infantil.

«Estamos inmersos en una carrera contra el tiempo para proteger a los niños de nuestro país de los peligros de la IA», escribieron los fiscales en la carta. “De hecho, los proverbiales muros de la ciudad ya han sido traspasados. Ahora es el momento de actuar.»

Usar generadores de imágenes como Dall-E y Midjourney para crear materiales de abuso sexual infantil no es un problema todavía, ya que el software tiene barreras de seguridad que no permiten ese tipo de cosas. Sin embargo, estos fiscales miran hacia el futuro cuando las versiones de código abierto del software comiencen a aparecer en todas partes, cada una con sus propias barreras de seguridad, o sin ellas. Incluso el director ejecutivo de OpenAI, Sam Altman, ha declarado que las herramientas de inteligencia artificial se beneficiarían de la intervención del gobierno para mitigar el riesgo, aunque no mencionó el abuso infantil como una posible desventaja de la tecnología.

El gobierno tiende a moverse lentamente cuando se trata de tecnología, por una serie de razones, ya que al Congreso le tomó varios años antes de tomar en serio la amenaza de los abusadores de niños en línea en los días de las salas de chat de AOL y similares. Con ese fin, no hay señales inmediatas de que el Congreso esté buscando elaborar una legislación sobre inteligencia artificial que prohíba absolutamente a los generadores crear este tipo de imágenes desagradables. Incluso la amplia Ley de Inteligencia Artificial de la Unión Europea no menciona específicamente ningún riesgo para los niños.

El fiscal general de Carolina del Sur, Alan Wilson, organizó la campaña de envío de cartas y alentó a sus colegas a examinar los estatutos estatales para averiguar si “las leyes se mantuvieron al día con la novedad de esta nueva tecnología”.

Wilson advierte sobre contenido deepfake que muestra a un niño real procedente de una fotografía o un vídeo. Esto no sería abuso infantil en el sentido convencional, dice Wilson, pero representaría abuso y “difamaría” y “explotaría” al niño de la imagen original. Continúa diciendo que “nuestras leyes tal vez no aborden la naturaleza virtual” de este tipo de situación.

La tecnología también podría usarse para inventar niños ficticios, seleccionando datos de una biblioteca, para producir materiales de abuso sexual. Wilson dice que esto crearía una “demanda para la industria que explota a los niños” como argumento contra la idea de que en realidad no perjudicaría a nadie.

Aunque la idea del abuso sexual infantil deepfake es bastante nueva, la industria tecnológica ha estado muy consciente del contenido pornográfico deepfake y ha tomado medidas para prevenirlo. En febrero, Meta, Onlyfans y Pornhub comenzaron a utilizar una herramienta en línea llamada Take It Down que permite a los adolescentes reportar imágenes y videos explícitos de ellos mismos desde Internet. Esta herramienta se utiliza para imágenes normales y contenido generado por IA.



Source link-47