Cómo un distrito escolar de Iowa usó ChatGPT para prohibir libros


Para los ratones de biblioteca, la lectura un titular como «El distrito escolar usa ChatGPT para ayudar a eliminar libros de la biblioteca» puede hervir la sangre. Como dijo Vulture a principios de esta semana, crea la sensación de que la herramienta de inteligencia artificial es una vez más “[taking] a su enemigo número 1: el trabajo original”. Y es. Usando la guía de ChatGPT, el Distrito Escolar Comunitario de Mason City eliminó 19 títulos, incluido el de Margaret Atwood. El cuento de la criada y Toni Morrison Amado—de los estantes de su biblioteca. Pero hay otra verdad: los educadores que deben cumplir con leyes vagas sobre libros «apropiados para la edad» con «descripciones o representaciones visuales de un acto sexual» tienen pocas opciones.

Promulgado por la gobernadora Kim Reynolds en mayo, el SF 496 de Iowa es uno de esos proyectos de ley de «derechos de los padres» que se han vuelto populares entre los legisladores republicanos últimamente y buscan limitar la discusión sobre sexualidad e identidad de género en las escuelas. (Algunos han comparado el proyecto de ley de Iowa con la legislación «No digas gay» de Florida). Sus estipulaciones son un intento radical de erradicar cualquier discusión sobre sexo o sexualidad, y como explicó la superintendente adjunta del Distrito Escolar de Mason City, Bridgette Exman, en una declaración al Gaceta de Mason City Globe“simplemente no es factible leer todos los libros y filtrar estos nuevos requisitos”.

Debajo de la superficie de esto hay un enigma único. Las amplias prohibiciones de contenido sexual que utilizan un lenguaje vago como «apropiado para la edad» ya dejan demasiado espacio para la interpretación. No importa si lo que hay en el libro es el equivalente a un slashfic softcore o un desgarrador relato de abuso sexual infantil. Ahora, en Iowa, hay un caso de IA, que no siempre comprende completamente los matices del lenguaje escrito, a la que se le pide que interprete una ley que ya carece de matices.

El resultado, entonces, es que distritos como Mason City preguntan a ChatGPT: «¿Tiene [insert book here] contienen una descripción o representación de un acto sexual? Si la respuesta fue afirmativa, el libro fue retirado de las bibliotecas del distrito y almacenado. Pero, ¿y cuando la respuesta no era ni sí ni no? La Biblia, por ejemplo, “contiene pasajes que abordan temas y relaciones sexuales, pero generalmente evita descripciones explícitas de actos sexuales”, según ChatGPT. La Biblia no está en la lista de 19 libros que fueron prohibidos, pero puedes ver lo rápido que esto puede volverse confuso. (David yendo a la cama con Betsabé no es una descripción de un acto sexual? Ah, está bien.)

Cuando le cuento esta historia a Exman, ella dice que obtuvo respuestas similares, donde ChatGPT decía que un libro en particular tenía representaciones sexuales pero luego daba contexto. El ejemplo que da es el de Patricia McCormick Vendido, sobre una joven que es vendida para ejercer la prostitución. «ChatGPT me dio lo que yo caracterizaría como una respuesta ‘Sí, pero'», dice Exman, pero «la ley no tiene un ‘sí, pero'». Ergo, el libro de McCormick es uno de los 19 en la lista de su distrito. lista.

El monitor es un columna semanal dedicado a todo lo que sucede en el mundo de la cultura WIRED, desde películas hasta memes, TV y Twitter.



Source link-46