OpenAI confirma que los detectores de escritura de IA no funcionan


La semana pasada, OpenAI publicó consejos para educadores en una publicación de blog promocional que muestra cómo algunos profesores están utilizando ChatGPT como ayuda educativa, junto con indicaciones sugeridas para comenzar. En una pregunta frecuente relacionada, también admiten oficialmente lo que ya sabemos: los detectores de escritura de IA no funcionan, a pesar de que se utilizan con frecuencia para castigar a los estudiantes con falsos positivos.

En una sección de las preguntas frecuentes titulada «¿Funcionan los detectores de IA?», OpenAI escribe: «En resumen, no. Si bien algunos (incluido OpenAI) han lanzado herramientas que pretenden detectar contenido generado por IA, ninguna de ellas ha demostrado distinguir de manera confiable entre el contenido generado por IA y el contenido generado por humanos».

En julio, cubrimos en profundidad por qué los detectores de escritura de IA como GPTZero no funcionan, y los expertos los calificaron como «principalmente aceite de serpiente». Estos detectores a menudo producen falsos positivos debido a que se basan en métricas de detección no probadas. En última instancia, no hay nada especial en el texto escrito por IA que siempre lo distinga del escrito por humanos, y los detectores pueden ser derrotados reformulándolos. Ese mismo mes, OpenAI descontinuó su AI Classifier, que era una herramienta experimental diseñada para detectar texto escrito por IA. Tenía una abismal tasa de precisión del 26 por ciento.

Las nuevas preguntas frecuentes de OpenAI también abordan otro gran error: que el propio ChatGPT puede saber si el texto está escrito por IA o no. OpenAI escribe: «Además, ChatGPT no tiene ‘conocimiento’ de qué contenido podría generarse con IA. A veces inventa respuestas a preguntas como ‘¿escribiste esto? [essay]?’ o ‘¿podría haber sido escrito por AI?’ Estas respuestas son aleatorias y no tienen ningún fundamento real».

En ese sentido, OpenAI también aborda la propensión de sus modelos de IA a confabular información falsa, que también hemos cubierto en detalle en Ars. «A veces, ChatGPT suena convincente, pero puede brindarle información incorrecta o engañosa (a menudo llamada ‘alucinación’ en la literatura)», escribe la compañía. «Incluso puede inventar cosas como citas o citas, así que no lo utilices como única fuente de investigación».

(En mayo, un abogado se metió en problemas por hacer precisamente eso: citó seis casos inexistentes que sacó de ChatGPT).

Aunque los detectores automatizados de IA no funcionan, eso no significa que un humano nunca pueda detectar la escritura de IA. Por ejemplo, un profesor familiarizado con el estilo de escritura típico de un estudiante puede darse cuenta cuando su estilo o capacidad cambia repentinamente. Además, algunos intentos descuidados de hacer pasar el trabajo generado por IA como escrito por humanos pueden dejar signos reveladores, como la frase «como modelo de lenguaje de IA», que significa que alguien copió y pegó la salida de ChatGPT sin tener cuidado. Y recientemente, un artículo en la revista científica Nature mostró cómo los humanos notaron la frase «Regenerar respuesta» en un artículo científico, que es la etiqueta de un botón en ChatGPT.

Tal como está la tecnología hoy en día, es más seguro evitar por completo las herramientas automatizadas de detección de IA. «A partir de ahora, la escritura de IA es indetectable y es probable que siga siéndolo», dijo a Ars en julio Ethan Mollick, analista frecuente de IA y profesor de Wharton. «Los detectores de IA tienen altas tasas de falsos positivos y, como resultado, no deberían usarse».



Source link-49