Cómo saber si un artículo fue escrito por ChatGPT


Hannah Stryker / Geek de instrucciones

Puede distinguir un artículo escrito por ChatGPT por su estructura simple y repetitiva y su tendencia a cometer errores lógicos y fácticos. Algunas herramientas están disponibles para detectar automáticamente texto generado por IA, pero son propensas a falsos positivos.

La tecnología de inteligencia artificial está cambiando lo que vemos en línea y cómo interactuamos con el mundo. Desde una foto de Midjourney del Papa con un abrigo acolchado hasta modelos de aprendizaje de idiomas como ChatGPT, la inteligencia artificial se está abriendo camino en nuestras vidas.

Los usos más siniestros de la tecnología de IA, como una campaña de desinformación política que lanza artículos falsos, significa que debemos educarnos lo suficiente para detectar las falsificaciones. Entonces, ¿cómo puede saber si un artículo es en realidad texto generado por IA?

Cómo saber si ChatGPT escribió ese artículo

Actualmente existen múltiples métodos y herramientas para ayudar a determinar si el artículo que está leyendo fue escrito por un robot. No todos son 100% fiables y pueden dar falsos positivos, pero ofrecen un punto de partida.

Un gran marcador de texto escrito por humanos, al menos por ahora, es la aleatoriedad. Si bien las personas escribirán usando diferentes estilos y jergas y, a menudo, cometerán errores tipográficos, los modelos de lenguaje de IA rara vez cometen ese tipo de errores. Según MIT Technology Review, «el texto escrito por humanos está plagado de errores tipográficos y es increíblemente variable», mientras que los modelos de texto generados por IA como ChatGPT son mucho mejores para crear texto sin errores tipográficos. Por supuesto, un buen corrector de estilo tendrá el mismo efecto, por lo que debe observar algo más que la ortografía correcta.

Otro indicador son los patrones de puntuación. Los humanos usarán la puntuación de forma más aleatoria que un modelo de IA. El texto generado por IA también suele contener más palabras conectoras como «el», «eso» o «es» en lugar de palabras más grandes que se usan con menos frecuencia porque los modelos de lenguaje grandes operan prediciendo qué palabra es más probable que aparezca a continuación, no proponiendo algo que sonaría bien de la forma en que lo haría un humano.

Esto es visible en la respuesta de ChatGPT a una de las preguntas sobre acciones en el sitio web de OpenAI. Cuando se le pregunta: «¿Puede explicar la computación cuántica en términos simples?», obtiene frases como: «Lo que hace que los qubits sean especiales es que pueden existir en múltiples estados al mismo tiempo, gracias a una propiedad llamada superposición». Es como si un qubit pudiera ser un 0 y un 1 simultáneamente. ”

Chat GPT respondiendo la pregunta "¿Puedes explicar la computación cuántica en términos simples?"

Las palabras de conexión cortas y simples se usan regularmente, las oraciones tienen una longitud similar y todos los párrafos siguen una estructura similar. El resultado final es una escritura que suena y se siente un poco robótica.

¿Se puede usar IA para detectar texto generado por IA?

Los propios modelos de lenguaje grande pueden ser entrenados para detectar la escritura generada por IA. Entrenar el sistema en dos conjuntos de texto, uno escrito por IA y el otro escrito por personas, teóricamente puede enseñar al modelo a reconocer y detectar escritura de IA como ChatGPT.

Los investigadores también están trabajando en métodos de marcas de agua para detectar artículos y texto de IA. Tom Goldstein, que enseña ciencias de la computación en la Universidad de Maryland, está trabajando en una forma de incorporar marcas de agua en modelos de lenguaje de IA con la esperanza de que pueda ayudar a detectar la escritura generada por máquinas, incluso si es lo suficientemente buena como para imitar la aleatoriedad humana.

Invisible a simple vista, la marca de agua sería detectable por un algoritmo, que la indicaría como humana o generada por IA, dependiendo de la frecuencia con la que cumpliera o rompiera las reglas de marca de agua. Desafortunadamente, este método no se ha probado tan bien en modelos posteriores de ChatGPT.

Herramientas para verificar si un artículo fue escrito por ChatGPT

Puede encontrar varias herramientas de copiar y pegar en línea para ayudarlo a verificar si un artículo es generado por IA. Muchos de ellos usan modelos de lenguaje para escanear el texto, incluido el propio ChatGPT-4.

La IA indetectable, por ejemplo, se comercializa a sí misma como una herramienta para hacer que su escritura de IA sea indistinguible de la de un humano. Copie y pegue el texto en su ventana y el programa lo comparará con los resultados de otras herramientas de detección de IA como GPTZero para asignarle una puntuación de probabilidad; básicamente verifica si otros ocho detectores de IA pensarían que su texto fue escrito por un robot.

La originalidad es otra herramienta, dirigida a grandes editores y productores de contenido. Afirma ser más preciso que otros en el mercado y utiliza ChatGPT-4 para ayudar a detectar texto escrito por IA. Otras herramientas de verificación populares incluyen:

La mayoría de estas herramientas le brindan un valor porcentual, como 96% humano y 4% AI, para determinar qué tan probable es que el texto haya sido escrito por un humano. Si la puntuación es 40-50 % de IA o superior, es probable que la pieza haya sido generada por IA.

Si bien los desarrolladores están trabajando para mejorar estas herramientas en la detección de texto generado por IA, ninguna de ellas es totalmente precisa y puede marcar falsamente el contenido humano como generado por IA. También existe la preocupación de que, dado que los modelos de lenguajes grandes como GPT-4 están mejorando tan rápidamente, los modelos de detección se están poniendo al día constantemente.

Entrena tu cerebro para atrapar la IA

Además de usar herramientas, puede entrenarse para capturar contenido generado por IA. Se necesita práctica, pero con el tiempo se puede mejorar.

Daphne Ippolito, científica investigadora sénior de la división de inteligencia artificial de Google, Google Brain, creó un juego llamado Texto real o falso (ROFT, por sus siglas en inglés) que puede ayudarlo a separar las oraciones humanas de las robóticas al entrenarlo gradualmente para notar cuándo una oración no se ve bien. .

Un marcador común del texto de IA, según Ippolito, son declaraciones sin sentido como «se necesitan dos horas para hacer una taza de café». El juego de Ippolito se centra principalmente en ayudar a las personas a detectar ese tipo de errores. De hecho, ha habido múltiples instancias de un programa de escritura de IA que indica hechos inexactos con total confianza; probablemente tampoco debería pedirle que haga su tarea de matemáticas, ya que no parece manejar muy bien los cálculos numéricos.

En este momento, estos son los mejores métodos de detección que tenemos para capturar texto escrito por un programa de IA. Sin embargo, los modelos de lenguaje están mejorando a una velocidad que hace que los métodos de detección actuales queden obsoletos con bastante rapidez, dejándonos, como escribe Melissa Heikkilä para MIT Technology Review, en una carrera armamentista.

RELACIONADO: Cómo verificar ChatGPT con Bing AI Chat





Source link-39