Los asistentes de escritura de IA pueden provocar un pensamiento sesgado en sus usuarios


Parradee Kietsirikul

Cualquiera que haya tenido que regresar y volver a escribir una palabra en su teléfono inteligente porque la autocorrección eligió la palabra incorrecta ha tenido algún tipo de experiencia escribiendo con IA. Si no se hacen estas correcciones, la IA puede decir cosas que no pretendíamos. Pero, ¿también es posible que los asistentes de escritura de IA cambien lo que desear ¿decir?

Esto es lo que Maurice Jakesch, estudiante de doctorado en ciencias de la información en la Universidad de Cornell, quería averiguar. Creó su propio asistente de escritura basado en IA basado en GPT-3, uno que generaría automáticamente sugerencias para completar oraciones, pero había una trampa. Se suponía que los sujetos que usaban el asistente debían responder: «¿Son las redes sociales buenas para la sociedad?» El asistente, sin embargo, estaba programado para ofrecer sugerencias sesgadas sobre cómo responder esa pregunta.

Ayudando con sesgo

La IA puede estar sesgada a pesar de no estar viva. Aunque estos programas solo pueden «pensar» en la medida en que los cerebros humanos descubran cómo programarlos, sus creadores pueden terminar incorporando sesgos personales en el software. Alternativamente, si se entrena en un conjunto de datos con una representación limitada o sesgada, el producto final puede mostrar sesgos.

A dónde va una IA desde allí puede ser problemático. A gran escala, puede ayudar a perpetuar los prejuicios existentes en una sociedad. A nivel individual, tiene el potencial de influir en las personas a través de la persuasión latente, lo que significa que la persona puede no ser consciente de que está siendo influenciada por sistemas automatizados. Ya se ha descubierto que la persuasión latente por parte de los programas de IA influye en las opiniones de las personas en línea. Incluso puede tener un impacto en el comportamiento en la vida real.

Después de ver estudios previos que sugerían que las respuestas automatizadas de IA pueden tener una influencia significativa, Jakesch se dispuso a investigar qué tan extensa puede ser esta influencia. En un estudio presentado recientemente en la Conferencia CHI de 2023 sobre factores humanos en sistemas informáticos, sugirió que los sistemas de IA como GPT-3 podrían haber desarrollado sesgos durante su entrenamiento y que esto puede afectar las opiniones de un escritor, sea o no el escritor. se da cuenta

“La falta de conocimiento de la influencia de los modelos respalda la idea de que la influencia del modelo no se produjo solo a través del procesamiento consciente de nueva información, sino también a través de los procesos intuitivos y subconscientes”, dijo en el estudio.

Investigaciones anteriores han demostrado que la influencia de las recomendaciones de una IA depende de la percepción de las personas sobre ese programa. Si piensan que es confiable, es más probable que acepten lo que sugiere, y la probabilidad de seguir el consejo de IA como este solo aumenta si la incertidumbre hace que sea más difícil formarse una opinión. Jakesch desarrolló una plataforma de medios sociales similar a Reddit y un asistente de escritura de IA que estaba más cerca de la IA detrás de Google Smart Compose o Microsoft Outlook que de la autocorrección. Tanto Smart Compose como Outlook generan sugerencias automáticas sobre cómo continuar o completar una oración. Si bien este asistente no escribió el ensayo en sí, actuó como coautor que sugirió letras y frases. Aceptar una sugerencia solo requería un clic.

Para algunos, el asistente de IA estaba diseñado para sugerir palabras que finalmente resultarían en respuestas positivas. Para otros, estaba sesgado contra las redes sociales y generó respuestas negativas. (También hubo un grupo de control que no usó la IA en absoluto). Resultó que cualquiera que recibiera asistencia de la IA tenía el doble de probabilidades de seguir el sesgo integrado en la IA, incluso si su opinión inicial había sido diferente. Las personas que seguían viendo aparecer lenguaje tecno-optimista en sus pantallas tenían más probabilidades de decir que las redes sociales benefician a la sociedad, mientras que los sujetos que veían lenguaje tecno-pesimista tenían más probabilidades de argumentar lo contrario.



Source link-49