ChatGPT no puede acreditarse como autor, dice la editorial académica más grande del mundo


Springer Nature, la editorial académica más grande del mundo, ha aclarado sus políticas sobre el uso de herramientas de escritura de IA en artículos científicos. La empresa anunciado esta semana que software como ChatGPT no puede ser acreditado como autor en artículos publicados en sus miles de revistas. Sin embargo, Springer dice que no tiene ningún problema con los científicos que usan IA para ayudar a escribir o generar ideas para la investigación, siempre que los autores divulguen adecuadamente esta contribución.

“Nos sentimos obligados a aclarar nuestra posición: para nuestros autores, para nuestros editores y para nosotros mismos”, Magdalena Skipper, editora en jefe de la publicación insignia de Springer Nature, Naturalezadice el borde. “Esta nueva generación de herramientas LLM, incluido ChatGPT, realmente se ha expandido en la comunidad, que está emocionada y jugando con ellas, pero [also] usándolos de maneras que van más allá de cómo se pueden usar genuinamente en la actualidad”.

ChatGPT y los modelos de lenguaje grande (LLM) anteriores ya han sido nombrados como autores en un pequeño número de artículos publicados, preprints y artículos científicos. Sin embargo, la naturaleza y el grado de contribución de estas herramientas varían según el caso.

en una opinion artículo publicado en la revista oncociencia, ChatGPT se usa para argumentar a favor de tomar una determinada droga en el contexto de la apuesta de Pascal, con el texto generado por IA claramente etiquetado. pero en un papel preimpreso Al examinar la capacidad del bot para aprobar el Examen de licencia médica de los Estados Unidos (USMLE), el único reconocimiento de la contribución del bot es una oración que dice que el programa «contribuyó a la redacción de varias secciones de este manuscrito».

Acreditar a ChatGPT como autor es «absurdo» y «profundamente estúpido», dicen algunos investigadores

En el último documento de preimpresión, no hay más detalles sobre cómo o dónde se utilizó ChatGPT para generar texto. (el borde contactó a los autores pero no recibió respuesta a tiempo para la publicación). Sin embargo, el director ejecutivo de la compañía que financió la investigación, la startup de atención médica Ansible Health, argumentó que el bot hizo contribuciones significativas. “La razón por la que enumeramos [ChatGPT] como autor fue porque creemos que en realidad contribuyó intelectualmente al contenido del artículo y no solo como un tema para su evaluación”, dijo Jack Po, CEO de Ansible Health. dicho futurismo.

La reacción en la comunidad científica a los artículos que acreditan a ChatGPT como autor ha sido predominantemente negativa, con los usuarios de las redes sociales. llamando a la decisión en el caso USMLE, «absurdo», «tonto» y «profundamente estúpido».

Los argumentos en contra de otorgar la autoría de la IA son que el software simplemente no puede cumplir con los deberes requeridos, como explican Skipper y Springer Nature. “Cuando pensamos en la autoría de artículos científicos, de artículos de investigación, no solo pensamos en escribirlos”, dice Skipper. “Hay responsabilidades que se extienden más allá de la publicación y, ciertamente, en este momento, estas herramientas de inteligencia artificial no son capaces de asumir esas responsabilidades”.

El software no puede ser significativamente responsable de una publicación, no puede reclamar derechos de propiedad intelectual por su trabajo y no puede comunicarse con otros científicos y la prensa para explicar y responder preguntas sobre su trabajo.

Sin embargo, si existe un amplio consenso sobre acreditar a AI como autor, hay menos claridad sobre el uso de herramientas de AI para escribe un papel, incluso con el debido reconocimiento. Esto se debe en parte a problemas bien documentados con el resultado de estas herramientas. El software de escritura de IA puede amplificar los sesgos sociales como el sexismo y el racismo y tiene una tendencia a producir «tonterías plausibles»: información incorrecta presentada como un hecho. (Véase, por ejemplo, CNETEl uso reciente de herramientas de inteligencia artificial para escribir artículos. La publicación posterior encontró errores en más de la mitad de los publicados).

Debido a problemas como estos, algunas organizaciones han prohibido ChatGPT, incluidas escuelas, universidades y sitios que dependen de compartir información confiable, como programar el repositorio de preguntas y respuestas Stack Overflow. A principios de este mes, una importante conferencia académica sobre aprendizaje automático prohibió el uso de todas las herramientas de IA para escribir artículos, aunque decía que los autores podían usar dicho software para «pulir» y «editar» su trabajo. Exactamente dónde se traza la línea entre escribir y editar es complicado, pero para Springer Nature, este caso de uso también es aceptable.

“Nuestra política es bastante clara al respecto: no prohibimos su uso como herramienta para escribir un artículo”, dice Skipper. el borde. “Lo fundamental es que haya claridad. Acerca de cómo se arma un papel y qué [software] se usa Necesitamos transparencia, ya que se encuentra en el corazón mismo de cómo se debe hacer y comunicar la ciencia”.

Esto es particularmente importante dada la amplia gama de aplicaciones para las que se puede utilizar la IA. Las herramientas de IA no solo pueden generar y parafrasear texto, sino también iterar el diseño de experimentos o usarse para intercambiar ideas, como un compañero de laboratorio de máquinas. El software impulsado por IA como Semantic Scholar se puede usar para buscar trabajos de investigación y resumir su contenido, y Skipper señala que otra oportunidad es usar herramientas de escritura de IA para ayudar a los investigadores para quienes el inglés no es su primer idioma. “Puede ser una herramienta de nivelación desde esa perspectiva”, dice ella.

Skipper dice que prohibir las herramientas de IA en el trabajo científico sería ineficaz. “Creo que podemos decir con seguridad que las prohibiciones absolutas de cualquier cosa no funcionan”, dice ella. En cambio, dice, la comunidad científica, incluidos investigadores, editores y organizadores de conferencias, debe unirse para elaborar nuevas normas de divulgación y medidas de seguridad.

“Nos corresponde a nosotros como comunidad centrarnos en los usos positivos y el potencial, y luego regular y frenar los posibles usos indebidos”, dice Skipper. “Soy optimista de que podemos hacerlo”.





Source link-37