viernes, 20 de enero de 2023

Validez del bot ChatGPT

ChatGPT aparece como autor en trabajos de investigación: muchos científicos desaprueban. Nature  news 18 January 2023. Chris Stokel-Walker, Newcastle, UK.

Al menos cuatro artículos acreditan a la herramienta de IA como coautora, mientras los editores se esfuerzan por regular su uso.

El chatbot de inteligencia artificial (IA) ChatGPT que ha arrasado en todo el mundo ha hecho su debut formal en la literatura científica, acumulando al menos cuatro créditos de autoría en artículos publicados y preprints.

Los editores de revistas, investigadores y editores ahora están debatiendo el lugar de tales herramientas de IA en la literatura publicada, y si es apropiado citar al bot como autor. Los editores están compitiendo para crear políticas para el chatbot, que fue lanzado como una herramienta de uso gratuito en noviembre por la empresa de tecnología OpenAI en San Francisco, California.

AI bot ChatGPT escribe ensayos inteligentes: ¿deberían preocuparse los profesores?

ChatGPT es un modelo de lenguaje grande (LLM), que genera oraciones convincentes al imitar los patrones estadísticos del lenguaje en una enorme base de datos de texto recopilado de Internet. El bot ya está revolucionando sectores, incluido el académico: en particular, está planteando preguntas sobre el futuro de los ensayos universitarios y la producción de investigación.

Los editores y los servidores de preimpresión contactados por el equipo de noticias de Nature están de acuerdo en que las IA como ChatGPT no cumplen con los criterios para un autor de estudio, porque no pueden asumir la responsabilidad por el contenido y la integridad de los artículos científicos. Pero algunos editores dicen que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. En un caso, un editor le dijo a Nature que ChatGPT había sido citado como coautor por error y que la revista lo corregiría.

Autor artificial

ChatGPT es uno de los 12 autores en una preimpresión sobre el uso de la herramienta para la educación médica, publicado en el repositorio médico medRxiv en diciembre del año pasado.

El equipo detrás del repositorio y su sitio hermano, bioRxiv, están discutiendo si es apropiado usar y acreditar herramientas de inteligencia artificial como ChatGPT al escribir estudios, dice el cofundador Richard Sever, director asistente de prensa del Laboratorio Cold Spring Harbor en Nueva York. Las convenciones podrían cambiar, agrega.

Dice Server: “Necesitamos distinguir el rol formal de un autor de un manuscrito académico de la noción más general de un autor como escritor de un documento. Los autores asumen la responsabilidad legal de su trabajo, por lo que solo deben incluirse personas". “Por supuesto, las personas pueden tratar de colarse, esto ya sucedió en medRxiv, al igual que las personas han enumerado mascotas, personas ficticias, etc. como autores en artículos de revistas en el pasado, pero eso es un problema de control más que un problema de política.

Un editorial en la revista Nurse Education in Practice este mes acredita a la IA como coautora, junto con Siobhan O'Connor, investigadora de tecnología de la salud en la Universidad de Manchester, Reino Unido. Roger Watson, editor en jefe de la revista, dice que este crédito se deslizó por error y pronto será corregido. “Eso fue un descuido de mi parte”, dice, porque las editoriales pasan por un sistema de gestión diferente al de los artículos de investigación.....

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires. R. Argentina