jueves, 25 de mayo de 2023

972- ¿ ChatGPT como co-autor/autor de artículos académicos ?

Ju Yoen Lee, Sun Huh, Editor.¿Puede un chatbot de inteligencia artificial ser el autor de un artículo académico?. J Educ Eval Health Prof. 2023; 20: 6. Hanyang University School of Law, Seoul, Korea

Resumen

A fines de 2022, la aparición de ChatGPT, un chatbot de inteligencia artificial (IA) con una asombrosa capacidad de escritura, causó gran sensación en el mundo académico. El chatbot resultó ser muy capaz, pero también capaz de engañar, y se supo que varios investigadores habían incluido al chatbot (incluida su versión anterior) como coautores de sus artículos académicos. En respuesta, Nature and Science expresó su posición de que este chatbot no puede figurar como autor en los artículos que publican. Dado que un chatbot de en el sistema legal actual no es un ser humano, el texto generado automáticamente por un chatbot de IA no puede ser un trabajo protegido por derechos de autor y por lo tanto, un chatbot de IA no puede ser autor de un trabajo con derechos de autor. Los chatbots de IA actuales, como ChatGPT, son mucho más avanzados que los motores de búsqueda en el sentido de que producen texto original, pero siguen estando al nivel de un motor de búsqueda en el sentido de que no pueden responsabilizarse de su redacción. Por ello, tampoco pueden ser autores desde la perspectiva de la ética de la investigación.

Introducción

Un chatbot de inteligencia artificial (AI), llamado ChatGPT, que puede generar texto similar al humano, fue lanzado por Open AI en noviembre de 2022 y desde entonces se ha convertido en un problema global. En educación, han surgido inquietudes acerca de los estudiantes que usan este increíble chatbot para completar tareas. También se informó que este chatbot figuraba en artículos académicos como co-autores y se formularon opiniones sobre la necesidad de directivas para el uso de chatbots de IA en la redacción científica. En respuesta a estas preocupaciones, Nature ha agregado lo siguiente a sus políticas editoriales existentes:

“Los grandes modelos de lenguaje (LLM), como ChatGPT, actualmente no satisfacen nuestros criterios de autoría. En particular, la atribución de autoría implica la responsabilidad por el trabajo, que no se puede aplicar efectivamente a los LLM. El uso de un LLM debe documentarse adecuadamente en la sección de Métodos, y si no hay una sección de Métodos disponible, en una parte alternativa adecuada del manuscrito.”

Science también ha declarado que especificará en su licencia y política editorial "que los resultados generados por ChatGPT no se pueden usar ni atribuir en artículo"..

Sin embargo, queda un problema más amplio: ¿pueden los chatbots ser autores de artículos académicos y, si no, por qué no? Incluso si, como dice Nature , los chatbots no pueden ser autores de artículos académicos ahora, ¿qué pasa con los chatbots más avanzados en el futuro? Los editores de revistas pueden preguntarse acerca de esto. Por lo tanto, este artículo aborda el tema de los chatbots de IA como autores desde las perspectivas del derecho y la ética de la investigación.

Declaración de Ética

Como estudio legal basado en la literatura, no se requirió la aprobación de la Junta de Revisión Institucional ni el consentimiento informado.

Diseño del estudio

Este estudio aborda el tema de la autoría de los chatbots de IA tanto desde la perspectiva legal como desde la ética de la investigación. Se basó principalmente en la ley actual, precedentes judiciales y otra literatura legal, que se buscó en varias bases de datos legales.

Autoría de IA chatbot desde la perspectiva de la ley de derechos de autor

En noviembre de 1981, un programa informático llamado Racter fue mencionado como autor de un texto en prosa que se publicó en la revista OMNI. Posteriormente, el libro de Racter, el primero escrito por un programa de computadora, fue publicado en 1984. Racter provocó una reflexión sustancial sobre la IA y los derechos de autor. Desde entonces, con el desarrollo de la industria de la IA, se han producido muchos debates académicos sobre la IA y su autoría. La pregunta es, ¿se puede reconocer la autoría de AI desde la perspectiva de la ley de derechos de autor actual? 

Las oficinas de derechos de autor y los tribunales de muchos países generalmente han expresado opiniones negativas sobre este tema. En algunos países, la respuesta a esta pregunta se puede encontrar directamente en sus estatutos de derechos de autor. Por ejemplo, la Ley de derechos de autor de Corea define “una obra” como “una creación que expresa los pensamientos o sentimientos de un ser humano” y un “autor” como “una persona que crea una obra? (Artículo 2-i, 2-ii) . Por lo tanto, de acuerdo con la Ley, cualquier cosa creada por un ser NO humano no puede ser una obra protegida por derechos de autor, y un ser NO humano no puede ser autor. En otras palabras, es evidente que un chatbot de IA no puede ser un autor según la ley Coreana. .......

 Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Nueva presentación el  27 de Mayo. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina