lunes, 3 de junio de 2024

1068- Infiltración de los ChatBots en publicaciones científicas

Chris Stokel-Walker. "Los chatbots con IA se han infiltrado completamente en las publicaciones científicas" . Elsevier- Scientific American  MAY 1, 2024. Freelance journalist in Newcastle, UK.

Resument-ChatGPT 

En el artículo "Los chatbots con IA se han infiltrado completamente en las publicaciones científicas" publicado en Scientific American, los autores profundizan en la creciente presencia de los chatbots con IA en el ámbito de esas publicaciones. Estos chatbots, impulsados ​​por algoritmos de inteligencia artificial, están revolucionando varios aspectos del proceso de publicación, desde el envío de manuscritos hasta la revisión por pares e incluso la participación de los lectores.

El artículo destaca cómo los chatbots de IA agilizan el proceso de envío al ayudar a los autores a formatear sus manuscritos de acuerdo con las pautas de la revista y brindar comentarios en tiempo real sobre la calidad de la redacción. Además, ayudan a los editores y revisores al automatizar tareas como la detección de plagio y la verificación de referencias, acelerando así el proceso de revisión por pares.

Además, los chatbots de IA están mejorando la participación de los lectores a través de funciones como respuestas automáticas a consultas y recomendaciones personalizadas para artículos de investigación relevantes. Al aprovechar las tecnologías de procesamiento del lenguaje natural y aprendizaje automático, estos chatbots son capaces de comprender y responder consultas complejas, mejorando así la accesibilidad general del conocimiento científico.

Sin embargo, el artículo también reconoce algunos desafíos y limitaciones asociados con los chatbots de IA en las publicaciones científicas, como las preocupaciones sobre el sesgo en la toma de decisiones algorítmicas y la necesidad de una supervisión humana continua para garantizar la integridad y la conducta ética de la investigación.

En general, estae articulo arroja luz sobre el impacto transformador de la tecnología de IA en el campo de la comunicación científica, presagiando una nueva era de eficiencia, accesibilidad y colaboración en las publicaciones académicas......

Introducción

....." Los investigadores están haciendo un mal uso de ChatGPT y otros chatbots de inteligencia artificial para producir literatura científica. Al menos, ese es un nuevo temor que han planteado algunos científicos, citando un marcado aumento en los dogmas sospechosos de la IA que aparecen en los artículos publicados.

Algunos de estos indicios, como la inclusión inadvertida de "ciertamente, aquí hay una posible introducción para su tema" en un artículo reciente en Surfaces and Interfaces , una revista publicada por Elsevier, son evidencia razonablemente obvia de que un científico utilizó un chatbot de IA conocido como modelo de grandes lenguajes (LLM). Pero "probablemente esto sea sólo la punta del iceberg", dice la consultora de integridad científica Elisabeth Bik. (Un representante de Elsevier le dijo a Scientific American que el editor lamenta la situación y está investigando cómo podría haberse “pasado” del proceso de evaluación del manuscrito). En la mayoría de los demás casos, la participación de la IA no es tan clara, y los detectores de texto automatizados por IA son herramientas poco confiables para analizar un artículo.

Sin embargo, investigadores de varios campos han identificado algunas palabras y frases clave (como "complejas y multifacéticas”) que tienden a aparecer con más frecuencia en oraciones generadas por IA que en la típica escritura humana. "Cuando miras esto durante suficiente tiempo, te haces una idea del estilo", dice Andrew Gray, bibliotecario e investigador del University College de Londres.

Los LLM están diseñados para generar texto, pero lo que producen puede ser exacto o no. "El problema es que estas herramientas aún no son lo suficientemente buenas como para confiar en ellas", dice Bik. Sucumben a lo que los informáticos llaman alucinaciones; en pocas palabras, inventan cosas. "Específicamente, para artículos científicos", señala Bik, una IA "generará referencias de citas que no existen". Entonces, si los científicos confían demasiado en los LLM, los autores del estudio corren el riesgo de insertar fallas fabricadas por la IA en su trabajo, mezclando más posibilidades de error en la ya confusa realidad de las publicaciones científicas.

Gray recientemente buscó palabras de moda sobre IA en artículos científicos utilizando Dimensions, una plataforma de análisis de datos que, según sus desarrolladores, rastrea más de 140 millones de artículos en todo el mundo. Buscó palabras utilizadas desproporcionadamente por los chatbots, como "intrincado", "meticuloso" y "encomiable". Estas palabras indicadoras, dice, dan una mejor idea de la escala del problema que cualquier frase de IA “reveladora” que un autor torpe podría copiar en un artículo. Al menos 60.000 artículos que son alrededor del 1 por ciento de todos los artículos científicos publicados a nivel mundial el año pasado, pueden haber utilizado un LLM, según el análisis de Gray, que se publicaron en el servidor de preimpresión arXiv.org y aún no ha sido revisado por pares. Otros estudios que se centraron específicamente en subsecciones de la ciencia sugieren una dependencia aún mayor de los LLM. Una de esas investigaciones encontró que hasta el 17,5 por ciento de los artículos recientes sobre informática muestran signos de escritura por IA......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 08 de Junio. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina