Los científicos creen que es "poco probable" que la comunidad utilice esa herramienta

ChatGPT, lo último en IA para escribir textos científicos
Los investigadores rechazan los textos científicos escritos por ChatGPT, una tecnología basada en Inteligencia Artificial.


22 ene. 2023 16:00H
SE LEE EN 5 minutos
Sin plagios detectados en los artículos científicos escritos por ChatGPT, una tecnología basada en inteligencia artificial (IA) para resumir textos escritos por investigadores, según una preimpresión publicada en el servidor bioRxiv a finales de diciembre. Y es que los resúmenes generados por ChatGPT navegaron a través del verificador de plagio, logrando una puntuación del cien por cien en la mediana de originalidad, lo que significa que no se detectó plagio alguno.

El ChatGPT trata de un chatbot de inteligencia artificial que puede escribir resúmenes de trabajos de investigación falsos “tan convincentes” que los científicos a menudo no pueden detectarlos, recalcan en Nature. A su vez, la comunidad científica incide en que la nueva herramienta crea textos “realistas e inteligentes” en respuesta a las indicaciones del usuario.

Una herramienta de uso gratuito que vio la luz el pasado 30 de noviembre por la empresa de software OpenAI, con sede en San Francisco (California, EEUU). Es un “modelo de lenguaje grande”, un sistema basado en redes neuronales que aprenden a realizar una tarea al digerir grandes cantidades de texto existente generado por humanos.

Los investigadores le pidieron al chatbot que escribiera 50 resúmenes de investigación médica basados en una selección publicada en JAMA, The New England Journal of Medicine, The BMJ, The Lancet y Nature Medicine. Luego los compararon con los resúmenes originales al pasarlos por un detector de plagio y un detector de salida de inteligencia artificial, y le pidieron a un grupo de investigadores médicos que detectaran los resúmenes fabricados.

El detector de salida de IA detectó el 66 por ciento de los resúmenes generados. Pero los revisores humanos no lo hicieron mucho mejor: identificaron correctamente solo el 68 por ciento de los resúmenes generados y el 86 por ciento de los resúmenes genuinos. Identificaron incorrectamente el 32 por ciento de los resúmenes generados como reales y el 14 por ciento de los resúmenes genuinos como generados.


Respuesta de los científicos


Desde su lanzamiento, los investigadores han estado lidiando con los problemas éticos que rodean su uso, porque gran parte de su producción puede ser difícil de distinguir del texto escrito por humanos. Los científicos han publicado una preimpresión y un editorial escritos por ChatGPT. Ahora, un grupo dirigido por Catherine Gao en la Universidad Northwestern en Chicago (Illinois, EEUU) ha utilizado ChatGPT para generar resúmenes de trabajos de investigación artificiales para probar si los científicos pueden detectarlos.

“Estoy muy preocupada”, dice Sandra Wachter, quien estudia tecnología y regulación en la Universidad de Oxford (Reino Unido). “Si ahora estamos en una situación en la que los expertos no pueden determinar qué es cierto o no, perdemos al intermediario que necesitamos desesperadamente para guiarnos en temas complicados”, agrega.

“ChatGPT escribe resúmenes científicos creíbles”, dicen Gao y sus colegas en la preimpresión. “Quedan por determinarse los límites del uso ético y aceptable de grandes modelos lingüísticos para ayudar a la redacción científica”, añaden.

A su vez, Wachter recalca que si los científicos no pueden determinar si la investigación es cierta, podría haber "consecuencias nefastas". Además de ser problemático para los investigadores, que podrían verse arrastrados por rutas de investigación defectuosas, porque la investigación que están leyendo ha sido fabricada, existen "implicaciones para la sociedad en general porque la investigación científica juega un papel muy importante en nuestra sociedad". Por ejemplo, podría significar que las decisiones políticas basadas en la investigación sean incorrectas, agrega.


“Poco probable” que lo usen los investigadores


Arvind Narayanan, científico informático de la Universidad de Princeton en Nueva Jersey, dice: "Es poco probable que algún científico serio use ChatGPT para generar resúmenes". Agrega que si los resúmenes generados pueden detectarse es "irrelevante". “La pregunta es si la herramienta puede generar un resumen que sea preciso y convincente. No puede, por lo que la ventaja de usar ChatGPT es minúscula y la desventaja es significativa”, dice.

Irene Solaiman, que investiga el impacto social de la IA en Hugging Face, una empresa de IA con sede en Nueva York y París, teme que se dependa de grandes modelos de lenguaje para el pensamiento científico. “Estos modelos están entrenados en información pasada y el progreso social y científico a menudo puede provenir de pensar, o estar abierto a pensar, de manera diferente al pasado”, agrega.


Establecer reglas para su uso


Los autores sugieren que aquellos que evalúan las comunicaciones científicas, como los trabajos de investigación y las actas de congresos, deberían implementar políticas para acabar con el uso de textos generados por IA. Si las instituciones eligen permitir el uso de la tecnología en ciertos casos, deben establecer reglas claras sobre la divulgación. A principios de este mes, la Cuadragésima Conferencia Internacional sobre Aprendizaje Automático, una gran conferencia de IA que se llevará a cabo en Honolulu (Hawái) en julio, anunció que prohibió los artículos escritos por ChatGPT y otras herramientas de lenguaje de IA.

Solaiman agrega que en campos donde la información falsa puede poner en peligro la seguridad de las personas, como la medicina, es posible que las revistas deban adoptar un enfoque más riguroso para verificar que la información sea precisa.

Narayanan dice que las soluciones a estos problemas no deben centrarse en el chatbot en sí, "sino en los incentivos perversos que conducen a este comportamiento, como las universidades que realizan revisiones de contratación y promoción contando trabajos sin tener en cuenta su calidad o impacto".
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.