Artículos de investigación falsos debido al uso de la IA

Imagen en Pixabay
La inteligencia artificial, especialmente los modelos de lenguaje generativo, está cambiando radicalmente cómo se hace y se publica una investigación académica, pero no siempre de forma positiva.
Según un reportaje de Rolling Stone, hay un problema creciente con artículos o referencias que nunca debieron existir al ser generados o facilitados por herramientas IA y que, además, están siendo citados en revistas académicas reales.
Esto plantea una amenaza directa a la integridad de la investigación y la confianza en el conocimiento científico.
El centro del problema son los llamados “hallazgos” o citas ficticias. Se trata de estudios, autores y hasta revistas que no existen en realidad, pero que se presentan con apariencia legítima en trabajos académicos.
Estas referencias falsas no son simples errores tipográficos, de hecho parecen lo bastante plausibles como para engañar a lectores, revisores y, en algunos casos, incluso sistemas automatizados de revisión. Después son citadas por otros artículos, lo que crea un ecosistema de desinformación académica que se propaga y se refuerza a sí mismo.
Este fenómeno es especialmente grave porque la investigación científica se basa en un sistema de referencias encadenadas. Así, los trabajos posteriores dependen de los anteriores como base para construir nuevo conocimiento. Si esas bases están corroídas por fuentes inexistentes, toda la base académica corre riesgo de debilitarse.
Lo que distingue esta ola de falsificaciones es que a menudo no se detecta de inmediato. Muchas de estas referencias falsas son tan convincentes que pueden integrar nombres de investigadores reales, títulos que suenan plausibles y revistas que existen, aunque la combinación específica nunca haya sido publicada. Esto dificulta su identificación, incluso para revisores humanos experimentados.
Las causas de este fenómeno son múltiples. Por un lado, los modelos de IA no acceden a bases de datos académicas en tiempo real ni verifican la existencia de cada cita, sino que generan texto en función de patrones aprendidos durante el entrenamiento. Esto los hace propensos a “alucinar” información que parece real pero que no lo es, un comportamiento ya bien documentado en la literatura sobre IA.
Por otro lado, hay dinámicas estructurales dentro del mundo académico que pueden exacerbar el problema. Una de ellas es la enorme presión por publicar (el llamado ‘publish or perish’; “publicar o perecer”), la proliferación de revistas con revisiones superficiales, y el uso creciente de IA sin prácticas robustas de verificación humana.
Todo esto contribuye a una situación en la que artículos con contenido fabricado pueden pasar desapercibidos y entrar en el registro oficial de la ciencia. Frente a esta amenaza, la comunidad académica está comenzando a revisar sus prácticas editoriales y de revisión por pares.
Algunos proponen herramientas automáticas que detecten textos generados por IA o referencias inventadas; otros sugieren cambios en las políticas de publicación para exigir mayor transparencia en el uso de IA.
No obstante, la solución no parece simple y requerirá cooperación entre editores, revisores y desarrolladores de tecnología para proteger la fiabilidad de la investigación científica en la era de la IA.




