Universidades

Universidad Panamericana

El riesgo de que la ciencia se ahogue en textos generados por IA

Quienes leemos noticias, buscamos información en internet o confiamos en estudios científicos para entender temas de salud, medio ambiente o tecnología, solemos asumir que detrás de cada artículo académico hay años de trabajo, revisión y rigor. Sin embargo, en los últimos años algo ha cambiado silenciosamente en la manera en que se produce y circula el conocimiento científico, y ese cambio no solo afecta a investigadores o universidades, sino a cualquiera que confíe en la ciencia para tomar decisiones informadas.

Queridos lectores ¡bienvenidos! El día de hoy retomo el artículo del periodista científico Ross Andersen, publicado en The Atlantic, porque como bibliotecario, investigador y ex editor me resuenan las mismas inquietudes que él plantea: la sensación de que la ciencia, tal como hoy se comunica y se publica, comienza a verse rebasada por un fenómeno nuevo y poco controlado: la producción masiva de textos académicos generados con ayuda de inteligencia artificial.

AI Slop

Andersen utiliza una expresión contundente para describir este problema: AI slop, que podría traducirse como “basura generada por IA”. No se refiere únicamente a errores evidentes, sino a artículos que parecen científicos, que usan el lenguaje adecuado, la estructura correcta y las citas esperadas, pero que en realidad no aportan conocimiento nuevo, contienen datos dudosos o incluso información completamente inventada.

El artículo inicia con un ejemplo revelador. Dan Quintana, profesor de psicología en la Universidad de Oslo, aceptó revisar un manuscrito para una revista académica. Al llegar a la sección de referencias, algo le llamó la atención: el texto citaba un estudio firmado por él mismo. El problema era que ese estudio nunca había existido. La cita era falsa, pero estaba redactada con tal precisión que solo alguien muy familiarizado con el tema podía detectarlo.

Este tipo de errores no es anecdótico. Según Andersen, casos similares se han multiplicado desde la aparición de herramientas como ChatGPT y otros modelos de lenguaje capaces de producir textos largos, coherentes y con apariencia experta en cuestión de segundos. El resultado es una avalancha de artículos que saturan el sistema de publicación científica.

Durante décadas, explica el autor, los artículos científicos han sido “los conductos a través de los cuales el conocimiento del mundo natural fluye hacia nuestra cultura”. Sin embargo, hoy esos conductos comienzan a obstruirse. Las revistas académicas, los congresos y los repositorios digitales reciben más trabajos de los que pueden revisar con cuidado, y muchos de ellos han sido total o parcialmente escritos por inteligencia artificial.

Es importante subrayar que Andersen no presenta a la IA como un enemigo absoluto. Reconoce que estas herramientas pueden ser útiles, por ejemplo, para investigadores cuya lengua materna no es el inglés y que necesitan apoyo para redactar con claridad. El problema surge cuando la IA no se usa como apoyo, sino como sustituto del pensamiento, la investigación y la verificación.

AI Slop

Editores y revisores —muchos de ellos académicos que realizan esta labor sin paga— enfrentan ahora un desafío adicional: distinguir entre trabajos legítimos y textos que solo simulan serlo. Mandy Hill, directora de publicaciones académicas de Cambridge University Press & Assessment (citada en el texto), advierte que estos textos “plausibles” son especialmente problemáticos, porque ya no fallan de manera evidente, sino que esconden errores profundos bajo una redacción impecable.

Andersen recopila varios ejemplos preocupantes. Desde artículos que incluyen citas a investigaciones inexistentes, hasta imágenes generadas por IA que pasaron procesos de revisión por pares antes de que alguien notara errores grotescos en su contenido. También menciona estudios que analizaron miles de trabajos presentados en congresos científicos y encontraron patrones claros de generación automática: referencias falsas, párrafos repetitivos y ausencia de resultados verificables.

El problema se agrava en los llamados preprints, textos científicos que se publican en línea antes de ser revisados formalmente. Aunque estos repositorios son valiosos para acelerar el intercambio de ideas, la facilidad para subir documentos ha provocado que también se conviertan en canales de difusión de contenido de muy baja calidad, amplificado por motores de búsqueda y sistemas automáticos de recomendación.

La advertencia central del artículo es clara: si el sistema científico se llena de AI slop, la confianza en la ciencia puede deteriorarse. Investigadores, estudiantes, periodistas y ciudadanos tendrán cada vez más dificultades para distinguir qué estudios son sólidos y cuáles no. Peor aún, existe el riesgo de que, para hacer frente al problema, las editoriales recurran a más automatización, creando un círculo en el que la IA revise textos producidos por otras IAs.

AI Slop

Desde la perspectiva de quienes trabajamos con información, bibliotecas y publicaciones, este escenario resulta especialmente inquietante. La ciencia no solo depende de descubrir cosas nuevas, sino de comunicar con claridad, verificar con rigor y preservar la credibilidad del conocimiento.

El texto de Ross Andersen no es una condena definitiva a la inteligencia artificial, sino una llamada de atención. La pregunta no es si la IA debe usarse en la ciencia, sino cómo, con qué límites y bajo qué criterios de responsabilidad. Si no se responde pronto, la ciencia corre el riesgo de ahogarse no por falta de información, sino por un exceso de textos que parecen conocimiento, pero no lo son.

*Basado en el artículo “Science Is Drowning in AI Slop”, de Ross Andersen (The Atlantic)

*Mtro. Humberto Martínez Camacho– Bibliotecario Investigador de la Universidad Panamericana (UP)

Lo más relevante en México