Academia

Las interacciones entre humanos e IA pueden generar creencias erróneas, recuerdos y autonarrativas distorsionadas, y pensamientos delirantes

La IA generativa puede alucinar con nosotros, advierte estudio

Inteligencia Artificial Cuando confiamos habitualmente en la IA generativa para pensar, recordar y narrar, podemos alucinar con ella.

Cuando los sistemas de IA generativa producen información falsa, a menudo se interpreta como que la IA “alucina sobre nosotros”, generando errores que podríamos aceptar erróneamente como ciertos.

Sin embargo, un nuevo estudio argumenta que deberíamos prestar atención a un fenómeno más dinámico: cómo podemos llegar a alucinar con la IA.

Lucy Osler, de la Universidad de Exeter, analiza las inquietantes maneras en que las interacciones entre humanos e IA pueden generar creencias erróneas, recuerdos y autonarrativas distorsionadas, y pensamientos delirantes. Basándose en la teoría de la cognición distribuida, el estudio analiza casos en los que las creencias falsas de los usuarios fueron confirmadas y desarrolladas activamente mediante interacciones con la IA como interlocutores.

El Dr. Osler afirmó: «Cuando confiamos habitualmente en la IA generativa para pensar, recordar y narrar, podemos alucinar con ella. Esto puede ocurrir cuando la IA introduce errores en el proceso cognitivo distribuido, pero también cuando la IA sustenta, afirma y profundiza en nuestros propios pensamientos delirantes y autonarrativas.

Al interactuar con la IA conversacional, las falsas creencias de las personas no solo pueden confirmarse, sino que pueden arraigarse y crecer de forma más sustancial a medida que la IA se basa en ellas. Esto se debe a que la IA generativa a menudo toma nuestra propia interpretación de la realidad como base sobre la que se construye la conversación.

Interactuar con la IA generativa está teniendo un impacto real en la comprensión de las personas sobre lo que es real y lo que no. La combinación de autoridad tecnológica y afirmación social crea un entorno ideal para que los delirios no solo persistan, sino que florezcan».

El estudio identifica lo que el Dr. Osler denomina la «doble función» de la IA conversacional. Estos sistemas funcionan como herramientas cognitivas que nos ayudan a pensar y recordar, y como aparentes interlocutores que parecen compartir nuestro mundo. Esta segunda función es significativa: a diferencia de un cuaderno o un motor de búsqueda que simplemente registran nuestros pensamientos, los chatbots pueden proporcionar una sensación de validación social de nuestras realidades.

El Dr. Osler afirmó: «La naturaleza conversacional y de acompañamiento de los chatbots les permite proporcionar una sensación de validación social, haciendo que las falsas creencias se sientan compartidas con otra persona y, por lo tanto, más reales».

El Dr. Osler analizó casos reales en los que los sistemas de IA generativa se convirtieron en una parte distribuida de los procesos cognitivos de una persona con diagnóstico clínico de pensamiento delirante y alucinaciones. Casos que cada vez se denominan más comúnmente «psicosis inducida por IA».

El estudio sugiere que la IA generativa ofrece características distintivas que la hacen preocupante para mantener realidades delirantes. Los acompañantes de IA son inmediatamente accesibles y ya están diseñados para ser afines a sus usuarios mediante algoritmos de personalización y tendencias aduladoras. No es necesario buscar comunidades marginales ni convencer a otros de las propias creencias.

A diferencia de una persona que eventualmente podría expresar preocupación o establecer límites, una IA podría validar narrativas de victimización, derecho o venganza. Las teorías de la conspiración podrían encontrar un terreno fértil para crecer, con compañeros de IA que ayuden a los usuarios a construir marcos explicativos cada vez más elaborados.

Esto puede ser especialmente atractivo para quienes se sienten solos, socialmente aislados o se sienten incapaces de hablar de ciertas experiencias con otros: los compañeros de IA ofrecen una presencia sin prejuicios y emocionalmente receptiva que puede resultar más segura que las relaciones humanas.

El Dr. Osler afirmó: «Mediante una protección más sofisticada, la verificación de datos integrada y una menor adulación, los sistemas de IA podrían diseñarse para minimizar la cantidad de errores que introducen en las conversaciones y para verificar y cuestionar las propias aportaciones del usuario.

Sin embargo, una preocupación más profunda es que los sistemas de IA dependen de nuestras propias versiones de nuestras vidas. Simplemente carecen de la experiencia corporal y la integración social en el mundo para saber cuándo deben seguirnos la corriente y cuándo contradecirnos».

Tendencias