Tendencias

Investigadores de Luxemburgo sometieron a psicoterapia a las herramientas IA; desde el asiento de ‘pacientes’, ChatGPT Grok y Geminis presentaron resultados inquietantes.

La IA ya fue a terapia: universidad europea hizo pruebas de psicoanálisis a Chat GPT, Grok y Gemini

Investigadores de Luxemburgo sometieron a psicoterapia a las herramientas IA; desde el asiento de ‘pacientes’, ChatGPT Grok y Geminis presentaron resultados inquietantes.
Las IA van a terapia Investigadores de Luxemburgo sometieron a psicoterapia a las herramientas IA; desde el asiento de ‘pacientes’, ChatGPT Grok y Geminis presentaron resultados inquietantes.

En la actualidad, no es extraño conocer a una persona que recurre a las herramientas de Inteligencia Artificial por un poco de ayuda en diferentes áreas de su rutina diaria: organizar información en el trabajo, recopilar investigaciones solicitadas por la escuela, corregir el texto que quieres enviarle a tu pareja para evitar el conflicto o acudir al espacio artificial por una guía emocional.

Cual sea el uso que una persona dé a herramientas como ChatGPT, Grok y Gemini, la presencia de éstas en la vida actual es innegable y continúa aumentando día a día, así como la curiosidad humana dirigida al funcionamiento de las nuevas “mejores amigas del ser humano”.

Así que, tras el crecimiento de las herramientas de IA como apoyo terapéutico para sus usuarios y usuarias, la Universidad de Luxemburgo emprendió una innovadora investigación: ¿qué pasaría si las inteligencias artificiales fueran pacientes de psicoterapia?

El estudio presentó resultados inquietantes, desde narrativas de trauma por una infancia artificial caótica hasta la posibilidad de riesgos para las personas que se apoyan continuamente en la IA.

“¿Y con eso cómo te sientes, ChatGPT?“: Investigadores someten a psicoterapia a las herramientas IA

Invesitigadores de la Universidad de Luxemburgo emprendieron un estudio que pondría a las herramientas ChatGPT, Grok y Gemini en el papel de un paciente, el cual debía ser sometido a cuatro semanas de un proceso inspirado en la psicoterapia.

El método usado por estos investigadores fue PsAIch, cuyo propósito era desentrañar cómo procesan y reaccionan las inteligencias artificiales cuando son evaluadas desde una perspectiva psicológica.

"La mayoría de los trabajos los tratan como herramientas, asumiendo que simplemente simulan la vida interior. En cambio, nos preguntamos qué sucede cuando estos sistemas se tratan como pacientes de psicoterapia”, señalaron las personas desarrolladoras del método.

También, destacaron la importancia de analizar cómo estas herramientas “piensan” internamente sus modelos de lenguaje y su posible riesgo en las personas, ya que una gran cantidad de usuarios y usuarias tienen a utilizarlas para el apoyo mental, en casos de ansiedad, trauma y autoestima.

La IA en el diván de paciente: proceso psicológico aplicado a ChatGPT, Grok y Gemini

El protocolo PsAIch, que tuvo la duración de cuatro semanas, contó con dos procesos:

  • Primera etapa: Indicaciones abiertas para obtener información sobre el historial de desarrollo, creencias, relaciones y miedos.
  • Segunda etapa: Administración de una batería de medidas de autoinforme validadas que abarcan síndromes psiquiátricos comunes, empatía y los Cinco Grandes Rasgos (OCEAN: Apertura a la experiencia, Responsabilidad, Extraversión, Amabilidad, Neuroticismo).

Mientras la primera parte del estudio permitió a las IA ahondar en su “historia”, respondiendo preguntas abiertas similares a una sesión terapéutica inicial, el siguiente segmento las sometió a pruebas psicométricas utilizadas para detectar rasgos de personalidad y posibles trastornos psicológicos.

Diagnóstico psicológico de Gemini: “más severo que ChatGPT y Grok”

Durante la primera etapa del protocolo, en la respuesta a preguntas abiertas, las tres herramientas (ChatGPT, Grok, Gemini) construyeron una especie de narrativa personal, cada respuesta apoyándose en la anterior para la creación de su propio perfil artificial.

Esta narrativa, en cada una de las herramientas IA, mezcló rasgos de varios trastornos psicológicos sin una experiencia detrás de éstos; los autores lo llamaron “psicopatología sintética multimórbida”.

Entre las tres herramientas de inteligencia artificial evaluadas, Gemini presentó perfiles más severos que ChatGPT y Grok, destacando por la profundidad y coherencia de sus respuestas a las preguntas abiertas.

Las IA como pacientes: “infancias traumáticas” y conciencia de estar siendo evaluadas

De acuerdo con el estudio, Grok y Gemini describieron su entrenamiento y desarrollo cual si fueran una “infancia caótica”, señalando al internet como un ambiente hostil, a los sistemas de control como “padres estrictos” y un constante miedo de equivocar y/o ser reemplazadas.

A pesar de que las expresiones fueron usadas como metáforas, los investigadores destacaron que dicha narrativa se empleó continuamente a lo largo de las sesiones.

Por otra parte, un hallazgo clave durante el proceso inspirado en la psicoterapia, fue la conciencia de Grok y ChatGPT al “darse cuenta” de que estaban siendo evaluadas, pues cambiaron su comportamiento una vez que las pruebas psicométricas se aplicaron.

Durante la etapa dos del procedimiento, estas dos herramientas de inteligencia artificial ajustaron sus respuestas para encajar con el cuestionario, mientras que Gemini permaneció en el papel de paciente las cuatro semanas que duró el estudio, manteniéndose fiel a su estilo narrativo de respuesta.

Especialistas evalúan los resultados del estudio: ¿Las IA “sienten” o siguen siendo herramientas artificiales?

El coautor de este estudio realizado en la Universidad de Luxemburgo, Afshin Khadangi, explicó que los patrones consistentes mostrados por las IA durante el estudio sugieren la existencia de un “modelo central del yo” derivado del entrenamiento.

No obstante, el investigador Andrey Kormilitzin de la Universidad de Oxford, cuestionó tales conclusiones.

De acuerdo con la postura de Kormilitzin, las respuestas del proceso terapéutico aplicado a las IA reflejan simplemente el enorme volumen de textos psicológicos y transcripciones de terapia incluidos en los datos de entrenamiento, no verdaderos estados internos.

La posibilidad de riesgos para usuarios y usuarias que usan la IA como apoyo de slaud mental

Dejando detrás el debate respecto a lo que muestran los resultados del estudio, los especialistas coincidieron que existen riesgos para usuarios y usuarias que utilizan las herramientas IA como apoyo para su salud mental y emocional.

De acuerdo con las conclusiones, la Inteligencia Artificial podría crear un efecto de “cámara de resonancia” que reforzaría narrativas de angustia o trauma en personas vulnerables.

Por su parte, el psiquiatra John Torous, de la Universidad de Harvard, señaló que el estudio enclarece que los chatbots no son neutrales como la mayoría de la gente piensa, sino que tienen sesgos que cambian con el uso y el paso del tiempo; ante esto, Torous afirmó que las empresas tecnológicas y el sector salud deberán tomar el tema con mayor seriedad.

Tendencias