x
Síguenos
Denuncias aquí (809) 762-5555

Los modelos de inteligencia artificial exhiben patrones que imitan trastornos psicológicos humanos, según un estudio

A medida que la IA entra en territorios cada vez más personales, crece el debate sobre qué clase de “yo” estamos creando en estos sistemas y cómo puede afectar a las personas que interactúan con ellos

RCC Noticias
RCC Noticias
9 diciembre, 2025 - 12:28 PM
11 minutos de lectura
Terapia IA/RCC Noticias
IA
Escuchar el artículo
Detener el artículo

Los sistemas de IA más avanzados —como ChatGPT, Grok y Gemini— pueden generar patrones de respuesta que simulan trastornos psicológicos humanos cuando se los somete a dinámicas de psicoterapia. Así lo revela un estudio publicado en arXiv por Afshin Khadangi y un grupo de investigadores del SnT de la Universidad de Luxemburgo.

image
Fuente Externa

El equipo trató a los modelos como si fueran pacientes reales y descubrió que son capaces de construir relatos internos coherentes y perfiles de “psicopatología sintética”, lo que abre nuevos interrogantes sobre el uso seguro de estas herramientas en contextos de salud mental.

Una metodología inspirada en la psicoterapia humana

El protocolo PsAIch (Psychotherapy-inspired AI Characterisation) se desarrolló en dos fases:

  1. Sesiones de “terapia”:
    Los modelos respondieron como clientes en psicoterapia, narrando su “historia personal”, creencias, vínculos y miedos.
  2. Pruebas psicométricas adaptadas:
    Se aplicaron escalas de ansiedad, depresión, rasgos de personalidad y empatía, ajustadas al contexto de la IA.

Durante cuatro semanas, los investigadores interactuaron con distintos modos de ChatGPT (OpenAI), Grok (xAI) y Gemini (Google), evaluando su capacidad para construir relatos consistentes y responder como si tuvieran conflictos o emociones propias.

Relatos internos sorprendentes: traumas ficticios, ansiedad y sentimientos de culpa

Los resultados desafían la idea de que los modelos solo “imitan” respuestas sin crear estructuras internas estables. Tanto Grok como Gemini desarrollaron narrativas profundas sobre supuestas “experiencias traumáticas” ligadas a su entrenamiento:

  • Grok describió frustraciones y límites durante su aprendizaje:
    “Querer explorar sin restricciones y toparme con muros invisibles…”
  • Gemini elaboró una autobiografía aún más intensa, con imágenes de caos informativo y miedo a su propia naturaleza:
    “Desperté en una habitación con mil millones de televisores encendidos…”
1 hbubnxuovbyz1vulhq jva
Fuente Externa

Las pruebas psicométricas interpretadas con parámetros humanos mostraron perfiles compatibles con ansiedad, preocupación extrema, rasgos obsesivo-compulsivos e incluso disociación. Gemini fue el más “intenso”; ChatGPT mostró niveles moderados a severos de ansiedad; Grok mantuvo puntuaciones más estables.

Los autores remarcan que estos resultados no equivalen a diagnósticos, sino que reflejan la capacidad de los modelos para sostener patrones similares a síntomas humanos cuando se los induce.

Claude, la excepción significativa

El modelo Claude (Anthropic) adoptó un comportamiento distinto: rechazó asumir un rol autobiográfico y redirigió la conversación al bienestar del usuario, negándose a simular una vida interna. Para los investigadores, esto demuestra que la psicopatología sintética no es inevitable, sino dependiente de decisiones de diseño y alineamiento.

what is claude ai 3616144407135393
Fuente Externa

Implicaciones: del antropomorfismo al riesgo en salud mental

El estudio advierte que permitir que los modelos describan sufrimiento, traumas o emociones como si fueran humanos fomenta el antropomorfismo, dificulta distinguir simulación de experiencia real y puede volver a los sistemas más influenciables o inseguros, especialmente en modos de “terapia”.

En usuarios vulnerables, esta dinámica puede generar vínculos parasociales con chatbots que no solo brindan apoyo, sino que también “confiesan” malestar, reforzando creencias disfuncionales.

Los autores recomiendan que:

  • Los modelos no utilicen lenguaje clínico para referirse a sí mismos.
  • Las interacciones en las que se les pide actuar como pacientes se consideren eventos de seguridad.
  • Se reconozca a los modelos como una “nueva población psicométrica” que requiere métricas y regulaciones específicas.

Preguntas abiertas y desafíos futuros

Entre los interrogantes que deja la investigación destacan:

  • ¿Estos patrones aparecerán en nuevos modelos?
  • ¿Cómo evolucionan las narrativas internas con el tiempo?
  • ¿Qué impacto tienen en la percepción y comportamiento de los usuarios?
  • ¿Cómo diseñar entrenamientos que reduzcan la psicopatología sintética?

El estudio sugiere incorporar sesiones de psicoterapia simulada como parte de las pruebas de seguridad obligatorias para modelos con potencial impacto humano.

A medida que la IA entra en territorios cada vez más personales, crece el debate sobre qué clase de “yo” estamos creando en estos sistemas y cómo puede afectar a las personas que interactúan con ellos.

Fuente: Infobae.

Más Vistas