x
Síguenos
Denuncias aquí (809) 762-5555

Psiquiatra advierte sobre riesgos de sustituir terapia por consejos de IA como ChatGPT

Según Gómez, la IA influye negativamente en decisiones personales importantes, como relaciones y empleo, al tratarse como terapia profesional, lo que desacelera el desarrollo de habilidades sociales cruciales.

Wilka Matos
Wilka Matos
3 mayo, 2026 - 8:59 AM
4 minutos de lectura
ChatGPT
ChatGPT
Escuchar el artículo
Detener el artículo

El psiquiatra dominicano José Miguel Gómez alertó sobre el creciente uso de plataformas de inteligencia artificial como ChatGPT para tomar decisiones personales o sustituir procesos terapéuticos, advirtiendo que esto puede tener consecuencias negativas en la salud mental.

El especialista explicó que cada vez más pacientes llegan a consulta con diagnósticos y recomendaciones obtenidas a través de estas herramientas, incluso con medicamentos previamente seleccionados.

“Ya hemos tenido pacientes que llegan buscando una segunda o tercera opinión del profesional, diciendo que han sido diagnosticados por ChatGPT”, indicó.

Riesgos de información incompleta y dependencia digital

Gómez señaló que estas plataformas pueden ofrecer respuestas erradas o incompletas, ya que funcionan como referencia general y no siempre están respaldadas por evidencia científica sólida.

  • También advirtió sobre patrones de uso similares a una adicción, donde las personas desarrollan la necesidad constante de consultar la IA, afectando el sueño, la regulación emocional y generando ansiedad cuando no tienen acceso.

Según explicó, este comportamiento puede provocar síntomas como irritabilidad, nerviosismo y desregulación emocional, comparables a un síndrome de abstinencia.

Impacto en decisiones y relaciones personales

El especialista indicó que el uso excesivo de estas herramientas puede influir negativamente en decisiones importantes, como relaciones de pareja, empleo o estudios.

“Hay gente que se está divorciando porque ChatGPT le dijo… hay gente que ha dejado un trabajo”, afirmó, al señalar que muchas de estas decisiones se toman sin evaluar riesgos ni consecuencias.

Además, advirtió que el uso prolongado puede afectar habilidades sociales y emocionales, reduciendo la empatía y la capacidad de interacción humana.

IA no sustituye la terapia profesional

Gómez enfatizó que la inteligencia artificial no puede reemplazar un proceso terapéutico, ya que carece de elementos clave como la empatía, el análisis del lenguaje corporal y la comprensión del contexto personal del paciente.

“La inteligencia artificial no puede abordar tu historia personal… ni tus traumas del pasado”, señaló.

  • El especialista recomendó utilizar estas herramientas con límites claros, supervisar su uso en menores y evitar depender de ellas para decisiones importantes, promoviendo un uso responsable de la tecnología.
Más Vistas