El 92% de los usuarios que consultan plataformas como ChatGPT consideran útiles sus sugerencias para problemas emocionales.
El uso creciente de la inteligencia artificial (IA) generativa como fuente de consejo en salud mental alcanza ya a 1 de cada 10 adolescentes y jóvenes adultos en Estados Unidos, lo que representa a aproximadamente 5,4 millones de personas, según concluye un estudio publicado en la revista JAMA Network Open.
Esta tendencia, motivada en parte por la accesibilidad, la inmediatez y la privacidad percibida, plantea nuevos desafíos en un contexto donde la crisis de salud mental juvenil se agrava y una gran parte de este grupo etario carece de acceso profesional al sistema de cuidados.
Los investigadores subrayan que prácticamente la mitad de los adolescentes que experimentan trastornos depresivos graves no reciben atención médica. El estudio aporta que menos del 20% de jóvenes de 12 a 17 años atravesó un episodio depresivo mayor durante el último año, y el 40% de ellos no obtuvo ningún tipo de seguimiento profesional.
Cómo es la relación entre los jóvenes estadounidenses y la inteligencia artificial
La investigación destaca que el 65,5% de quienes emplean estas tecnologías lo hace, al menos, cada mes, lo que indica un uso recurrente y consolidado. Además, el 92,7% de los jóvenes que recurrieron a plataformas como ChatGPT, Gemini y My AI considera que los consejos recibidos son “algo útiles” o “muy útiles”.
A partir de una encuesta realizada entre febrero y marzo de 2025 a una muestra aleatoria representativa, el equipo contactó a 2.125 personas, de las cuales respondieron 1.058.
El cuestionario fue diseñado con un lenguaje accesible para adolescentes desde los 12 años, e incluyó casos específicos de herramientas de IA generativa. El objetivo era identificar si, en momentos de tristeza, enfado o ansiedad, los adolescentes recurren a chatbots para pedir consejo o apoyo emocional.
Los autores interpretan que esta alta tasa de consulta a tecnologías de IA se explica, en buena medida, por las ventajas logísticas, económicas e incluso culturales que perciben los usuarios adolescentes y jóvenes.
El bajo coste, la inmediatez de la respuesta y la sensación de confidencialidad son factores decisivos para una población que, en muchos casos, no tiene acceso sencillo a servicios tradicionales de salud mental.
Pese a la percepción positiva, la investigación advierte que estos datos no permiten establecer la eficacia clínica del fenómeno: la evaluación recoge la opinión subjetiva de los jóvenes, no el impacto objetivo de los consejos en el bienestar psicológico a largo plazo.
Los autores subrayan que la “utilidad percibida” no equivale a resultados clínicos comprobados, así que existe el riesgo de que estos jóvenes crean mejorar, mientras sus problemas de fondo permanecen sin abordar.
El estudio llama la atención sobre la ausencia de mecanismos de supervisión clínica y estipulación de estándares de seguridad, para los contenidos generados por IA en el ámbito de la salud mental.
La investigación advierte que, a día de hoy, no existen puntos de referencia estandarizados que permitan evaluar si el consejo emitido por un chatbot es correcto o médicamente seguro.
Esta falta de control es muy problemática para los usuarios con cuadros intensivos o en situaciones de crisis, porque la IA no dispone de capacidad para sustituir una intervención profesional urgente y especializada.

Asimismo, otro aspecto señalado por el estudio es la opacidad, sobre todo en lo relativo a los datos de entrenamiento utilizados por los modelos de lenguaje.
Los autores remarcan la dificultad para conocer en detalle con qué información han sido “educados” estos sistemas, lo que puede dar lugar a respuestas sesgadas o inexactas, sobre todo delicadas tratándose de un público joven y vulnerable.