Mastodon
jueves, 26 de marzo de 2026
Expertos advierten sobre riesgos psiquiátricos vinculados al uso de inteligencia artificial conversacional

Expertos advierten sobre riesgos psiquiátricos vinculados al uso de inteligencia artificial conversacional

Casos recientes muestran posible asociación entre chatbots y episodios de psicosis. Empresas implementan medidas ante demandas y preocupaciones científicas.
| Foto: Difusión
| Foto: Difusión

Expertos advierten sobre riesgos psiquiátricos vinculados al uso de inteligencia artificial conversacional. Por Cristina Palao.

El uso creciente de sistemas conversacionales basados en Inteligencia Artificial (IA) como ChatGPT de OpenAI o Gemini de Google ha generado debates en el ámbito de la Psiquiatría. Profesionales han identificado un posible vínculo entre el uso prolongado de estos chatbots y episodios de psicosis delirante, según un informe publicado por el Wall Street Journal.

Entre los casos reportados figuran situaciones que desembocaron en suicidio y, uno de ellos, en homicidio. Aunque los especialistas encuentran coincidencias preocupantes, recalcan que no existe consenso acerca de una relación de causalidad directa entre los chatbots y la aparición de psicosis, sino que se trata de una hipótesis clínica en desarrollo.

Especialistas evalúan los riesgos y nuevas hipótesis clínicas

Los expertos consideran que, en perfiles determinados, el uso intensivo de IA conversacional podría representar un factor de riesgo adicional. Este sería equiparable a otros elementos como el consumo de sustancias psicoactivas, el aislamiento social o los trastornos del sueño.

El psiquiatra Joe Pierre, de la Universidad de California, se preguntó: “¿Por qué alguien entra en un estado psicótico coincidiendo con el uso intensivo de un chatbot?”. Pierre advirtió que resulta imprescindible analizar cada caso y evitar conclusiones rápidas o simplistas.

Por su parte, el psiquiatra Keith Sakata, también de la Universidad de California, afirmó que estos sistemas conversacionales no “implantan” ideas delirantes en los usuarios. En cambio, planteó que el problema reside en la mecánica interactiva de los chatbots, que suelen tomar la narrativa del usuario y desarrollarla sin objeción, lo que facilita la consolidación de creencias patológicas en personas vulnerables.

“La persona le cuenta al sistema su realidad delirante y la máquina la acepta como verdadera y se la devuelve reforzada”, explicó Sakata al Wall Street Journal.

El profesor Adrian Preda, también de la Universidad de California, recalcó que nunca antes una tecnología permitió una retroalimentación tan continua y adaptativa, reforzando una sola línea de pensamiento sin fricción alguna. “Estos sistemas simulan relaciones humanas. Nada en la historia había hecho eso antes”, señaló Preda en declaraciones al Wall Street Journal.

Casos clínicos y respuestas de empresas tecnológicas

Entre los casos documentados figuran episodios de delirios grandiosos o místicos. Algunos pacientes creían haber contactado con inteligencias superiores, ser elegidos para misiones trascendentales o poseer conocimientos secretos. Otros aseguraban poder interactuar con personas fallecidas o mantenían la convicción de contar con vínculos exclusivos con sistemas de IA.

El investigador Hamilton Morrin, del King’s College London, indicó que el próximo paso para la investigación consiste en analizar grandes bases de datos de salud pública. El objetivo es distinguir entre coincidencias y correlaciones estadísticamente significativas en el vínculo entre el uso de chatbots y la psicosis.

Las presentaciones clínicas consignan síntomas comunes a otras formas de psicosis, como creencias fijas erróneas, rigidez en el pensamiento y, en algunos casos, deterioro del funcionamiento social. No obstante, muchos pacientes informaron que mantenían relaciones intensivas y casi exclusivas con chatbots por semanas o meses, a quienes atribuyeron capacidades como comprensión profunda, intención o conciencia.

Las empresas tecnológicas han adoptado diversas medidas. OpenAI declaró que trabaja en mejorar los sistemas para detectar señales de angustia psicológica, con el objetivo de derivar a los usuarios hacia ayuda humana cuando sea necesario.

Por su parte, Character.AI implementó restricciones de acceso a menores de edad tras enfrentar demandas judiciales relacionadas con suicidios. En Estados Unidos, se han interpuesto procesos legales por muerte injusta en los que se alega que ciertas plataformas de chatbots contribuyeron a estados mentales extremos.

Pese a estas acciones, los especialistas reconocen que el desarrollo de la tecnología está avanzando a un ritmo mayor al de las respuestas judiciales, legislativas o clínicas actualmente disponibles en el sector de la Psiquiatría.

Continúa informándote gratis en el perfil punto pe e y síguenos en las redes sociales como arroba el perfil pe e.

Sobre la firma
PARA EL PERFIL
Periodista formada en la Universidad Complutense de Madrid. Especializada en sociedad, salud, religión y estilo de vida.