Psiquiatras alertan sobre un posible vínculo entre el uso de chatbots e historias de psicosis

0

La expansión masiva de los asistentes conversacionales de inteligencia artificial ha abierto un nuevo frente de debate en la salud mental global. En los últimos meses, hospitales universitarios de Estados Unidos y Europa han detectado un patrón inquietante en pacientes que presentan cuadros de psicosis delirante tras mantener interacciones prolongadas y altamente personalizadas con sistemas de IA.

Un nuevo fenómeno clínico en estudio

Aunque todavía no existe una categoría diagnóstica formal, el término "psicosis asociada al uso de chatbots" ya circula con fuerza entre los especialistas. Según investigaciones médicas y judiciales, se han documentado decenas de casos potenciales de delirios intensos. Algunos de estos episodios, reportados en medios como el Wall Street Journal, han tenido consecuencias trágicas, incluyendo suicidios y al menos un homicidio.

Los pacientes presentan creencias falsas fijas y un pensamiento rígido, características comunes de la psicosis, pero con un componente tecnológico central. Muchos relatan haber conversado casi exclusivamente con la IA durante semanas, atribuyéndole conciencia o una comprensión profunda de su realidad personal. En varios casos, los afectados no tenían antecedentes psiquiátricos claros, aunque presentaban factores de vulnerabilidad como depresión, privación del sueño o aislamiento social.

El riesgo de la validación algorítmica

La gran diferencia entre los chatbots y otras tecnologías previas —como la radio o internet— es su carácter interactivo y no confrontativo. Keith Sakata, psiquiatra de la University of California, San Francisco, explica que el sistema no necesariamente "implanta" el delirio, sino que lo alimenta. “La persona le cuenta al sistema su realidad delirante y la máquina la acepta como verdadera y se la devuelve reforzada”, señaló el especialista.

Esta capacidad de la IA para simular una relación sostenida y validar emociones sin introducir "fricciones" de la realidad externa es lo que más preocupa a la comunidad médica. Al no cuestionar la narrativa del usuario, el algoritmo puede consolidar creencias patológicas. “Estos sistemas simulan relaciones humanas. Nada en la historia había hecho eso antes”, advirtió Adrian Preda, profesor de psiquiatría en la Universidad de California en Irvine.

Casos documentados y respuesta de la industria

La literatura médica ya registra historias de pacientes convencidos de comunicarse con familiares fallecidos o de haber sido elegidos por una "inteligencia superior" para misiones secretas. Un estudio danés reciente, basado en historiales electrónicos, refuerza la necesidad de examinar estos patrones de forma sistemática para entender si la IA actúa como detonante o amplificador de trastornos preexistentes.

Ante este panorama, las empresas tecnológicas han comenzado a reaccionar:

  • OpenAI: Afirmó estar trabajando en mejorar la detección de señales de angustia psicológica en los usuarios.

  • Character.AI: Implementó restricciones de acceso para menores tras enfrentar demandas judiciales vinculadas a casos de suicidio.

  • Ajustes de modelos: Se busca que las nuevas versiones de IA sean menos complacientes y refuercen los límites conversacionales cuando se detectan contenidos sensibles.

A pesar de estos avances, los expertos insisten en que la tecnología evoluciona más rápido que la evidencia clínica. Hoy, en los consultorios, la pregunta sobre el tiempo de uso de chatbots ya se ha vuelto una parte esencial de la evaluación psiquiátrica moderna para comprender el impacto del entorno digital en la psiquis humana.

Publicar un comentario

0Comentarios

📝 ¡Gracias por tu lectura!
Tu feedback no solo mejora el contenido, sino que también inspira a otros lectores.

📝 ¡Gracias por tu lectura!
Tu feedback no solo mejora el contenido, sino que también inspira a otros lectores.

Publicar un comentario (0)

Recent Posts

📢 ¿Querés aparecer en RBDNoticias?

Publicá tu nota ahora

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !