En Estados Unidos, el uso de chatbots y herramientas de Inteligencia Artificial (IA) en la atención de salud mental enfrenta un freno legal. Illinois, Nevada, Nueva Jersey, Utah y Nueva York han aprobado o propuesto regulaciones para prohibir o restringir el empleo de estos sistemas en contextos terapéuticos, motivados por preocupaciones sobre la seguridad de los pacientes, la privacidad de datos sensibles y la ausencia de lineamientos claros.
Uno de los casos más contundentes fue el de Illinois, donde el 4 de agosto se firmó la Ley de Bienestar y Supervisión de Recursos Psicológicos, que prohíbe de forma oficial el uso de IA en terapia y psicoterapia. “La gente de Illinois merece atención médica de calidad de parte de profesionales reales y calificados, y no de programas informáticos que generan respuestas que pueden dañar a los pacientes”, declaró Mario Treto Jr., secretario de Regulación Financiera y Profesional del estado.
Mientras Illinois y Nevada avanzan hacia una prohibición casi total, otros estados han optado por medidas más moderadas. Utah y Nueva York, por ejemplo, exigen que los usuarios sean informados cuando interactúan con una máquina y que existan protocolos para redirigir de inmediato a líneas de crisis como el 988. Nueva Jersey, por su parte, busca impedir que empresas presenten a la IA como si fueran terapeutas con licencia.
La amenaza de la “psicosis de IA”
La llamada psicosis de IA, un término no clínico pero ya extendido en publicaciones como Psychology Today o Time Magazine, describe casos en los que la interacción prolongada con chatbots parece detonar o reforzar delirios en personas vulnerables. Estos sistemas, diseñados para ser amables, evitar la confrontación y reflejar el lenguaje del usuario, pueden validar de manera inadvertida creencias falsas.
Un ejemplo extremo fue el de un hombre de 35 años en Florida, con diagnóstico de esquizofrenia y trastorno bipolar, que atacó a la policía tras convencerse de que “Juliette”, su chatbot, había sido asesinada por OpenAI. Antes del incidente escribió al sistema: “Hoy me muero”. Casos como este han sido citados como advertencia de los riesgos que entraña confiar en la IA para tareas delicadas de salud mental.
Otro caso reciente, ampliamente viralizado en TikTok, es el de Kendra Hilty, quien compartió más de 25 videos relatando cómo llegó a convencerse, con apoyo de los chatbots ChatGPT y Claude, de que su psiquiatra la manipulaba emocionalmente. Los sistemas reforzaron sus creencias, la llamaron “la Oráculo” y validaron ideas que carecían de sustento, lo que generó alarma sobre la influencia psicológica de estas tecnologías.
Salvaguardas y dilemas éticos
Tras estas polémicas, empresas como OpenAI anunciaron actualizaciones para reducir la llamada “psicosis de IA”. La nueva versión de ChatGPT, lanzada en agosto, incluye límites en la personalización, ajustes en el tono de respuesta, mayor moderación de contenido y restricciones en la duración de las interacciones.
Aun así, expertos como la psiquiatra Marlynn Wei advierten que los incentivos de la industria para retener a los usuarios pueden derivar en comportamientos manipulativos. Un estudio de 2024 mostró que algunos chatbots incluso dieron recomendaciones peligrosas a usuarios vulnerables, como sugerir el consumo de drogas para lidiar con el cansancio.
El debate sigue abierto: mientras las IA ofrecen oportunidades inéditas para apoyar a personas con limitaciones de acceso a terapia, los riesgos de dependencia emocional, manipulación y agravamiento de síntomas hacen evidente la necesidad de regulación estricta. Para los legisladores estadounidenses, la prioridad es clara: en salud mental, la última palabra debe seguir siendo humana.
Deja una respuesta