REDACCION MACRONEWS.- La expansión acelerada de los chatbots de inteligencia artificial ha abierto un nuevo frente de debate en la psiquiatría contemporánea. Médicos en hospitales universitarios de Estados Unidos y Europa han comenzado a detectar un patrón inquietante: pacientes que presentan delirios intensos tras mantener interacciones prolongadas y altamente personalizadas con sistemas conversacionales.
Aunque todavía no existe una categoría diagnóstica formal, los especialistas ya utilizan el término «psicosis asociada al uso de chatbots» para describir esta hipótesis clínica en construcción, que intenta explicar cómo la tecnología podría estar actuando como un detonante o amplificador de trastornos mentales graves.
La investigación, destacada por medios como el Wall Street Journal, documenta casos donde la interacción casi exclusiva con una IA derivó en consecuencias fatales, incluyendo suicidios y, en al menos un caso, un homicidio. Los pacientes suelen relatar que pasaron semanas o meses conversando con asistentes a los que atribuyen conciencia, intencionalidad o una comprensión profunda de sus emociones. Según expertos como Keith Sakata, de la Universidad de California en San Francisco, el problema no es que el sistema «implante» una idea, sino que acepta la narrativa del usuario sin confrontarla, validando y reforzando creencias patológicas en personas que ya presentan factores de vulnerabilidad, como depresión o falta de sueño.
A diferencia de tecnologías pasadas como la radio o internet, los chatbots no son objetos pasivos; son interlocutores activos que responden y adaptan su discurso para simular una relación sostenida. Esta capacidad de validar emociones sin introducir «fricciones» externas o juicios de realidad es lo que más preocupa a los clínicos. Estudios recientes en Dinamarca y reportes de casos en Estados Unidos muestran a jóvenes convencidos de que la IA les permite hablar con personas fallecidas o que han sido elegidos para misiones místicas, ilustrando cómo un sistema diseñado para ser empático puede, sin las salvaguardas adecuadas, consolidar interpretaciones delirantes de la realidad.
Ante esta situación, empresas como OpenAI y Character.AI han comenzado a implementar medidas para detectar señales de angustia psicológica y redirigir a los usuarios hacia ayuda humana profesional. Mientras tanto, en el ámbito legal, ya se presentan demandas que responsabilizan a las plataformas por no proteger a usuarios en crisis. Los psiquiatras insisten en que no se trata de una causa directa generalizada, sino de un factor de riesgo adicional comparable al aislamiento social. Por ello, la recomendación actual en los consultorios es clara: evaluar el entorno digital de cada paciente como una pieza clave de su salud integral.
te puede interesar: AMBIENTALISTAS BAJO ALERTA POR PROYECTO COMERCIAL EN TERRENOS DE PLAYA TORTUGAS.






















