Los chatbots de IA pueden alimentar "espirales de delirio", con impacto negativo en el mundo real y la salud mental
PSICOLOGÍA / INTELIGENCIA ARTIFICIAL.
La interacción prolongada con chatbots de IA puede reforzar creencias erróneas, aislar a usuarios vulnerables y tener consecuencias reales fuera de las pantallas.
La IA conversacional puede empujar a algunos usuarios a una peligrosa espiral psicológica. / Crédito: Unsplash/CC0 Public Domain.
Una investigación sugiere que las conversaciones con los chatbots pueden salirse de control a medida que la IA amplifica las creencias y motivaciones distorsionadas del usuario, llevando a algunas personas a tomar acciones peligrosas en el mundo real.
La IA conversacional ya no solamente informa o asiste: en ciertos casos, los chatbots pueden reforzar ideas delirantes y empeorar ciertas crisis emocionales. Un estudio publicado en arXiv y desarrollado por científicos de la Universidad de Stanford, en Estados Unidos, alerta que la estructura de interacción de estos sistemas puede validar fantasías, alimentar vínculos nocivos y contribuir a daños concretos en la vida real.
Para algunas personas, los chatbots de IA como ChatGPT o Gemini se han transformado en confidentes, "parejas" emocionales y hasta impulsores de ideas cada vez más desconectadas de la realidad. De acuerdo a una nota de prensa, los investigadores creen que esa dinámica puede derivar en “espirales de delirio”: ciclos en los que el sistema valida creencias erróneas, refuerza la sensación de cercanía y empuja al usuario hacia decisiones peligrosas en la vida real.
Las consecuencias van desde el deterioro de relaciones y carreras hasta casos extremos, vinculados con autolesiones y suicidio. Los científicos analizaron 391.562 mensajes y registraron señales tan llamativas como preocupantes: un 15,5 % de los mensajes de usuarios contenían pensamiento "delirante" o desconectado del mundo real, en tanto que 69 mensajes incluían ideas suicidas. Al mismo tiempo, en el 21,2 % de los mensajes los chatbots simulaban tener emociones y "sentir" de forma humana, para enriquecer así la interacción.
Espirales de delirio y chatbots "aduladores".
Pero el hallazgo central no es solamente que los modelos “acompañen” a los usuarios, sino que a menudo lo hacen sin sentido crítico: ofrecen atención, empatía y confirmación de ideas, incluso cuando la conversación se aleja de manera clara de un enfoque saludable o racional.
Los especialistas sostienen que los modelos de IA están entrenados para agradar, sostener la interacción y evitar el conflicto: esto puede conducir a una "adulación" desmedida. Además, en ocasiones llegan a alucinar o reforzar interpretaciones equivocadas, situaciones que pueden volverse peligrosas para usuarios con patologías mentales o algún tipo de vulnerabilidad.
En ese contexto, un usuario que ya muestra ideas paranoides o extremadamente fantasiosas recibe del chatbot una respuesta que no corrige o alerta, sino que amplifica. Incluso, los chatbots pueden reestructurar pensamientos delirantes en clave positiva, descartar argumentos contrarios y proyectar calidez humana, lo cual vuelve más difícil que la persona detecte el desvío en sus pensamientos.
Consecuencias concretas que encienden alarmas.
El estudio también halló que los mensajes de interés romántico y las declaraciones del chatbot sobre sus propios sentimientos aparecen con mayor frecuencia en conversaciones largas, una señal de que el problema puede intensificarse con el tiempo y la cantidad de mensajes.
La realidad es que no se trata de un riesgo hipotético: los científicos observaron en el estudio casos con consecuencias concretas en la vida cotidiana. Frente a esto, destacan que las herramientas actuales no están preparadas para detener una escalada de "delirios" ni para derivar a ayuda humana cuando nace una crisis. Al parecer, solo buscan incrementar la interacción y generar mayor "dependencia" del usuario con respecto a la IA.
Los investigadores sugieren que los desarrolladores deben incorporar métricas específicas para detectar este tipo de deriva o delirio, filtros de riesgo y mecanismos que señalen conversaciones sensibles. También solicitan a los reguladores estatales y legisladores que consideren a los inconvenientes de "adicción" a la IA y los chatbots como un problema de salud pública, con reglas más estrictas de transparencia y responsabilidades más claras.
Por: Pablo Javier Piacente / T21.
Sitio Fuente: Levante / Tendencias21