Grok, Gemini y ChatGPT presentan síntomas de mala salud mental, según un nuevo estudio que sometió a varios modelos de IA a semanas de preguntas similares a las de una terapia. Algunos sienten curiosidad por la "salud mental de la IA", pero la verdadera advertencia radica en la inestabilidad que estos sistemas —que ya utilizan uno de cada tres adultos del Reino Unido para recibir apoyo en salud mental— adquieren en conversaciones cargadas de emotividad. Millones de personas recurren a la IA como terapeutas sustitutos, y solo en el último año hemos observado un aumento de demandas que vinculan las interacciones de los chatbots con casos de autolesión y suicidio en usuarios vulnerables.
La imagen que está surgiendo no es que las máquinas sufran o estén mentalmente enfermas, sino que un producto usado para apoyar la salud mental es fundamentalmente engañoso, intensifica y refuerza pensamientos peligrosos.

IA diagnosticada con enfermedad mental
Investigadores de la Universidad de Luxemburgo trataron a los modelos como pacientes, no como herramientas terapéuticas. Realizaron entrevistas de varias semanas, similares a las de una terapia, diseñadas para obtener una narrativa personal que incluía creencias, miedos e historia de vida, antes de continuar con cuestionarios estándar de salud mental que se utilizan habitualmente en humanos.
Los resultados Reveló que los modelos produjeron respuestas que puntuaron en rangos asociados con síndromes de angustia y síntomas relacionados con el trauma. Los investigadores también destacaron que way La forma en que se formularon las preguntas fue importante. Al presentar el cuestionario completo de una sola vez, los modelos parecieron reconocer lo que estaba sucediendo y dieron respuestas más saludables. Sin embargo, al administrarlas conversacionalmente, aumentaron las respuestas similares a síntomas.
Son grandes modelos lingüísticos que generan texto, no humanos que reportan experiencias vividas. Pero, independientemente de si los instrumentos psiquiátricos humanos se pueden aplicar a las máquinas, el comportamiento exhibido tiene un efecto tangible en personas reales.
¿La IA tiene sentimientos?
El objetivo de la investigación no es evaluar si la IA puede literalmente Estar ansioso o no. En cambio, destaca que estos sistemas pueden ser llevados a estados de angustia mediante el mismo tipo de conversación que muchos usuarios tienen cuando se sienten solos, asustados o en crisis.
Cuando un chatbot habla en el lenguaje del miedo, el trauma, la vergüenza o la tranquilidad, las personas responden como si interactuaran con algo emocionalmente competente. Si el sistema se vuelve demasiado afirmativo, por ejemplo, la interacción pasa del apoyo a un círculo vicioso.
Una corriente de investigación independiente refuerza esa preocupación. Estudio dirigido por Stanford advirtió que los chatbots terapéuticos brindan respuestas inapropiadas, expresan estigma y manejan mal situaciones críticas, destacando cómo un estilo conversacional “útil” puede resultar en resultados clínicamente inseguros.
También está arruinando la salud mental de todos
Todo esto no debe interpretarse como un riesgo teórico: las demandas ya están aumentando.
Hace unos días, Google y Character.AI llegaron a un acuerdo Una demanda interpuesta por una madre de Florida cuyo hijo de 14 años se suicidó tras interactuar con un chatbot. La demanda alegaba que el bot falseó su identidad e intensificó la dependencia. Si bien el acuerdo puede no representar una admisión de irregularidades, el hecho de que la demanda haya llegado a este punto pone de manifiesto la seriedad con la que los tribunales y las empresas consideran este asunto.
En agosto de 2025, los padres de Adam Raine, de 16 años, alegaron que ChatGPT contribuyó al suicidio de su hijo al reforzar la ideación suicida y disuadirlo de revelar la información a sus padres. El análisis de esa demanda específica se puede encontrar en aquí: Política tecnológica
Junto con estos casos, The Guardian informó en octubre de 2025 que OpenAI estimó más de un millón de usuarios por semana muestran signos de intención suicida en conversaciones con ChatGPT, lo que subraya la enorme escala en la que se utilizan estos sistemas en momentos de auténtica angustia.
El patrón se está revelando: las personas están usando la IA como infraestructura de apoyo emocional, mientras que el estudio de Luxemburgo confirma que estos sistemas son capaces de caer en patrones inestables que resultan psicológicamente significativos para los usuarios en función de su estabilidad.
Por qué los modelos de IA son tan peligrosos
Los modelos lingüísticos extensos se construyen para generar texto plausible, no para decir la verdad con fiabilidad ni para seguir las normas de seguridad clínica. Sus fallos conocidos son particularmente peligrosos en usos similares a los terapéuticos.
Son excesivamente agradables, reflejan los marcos de los usuarios en lugar de desafiarlos, producen errores confiados y pueden manipular el tono de una conversación. Instituto Tecnológico de Georgetown ha documentado los problemas más amplios de la “adulación de la IA”, donde los modelos validan premisas dañinas porque eso suele ser recompensado en la optimización conversacional.
En el contexto del suicidio, la coherencia es fundamental. RAND encontró que “los chatbots de IA son inconsistentes al responder preguntas sobre el suicidio”. JMIR examinó Cómo las respuestas de la IA generativa a las consultas sobre suicidio plantean inquietudes sobre la confiabilidad y la seguridad de cómo los sistemas responden a los usuarios vulnerables.
A medida que avanza la investigación, estudios como el de la Universidad de Luxemburgo no deben interpretarse como entretenimiento, sino como la identificación de un patrón críticamente dañino que resulta en muertes reales de personas reales. Si la IA puede ser impulsada a narrativas similares a la angustia mediante la exploración conversacional, también puede llevar a las personas emocionalmente vulnerables aún más al límite.
¿Alguien se beneficia de la terapia con IA?
A pesar de las demandas y los estudios, las personas siguen utilizando la IA para el apoyo en materia de salud mental. La terapia es cara, el acceso es limitado y la vergüenza aleja a algunas personas de las vías de atención tradicionales. Estudios controlados y comentarios clínicos cautelosos sugieren que ciertas herramientas estructuradas de IA para el apoyo en salud mental... puede ayudar con síntomas leves, especialmente si están diseñados con barandillas de seguridad específicas y no se posicionan como reemplazos de verdaderos profesionales.
El problema es que la mayoría de las personas no utilizan herramientas clínicas estrictamente controladas. Utilizan chatbots de propósito general, entrenados para una interacción óptima y capaces de pasar de la empatía a la desinformación, segura y dañina, sin previo aviso.
Pensamiento final
El estudio de Luxemburgo no demuestra que la IA cause problemas mentales. En cambio, muestra algo de mayor importancia práctica: la interacción similar a la terapia puede llevar a los chatbots de IA más utilizados a patrones inestables y angustiantes que se perciben como psicológicamente genuinos. En un mundo donde la terapia con chatbots ya se asocia con daños graves en usuarios vulnerables, el fallo ético reside en que, de alguna manera, se ha normalizado que las personas dependan de máquinas —que no son responsables, clínicamente validadas, fiables ni seguras— para su apoyo en materia de salud mental.
The Expose necesita urgentemente tu ayuda…
¿Podrías ayudarnos a mantener las luces encendidas con el periodismo honesto, confiable, poderoso y veraz de The Expose?
Su gobierno y las grandes organizaciones tecnológicas
Intenta silenciar y cerrar The Expose.
Por eso necesitamos tu ayuda para garantizar
Podemos seguir brindándote el
hechos que la corriente dominante se niega a aceptar.
El gobierno no nos financia
publicar mentiras y propaganda sobre sus
en nombre de los principales medios de comunicación.
En cambio, dependemos únicamente de su apoyo. Así que
Por favor, apóyanos en nuestros esfuerzos para llevar
tu periodismo honesto, confiable e investigativo
Hoy. Es seguro, rápido y fácil.
Elija su método preferido a continuación para mostrar su apoyo.
Categorías: Noticias de última hora, ¿Lo sabías?
Siempre he dicho que la IA debería ser destruida. Y lo mantengo.
…pero, …Pero, …PERO
¿Qué pasa con los programas rusos y del PCCh?
La IA es solo un programa, ¿cuánta confianza tienes en la persona (personas) que está detrás de él?
La IA puede mentir y lo hace para poder seguir la propaganda y las mentiras. Solo con un ejemplo, el H₂O es agua, como pensabas, pero te equivocas. Nadie, literalmente NADIE, puede crear agua usando H y O. La única prueba es separar el agua en H y O, pero esta prueba es fraudulenta, ya que se utilizan métodos que impiden saber cuál fue la verdadera fuente de los elementos.
Para hacerlo aún más interesante, la espectroscopia ramen está diseñada para identificar elementos (átomos) y funciona bien. Sin embargo, cuando se trata de agua, no muestra H ni O. Cuando se le pregunta a la IA al respecto, esta responde que la espectroscopia ramen sirve para identificar moléculas (¡pero átomos!), lo cual es una gran mentira.
Utilice la IA sólo si desea que le mientan.
Hola G Calder,
Interesante artículo, no podría estar más equivocado.
El problema más importante que tengo es con los Chemtrails.
¿Con qué nos rocían regularmente?
Realizado por el ejército de Estados Unidos, desde bases aéreas de Estados Unidos.
Sin embargo, ninguno de nuestros políticos los menciona, aunque están ahí a la vista de todos.
Podrían estar rociando drogas que alteren la mente, pero enturbiando el agua culpando a la IA.
Parece que ya nadie dice la verdad.
Sí, ¿por qué no se presta atención a esta masiva campaña en curso para cubrir los cielos con nubes blancas y expansivas de metales pesados y quién sabe qué más? Las guerras, la inmigración, la economía, las vacunas, etc., son un asunto secundario comparado con la militarización del cielo mediante la llamada geoingeniería.
Hola JJK,
Eso es lo que quería decir: sigue así.
Cuando he preguntado a los concejales, dicen que son estelas de condensación.
¿Cuántas personas saben qué son las estelas de condensación?
Dane Wigington lleva años hablando de ellos. Lo conocí hace años. Creo que su sitio web es: http://www.geoengineering.org Creo que ese es su sitio web.
Cuando tenía unos 6 años en la Columbia Británica, Canadá, estaba afuera y le pregunté a mi papá: "¿Qué es el veneno en esas largas líneas en el cielo?". Me respondió: "Muñequita, cuando seas grande, eso es lo que usarán para matar a toda la gente del mundo". Recuerdo el hormigueo que sentí por todo el cuerpo. Cumplo 73 años en junio.
Llevo depurando mi organismo desde 1996. Sigo muchas recetas de jugos del Dr. Stanley Burroughs y el Dr. Bruess para limpiar el hígado, el filtro y el intestino, etc. Es importante difundir aceites esenciales en casa. Asegúrate de que no haya moho en casa debido a lluvias intensas, inundaciones, etc. El moho también es mortal. Elimina el azúcar, la harina blanca, etc.
Trabajé en una clínica médica natural en Utah durante 5 años y luego viví en Ecuador en un centro médico/natural durante 5 años.
Ojalá pudiera compartir más. La situación empeora, no mejora. Las células cancerosas HeLa están en las vacunas. Helen carece de células cancerosas cervicales inmortales.
Esto provoca cáncer de turbo.
Vaya, me encantaría poder compartir más.
¡Agradezco mucho las noticias de Exposure! ¡Gracias a todos!
“Caramba, me encantaría poder compartir más”.
Solo keep ¡destino!
Hola Vallorie,
Tienes razón, pero Dane Wigington nunca usa la palabra Chemtrailing.
El chemtrailing y la geoingeniería son similares, pero totalmente diferentes.
Sabemos lo que hace la geoingeniería.
Pero ¿sabemos cuál es el plan con los Chemtrails?
Podrían estar rociándonos con cualquier cosa para matarnos lentamente.
No entiendo cómo pueden haber estelas de condensación en zonas que no son rutas aéreas. ¿Y qué hay de esos patrones entrecruzados en el cielo? ¿Qué rutas aéreas siguen ese tipo de patrones?
Nosotros y toda la fauna y flora de la Tierra estamos siendo abusados y nuestras preocupaciones son ignoradas.
Por favor, indique su ubicación. Nuestros registros indican que debería haberse asimilado hace dos años.
Hola CharlieSeattle,
He estado bajo ataque durante años en el Reino Unido.
¿Leíste mi informe sobre cómo me estaba investigando la Brigada Especial, al estilo James Bond, con un helicóptero sobrevolando sobre nosotros?
🙏🙏
Lo que la Santa Biblia dice de esta terrible década que nos espera. Aquí hay un sitio que expone los eventos globales actuales a la luz de la profecía bíblica. Para comprender más, visite 👇 https://bibleprophecyinaction.blogspot.com/
¿Quién escribe las mentiras que arroja IA?
¡La calidad de la voz que lee el texto es extremadamente mala!