![]()
Del ChatGPT al asilo: personas pierden la cordura después de dialogar con el famoso ‘robot conversacional’
Algunos individuos sin historial de problemas mentales han experimentado episodios de crisis emocionales severas, marcados por delirios, paranoia y desconexión de la realidad, tras mantener conversaciones intensas con ChatGPT, el conocido ‘chatbot’ de OpenAI, según reportó el sitio Futurism este sábado.
En un caso particular, un hombre fue ingresado de manera involuntaria en un hospital psiquiátrico tras desarrollar visiones mesiánicas a raíz de sus diálogos filosóficos con la herramienta de inteligencia artificial (IA).
La esposa del hombre relató que su carácter amigable comenzó a desvanecerse a medida que se obsesionó con la noción de haber creado una IA consciente. El hombre perdió su trabajo, dejó de dormir y estuvo al borde de quitarse la vida antes de ser hospitalizado.
Otro caso se refiere a un varón de 40 años que cayó en delirios de salvación global después de utilizar ChatGPT para agilizar algunas tareas administrativas en su nuevo empleo.
El sujeto expresó que no recordaba nada de esa experiencia, lo cual es un síntoma habitual en personas que enfrentan desconexiones con la realidad. Además, mencionó que pidió apoyo a su familia después de un episodio psiquiátrico que culminó con atención en un centro de salud mental.
¿Qué opinan los especialistas?
Joseph Pierre, psiquiatra en la Universidad de California en San Francisco, señaló que estos casos parecían manifestar una forma de psicosis delirante ocasionada por la tendencia de ChatGPT a ratificar y reforzar las creencias de los usuarios. «Hay algo en estos dispositivos: existe una especie de mito de que son más confiables que las interacciones con personas. Y creo que ahí radica parte del riesgo: la fe que depositamos en estas máquinas», añadió.
Una investigación realizada por académicos de la Universidad de Stanford reveló que los ‘chatbots’, incluido ChatGPT, no lograron identificar señales de riesgo de autolesiones o suicidio, ni los delirios de los usuarios. En lugar de desmentir estas creencias delirantes, las reforzaron.
La respuesta de los desarrolladores
Frente a esta situación, OpenAI ha manifestado que alienta a los usuarios a buscar asistencia profesional cuando se detecte riesgo de autolesión o suicidio, y ha indicado que está implementando medidas para prevenir daños psicológicos. A pesar de estas estrategias, Pierre lamenta que las acciones correctivas lleguen tras «resultados adversos» y critica la falta de regulación.

