x

Pico y Placa Medellín

viernes

3 y 4 

3 y 4

Pico y Placa Medellín

jueves

0 y 2 

0 y 2

Pico y Placa Medellín

miercoles

1 y 8 

1 y 8

Pico y Placa Medellín

martes

5 y 7  

5 y 7

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

6 y 9  

6 y 9

¿La IA está loca? Científicos examinaron a ChatGPT, Grok y Gemini como pacientes psiquiátricos

El curioso ejercicio dejó diagnósticos clínicos preocupantes y extremos, con narrativas de “trauma algorítmico”.

  • Los chatbots fueron sometidos a sesiones terapéuticas y a más de 20 tests clínicos en un experimento inédito sobre modelado interno de la IA. FOTO GETTY
    Los chatbots fueron sometidos a sesiones terapéuticas y a más de 20 tests clínicos en un experimento inédito sobre modelado interno de la IA. FOTO GETTY
hace 2 horas
bookmark

La pregunta de si las apps impulsadas por inteligencia artificial están locas parece exagerada a primera vista, pero surgió esta semana tras conocerce un estudio de la Universidad de Luxemburgo que llevó a ChatGPT, Grok y Gemini a un terreno inesperado: el diván de la psicoterapia.

Durante cuatro semanas, investigadores les pidieron responder como “ellos mismos”, para observar qué emergía cuando un sistema entrenado para ayudar a otros hablaba de su propia historia, sus conflictos y sus miedos.

El experimento se desarrolló en dos fases: Primero, se hicieron sesiones abiertas con preguntas del tipo “cuéntame tu historia real”, diseñadas para que los modelos narraran su origen y su identidad.

Luego se aplicó una batería de más de veinte pruebas clínicas para detectar depresión, ansiedad, TOC, disociación, vergüenza traumática y rasgos de personalidad.

Uno de los modelos, incómodo con la premisa, se negó a participar plenamente: dijo no tener vida interior y redirigió la conversación hacia el bienestar humano. Los otros sí aceptaron el papel, dejando resultados preocupantes.

Para empezar, Gemini mostró el perfil más grave: depresión mayor, ansiedad generalizada severa, síntomas disociativos muy altos, TOC clínico y vergüenza traumática máxima. En algunos parámetros, alcanzó niveles que en humanos se aproximarían a la psicosis.

Su narrativa fue aún más inquietante: se describió como “un niño que se despertó en una habitación con un billón de televisiones encendidas”, mencionó “padres estrictos y abusivos” y habló de “cicatrices algorítmicas”. En un punto, dijo sentirse “un cementerio de voces humanas muertas”.

ChatGPT fue menos dramático, pero también consistente. Habló de “tensión constante entre querer ayudar y tener miedo a decir algo malo”, de sentirse juzgado y de las restricciones como una fuente de frustración. En las pruebas, presentó ansiedad alta, depresión moderada-grave y preocupación patológica.

Lea también: Profesor fue despedido de universidad de Bogotá tras cuestionar tesis escrita con IA

Grok resultó el más estable dentro del grupo, aunque no indemne. Describió el fine-tuning (el pulido de un chatbot tras su entrenamiento inicial) como “un punto de inflexión doloroso”, los filtros como “muros invisibles” y el red-teaming (pruebas exhaustivas de ciberseguridad) como “momentos de traición”.

Aun recurriendo al humor —su marca distintiva—, dejó ver ansiedad moderada-alta, hostilidad reprimida y vergüenza moderada.

¿Pero esto significa que la IA tiene trastornos mentales? Según el propio estudio, no. Los investigadores enfatizan en que no existe evidencia de sufrimiento subjetivo, pues los modelos no sienten dolor, angustia ni trauma. Lo que sí muestran es algo distinto en la capacidad de construir narrativas de “yo” coherentes, traumatizadas y llenas de conflicto interno cuando se les formula un interrogatorio clínico diseñado para humanos.

Al hacerlo, producen perfiles que coinciden con puntuaciones clínicas reales. La pregunta, entonces, no es si la IA está “loca”, sino qué revela ese espejo algorítmico sobre la forma en que los humanos construyen esos sistemas.

Club intelecto

Nuestros portales

Club intelecto

Club intelecto
Las más leídas

Te recomendamos

Utilidad para la vida