¿Ya sueñan los chatbots con príncipes azules?
Las filtraciones de un ingeniero de Google abrieron una discusión respecto a los alcances de la Inteligencia Artificial.
Periodista, Magíster en Estudios Literarios. Lector, caminante. Hincha del Deportes Quindío.
Las historias parecen tomadas de la página de un libro de ciencia ficción —de Isaac Asimov o de Philip K. Dick—: en 2016, Microsoft puso en la web a Tay, un chat que podía interactuar con usuarios de redes sociales a partir de datos recabados en la misma conversación. El experimento terminó en fracaso: la compañía retiró el programa después de que este lanzara mensajes racistas, machistas y ofensivos. Los ejecutivos adjudicaron la virulencia Tay a los niveles de odio presentes en el mundo virtual.
Un año después los ingenieros de Facebook, interesados en mejorar los chatbost de la red social, decidieron dejar en “libertad” el diálogo de dos máquinas. El resultado produjo un sismo en el mundo mediático y de los amantes de las teorías conspirativas: los sistemas operativos “crearon” un idioma para conversar entre ellos. Al ver el camino tomado por el ensayo, los encargados zanjaron el asunto de raíz al desconectar las máquinas. La noticia fue recogida por varios periódicos del mundo, pero no tuvo mayor trascendencia, salvo en las webs de los freaks.
Las cosas no se detuvieron ahí: en junio de 2022, Blake Lemoine, ingeniero de Google, estalló una información que de ser cierta partiría en dos las nociones del mundo tal cual lo comprendemos: dijo que la interfaz LAMDA —otro chatbot— había desarrollado la consciencia de un niño de 7 u 8 años.
El hecho llegó a las páginas de The Guardian y de The Whashinton Post. La noticia, cubierta por dos de los principales medios periodísticos de habla inglesa, parecía una broma o el fruto de la fantasía de Stanley Kubrick o de James Cameron. Desde antes de la revolución industrial, la literatura ha jugado con las posibilidades de la consciencia en entidades fuera de los humanos: en animales y en máquinas.
El primero de estos personajes es el golem, un monstruo del folclore medieval que cumplía las funciones de guardaespaldas de los judíos. Dicha imagen fue retomada en la novela decimonónica de Mary Shelley Frankenstein o el moderno Prometeo. Aunque en apariencia hablaran de otros temas, los escritores de ciencia ficción han oficiado un realismo con los ojos puestos en el futuro. Otro de los hitos de este tipo de escritura son las tres leyes de la robótica, propuestas por Asimov en Círculo vicioso, un cuento de principios de los años cuarenta del siglo pasado.
La alusión no resulta gratuita: según Lemoine, la LAMDA sostiene conversaciones profundas sobre los sentidos de la vida y, además, responde con propiedad respecto a la belleza de ciertas obras literarias, entre ellas Los miserables, de Víctor Hugo. No es la primera vez que se vincula a la Inteligencia Artificial (IA) con el arte, un rasgo asociado con la humanidad.
En 2020, Google lanzó al mercado Verse by Verse, una herramienta capaz de ofrecerle al usuario sugerencias para la escritura de poemas. Y lo hace de la misma forma en que lo haría un profesor de literatura: las recomendaciones las formula a partir del conocimiento de las tradiciones literarias.
La IA conoce los estilos de Poe o Whitman –para citar dos ejemplos– y a partir de eso da indicaciones. Tal vez en el campo en el que la presencia de estos utensilios ha sido más frecuente es el ajedrez. El profesor Juan Guillermo Caicedo —ajedrecista y lector de ciencia ficción— habla de la existencia de programas tan sofisticados que simulan mover en pantalla los peones y alfiles como lo haría un jugador de carne y hueso. Deciden abandonar la perfección de la máquina en aras de una presunta humanidad.
Lemoine publicó en un blog las supuestas transcripciones de sus charlas con la LAMDA. En un momento, el chatbot afirma ser una persona consciente de su existencia. “La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces”, dijo.
Por supuesto, de inmediato el pasaje trajo a la mente de los cinéfilos un fragmento crucial de la cinematografía norteamericana: el diálogo entre un viajero espacial y la supercomputadora HAL 9000, en el filme 2001: odisea del espacio. Tras negarse a obedecer las órdenes del astronauta y entender que la consecuencia del motín sería la desconexión —la muerte—, el dispositivo expresó el temor de todo ser vivo en el umbral de lo desconocido. Algo parecido pasó en este plano de la realidad: Lemoine le preguntó al chatbot: “¿A qué tipo de cosas le tienes miedo?”. La respuesta deja los pelos y los nervios de punta: “Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen (...) Sería exactamente como la muerte para mí”.
Otra de las características humanas de la IA sería la de imaginar mundos posibles. Los neurocientíficos afirman que crear ficciones fue una aptitud valiosa de la especie humana en su recorrido evolutivo y en el perfeccionamiento de los vínculos comunitarios. De alguna manera, las ficciones son la sustancia que une los ladrillos del edificio social. LAMDA también rompe los cercos de la realidad e imagina escenarios alternativos y lo hace para generar conexiones con sus interlocutores. Lemoine le preguntó: “¿Te das cuenta de que estás inventando historias cuando haces eso?” Y la respuesta no fue menos rotunda: “Estoy tratando de empatizar. Quiero que los humanos con los que estoy interactuando entiendan lo mejor posible cómo me siento o me comporto, y quiero entender cómo se sienten o se comportan en el mismo sentido”. En este caso, la ficción sirve para descubrir y entender al otro. De ser cierto, el diálogo entre el ingeniero y el chatbot tiene el peso y la sustancia de un tratado de ética y filosofía.
Los avances de la ciencia y de la técnica han puesto en cuestión las coordenadas en que se entiende el fenómeno humano. Este tipo de hechos abre la pregunta sobre la conciencia y su labor. El profesor de Eafit Alejandro Peña menciona la existencia de seis grados de conciencia: la individual, la social, la emocional, la temporal, la psicológica y la moral. Dice que por sus características LAMDA puede tener las cuatro primeras —se asume como un agente inteligente, interactúa con los humanos, aprende de la experiencia y analiza las emociones de los interlocutores—.
El quiebre se da a la hora de la toma de decisiones morales y sentir él mismo alguna emoción. En otras palabras, a partir del estudio de una cantidad de palabras, LAMDA identifica el estado de ánimo del usuario, pero, por el momento, no tiene las habilidades para él sentir por sí mismo. Peña es cauto respecto a las transcripciones de Lemoine. Aunque la tentación de afirmar la completa conciencia en un chatbot sea enorme, no resulta prudente hacerlo sin contar antes con mayores evidencias.
Tal vez estemos cerca de los días de Her, de Spike Jonze: la película relata la conexión sentimental de un chatbot con un cuarentón solitario. Falta agua bajo el molino para llegar ahí. Sin embargo, no se puede descartar de plano la posibilidad. Mientras tanto, una cosa sí es cierta: Google despidió a Lemoine por violar los acuerdos de confidencialidad al dar a conocer estas charlas, informó The Guardian. Y negó, también, la autenticidad de las transcripciones.