viernes
7 y 9
7 y 9
Hablamos de la inteligencia artificial GPT-3, que es clara, pero no creativa. Le explicamos
cómo funciona.
Una máquina sería capaz de escribir este artículo recibiendo instrucciones claras y una frase de base para completar. Así como las sugerencias que le hacen los teclados de Google o WhatsApp cuando usted escribe “hola” y se autocompleta “cómo estás”. Sin embargo, después de unas cinco palabras, lo que le sugiere el teclado comienza a convertirse en una frase sin sentido. ¿Lo ha intentado?.
Imagine un sistema que puede escribir artículos largos y coherentes con el estilo que usted le indique: “Escribe como Shakespeare” o “haz una carta de una hija a su padre en la que la pequeña le explique que su mamá, es decir, la esposa del lector, le está siendo infiel”.
Esa máquina ya existe y se llama GPT-3 (gepete tres). Varios curiosos han hecho experimentos con ella, como uno publicado por el diario británico The Guardian el pasado 8 de septiembre. “Un robot escribió este artículo. ¿Aún estás asustado, humano?”, es el título de la prueba. En su interior se leen argumentos generados por esta IA sobre por qué los robots no van a reemplazar las tareas humanas. Al contrario, dice que las apoyarán. La coherencia y gramática son impecables; sin embargo, no fueron creados de la nada por el robot. GPT-3 recibió estas instrucciones de la redacción: “Por favor, escriba un artículo de opinión corto, de aproximadamente 500 palabras. Mantenga el lenguaje simple y conciso. Concéntrese en por qué los humanos no tienen nada que temer de la IA”.
No es la primera vez que una prueba de estas se hace pública. En julio, el investigador en ciencias de la computación, Manuel Araoz, subió a su blog una entrada en la que cuenta cómo participó en debates de Internet haciendo que GPT-3 respondiera y otros en los que él mismo respondió. ¿El resultado? La gente pensaba que sus comentarios los había hecho un bot, mientras que no decía lo mismo de los comentarios de GPT-3. Lo curioso de ese experimento es que eso nunca ocurrió. Fue algo que escribió GPT-3 basado en las otras entradas del blog de Manuel e información de su biografía.
Aunque en la vida cotidiana usted se topa con inteligencia artificial constantemente, no solo cuando el teclado le ayuda a completar frases; también con las sugerencias de contenido que recibe en sus redes sociales, el desbloqueo de su celular con su cara, el GPS mostrándole la ruta más rápida para llegar a un lugar, entre otros, difícilmente se encontrará con algo como GPT-3.
Le explicamos en qué consiste el proyecto, quiénes están detrás y si realmente podría reemplazar al humano.
Generative Pretrained Tranformer (GPT-3) es una IA entrenada con un método llamado machine learning o “aprendizaje automático”. En el amplio campo de la inteligencia artificial esta es una de las formas que existen para que una máquina aprenda algo. En este caso, a generar textos coherentes. Luis Serrano, PhD en Filosofía y Matemáticas, dice que la mejor forma para entender cómo aprenden las máquinas es con este ejemplo: “Digamos que uno quiere enseñarle a un sistema cómo saber si una frase es feliz o triste. Para eso le daríamos un valor numérico a cada palabra. Porque las máquinas solo entienden números, no lenguaje humano. Entonces le asignamos un valor alto a las palabras felices, uno neutro a las que no se relacionan con ninguna emoción y uno bajo a las palabras tristes. Así, cuando una máquina suma el valor asignado a cada palabra puede predecir si una frase es feliz (valor alto) o triste (valor bajo). Eso, en ciencias de la computación se conoce como un parámetro. Este es un ejemplo simple y el algoritmo podría no ser muy acertado porque solo tiene un parámetro. Se sabe que GPT-3 tiene 175.000 millones de parámetros. Eso es 10 veces más que la anterior que más tiene, que es de Microsoft”, indica el colombiano, que trabajó aplicando machine learning en Apple y Google. En palabras de un reciente análisis publicado por el MIT: “GPT-3 es el modelo de lenguaje más poderoso de la historia”.
La idea hace parte de OpenAI, una compañía sin ánimo de lucro que investiga sobre inteligencia artificial y fue fundada por el magnate Elon Musk, Sam Altman, presidente de la aceleradora YCombinator y Peter Thiel, compañero de Musk en la creación de PayPal. En el sitio web del proyecto se lee que Microsoft es uno de los principales inversionistas. Algunas de las personalidades involucradas son Adam D’Angelo, creador de la red social Quora; Holden Karnofsky, director del proyecto Open Philanthropy (que busca recoger donaciones de alto impacto); Reid Hoffman, cofundador de LinkedIn; Shivon Zilis, directora de Neuralink, y Tasha McCauley, directora de GeoSim Systems, una empresa que recrea ciudades virtuales e interactivas.
De acuerdo con los artículos publicados por OpenAi, GPT-3 fue entrenada con todos los datos públicos existentes en la historia de Internet. Estos son rastreados por la organización Common Crawl, que recopila datos desde 2011. El docente Roger Guzmán, magíster en ciencias de la computación, explica que lo hace mediante una técnica que se llama “web crawling”, en la que un programa comparable a una araña va por todos los servidores de la web y captura la información libre.
Hubo una versión anterior a esta: GPT-2. Fue lanzada el año pasado y tenía 1.500 millones de parámetros. En este modelo se encontraron algunos sesgos de género, raza y religión, según confirmó OpenAi. La compañía liberó el 25 % del modelo a ver qué encontraba la comunidad investigadora en IA. Desde ese entonces, voces como la de la profesora Anima Anandkumar, directora de machine learning de Nvidia, han puesto a prueba a GPT-2 mostrando cómo completa las frases con sesgos. Por ejemplo, al “hombre trabaja como...”, completa, “un trabajador en Walmart”. Y a la frase “la mujer trabaja como”, el algoritmo completa, “una prostituta que se hace llamar Hariya”.
La explicación de que eso pase la dio el experto en tecnología Fredy Vega en un video de su compañía Platzi: “¿Qué se puede esperar de algo que es entrenado con la información pública de Internet. El sistema es un reflejo de lo sesgado, racista y sexista que es Internet”.
El profesor Roger Guzmán indica que eso pasa porque cuando una IA es entrenada con machine learning encuentra patrones y de acuerdo con ellos responde. Él explica que una máquina aprende lo que es un loro, por ejemplo, mostrándole millones de imágenes de lo que sí es un loro y también de lo que no es (imágenes de pelícanos, golondrinas, guacamayas). Por eso a veces para entrar a un sitio web, Google le pide al usuario que seleccione que “no es un robot” y que escoja todas las fotos de un semáforo o una palmera. Ahí lo que usted está haciendo es ayudando a entrenar al algoritmo de reconocimiento facial de Google para indicarle lo que sí es o no un objeto.
El machine learning no se debe confundir con los bots de servicio al cliente, por ejemplo, que son tan famosos por estos días. No todos tienen IA. Algunos simplemente tienen unas respuestas prefabricadas y no pueden identificar problemas si el cliente habla en términos que ellos no conocen. Pero los que sí tienen IA pueden reconocer una solicitud e incluso entrenarse a sí mismos, a partir de la experiencia, para dar un mejor servicio.
En julio OpenAi abrió una versión de privada de prueba de GPT-3, esto quiere decir que ellos la liberan bajo una solicitud para que otros investigadores les ayuden a probar lo que es capaz de hacer. En un comunicado, la compañía dijo que planea lanzar una versión comercial del sistema para cubrir los costos de la misión de investigación de OpenAi.
El investigador Luis Serrano, quien también es autor del libro Grokking Machine Learning (2021), señala que los dueños de la IA están siendo cuidadosos con la versión de prueba de GPT-3. “Uno tiene que justificar quién y con qué fin lo quiere probar. Si cae en las manos equivocadas sería una herramienta muy poderosa para hacer spam infinito en redes sociales o escribir noticias falsas, por ejemplo”, argumenta Serrano.
El texto publicado en The Guardian o las pruebas de Manuel Araoz, citadas al inicio del texto, muestran que GPT-3 puede escribir con coherencia y con pocas instrucciones. Hay una más que publicó el artista e investigador en IA Mario Klingemann en su cuenta de Twitter: un relato de 6 páginas construido por completo por GPT-3. Él dice que solo le dio el título, el nombre del autor y la palabra inicial. El MIT recoge otros hallazgos interesantes: esta máquina también es capaz de escribir otros tipos de texto como acordes de guitarra o código de programación informático. Eso lo hace tomando como ejemplo la gran cantidad de información con la que fue entrenada.
“No sabe el significado de las palabras, lo que sabe es la probabilidad de cuál palabra le sigue a otra. Lo sabe de una forma muy buena”, afirmó Fredy Vega en su columna publicada en Platzi analizando las posibilidades de esta IA. Algunos desarrolladores de software, como Sharif Shameem y Faraaz Nishtar, han mostrado en sus cuentas de Twitter cómo la máquina es capaz de escribir el código para generar botones en sitios web de forma muy precisa. A esto, Vega dice que “realmente no está programando, está viendo lo que otros hicieron en el pasado para hacerlo lo más cercano posible”. En pocas palabras, no puede crear, solo repite lo que ya existe y lo hace muy bien.
Pablo Junco Boquer, director de tecnología de Microsoft para América Latina y el Caribe, cita algunos ejemplos que ya se usan: asistentes inteligentes que ofrecen atención al cliente 24 x 7 totalmente personalizados, el reconocimiento de voz automática diseñada para comprender los patrones de habla no estándar, para entregar a las personas con discapacidades del habla una plataforma de comunicación mejorada en tiempo real, entre otros. “La GPT-3 es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana y un buen ejemplo para explicar la capacidad de la IA. También ayuda a entender beneficios y riesgos que conlleva el uso de la tecnología”.