Tecnología

“El arte como espacio de resistencia”: una charla con Sebastián Tonda sobre sesgos y límites de la tecnología

El autor de Irremplazables. Cómo sobrevivir a la inteligencia artificial estuvo en Medellín para hablar sobre el lugar del arte frente a los algoritmos.

Cubro historias de Tecnología, Arte y Cultura en la sección Tendencias. Fui editor en Semana, El País de Cali y Blu Radio. Me apasiona explorar cómo el mundo digital moldea nuestra sociedad.

25 de septiembre de 2025

Cada vez que la inteligencia artificial responde una petición, no habla una máquina sino los prejuicios acumulados en sus datos de entrenamiento, ecos de lo mejor y lo peor de la humanidad. Así lo explicó el conferencista y escritor mexicano Sebastián Tonda en la Fiesta del Libro y la Cultura de Medellín, dentro de la franja “Charlas de la Tarde: Códigos sensibles”, espacio al que fue invitado EL COLOMBIANO.

“Los modelos de lenguaje no son neutrales porque están entrenados en un grupo de datos que refleja criterios establecidos, sesgos culturales y una sobreexposición de ciertas poblaciones”, afirmó.

El autor del libro Irremplazables. Cómo sobrevivir a la inteligencia artificial (2023, Elefanta Editorial), puso ejemplos concretos. Contó que, al pedirle a distintos sistemas una imagen de la “belleza humana”, nueve de cada diez veces devolvieron el retrato de “una mujer, joven, blanca y frágil, ¿por qué definen así esa idea?”

Para Tonda, este tipo de sesgos hace urgente repensar el uso de estas herramientas. “La pregunta clave no es si debemos usar la inteligencia artificial, sino cómo y para qué lo hacemos”. Planteó que el arte puede convertirse en “un espacio de resistencia”: un lugar donde los errores y la imperfección recuperen valor frente a la estandarización algorítmica.

Usted afirma que los modelos de lenguaje no son neutrales. ¿A qué se refiere?

“Los modelos de lenguaje están entrenados con grandes volúmenes de datos públicos y esos datos reflejan los criterios y prejuicios de quienes los producen. Estos modelos, o LLM, no son neutrales porque están entrenados con un grupo de datos que refleja criterios establecidos, sesgos culturales y una sobreexposición de ciertas poblaciones. No es lo mismo entrenar un sistema con una base global dominada por publicaciones en inglés, hechas en su mayoría por hombres occidentales y blancos, que hacerlo con una diversidad real de voces. Esa desproporción afecta directamente las respuestas que recibimos”.

¿Y cómo se manifiestan esos sesgos en la práctica?

“Le pongo un ejemplo sencillo: cuando le pido a un sistema de inteligencia artificial que me muestre una imagen de la belleza humana, nueve de cada diez veces me entrega el retrato de una mujer joven, blanca y frágil. Esa asociación no la inventó la máquina: surge de los datos con los que fue entrenada. Lo mismo pasa en casos mucho más delicados. En Estados Unidos, el software judicial COMPAS fue cuestionado porque identificaba con mayor probabilidad a personas negras como sospechosas de delitos. Y estudios como los de la investigadora Joy Buolamwini han mostrado que estas tecnologías fallan al intentar reconocer el rostro de mujeres negras, llegando a clasificarlas como hombres en la mayoría de los casos. No son fallas técnicas menores, son sesgos que impactan vidas reales”.

¿Qué papel tenemos los usuarios frente a esos sesgos?

“No podemos delegar todo en las empresas. Nosotros también definimos cómo interactuamos con la herramienta. El prompt, esa instrucción inicial que damos, no corrige el sesgo de base, pero sí puede orientar qué datos priorizar.

Por ejemplo, si quiero estudiar con IA alguna rama de la literatura, puedo limitar mi búsqueda a artículos académicos con citas verificables, en lugar de acudir al promedio de internet. La forma en que pedimos información y el criterio con que usamos la tecnología son, en buena medida, nuestra responsabilidad”.

¿Cree que la IA puede servir a la creatividad o solo la limita al promedio?

“La IA, por sí sola, produce el promedio: una especie de estándar estadístico. Y el arte, en cambio, siempre es contrasistema. El arte tiene una posición política. La inteligencia artificial solo repite, no tiene opinión porque no tiene conciencia. Por eso no puede reemplazar la creatividad. Puede ayudarnos a explorar, a extender las posibilidades, pero no a sustituir la mirada original.

Si pedimos a un sistema que componga una canción, probablemente nos dé algo equivalente al cantante de bar que hace covers: funciona, entretiene, pero no es Mick Jagger. Lo distinto solo aparece cuando hay una persona que decide usar esa herramienta con intención creativa”.

¿Qué ejemplos de artistas muestran otro camino frente a la inteligencia artificial?

“Hay varios. Joy Buolamwini, que mencionaba antes, escribió un poema titulado AI Ain’t I a Woman?, acompañado de un video donde evidencia cómo los sistemas fallan al reconocer a mujeres negras que fueron líderes de movimientos sociales. Es un manifiesto sobre la invisibilización digital.

Otro caso es Memo Akten, quien creó Learning to See. Entrenó un modelo solo con imágenes del mar y luego mostró cómo cualquier cosa, un pedazo de tela o una boca, era interpretada como olas y horizonte. Su obra muestra que la forma en que entrenas a la IA determina el significado que le da a todo. La máquina es incapaz de ver más allá.

También está Refik Anadol, que entrena algoritmos con millones de imágenes de la naturaleza para crear instalaciones inmersivas. Sus obras no existirían sin la capacidad de cómputo de una IA, pero el sentido artístico sigue estando en la intención humana que define qué ver y cómo verlo”.

Usted se ha referido al valor de la imperfección en un mundo de contenidos sintéticos. ¿Por qué es importante subrayarlo?

“Estamos entrando en un tiempo de sobreproducción algorítmica: imágenes, voces y videos generados de manera infinita. En ese contexto, lo irrepetible y lo imperfecto adquieren otro valor. Creo que veremos un auge de lo presencial: el teatro, la música en vivo, los deportes, el performance. Todo aquello que no puede replicarse como un archivo digital. La perfección sintética será abundante y por eso celebraremos más lo auténtico. El arte ha sido y seguirá siendo un espacio de resistencia”.

¿Cómo entra la dimensión ética y legal en este debate?

“Hoy, la filosofía y la moral son más importantes que nunca. Estamos hablando de decisiones que afectan vidas, que moldean culturas y que no pueden resolverse solo con ecuaciones. Desde lo legal, ya hay debates abiertos: en México, por ejemplo, se ha discutido que nada producido únicamente por IA pueda registrarse como propiedad intelectual, porque no es de nadie. Se reconoce la co-creación: cuando un humano usa la herramienta con intención y aporta criterios propios. Ese es el camino. No es reemplazo, es colaboración”.

¿Cuál sería, entonces, su recomendación para quienes usan estas herramientas hoy?

“Que no las vean como un oráculo, sino como un aliado crítico. La pregunta clave no es si debemos usar la inteligencia artificial, sino cómo y para qué lo hacemos. Esa decisión define todo: qué datos priorizar, qué criterios aplicar, qué sentido darle. Si las usamos solo como una lámpara maravillosa que concede respuestas, caeremos en el promedio. Si las usamos con propósito, pueden abrir caminos inéditos”.