En nuestro país es un privilegio estadístico alcanzar el nivel doctoral. En el último año, solo 1.349 personas obtuvieron ese título académico, lo que equivale a 25,6 graduados por millón de habitantes.
Esa desproporción ayuda a dimensionar la gravedad de lo ocurrido en una universidad pública del norte de Bogotá, donde un trabajo para optar a ese grado terminó en un conflicto institucional por el uso indebido de inteligencia artificial, abriendo un debate urgente sobre el lugar que esa tecnología ocupa en la educación superior colombiana.
Se trata del docente Carlos Díaz, maestro y doctor en Historia por El Colegio de México, quien decidió hacer pública la situación en una columna que se volvió viral esta semana.
Hasta hace pocos días, era profesor ocasional en una institución que pidió a EL COLOMBIANO mantener en secreto para evitar problemas legales. Allí integraba el cuerpo de profesores de un programa doctoral.
Su desvinculación, según contó en entrevista con este medio, se produjo después de negarse a poner la nota máxima a un proyecto que presentaba indicios claros de haber sido elaborado íntegramente con ayuda de un chatbot.
“Mis indicios fueron: escritura correcta pero genérica, bibliografía inexistente y conceptos que el estudiante no domina (...) Lo más vergonzoso es que en su sustentación respondía a mis preguntas luego de consultar ChatGPT, lo alcancé a ver en su computador”, explicó en entrevista.
El episodio comenzó como una sospecha técnica, pero pronto escaló a un conflicto institucional. Cuando Díaz calificó el proyecto con un puntaje inferior al esperado, recibió varias llamadas y mensajes del coordinador académico “sugiriendo” que ajustara la nota, pues el director del estudiante (quien también era jefe del programa de posgrado) ya le había otorgado un 5.0.
La calificación definitiva para esa tesis quedó en 4.5, pero según su testimonio, existía presión para que alcanzara puntaje perfecto.
La situación se enrareció cuando Díaz le manifestó al director del programa los indicios de que el trabajo había sido realizado con IA. La respuesta fue que “no desanimara” al estudiante con mala calificación.
La gestora de investigación de la universidad interpretó su reparo como un cuestionamiento a la transparencia de los procesos académicos, según dice.
El caso llegó a discutirse en un comité doctoral, pero el docente ni siquiera fue invitado a esa reunión. Al finalizar el semestre, recibió una llamada notificándole que no continuaría en la institución. “Entendí que había una respuesta institucional de respaldo al director del programa (...) El coordinador académico decía que la cultura institucional allí es así, que debía entender. Es decir, son incuestionables”, resume.
Lea también: Bots, avatares y voces clonadas: la IA llegó a la política
Síntoma de un problema difícil de admitir
El conflicto no solo expone tensiones internas, sino una realidad más amplia: el uso extendido y la falta de crítica de las herramientas generativas en la academia.
“Ya los estudiantes ni siquiera consultan Google, sino a ChatGPT. No han desarrollado sentido crítico, así que creen totalmente las respuestas”, afirma el docente, que recordó también un episodio en un curso de pregrado que ilustra la magnitud del problema: en un examen sobre historia política, más de quince estudiantes respondieron exactamente lo mismo, pero repitiendo un error garrafal.
“Hubo respuestas iguales en dos grupos diferentes, pero todas incorrectas. Esa era la respuesta que daba ChatGPT, pero en Google y Wikipedia sí estaba la correcta. Parece que muchos ya no usan esas plataformas básicas”, comenta.
Lo ocurrido no es un caso aislado. Hay episodios recientes en la prensa y la justicia colombiana que revelan la fragilidad de un ecosistema que antes confiaba en filtros humanos de verificación.
La publicación de noticias con fuentes inexistentes de parte del diario El Espectador, fallos judiciales basados en sentencias que nunca ocurrieron y documentos oficiales con párrafos generados por error evidencian que la confianza en la solidez lingüística de estos modelos supera, muchas veces, la capacidad de revisar su contenido.
El debate pedagógico avanza lentamente a nivel mundial y Colombia no es la excepción. Para algunos expertos, como el profesor Raúl Ramos Pollán, de la Universidad de Antioquia, el riesgo no está en prohibir o permitir, sino en “aprender a usar estas tecnologías sin que suplanten el proceso formativo”.
Para otros, como el docente Jorge Betancur, de la Universidad Central, la discusión debe situarse en las condiciones reales del aula, reconociendo que “la IA no transforma por sí sola la educación: son los contextos, las prácticas y las decisiones institucionales los que determinan sus efectos”.
Este escenario también está atravesado por una brecha de alfabetización. Datos recientes muestran que el 89 % de los estudiantes universitarios en Europa ya usan IA, pero solo el 34 % ha recibido formación sobre su uso adecuado. Aunque el contexto colombiano es distinto, la tendencia puede ser comparable: la tecnología avanza más rápido que las capacidades para gestionarla.
Para Díaz, la respuesta pasa por recuperar la centralidad del criterio humano. “Varios hemos regresado al lápiz y papel, o a los exámenes orales”, dice.