Invitado
Columnista

Invitado

Publicado el 10 de agosto de 2018

“DEEPFAKE”

Por JAVIER SAMPEDRO
redaccion@elcolombiano.com.co

Un concepto muy común en la biología evolutiva es el de la carrera de armamentos. La coraza de un cangrejo se hace cada vez más dura para impedir que la perfore un buey de mar, lo que fuerza al segundo a desarrollar unas pinzas cada vez más poderosas que a su vez llevan al cangrejo a reforzar su coraza y así sucesivamente hasta que predador y presa acaban con unas armas de ataque y defensa que rayan en el ridículo geométrico, y total para seguir comiendo lo mismo que antes.

Algo muy similar está empezando a ocurrir en el espinoso asunto de las noticias falsas (fake news), y en especial en el subsector de los vídeos falsos, que están alcanzando unos niveles de sofisticación deslumbrantes.

Las últimas vídeo-estafas se llaman deep fakes (mentiras profundas), y utilizan los sistemas modernos de la inteligencia artificial, que son avanzados pero están al alcance de cualquier timador con una moral lo bastante escasa. El deep (profundo) viene de deep learning (aprendizaje profundo), la técnica de aprendizaje de máquinas que ha revolucionado el sector en años recientes. Por alguna razón, un blanco favorito de estos vídeos es Nicolas Cage, que lo mismo sale convertido en Terminator que asomado a la proa del Titanic o haciendo un discurso de Donald Trump.

Uno de los deepfakes más logrados presenta a Barack Obama diciendo unas cosas que serían como para meterle en la cárcel. Este vídeo ha sido producido con buenos fines, pero desde luego consigue lo que se propone: asustar al público por su increíble realismo, y revelar los graves riesgos que supone esta tecnología, en la paz y en la guerra.

Y ahora viene la guerra de armamentos. El científico de la computación Hany Farid, del Dartmouth College de Hanover (New Hampshire), ha utilizado la inteligencia artificial para desenmascarar los fraudes perpetrados con esa misma tecnología. Vende sus sistemas a universidades, medios de comunicación y tribunales de justicia. Por perfecta que parezca una manipulación, una máquina entrenada puede detectar errores sutiles, como la falta de pestañeo o unos movimientos de los ojos carentes de naturalidad. Ambas cosas se deben a que la otra máquina, la estafadora, suele aprender a partir de fotos fijas. Otros errores frecuentes son unos movimientos extraños de la cabeza o un color de ojos raro.

Naturalmente, una vez que los estafadores conozcan esos sistemas de detección, centrarán lo peor de sus esfuerzos en superarlos. ¿Alguien se atreve a predecir qué tipo de buey de mar saldrá al final de esta carrera?.

Porque entre varios ojos vemos más, queremos construir una mejor web para ustedes. Los invitamos a reportar errores de contenido, ortografía, puntuación y otras que consideren pertinentes. (*)

 
¿CUÁL ES EL ERROR?*
 
¿CÓMO LO ESCRIBIRÍA USTED?
 
INGRESE SUS DATOS PERSONALES *
 
Correo electrónico
 
Acepto términos y condiciones
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS

Datos extra, información confidencial y pistas para avanzar en nuestras investigaciones. Usted puede hacer parte de la construcción de nuestro contenido. Los invitamos a ampliar la información de este tema.

 
RESERVAMOS LA IDENTIDAD DE NUESTRAS FUENTES *
 
 
INGRESE SUS DATOS PERSONALES *
 
Correo electrónico
 
Teléfono
 
Acepto términos y condiciones
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS
Otros Columnistas
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 1

    Aplausos y pitos

    $titulo

    CÉSAR SIERRA

    Científico de la U. Nacional. Ganó un premio en Inglaterra por innovación en la conservación de alimentos.

    $titulo

    “MULAS” EN CARTAGENA

    Una pareja de húngaros fue detenida cuando pretendía sacar cocaína camuflada en huevos de chocolate.