<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=378526515676058&amp;ev=PageView&amp;noscript=1">

Con estas dos herramientas se podrían reconocer videos falsos

  • Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. FOTO CORTESÌA MICROSOFT
    Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. FOTO CORTESÌA MICROSOFT
  • Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
    Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
Laura Tamayo Goyeneche | Publicado el 02 de septiembre de 2020

La inteligencia artificial (IA) es la tecnología con la que se crean los deepfakes, videos falsos con una apariencia hiperrealista, los cuales se han convertido en un actor más en el panorama de la desinformación.

Sin embargo, la misma IA podría ser la respuesta para reconocer cuándo se trata de un video auténtico y cuándo no. Así lo confirmó Microsoft ayer en el lanzamiento de dos herramientas que quieren ayudar a reconocer los videos manipulados.

La primera es Microsoft Video Authenticator, que analiza una imagen fija para arrojar un porcentaje de probabilidad de que se trata de un fotograma alterado.

“En el caso de un vídeo, puede proporcionar este porcentaje en tiempo real en cada fotograma mientras se reproduce el vídeo. Funciona detectando el límite de la mezcla de la falsificación profunda y el desvanecimiento sutil o los elementos de escala de grises que podrían no ser detectables por el ojo humano”, explicó la compañía en un comunicado.

Le puede interesar: ¿Cómo se hacen los deepfakes? Vea ejemplos curiosos

Un grupo de investigadores en ingeniería y ética de la IA desarrollaron el autenticador con datos públicos que fueron puestos a prueba en sistemas de detección de falsificaciones profundas.

Otra tecnología, esta vez para los creadores de contenido, es una etiqueta digital que se puede añadir a un video o fotografía, y la cual puede viajar como un metadato con el archivo. Esto permitirá certificar y marcar a los autores originales de una imagen, porque no estará presente cuando se trate de una manipulada.

Esta herramienta va de la mano de un lector, que sería una extensión en el navegador, y que podría comprobar los certificados de cierto contenido para confirmar si coincide con las etiquetas que puso el creador inicialmente, “permitiendo a la gente saber con un alto grado de precisión que el contenido es auténtico y que no ha sido cambiado, así como proporcionar detalles acerca de quién lo produjo”, se lee en el sitio web de la compañía.

Le puede interesar: Microsoft dará acceso a inteligencia artificial para expertos en medio ambiente

Para poner en marcha la aplicación de las herramientas, la empresa hizo varias alianzas con organizaciones y medios de comunicación.

Señalaron que “a través de esta asociación, la iniciativa Reality Defender 2020 de la Fundación AI pondrá el Autentificador de Vídeo a disposición de las organizaciones involucradas en el proceso democrático, incluyendo los medios de comunicación y las campañas políticas”. Entre los medios citados con los que ya hay alianza son The New York Times y la BBC.

$!Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
Las herramientas serán usadas por medios de comunicaciones y organizaciones involucradas en el proceso democrático. Foto: Shutterstock
Laura Tamayo Goyeneche

Quiero pasarme la vida aprendiendo cosas nuevas y me hice periodista para asegurarme. Escribo sobre tecnología y gastronomía en la sección de Tendencias.


Porque entre varios ojos vemos más, queremos construir una mejor web para ustedes. Los invitamos a reportar errores de contenido, ortografía, puntuación y otras que consideren pertinentes. (*)

 
Título del artículo
 
¿CUÁL ES EL ERROR?*
 
¿CÓMO LO ESCRIBIRÍA USTED?
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Acepto términos y condiciones

Datos extra, información confidencial y pistas para avanzar en nuestras investigaciones. Usted puede hacer parte de la construcción de nuestro contenido. Los invitamos a ampliar la información de este tema.

 
Título del artículo
 
RESERVAMOS LA IDENTIDAD DE NUESTRAS FUENTES *
 
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Teléfono
 
Acepto términos y condiciones
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS
Notas de la sección