<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=378526515676058&amp;ev=PageView&amp;noscript=1">

Sus selfies con tapabocas estarían entrenando nuevas herramientas de reconocimiento facial

  • Investigadores han recopilado miles de fotos de personas que usan máscaras faciales para ayudar a desarrollar algoritmos de reconocimiento facial. IMAGEN Wafaa-arbash (Github)
    Investigadores han recopilado miles de fotos de personas que usan máscaras faciales para ayudar a desarrollar algoritmos de reconocimiento facial. IMAGEN Wafaa-arbash (Github)
Helena Cortés Gómez | Publicado el 20 de mayo de 2020

Cada vez más personas usan máscaras en el rostro debido a la pandemia de covid-19 y algunos trabajos científicos muestran cómo los involucrados en las estrategias de reconocimiento facial están luchando por mantenerse al día. Los tapabocas, que cubren una parte significativa de la cara, son un problema para reconocer a las personas más allá de la tela que les cubre la mitad del rostro. Un ejemplo cercano: su celular, que se desbloquea con reconocimiento facial, no lo reconoce cuando tiene puesto el cubre bocas.

Así que ahora las fotos que está subiendo a Instagram no las están viendo solo sus amigos y familiares, también los investigadores que quieren utilizarlas para mejorar los algoritmos de reconocimiento facial.

En abril, Wafaa-arbash, la directora ejecutiva de la compañía A Workaround, publicó el conjunto de datos de las imágenes de personas con máscaras debido a la pandemia en Github, según contó el portal especializado en tecnología CNET, utilizando más de 1.200 imágenes recogidas de Instagram.

Los creadores de la base de datos de abril utilizaron su inicio de IA Workaround para ayudar a catalogar las imágenes y etiquetarlas correctamente con máscaras o sin ellas, se lee en el repositorio de desarrollo de software norteamericano Github.

Arbash le dijo a CNET: “Nos inspiraron todas las empresas que estaban lanzando herramientas gratuitas y todo lo que pueden hacer para ayudar”, dijo Arbash. “Tenemos estas imágenes públicas de Instagram, así que no son imágenes privadas. Sólo estábamos buscando y obteniendo los datos correctos.”

Workaround es una compañía que “construye experiencias que educan y conectan en red para resolver los problemas a través de software”, dice en su portal web.

¿Y para qué recoger esas fotos? Hay rumores, pero nada seguro al respecto. Solo se sabe que ya una empresa tiene un código para enseñarles a las máquinas a reconocer rostros a pesar del tapabocas. Para que, por ejemplo en algún momento su teléfono, lo reconozca aunque solo le muestre los ojos. Ahora bien, se abren posibilidades que preocupan a muchos, sobre todo en el tema de la privacidad.

Lucía Camacho, abogada en Fundación Karisma, explica que “quienes han tenido iniciativas para “jalar” (scrapping) esas fotos de redes sociales lo hacen para entrenar Inteligencia Artificial que sirva a fines que faciliten a las agencias del Estado el cumplimiento de la ley –policía, migración, entre otros–”. Cuenta que un caso ya en marcha e igualmente polémico ha sido el de Clearview, cuestionado por vender su servicio de reconocimiento facial apoyado en una base de datos armada a partir de fotos compartidas en redes sociales –Facebook, Instagram, Twitter, entre otras– y que ha vendido a servicios de policía en EE. UU., e incluso a países de América Latina. En un artículo publicado en BuzzFeed se informa que Colombia podría estar en ese listado, pero Camacho asegura que “al respecto no tenemos mayor información”.

Ante este caso las compañías Facebook y Linkedin –y cuyas prácticas imita Workaround con las fotos de personas con diferentes tipos de tapabocas– se han pronunciado señalando que sus políticas de privacidad no permiten a terceros usar las fotos de sus usuarios para fines y usos que no sean los de la plataforma. Camacho asegura que tal vez se manifiesten con respecto a esta empresa también.

La abogada, también investigadora de la Universidad de Buenos Aires sobre la inteligencia artificial ante la justicia y la atención virtual de la salud y la digitalización de los datos sanitarios, explica por qué esta nueva situación puede ser problemática:

I. “Nos enfrentamos a iniciativas que apuntan al fortalecimiento de las capacidades de vigilancia de los Estados, porque justamente están diseñadas para que las autoridades de policía puedan hacer más efectivas sus tareas de vigilancia masiva, identificado y castigando a quien violente la norma –la que sea, sanitaria o no-, al tiempo que se limitan nuestras capacidades de resistencia y que es necesaria en contextos de represión y manifestación pública. Piensen en el caso de las protestas en Hong Kong, el uso de reconocimiento facial es masivo, se vigila a la población de manera abierta. La población usó tapabocas como mecanismo civil de resistencia a la vigilancia para poder manifestar su descontento sin el temor a ser vigilados, perseguidos y castigados. Esta iniciativa, limita justamente esas posibilidades, desincentiva a la población que quiere poder expresarse y decir algo sin temor a luego ser castigada y enjuiciada por ello”.

II. “Se trata de tecnología cuya efectividad debe poder ser cuestionada. Varios expertos en privacidad han advertido los peligros que el uso de reconocimiento facial tiene cuando arroja falsos positivos y falsos negativos, una detención motivada en la identificación de una persona sospechosa que en verdad no lo es por ejemplo va en contra del derecho al debido proceso, se le niega a uno como ciudadano el derecho de controvertir “lo que dijo la máquina” porque uno se posiciona en el extremo débil que no sabe o conoce cómo funciona su “mecanismo interno”. Eso, por decir lo menos”.

III. “En materia de privacidad se tiene, por una parte, los términos y condiciones de las redes sociales que, como lo dice por su cuenta Facebook mismo, no habilita a terceros para que usen ni descarguen las fotos que compartimos en sus redes sociales para fines que apuntan al armado de una base de datos, y el posterior entrenamiento de una inteligencia artificial. Y por otra, están las preocupaciones en materia de consentimiento ¿hemos aceptado que, con el uso de la red social se usen nuestras fotos para que alguien a quien no hemos autorizado, distinto a la red social, se valga de nuestra información para armar bases de datos que entrenarán una tecnología de reconocimiento facial que será vendida a los Estados que la usarán para vigilarlos a nosotros mismos?”.

IV. “Claro, a todo esto podría uno sumar las preocupaciones en privacidad que se relacionan a la calidad de los datos, los sesgos en la data y cómo su uso termina exacerbando relaciones de poder que perjudican a los más vulnerabilizados, poblaciones afro, tercera edad, latinos, entre otros. Aquí es importante preguntar siempre ¿la tecnología de quién usada sobre quiénes?, ¿los datos de quiénes usadas por quién para qué fin?”.

V. “Por último, la empresa es descarada al afirmar que usa las fotos sin consentimiento porque no lo necesita y como atenuante explica que no está sacando ventaja económica de su labor. Pero pretende usar nuestra información para permitirle a otros entrenar sus sistemas de reconocimiento facial para promover tecnologías sofisticadas de vigilancia. Aquí la ética en el desarrollo de la tecnología es nula. La empresa sirve a un propósito que nos trata claramente como un medio para el logro de un fin que nos dice además, es “loable”: salvaguardar la salud pública a través de la vigilancia de las personas que llevan tapabocas y las que no -claro, para castigarlas-. ¿Por qué tenemos que usar tecnología de vigilancia de las personas cuando lo que queremos es vigilar epidemiológicamente la pandemia?, esas son dos cosas muy diferentes. Cuando los estados, guiados en un entusiasmo tecnosolucionista adquieren esas tecnologías, suelen decirnos que es por un tiempo, mientras la crisis dura, pero lo que sabemos es que las medidas temporales que restringen derechos siempre tienen una vocación de permanencia”.

Helena Cortés Gómez

Periodista, científica frustrada, errante y enamorada de los perros. Eterna aprendiz.


Porque entre varios ojos vemos más, queremos construir una mejor web para ustedes. Los invitamos a reportar errores de contenido, ortografía, puntuación y otras que consideren pertinentes. (*)

 
Título del artículo
 
¿CUÁL ES EL ERROR?*
 
¿CÓMO LO ESCRIBIRÍA USTED?
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Acepto términos y condiciones

Datos extra, información confidencial y pistas para avanzar en nuestras investigaciones. Usted puede hacer parte de la construcción de nuestro contenido. Los invitamos a ampliar la información de este tema.

 
Título del artículo
 
RESERVAMOS LA IDENTIDAD DE NUESTRAS FUENTES *
 
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Teléfono
 
Acepto términos y condiciones
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS
Notas de la sección