<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=378526515676058&amp;ev=PageView&amp;noscript=1">

Robots asesinos, ¿otra guerra?

  • Imagen de referencia. FOTO: EFE
    Imagen de referencia. FOTO: EFE
Publicado el 23 de agosto de 2019
61 %

de la población está en contra del uso de estas armas: Human Rights Watch.

en definitiva

El uso de robots e inteligencia artificial como instrumentos para las armas son un terreno gris para el Derecho Internacional Humanitario y aún no se conocen sus consecuencias.

Black Mirror. Temporada cuatro. Episodio Metalhead. Un perro robot persigue a una mujer para asesinarla: la rastrea, la ataca, le dispara. Tiene una antena que desbloquea elementos tecnológicos y un escuadrón de otros como él, máquinas, que apoyan su misión.

Un escenario de ciencia ficción planteado por Netflix, pero con tintes de realidad: robots con inteligencia artificial que se convierten en armas y que podrían usarse en los conflictos. Un hecho que ya muestra los vacíos en el tema del Derecho Internacional Humanitario (DIH) y que preocupa a Naciones Unidas.

En palabras del secretario general de la organización, António Guterres, hay que considerar las consecuencias “si un sistema de armas letales autónomas pudiera seleccionar y atacar como objetivo a personas de forma independiente”, por lo que, a su juicio, son “políticamente inaceptables y moralmente repugnantes”.

La máquina decide

Hay armas autónomas y semiautónomas. Estas últimas pueden ser una aeronave no tripulada como el dron que Irán derribó en julio el estrecho de Ormuz, que había sido enviado por Estados Unidos. Estos, si bien no transportan humanos, sí tiene un equipo de individuos que lo manipulan desde un centro de control.

No obstante, llegar al escenario de las armas autónomas implica un contexto en el que estas, dotadas con inteligencia artificial, no necesitan del hombre para actuar en terreno porque fueron programadas para tomar decisiones.

El experto en computación y profesor de la U. del Rosario, Juan Fernando Pérez, lo explica de una manera sencilla: el robot aprende a partir de la experiencia, de ciertas situaciones. Es creado con inteligencia artificial y a partir de datos, pero el algoritmo con el que se desarrolle puede tener sesgos, no determinar con exactitud, por ejemplo, cuándo una persona representa un riesgo.

Entonces, “estás dejando las decisiones en manos de un algoritmo que tiene un nivel de fallo”. Como indica Pérez, el interrogante surge en quién sería el culpable si ese robot se equivoca.

Robots por humanos

Y si la máquina comete una violación al DIH, ¿de quién es la culpa? ¿Del ingeniero que la programó, la empresa que la vendió, el comandante de la operación en la que actuaba–así este no estuviera en campo– o el Estado para el que combatía?

La directora de la Clínica Jurídica de la U. de la Sabana, Juana Acosta, asevera que el derecho está exigiendo un marco regulatorio especial para este armamento porque hay vacíos en la atribución de responsabilidades individuales.

Crearlas no es una violación al DIH, pero su uso en el marco de enfrentamientos o las consecuencias que generen en conflictos sí lo serían.

Acosta cita dos escenarios. El primero, que el algoritmo puede no prever todas las circunstancias de la disputa, llevando a posibles violaciones al DIH. La segunda, puede presentarse el machine learning, cuando el robot aprende de manera autónoma cómo actuar y “las violaciones al DIH se tornarían imprevisibles, incluso para el programador del algoritmo”.

Para el experto en armas de la U. Javeriana, Alejandro Bohórquez, estas armas llevan a la “despersonalización de la guerra” porque, por tanta inteligencia artificial que tengan los robots, no tienen sentimientos humanos. Bohórquez hace un símil: antes para matar los soldados tenían que, incluso, mirarse a los ojos. Con la tecnología, esos asesinatos o “bajas” de combate pueden darse como en un video juego, desde una sala de control.

El profesor de Geopolítica de la U.de Medellín, Andrés Felipe Giraldo, comenta que en países como Arabia Saudí, China, Estados Unidos, Israel o Rusia hay evidencia de experimentos con armas pensadas de esta forma, lo que lleva a reflexionar sobre un “cambio en la convencionalidad de la guerra”, que ya se está dando.

Mientras el secretario general de la ONU hace una rápida mención, la legislación internacional sigue sin cómo regular el tema y ya hay empresas como Boston Dynamics que crearon a Spot, un perro robot similar, en aspecto, al de Black Mirror, que tiene la capacidad de arrastrar un camión. Esa máquina amarilla con negro tuvo una falla el día de su lanzamiento, en el evento Re:MARS, en junio, y terminó desplomándose.

La de spot fue una falla en proceso de corrección. Pero, si un arma-robot se equivoca, ¿quién responde?.

Contexto de la Noticia

Paréntesis Una mirada académica

El Estatuto de Roma es el elemento constitutivo de la Corte Penal Internacional. El integrante de la Clínica Jurídica de la U. de la Sabana, Óscar Merchán, realizó una investigación en la que encontró que la atribución de responsabilidad penal en estos casos es prácticamente imposible desde la óptica de este Estatuto, ya que sus criterios no son suficientes para enfrentar la nueva era de conflictos armados tecnológicos y hay una brecha respecto a la rendición de cuentas.

Juliana Gil Gutiérrez

Periodista internacional, amante de los perros y orgullosa egresada de la facultad de Comunicación Social - Periodismo de la Universidad Pontificia Bolivariana.

Porque entre varios ojos vemos más, queremos construir una mejor web para ustedes. Los invitamos a reportar errores de contenido, ortografía, puntuación y otras que consideren pertinentes. (*)

 
¿CUÁL ES EL ERROR?*
 
¿CÓMO LO ESCRIBIRÍA USTED?
 
INGRESE SUS DATOS PERSONALES *
 
Correo electrónico
 
Acepto términos y condiciones
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS

Datos extra, información confidencial y pistas para avanzar en nuestras investigaciones. Usted puede hacer parte de la construcción de nuestro contenido. Los invitamos a ampliar la información de este tema.

 
RESERVAMOS LA IDENTIDAD DE NUESTRAS FUENTES *
 
 
INGRESE SUS DATOS PERSONALES *
 
Correo electrónico
 
Teléfono
 
Acepto términos y condiciones
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS
Notas de la sección