<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=378526515676058&amp;ev=PageView&amp;noscript=1">
x
language COL arrow_drop_down

Robots asesinos, ¿otra guerra?

La ONU envió una alerta sobre el uso de estas máquinas e inteligencia artificial para crear armas. La pérdida de la humanidad, el problema.

  • Imagen de referencia. FOTO: EFE
    Imagen de referencia. FOTO: EFE
23 de agosto de 2019
bookmark

Black Mirror. Temporada cuatro. Episodio Metalhead. Un perro robot persigue a una mujer para asesinarla: la rastrea, la ataca, le dispara. Tiene una antena que desbloquea elementos tecnológicos y un escuadrón de otros como él, máquinas, que apoyan su misión.

Un escenario de ciencia ficción planteado por Netflix, pero con tintes de realidad: robots con inteligencia artificial que se convierten en armas y que podrían usarse en los conflictos. Un hecho que ya muestra los vacíos en el tema del Derecho Internacional Humanitario (DIH) y que preocupa a Naciones Unidas.

En palabras del secretario general de la organización, António Guterres, hay que considerar las consecuencias “si un sistema de armas letales autónomas pudiera seleccionar y atacar como objetivo a personas de forma independiente”, por lo que, a su juicio, son “políticamente inaceptables y moralmente repugnantes”.

La máquina decide

Hay armas autónomas y semiautónomas. Estas últimas pueden ser una aeronave no tripulada como el dron que Irán derribó en julio el estrecho de Ormuz, que había sido enviado por Estados Unidos. Estos, si bien no transportan humanos, sí tiene un equipo de individuos que lo manipulan desde un centro de control.

No obstante, llegar al escenario de las armas autónomas implica un contexto en el que estas, dotadas con inteligencia artificial, no necesitan del hombre para actuar en terreno porque fueron programadas para tomar decisiones.

El experto en computación y profesor de la U. del Rosario, Juan Fernando Pérez, lo explica de una manera sencilla: el robot aprende a partir de la experiencia, de ciertas situaciones. Es creado con inteligencia artificial y a partir de datos, pero el algoritmo con el que se desarrolle puede tener sesgos, no determinar con exactitud, por ejemplo, cuándo una persona representa un riesgo.

Entonces, “estás dejando las decisiones en manos de un algoritmo que tiene un nivel de fallo”. Como indica Pérez, el interrogante surge en quién sería el culpable si ese robot se equivoca.

Robots por humanos

Y si la máquina comete una violación al DIH, ¿de quién es la culpa? ¿Del ingeniero que la programó, la empresa que la vendió, el comandante de la operación en la que actuaba–así este no estuviera en campo– o el Estado para el que combatía?

La directora de la Clínica Jurídica de la U. de la Sabana, Juana Acosta, asevera que el derecho está exigiendo un marco regulatorio especial para este armamento porque hay vacíos en la atribución de responsabilidades individuales.

Crearlas no es una violación al DIH, pero su uso en el marco de enfrentamientos o las consecuencias que generen en conflictos sí lo serían.

Acosta cita dos escenarios. El primero, que el algoritmo puede no prever todas las circunstancias de la disputa, llevando a posibles violaciones al DIH. La segunda, puede presentarse el machine learning, cuando el robot aprende de manera autónoma cómo actuar y “las violaciones al DIH se tornarían imprevisibles, incluso para el programador del algoritmo”.

Para el experto en armas de la U. Javeriana, Alejandro Bohórquez, estas armas llevan a la “despersonalización de la guerra” porque, por tanta inteligencia artificial que tengan los robots, no tienen sentimientos humanos. Bohórquez hace un símil: antes para matar los soldados tenían que, incluso, mirarse a los ojos. Con la tecnología, esos asesinatos o “bajas” de combate pueden darse como en un video juego, desde una sala de control.

El profesor de Geopolítica de la U.de Medellín, Andrés Felipe Giraldo, comenta que en países como Arabia Saudí, China, Estados Unidos, Israel o Rusia hay evidencia de experimentos con armas pensadas de esta forma, lo que lleva a reflexionar sobre un “cambio en la convencionalidad de la guerra”, que ya se está dando.

Mientras el secretario general de la ONU hace una rápida mención, la legislación internacional sigue sin cómo regular el tema y ya hay empresas como Boston Dynamics que crearon a Spot, un perro robot similar, en aspecto, al de Black Mirror, que tiene la capacidad de arrastrar un camión. Esa máquina amarilla con negro tuvo una falla el día de su lanzamiento, en el evento Re:MARS, en junio, y terminó desplomándose.

La de spot fue una falla en proceso de corrección. Pero, si un arma-robot se equivoca, ¿quién responde?.

61 %
de la población está en contra del uso de estas armas: Human Rights Watch.

Te puede interesar

El empleo que busca está a un clic

Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD