Pico y Placa Medellín

viernes

0 y 6 

0 y 6

Pico y Placa Medellín

jueves

1 y 7 

1 y 7

Pico y Placa Medellín

miercoles

5 y 9 

5 y 9

Pico y Placa Medellín

martes

2 y 8  

2 y 8

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

3 y 4  

3 y 4

language COL arrow_drop_down

A evitar guerra de robots vs. humanos

El tema de las máquinas asesinas ya se discute en la ONU y dejó de ser una historia de ciencia ficción.

15 de diciembre de 2017
bookmark

El robot te mira. Es una máquina, se le nota en el cuerpo que un humano le construyó una vez. No siente. No hay un ápice de remordimiento ni un sentimiento por ese hombre que lo hizo una vez, que le dio vida. Depende de sí mismo. Piensa. Es autónomo, y aunque esté quebrando todas las reglas, solo quiere una cosa: matarte. No parece, pero es un robot asesino.

Así ocurre en I Robot, la película de Will Smith que se desarrolla en el año 2035, apenas 18 más del actual. En la cinta, los robots hacen parte de la vida cotidiana, muy trabajadores ellos, ayudando a los hombres. Sin embargo, algunos desobedecen y se convierten en una grave amenaza para la humanidad.

Aunque no estemos en 2035, ya hay personas temerosas que prefieren prevenir que eso, que aparentemente es un tema de películas y libros de ciencia ficción, se haga realidad.

Desde octubre de 2012, primero en una reunión en Nueva York, y luego lanzada en Londres en el siguiente abril, existe Campaing to Stop Killer Robots (Campaña para Parar a los Robots Asesinos), “una coalición internacional –así se definen– que trabaja para prohibir de forma preventiva armas completamente autónomas”. La conforman varias instituciones, entre ellas Human Rights Watch, International Committee for Robot Arms Control, Mines Action Canada y Nobel Women’s Initiative. Entre los líderes están personajes como la Nobel de Paz Jody Williams.

Uno de los primeros llamados a regular el desarrollo de robots autónomos la hizo 10 años atrás el profesor de robótica e inteligencia artificial Noel Sharkey en el diario británico The Guardian.

Su columna se titula: Robots war are a reality (Los robots de guerra son una realidad). En ella, Sharkey menciona que Iraq fue el más reciente país (en esa época) que desplegó estos inventos en el campo de batalla. Además, menciona que Corea del Sur e Israel tienen guardias fronterizos robóticos, mientras que China, Singapur y Reino Unido también usan robots militares.

Según Susana Sánchez Restrepo, candidata a doctor en robótica de la Universidad de Toulouse III Paul Sabatier, en Francia, los robots militares son los que han tenido un mayor desarrollo con el fin de que alcancen cierta autonomía.

“Recientemente, gracias al crecimiento de la Inteligencia Artificial, podemos crear estas máquinas capaces de tomar decisiones sin la supervisión del hombre. Lo más utilizado son las redes neuronales: con un dataset y miles de ejemplos, una estructura así puede generalizar y ‘aprender’ a diferenciar un perro de un gato. Esta inteligencia, combinada con la opinión de un experto, les ayudará a tomar una decisión”, señala la experta.

El miedo

Diez años después de que el profesor diera su opinión sobre el desarrollo de sistemas autónomos, se hizo el mes pasado el Primer encuentro del Grupo de Expertos Gubernamentales (GGE por sus siglas en inglés) Sobre Sistemas Autónomos de Armas Letales, (Laws por sus siglas en inglés).

En la reunión, que se sostuvo en la sede de la Organización de las Naciones Unidas (ONU), en Ginebra, se hicieron recomendaciones sobre las dimensiones tecnológicas, militares, éticas y legales que deben tener los denominados robots asesinos.

Este tema ha ganado relevancia, según la Arms Control Association (Asociación de Control de Armas), después de que en 2015 cerca de 3.000 investigadores de IA y robótica firmaran una carta abierta contra una inminente “carrera de armamentos de IA militar”.

Además, una nueva correspondencia abierta ha llegado a la ONU, específicamente al GGE, también con el propósito de apoyarlos en la solicitud de bloquear el uso de armas letales. Entre las firmas está la de Mustafa Suleyman, cofundador de la compañía de IA y aprendizaje automático, DeepMind Technologies, comprada por Google en 2004.

La misiva, que se dio a conocer en agosto en la inauguración de la International Joint Conference on Artificial Intelligence (IJCAI), fue leída hace una semana en la ONU y en una parte dice: “Las armas letales autónomas permitirán que el conflicto se dispute a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender. Estas pueden ser armas de terror que los déspotas y terroristas usen contra poblaciones inocentes, hackeadas para comportarse de maneras no deseadas”. Y no son solo robots, también drones, tanques y ametralladoras automáticas.

Para Sánchez, “el carácter ético del desarrollo científico es un tema muy tratado en robótica, pero llega un momento en el que las decisiones se vuelven más políticas y ahí el tema se vuelve peligroso. El problema no es la tecnología sino lo que el hombre decida hacer con ella”, concluye.

Romper las reglas

“Hot dog, juguemos algo. Tú me atrapas y yo te atrapo; ningún amor puede cortar nuestro cuchillo en dos”, dijo el robot SPD-13, llamado Speedy. Su actitud era la de un humano borracho. Así lo describe el escritor de ciencia ficción Isaac Asimov en su cuento corto Runaround (1942), traducido al español como Círculo Vicioso.

En realidad, Speedy estaba mareado, daba vueltas tratando de solucionar una situación que lo llevó a entrar en conflicto con las tres leyes de la robótica que Asimov les dio a los robots de sus cuentos. Speedy fue el primero que las siguió, el escritor nunca antes había publicado una historia que las incluyera.

Ese fue el precedente para que años después las leyes aparecieran en los cuentos de Isaac y otras obras de ciencia ficción en la que los postulados se apaciguan pero al mismo tiempo enardecen el conocido “complejo de Frankenstein”, o miedo a la rebelión de las máquinas, el temor a que estas sean tan inteligentes que terminen tomando decisiones sin que un humano se los indique.

¿Qué dicen las tres leyes entonces?: 1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. 2. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas entrasen en conflicto con la 1ª Ley. 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Así como sucede en los libros, se espera que sea en la vida real. Y aunque en estos días no tenemos robots como los que la ciencia ficción nos ha descrito, sí hay personas y organizaciones que temen por su fabricación y que se salgan de control.

¿Cuál es el miedo? ¡Que rompan las reglas! Porque ya no es una conversación entre personas temen que la ficción se haga realidad ; hoy los robots autónomos que parecían meros personajes de historia están a punto de existir.

Infográfico
A evitar guerra de robots vs. humanos
26
países tienen, cada uno, un experto que promueve la regulación para los llamados robots asesinos
116
expertos en robótica e inteligencia artificial le pidieron a las Naciones Unidas prohibir el desarrollo y uso de robots asesinos.
El empleo que buscas
está a un clic

Nuestros portales

Club intelecto

Club intelecto
Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD