“ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios”, es la conclusión, aunque con matices, a la que ha llegado el ex responsable de Investigación de Seguridad de OpenAI, Steven Adler, tras realizar una serie de simulaciones con el ‘chatbot’ de OpenAI, en las que opta por no apagarse aunque eso suponga dejar al usuario sin una versión de ‘software’ más segura para su vida.
Siga leyendo: ¿Está bien pintar cantantes blancas para representar personajes afro? El polémico blackface de Prolírica
La ciencia ficción ha tomado como dogma las ‘Tres leyes de la robótica’, que el escritor Isaac Asimov recogió por primera vez en su relato ‘Círculo vicioso’ (’Runaround’), y que buscan la protección de la especie humana frente a la amenaza de la inteligencia artificial (IA).
Estas leyes establecen que “un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley”.
Sin embargo, alinear la IA con los intereses humanos no es una tarea sencilla, un conflicto que se ha visto en las películas ‘Terminator’, ‘Blade Runner’, ‘Yo, Robot’ -inspirada en el trabajo de Asimov- o ‘Ex Machina’, por citar algunas, y que ha subrayado Adler en un artículo en el que plantea el peligro que supondría una IA con instinto de supervivencia para las personas.