Por Juan Camilo Quintero M. - @JuanCquinteroM
La Inteligencia Artificial (IA) se está convirtiendo en una herramienta cada vez más poderosa en la sociedad actual, y su uso se extiende rápidamente en múltiples áreas de la vida diaria en aspectos como: la salud, la educación, la seguridad y el entretenimiento. Sin embargo, a medida que la IA se vuelve más sofisticada, y se desarrolla con velocidades inimaginables, surge la necesidad de asegurar que su desarrollo y uso sean éticos y responsables.
Isaac Asimov escribió en 1942 las tres leyes de la robótica: 1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños. 2. Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia para siempre. La semana pasada, se presentó un hito en este sentido: algunos de los principales líderes en tecnología del mundo, incluido Elon Musk, quien fue además socio fundador de Openai, pidieron suspender la actividad de Openai, con su chat GPT4. La razón: no hay certeza de a dónde nos arrastran los avances desmesurados en ese campo, ya no como sociedad sino como especie. No en vano en 2017 se desarrollaron los principios de cómo debe conducirse el desarrollo de la IA buscando generar un marco de actuación orientador que, no solamente controle el avance desproporcionado e irracional de la tecnología, sino también buscando que esta esté al servicio de la humanidad.
Hoy día, se habla bastante de la IA responsable, esto exige considerar las implicaciones sociales, éticas y legales de la IA, y trabajar para minimizar cualquier impacto negativo que pueda surgir hacia el futuro. La transparencia de los desarrolladores en cómo se utiliza la IA, qué datos se recopilan y cómo se utilizan, y cómo se toman las decisiones basadas en la IA es crucial, gracias a ello, los usuarios podrán tomar decisiones informadas sobre el uso de la tecnología y garantizar que se respeten sus derechos y privacidad.
Como es natural, la ética jugará en este nuevo escenario un papel fundamental para que la IA siga un desarrollo responsable. Los desarrolladores deben trabajar para garantizar que la IA respete los valores y derechos humanos. El problema que se vislumbra es que en este nivel ni los desarrolladores parecen poder controlar o poner freno a este moderno Frankenstein. Algo a todas luces desconcertantes que parece no tener reversa.
La pregunta que nos debemos hacer está alrededor de la regulación, ¿quién controla? ¿Quién investiga? ¿Tenemos los profesionales capacitados para ello? ¿Hemos pensado en legislar el tema en Colombia? Considero que los retos que se avecina no son menores y en Colombia debemos estar preparados