Síguenos en:
Juan Camilo Quintero
Columnista

Juan Camilo Quintero

Publicado

Inteligencia Artificial:
¿el desafío final?

Por Juan Camilo Quintero M. - @JuanCquinteroM

La Inteligencia Artificial (IA) se está convirtiendo en una herramienta cada vez más poderosa en la sociedad actual, y su uso se extiende rápidamente en múltiples áreas de la vida diaria en aspectos como: la salud, la educación, la seguridad y el entretenimiento. Sin embargo, a medida que la IA se vuelve más sofisticada, y se desarrolla con velocidades inimaginables, surge la necesidad de asegurar que su desarrollo y uso sean éticos y responsables.

Isaac Asimov escribió en 1942 las tres leyes de la robótica: 1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños. 2. Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia para siempre. La semana pasada, se presentó un hito en este sentido: algunos de los principales líderes en tecnología del mundo, incluido Elon Musk, quien fue además socio fundador de Openai, pidieron suspender la actividad de Openai, con su chat GPT4. La razón: no hay certeza de a dónde nos arrastran los avances desmesurados en ese campo, ya no como sociedad sino como especie. No en vano en 2017 se desarrollaron los principios de cómo debe conducirse el desarrollo de la IA buscando generar un marco de actuación orientador que, no solamente controle el avance desproporcionado e irracional de la tecnología, sino también buscando que esta esté al servicio de la humanidad.

Hoy día, se habla bastante de la IA responsable, esto exige considerar las implicaciones sociales, éticas y legales de la IA, y trabajar para minimizar cualquier impacto negativo que pueda surgir hacia el futuro. La transparencia de los desarrolladores en cómo se utiliza la IA, qué datos se recopilan y cómo se utilizan, y cómo se toman las decisiones basadas en la IA es crucial, gracias a ello, los usuarios podrán tomar decisiones informadas sobre el uso de la tecnología y garantizar que se respeten sus derechos y privacidad.

Como es natural, la ética jugará en este nuevo escenario un papel fundamental para que la IA siga un desarrollo responsable. Los desarrolladores deben trabajar para garantizar que la IA respete los valores y derechos humanos. El problema que se vislumbra es que en este nivel ni los desarrolladores parecen poder controlar o poner freno a este moderno Frankenstein. Algo a todas luces desconcertantes que parece no tener reversa.

La pregunta que nos debemos hacer está alrededor de la regulación, ¿quién controla? ¿Quién investiga? ¿Tenemos los profesionales capacitados para ello? ¿Hemos pensado en legislar el tema en Colombia? Considero que los retos que se avecina no son menores y en Colombia debemos estar preparados

Porque entre varios ojos vemos más, queremos construir una mejor web para ustedes. Los invitamos a reportar errores de contenido, ortografía, puntuación y otras que consideren pertinentes. (*)

 
Título del artículo
 
¿CUÁL ES EL ERROR?*
 
¿CÓMO LO ESCRIBIRÍA USTED?
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Acepto Términos y Condiciones Productos y Servicios Grupo EL COLOMBIANO

Datos extra, información confidencial y pistas para avanzar en nuestras investigaciones. Usted puede hacer parte de la construcción de nuestro contenido. Los invitamos a ampliar la información de este tema.

 
Título del artículo
 
RESERVAMOS LA IDENTIDAD DE NUESTRAS FUENTES *
 
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Teléfono
 
Acepto Términos y Condiciones Productos y Servicios Grupo EL COLOMBIANO
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS
Otros Columnistas