Pico y Placa Medellín
viernes
0 y 6
0 y 6
Preocupa que la IA pueda dar información para crear armas biológicas o pueda generar crisis financieras si es utilizada sin la debida vigilancia.
Cerca de Londres, en el corazón de Bletchley Park, donde Alan Turing y su equipo alguna una vez descifraron el “código de Enigma” (el código de los alemanes en la Segunda Guerra Mundial), líderes del mundo y gigantes tecnológicos se reunieron para descifrar un nuevo y más retador enigma: decidir cómo los países deberían manejar la acelerado proliferación de una nueva generación de Inteligencias Artificiales (IA) que prometen transformar la forma en que vivimos.
El mundo desea regular la IA, pero aún no sabe cómo hacerlo. De hecho, ni siquiera está seguro sobre si debe o no emprender este esfuerzo: existen desacuerdos fundamentales sobre qué debe ser regulado, cómo y por quién.
Esta incertidumbre hace ver aún más crucial la Cumbre de Seguridad de la IA, que el gobierno británico organizó a principios de noviembre. El evento representa uno de los primeros intentos por alcanzar un consenso global sobre la gestión de una tecnología que parece destinada a transformar nuestro día a día. Los modelos de lenguaje de gran escala, como GPT-3 y GPT-4 de OpenAI, han generado preocupaciones sobre su impacto en la humanidad y esto tiene al mundo entero en un estado de ansiedad sin precedentes en tiempos recientes. Más de la mitad de los estadounidenses están más preocupados que entusiasmados por el uso de la IA, según Pew Research Center, que es un sentir compartido a nivel global y habla de la urgente necesidad de un marco regulatorio coordinado internacionalmente.
En Bletchley Park, líderes mundiales y empresarios de las más grandes empresas de tecnología debatieron sobre cuáles deberían ser los mecanismos más efectivos para enfrentar los retos que podría traer en los próximos años esta nueva revolución. Algunos sugieren que la regulación debería enfocarse en aplicaciones específicas de IA, como el reconocimiento facial en espacios públicos y la desinformación, en lugar de una regulación de los modelos en sí. Otros abogan por una supervisión más estricta, incluyendo la revisión de los datos en los que se entrenan los modelos y el impacto potencial de estos en la salud de quienes los utilizan.
Las grandes compañías tecnológicas, anteriormente reacias a la regulación, parecen haber cambiado radicalmente su postura frente a este nuevo fenómeno: ahora sus principales figuras promueven activamente que se tomen medidas urgentes en este asunto. Compañías como Alphabet y Microsoft, así como pioneros de la IA como OpenAI, han decidido poner en la agenda pública la búsqueda de normativas que prevengan una competencia desenfrenada en esta industria, que según ellos podría desencadenar el uso indebido de modelos potencialmente peligrosos. Por ejemplo, existe preocupación frente a la posibilidad de que los modelos de IA pudiesen proporcionar información para crear armas biológicas o ser capaces de generar crisis financieras si son utilizados sin la debida vigilancia. Paradójicamente, los tecno-optimistas de la era del internet ahora son quienes hacen los llamados más claros para una regulación más rigurosa frente a los modelos de lenguaje a gran escala.
Sin embargo, establecer objetivos regulatorios claros es desafiante debido a la naturaleza cambiante de la IA: es un fenómeno completamente distinto a los que suelen estar acostumbrados las burocracias alrededor del mundo. Las regulaciones en esta materia deberían ser lo suficientemente flexibles para adaptarse a los avances tecnológicos, pero también lo suficientemente estrictas como para mitigar riesgos potenciales que ni siquiera los que más conocimiento tienen en esta área logran prever con exactitud. A medida que las capacidades de la IA se expanden, crecen las preocupaciones sobre su impacto en la sociedad, abriendo la posibilidad a que una intervención tardía pueda ser insuficiente.
De no concertarse políticas comunes respecto a la IA entre las principales potencias, el mundo podría entrar en una rivalidad regulatoria que promete traer problemas. Tanto la Unión Europea como los Estados Unidos quieren ser los primeros en establecer estándares globales hechos a su gusto sobre este tema. Sin embargo, existe el temor en Occidente de que una regulación excesivamente estricta pueda dejarlos atrás en la carrera por liderar en el campo de la IA, especialmente frente a competidores chinos, quienes han mostrado ser menos estrictos en aspectos como la protección de datos personales y el espionaje corporativo.
Al mismo tiempo, hay un escepticismo notable entre expertos del sector respecto a la prisa por regular manifestada por empresas líderes como OpenAI, Elon Musk, Google y Microsoft, quienes ya cuentan con el talento humano y los datos necesarios para consolidarse en el desarrollo de esta tecnología. ¿Por qué el afán llega justo ahora? Se plantea la duda de si su intención es imponer regulaciones rigurosas que limiten la competencia, asegurándoles un control exclusivo sobre un mercado que promete ser un gran motor de la economía del siglo XXI. Al concluir la cumbre, todos los países participantes, incluidos China y Estados Unidos, firmaron una declaración conjunta en la que expresaron su interés en fortalecer la cooperación internacional para regular la Inteligencia Artificial, al igual que se comprometieron a organizar una segunda reunión en 2024 para continuar estas discusiones. A pesar de esto, aún parece que estamos distantes de alcanzar acuerdos concretos y efectivos en este campo. El mundo observa con expectativa: nadie sabe con certeza cuándo un acuerdo podría llegar demasiado tarde..