Casi tres de cada cuatro adolescentes estadounidenses ya han utilizado “compañeros de IA”, según la ONG Common Sense Media, que advirtió sobre los riesgos que estos asistentes virtuales de inteligencia artificial (IA) orientados a las relaciones personales pueden representar para los menores.
Un “72% de los adolescentes ha utilizado compañeros de IA al menos una vez” y “más de la mitad utiliza estas plataformas varias veces al mes”, determinó la organización en un estudio realizado recientemente en Estados Unidos y publicado esta semana.
La asociación definió a los compañeros de IA como “amigos o personajes digitales con los que se puede chatear por escrito o verbalmente en cualquier momento” para mantener “conversaciones personales y significativas”. Se trata de servicios proporcionados por plataformas como Character.AI y Replika, entre otros.
El cuestionario presentado a los participantes, de entre 13 y 17 años, reconoce que las principales plataformas de IA generativa como ChatGPT (OpenAI) o Claude (Anthropic) también pueden utilizarse de este modo, pero especifica que no se trata de herramientas de IA para ayudar con los deberes o generar imágenes.
Un tercio de los adolescentes encuestados afirma mantener intercambios con compañeros de IA que implican interacciones sociales, como practicar ciertas conversaciones, recibir apoyo moral o mantener interacciones amistosas o románticas.
Casi la mitad ven a estos asistentes de IA principalmente como “herramientas” o “programas informáticos”.
Common Sense Media, una ONG que clasifica películas, videojuegos y aplicaciones por edades para ayudar a los padres y hace campaña a favor de la seguridad en línea, mostró su preocupación por los posibles efectos del uso de estos “amigos virtuales, confidentes e incluso terapeutas”.
“Los peligros que representan para los jóvenes usuarios son reales, graves y están bien documentados”, afirma la asociación, que cita como ejemplo el “suicidio de un adolescente de 14 años que había desarrollado un vínculo afectivo con un compañero de IA”.
Justo ese caso se volvió mediático luego de conocerse la historia de Megan García, una madre en Florida, Estados Unidos, que demandó a Character.AI, acusándolos de haber influido en el suicidio de su hijo, Sewell Setzer, de apenas 14 años. Justo esa situación abrió una incógnita sin respuesta: ¿qué grado de responsabilidad tienen las compañías tecnológicas en los daños que sus productos causan a los usuarios?
La ONG subraya la propensión de estas herramientas a mostrarse generalmente de acuerdo con los usuarios, en lugar de animarles a pensar, algo particularmente preocupante para los cerebros adolescentes en desarrollo.
Varias plataformas “pueden generar fácilmente respuestas que van desde contenido sexual y estereotipos ofensivos hasta ‘consejos’ peligrosos que, de seguirse, podrían tener consecuencias graves o incluso fatales en la vida real”, sostiene Common Sense.
Así como lo habíamos contado en este diario, en el artículo titulado Mi terapeuta es un robot: ¿qué pasa cuando la IA se convierte en tu psicólogo?, hay un asunto vital en este tipo de interacciones con las inteligencias artificiales y es el asunto de la empatía, ya que por más reales que suenen las respuestas de la IA cuando le dices que acabas de terminar con tu novio o que tu mejor amiga te decepcionó, la empatía de los chatbots no es auténtica. Y no porque estén mintiendo, sino porque siguen siendo máquinas.
Por ello, esta ONG es enfática en recomendar que no se debe permitir el uso de estas herramientas a los menores.
Hay un punto muy importante en el estudio y es que subraya que el uso de compañeros de IA no es un interés de nicho, sino una conducta adolescente común.
“Los compañeros de IA están surgiendo en un momento en que los niños y adolescentes nunca se han sentido más solos”, dijo James P. Steyer, fundador y director ejecutivo de Common Sense Media. Esta ONG añadió en su página web que no se trata solo de una nueva tecnología, sino de una generación que está reemplazando la conexión humana con máquinas, externalizando la empatía a algoritmos y compartiendo detalles íntimos con empresas que no priorizan el bienestar de los niños.
“Nuestra investigación muestra que los compañeros de IA son mucho más comunes de lo que se creía, y que tenemos un margen limitado para educar a los niños y a las familias sobre los peligros, bien documentados, de estos productos”, añadió Steyer.
En otros puntos destacados en la investigación encontraron que uno de cada tres adolescentes usuarios de compañeros de IA reportan sentirse incómodos con algo que un compañero de IA ha dicho o hecho. Pero por otro lado, los adolescentes han optado por hablar de asuntos importantes o serios con compañeros de IA en lugar de con personas reales.
“Si bien los adolescentes pueden recurrir inicialmente a los compañeros de IA por entretenimiento y curiosidad, estos patrones demuestran que la tecnología ya está afectando su desarrollo social y su socialización en el mundo real. Nuestros hallazgos sobre riesgos para la salud mental, respuestas dañinas, ‘consejos’ peligrosos y juegos de rol sexuales explícitos hacen que estos productos no sean adecuados para menores. Para los adolescentes especialmente vulnerables a la dependencia tecnológica, incluidos los chicos, los adolescentes con problemas de salud mental y los adolescentes que experimentan eventos y transiciones vitales importantes, estos productos son especialmente riesgosos”, detallaron desde Common Sense Media.
Según esta ONG, hay que actuar pronto dada la adopción generalizada de compañeros de IA por parte de los adolescentes. También insistieron que hay que realizar más investigaciones.
“Si no se controla ni regula, el uso de compañeros de IA podría influir en la forma en que toda una generación aborda las relaciones y el apoyo emocional, con consecuencias potencialmente graves para el desarrollo saludable de los adolescentes”, precisaron.
Además de las legislaciones que esta ONG está liderando en Estados Unidos para prohibir o limitar el uso de estas herramientas en los menores hay una luz de esperanza porque también notaron cierto escepticismo sobre la tecnología (la mitad de los adolescentes desconfía de los consejos de IA), pero les preocupan más los adolescentes más jóvenes que son los que han mostrado más confianza en los compañeros de IA que los mayores, lo que revela una brecha en el conocimiento de la IA.
Otro punto bastante particular es que 6 de cada 10 adolescentes afirmaron que no se puede confiar en que las grandes empresas tecnológicas den prioridad a la salud mental, seguridad y bienestar. Pero ahí está la paradoja, desconfían de las grandes compañías, pero confían en sus programas de IA como si fueran amigos virtuales. Por eso esta ONG lanzó la alerta y espera que con educación, legislación e información confiable, se pueda actuar a tiempo y proteger la salud mental de niños, niñas y adolescentes en todo el mundo.
*Con información de AFP