Tendencias

¿Cuántos megabytes de información necesita su cerebro para aprender inglés?

Periodista, científica frustrada, errante y enamorada de los perros. Eterna aprendiz.

01 de abril de 2019

Un bebé pasa de balbucear a hablar en poco tiempo y para algunos esto puede parecer una acción sin esfuerzo. Sin embargo los hallazgos, publicados este lunes en la revista Royal Society Open Science, desafían los supuestos de que la adquisición del lenguaje humano ocurre naturalmente (usado como sinónimo de sin esfuerzo), y que a los robots les sería fácil dominarlo.

Pero una nueva investigación de la Universidad de California, Berkeley, sugiere que la adquisición del lenguaje entre el nacimiento y los 18 años es una notable hazaña de cognición, en lugar de algo que los humanos simplemente están programados para hacer.

“El nuestro es el primer estudio en poner un número en la cantidad que tienes que aprender para adquirir el lenguaje”, dijo en un comunicado el autor principal del estudio Steven Piantadosi, profesor asistente de psicología en la Universidad de California en Berkeley. “Resalta que los niños y adolescentes son aprendices notables, que absorben más de 1,000 bits de información cada día”.

Desde la infancia hasta la edad adulta temprana -según calcularon los investigadores-, los niños absorben aproximadamente 12.5 millones de bits de información sobre el lenguaje para adquirir el conocimiento lingüístico completo; es decir aproximadamente dos bits por minuto. Si se convierte en código binario (sistema numérico de dos dígitos, o bit: el “0” y el “1”), los datos llenarían un disquete de 1,5 MB o o el equivalente a una canción de un minuto como un archivo Mp3, según el estudio.

Para explicar mejor la forma en la que esto se analizó, piense en cuando se le presenta una palabra como gallina. Por lo general un aprendiz recopila fragmentos de información preguntando: “¿Es una gallina un pájaro? ¿Sí o no? ¿Una gallina vuela? ¿Sí o no?” y así sucesivamente, hasta comprender el significado completo de la palabra “gallina”.

Un bit, o dígito binario, es una unidad básica de datos en computación, y los computadores almacenan información y calculan utilizando solo ceros y unos. El estudio utiliza la definición estándar de ocho bits a un byte.

“Cuando piensas en un niño que tiene que recordar millones de ceros y unos (en lenguaje), eso dice que deben tener mecanismos de aprendizaje realmente impresionantes”, agregó Piantadosi.

Esto es también lo que diferencia a los aprendices humanos de los aprendices de robots, agregó. “Las máquinas saben qué palabras van juntas y dónde van en oraciones, pero saben muy poco sobre el significado de las palabras”.

“Una gran cantidad de investigación sobre el aprendizaje de idiomas se centra en la sintaxis, como el orden de las palabras”, dijo Piantadosi. “Pero nuestro estudio muestra que la sintaxis representa solo una pequeña parte del aprendizaje de idiomas, y que la principal dificultad tiene que estar en aprender lo que significan tantas palabras”.

Debido a que los significados de las palabras pueden ser muy similares en todos los idiomas, Piantadosi anotó que las personas bilingües probablemente no tienen que almacenar el doble de información.

Fuentes: Live Science, Eurekalert, Science Daily.