Las palomas aprenden a leer

Foto Wikipedia

Foto Wikipedia

Solo les falta hablar porque… leer ya saben las palomas.

Bueno, no exactamente, pero un estudio reveló que aprenden a distinguir palabras reales de otras que no lo son gracias al procesamiento visual de las combinaciones de letras.

La investigación demuestra que el desempeño de estas aves está a la par con el de los babuinos en este tipo de pruebas complejas. Así, es la primera vez que se identifican capacidades ‘ortográficas’ en una especie no primate.

Las palomas fueron entrenadas para picotear palabras en inglés de cuatro letras cuando aparecían en una pantalla o picotear un símbolo cuando las cuatro letras no dijeran nada, como ursp. Poco a poco se agregaban palabras a las cuatro palomas construyendo vocabularios de 26 a 58 palabras y cerca de 8000 no-palabras.

Para controlar que no memorizaran, introducían palabras que nunca les habían presentado.

Las palomas identificaron correctamente las nuevas palabras a una tasa mucho más allá del azar.

El estudio, de las Universidades de Otago en Nueva Zelanda y la alemana Ruhr, apareció en Proceedings ot the National Academy of Sciences.

El perro no habla, pero entiende las palabras

Foto Pixabay

Foto Pixabay

Sí, es así: los perros tienen la capacidad de distinguir palabras del vocabulario humano y la entonación gracias a regiones cerebrales similares a las que usan los humanos.

Eso sugiere un estudio que será publicado en Science esta semana. En él, Attila Andics et al.

Notan que el aprendizaje de vocabulario “no parece ser una capacidad humana exclusiva tras la aparición del lenguaje, sino una función mucho más antigua que puede ser explotada para vincular arbitrariamente secuencias de sonidos a significados”.

Las palabras son la base del lenguaje humano, pero difícil hallarlas en la comunicación vocal no humana. La entonación es otro modo en que se entrega información vía el discurso.

En este estudio, los científicos exploraron si los perros también dependían de esos mecanismos. Los perros fueron expuestos a grabaciones de sus entrenadores mientras les hablaban mediante distintas combinaciones de vocabulario y entonación, bien de modo neutral o alabándolos.

Se utilizaron imágenes de resonancia magnética funcional para analizar el cerebro de los perros mientras escuchaban cada combinación. Se halló que independiente de la entonación, los perros procesan vocabulario, reconociendo cada palabra como diferente y que lo hacen como los humanos usando el hemisferio izquierdo del cerebro.

Y como las personas, se detectó que los perros procesan la entonación por separado del vocabulario, en las regiones auditivas del hemisferio derecho. Por último, también como los humanos, se encontró que dependen del significado de las palabras y la entonación al procesar el valor de la pronunciación.

Entonces, se sugiere que los perros parecen entender tanto las palabras humanas como la entonación. Tal vez pudo ser a través de una estructura cerebral aparecida durante la domesticación, aunque no es fácil un proceso evolutivo rápido en ambos hemisferios cerebrales.

Cuando le hable a su perro sepa que lo entiende, así el no pueda hablarle.

Logran que ciegos lean

Por primera vez investigadores proyectaron patrones braille directamente en la retina de paciente ciego permitiéndole leer con precisión palabras de 4 letras de manera rápida con un dispositivo ocular neutroprostético.

El dispositivo, Argus II, ha sido implantado en más de 50 pacientes, muchos de ellos cuales ahora pueden ver color, movimiento y objetos. Todos utilizan una pequeña cámara montada en un par de lentes, un procesador portátil para convertir la señal de la cámara en un estímulo eléctrico, y un microchip con electrodos implantado directamente en la retina.

El estudio fue hecho por investigadores en Second Sight, la compañía que desarrolló el dispositivo y fue publicado en Frontiers in Neuroprosthetics.

“En esta prueba clínica con un solo paciente ciego, omitimos la cámara, que es el suministro usual para el implante y estimulamos así directamente la retina. En vez de sentir el braille en la punta de sus dedos, el paciente pudo ver los patrones que proyectamos y luego leer las letras en menos de un segundo con una precisión del 89%”, expresó Thomas Lauritzen, principal autor del artículo.

Con un concepto similar a los exitosos implantes cocleares, el implante visual utiliza una red de 60 electrodos -adheridos a la retina- para estimular los patrones directamente sobre las células nerviosas. Para el estudio, los científicos usaron un computador para estimular seis de esos puntos en la red para proyectar las letras braille. Luego se hicieron pruebas con letras solas así como palabras de 2 a 4 letras. Al paciente se le mostró cada letra durante medio segundo y tuvo una precisión del 80% en las palabras cortas.

“No hubo corriente diferentes a la estimulación de electrodos y el paciente reconoció las letras braille con facilidad. Esto demuestra que tiene buena resolución espacial dado que pudo distinguir entre señales en sobre electrodos individuales diferentes”, dijo Lauritzen.

Argus II, inicialmente para quienes padecen le enfermedad genética retinitis pigmentaria, ha mostrado que restaura una capacidad limitada de lectura de grandes letras convencionales y palabras cortas cuando se usan en la cámara. Si bien leer puede mejorar con futuras mejoras de Argus II, este estudio muestra que el dispositivo podría ser adaptado para brindar un método alternativo más rápido de leer textos con la adición de un software de reconocimiento de letras.

Foto cortesía Second Sight

Micos distinguen palabras escritas

Aunque carecen de lenguaje conocido, los babuinos pueden distinguir con precisión palabras de 4 letras en inglés de letras que no forman palabras, según un estudio publicado ayer en Science.

Esta situación, el análisis visual de las letras y sus posiciones en una palabra, es considerado por los científicos como el primer paso en el proceso de lectura y fundamentalmente de la dependencia del lenguaje. Por ejemplo, los niños pequeños aprenden a leer por el sonido de las palabras que conocen, pero el nuevo hallazgo sugiere que la capacidad para reconocer las palabras no se basa en habilidades del lenguaje sino en una antigua capacidad, compartida con otros primates, de procesar objetos visuales.

“En últimas, leer depende del lenguaje”, escribió Michael Platt, director del Duke Institute for Brain Sciences en Duke University en Durham, en una nota que acompañó al estudio en Science. “Pero en esa etapa del proceso de traducir símbolos escritos en un significado ¿es necesario el lenguaje? Las bases biológicas de la lectura “pueden estar enraizadas mucho más profundas en la historia humana de lo que se suponía”, dijo.

Un estudio en 2011 concluyó que el análisis visual de las letras, el proceso ortográfico, se presenta en una región del cerebro asociada con el reconocimiento de objetos, sugiriendo que cuando leemos, adaptaos los canales cerebrales que evolucionaron para reconocer los objetos de la vida diaria, como rocas, árboles, y para identificar palabras impresas.

Con base en esa idea, Jonathan Grainger y colegas del National Center for Scientific Research y la Université d’Aix-Marseille en Franci lanzaron la hipótesis de que el procesamiento ortográfico no dependería de un lenguaje predeterminado.

Durante 6 semanas entrenaron 6 babuinos (Papio papio) para discriminar al azar palabras seleccionadas de 4 letras, como wasp, kite, de las letras que no formaban palabras artificialmente generadas como stod.

Las palabras y las no-palabras fueron presentadas en ensayos de 100 palabras en una pantalla de computador y los babuinos recibían una golosina por identificar una palabra (presionando un óvalo) o una no-palabra (presionando una cruz).

Al comienzo, la pantalla repetía palabras con más frecuencia que no-palabras para enseñarles las palabras. Una vez los babuinos habían aprendido una palabra, eran capaces de reconocerla con un 80% de precisión. Cada nueva palabra se adicionaba al conjunto de palabras ya aprendidas y de no-palabras.

Un babuino fue capaz de distinguir 308 palabras de 7.832 no-palabras con un 75% de exactitud.

Los primates no estaban solo memorizando cuáles secuencias de letras eran palabras y cuáles no. Tras la fase inicial de aprendizaje, cuando se les presentaba una palabra nueva por primera vez, la calificaban de palabra más a menudo que lo que calificaban de no-palabra.

“Es una evidencia de que han extraído implícitamente información acerca de lo que distingue las palabras reales de las no palabras”, dijo Grainger. Esa información incluye probablemente cuáles combinaciones de letras aparecen con mayor frecuencia en palabras versus no-palabras, como la K delante de l I en kite y en kill. Además, mientras más parecida una palabra con una no-palabra, más probable que los babuinos respondieran que era una palabra, una tendencia encontrada también hace poco en personas, lo que sugiere que humanos y babuinos compartimos capacidades de procesamiento ortográfico similares.

Otro paso para leer la mente

Más cerca de leer el pensamiento y entender lo que una persona que no puede comunicarse piensa, quedó la ciencia tras una investigación publicada en Plos Biology

Mediante la grabación de impulsos nerviosos en las regiones cerebrales que procesan el sonido, los científicos pudieron recrear las palabras en las que pensaba una persona.

Científicos de la Universidad de California en Berkeley demostraron que la actividad eléctrica del cerebro puede ser decodificada para reconstruir qué palabras está escuchando una persona.

Brian Pasley, neurocientífico, y colegas, grabaron la actividad cerebral de 15 personas bajo evaluación antes de distintos procedimientos neuroquirúrgicos. Colocaron electrodos en la superficie del giro superior temporal, parte del sistema auditivo del cerebro, para grabar la actividad neuronal de esos sujetos en respuesta a palabras y frases pregrabadas.

Se cree que el giro participa en las etapas intermedias del procesamiento del discurso, como es la transformación de los sonidos en fonemas, o sonidos del habla, pero poco se sabe acerca de los rasgos específicos, como la tasa de sílabas o el volumen de las fluctuaciones que representa.

Para analizar los datos de las grabaciones con electrodos, emplearon un algoritmo diseñado para extraer rasgos claves de las palabras habladas, como el tiempo del periodo y el cambio de volumen entre las sílabas.

Luego entraron los datos en un modelo computacional para reconstruir los diagramas de la voz (¿‘vozgramas’?) mostrando cómo cambiaban los rasgos en el tiempo para cada palabra. Hallaron que esos diagramas podían reproducir los sonidos que los pacientes escuchaban con la suficiente precisión para reconocer cada palabra.

“Si podemos entender cómo participa cada área del cerebro en este proceso, podemos comenzar a entender cómo funcionan mal estos mecanismos neuronales en desórdenes de la comunicación como la afasia”, dijo Pasley.

El grupo de científicos está interesado en las similitudes entre el discurso percibido y el imaginado. “Hay alguna evidencia de que percepción e imaginación pueden ser muy similares en el cerebro”.

Esas similitudes podrían llevar eventualmente al desarrollo de interfaces cerebro-computador que decodifiquen la actividad cerebral asociada con el discurso imaginado de las personas que son incapaces de comunicarse, como aquellas afectadas por derrames o enfermedades neuromotrices o síndromes.

No es lo bonito, es como habla…

¿Cómo escoger pareja? No sólo la presencia física. También la personalidad, y los valores. No es inusual que se elija alguien que se parezca a uno en distintos aspectos. Pero todo estos son ingredientes de la receta. Hay otros. ¿Cómo cuáles?

Un estudio publicado en Psychological Science revela que las personas que hablan con un estilo similar son más compatibles. El estudio se centró en las palabras de función. “No son sustantivos ni verbos; son las palabras que muestran cómo esos otros vocablos se relacionan, son palabras que usamos todo el tiempo, como el, un, ser, algo, esto, él, y. Cómo las empleamos define nuestro estilo de conversar y escribir”, dice James Pennebaker, coautor del estudio, de la Universidad de Texas en Austin.

“Las palabras de función son muy sociales y su uso requiere habilidades sociales”, agrega. “Si por ejemplo estoy hablando de un artículo que aparecerá y en pocos minutos hago alguna referencia sobre el artículo, usted y yo sabemos lo que el artículo significa, pero alguien que no haga parte de la conversación no entendería”.

Pennebaker, Molly Ireland y colegas examinaron si los estilos para hablar y escribir que las parejas adoptan durante la conversación con el otro predicen la conducta futura sobre las salidas juntos y la fortaleza a largo plazo de su relación. Los experimentos los condujeron con un programa de computador comparando los estilos de lenguaje de los dos miembros de la pareja.

En el primer estudio, las parejas cuyo estilo de lenguaje tenía concordancias era cuatro veces más factible que quisieran seguir en contacto.

En el segundo, basado en chats diarios entre parejas que se frecuentaban, casi 80 por ciento de las parejas cuyo estilo de escritura se emparejaba, aún salían tres meses después, contra el 54 por ciento de las que no concordaban.

Lo que la gente se dice uno al otro es importante, pero cómo lo dice puede ser más revelador. Las personas no sincronizan deliberadamente su discurso. No hacemos esa decisión, sólo sale de nuestras bocas”, dice Pennebaker.

(Si desea ver si usted y su pareja tienen un estilo de lenguaje similar, visite la aplicación online en In Synch: Language Style Matching, en el sitio http://www.utpsyc.org/synch/

Adivinando las palabras

No es nada del otro mundo: cuando a usted le hablan, o escucha a un orador, como que anticipa palabras, ya sabe cuál será la próxima que le dirán. Pues bien, científicos de la Universidad de Rochester demostraron por primera vez que nuestro cerebro considera automáticamente varias palabras posibles y sus significados antes incluso de haberlas escuchado.
Algunas teorías previas han propuesto que los oyentes solo podían mantenerse a la par con el lenguaje hablado, unas 5 sílabas por segundo, al anticipar un subgrupo de todas las palabras conocidas por ellos, similar a como la búsqueda en Google anticipa palabras y frases mientras usted escribe.
Este subgrupo consiste en todas las palabras que comienzan con el mismo sonido, como café, cafeína, cafetera, lo que hace que así sea más eficiente entender una palabra específica que esperar hasta que el sonido completo de esa palabra ha sido pronunciado.
Hasta ahora los científicos no tenían modo de conocer si el cerebro consideraba el significado de esas tres posibles palabras. Ahora, mediante imágenes con escáner, pudieron ver la actividad cerebral implicada en ese proceso, algo no logrado hasta ahora y quizás impensado.
El estudio fue hecho por Pirog Revill y tres miembros del Departamento de Ciencias del Cerebro y el Conocimiento en esa universidad.