Ojo con ultrasonido en primer trimestre de embarazo

Foto Pixabay

Foto Pixabay

No someter al feto a ultrasonido sin necesidad dice la recomendación de la FDA en Estados Unidos.

Una investigación nueva sugiere que los niños con autismo y una clase de desorden genético que son expuestos a ultrasonido en el primer trimestre de embarazo presentan una condición más severa.

El estudio publicado Autism Research estudió la variabilidad de los síntomas entre los niños con autismo, no las causas. Se halló que esa exposición aumenta la severidad del autismo en niños con ciertas variantes genéticas asociadas a esa condición. En el estudio 7% de los niños tenían esas variantes.

El hallazgo podría tener incidencias en nuevas recomendaciones médicas.

La relación solo se encontró en el primer trimestre, en el segundo y tercero no se detectó en la investigación que usó datos de 2.644 familias.

El resultado responde en parte porqué los niños con autismo son tan diferentes entre sí, pues hay factores que inciden en mejor cociente intelectual o mejores capacidades de lenguaje.

Dentro de los factores que inciden se ha propuesto el ultrasonido y en eso se centró el estudio.

Tal vez la mayor utilidad del estudio se encuentra en sugerir a las madres embarazadas no someterse a ultrasonido en el primer trimestre a menos que una condición especial lo amerite.

Ya los autores habían mostrado en 2014 en otro estudio que ratones expuestos a ultrasonido exhibían síntomas tipo autista.

El perro no habla, pero entiende las palabras

Foto Pixabay

Foto Pixabay

Sí, es así: los perros tienen la capacidad de distinguir palabras del vocabulario humano y la entonación gracias a regiones cerebrales similares a las que usan los humanos.

Eso sugiere un estudio que será publicado en Science esta semana. En él, Attila Andics et al.

Notan que el aprendizaje de vocabulario “no parece ser una capacidad humana exclusiva tras la aparición del lenguaje, sino una función mucho más antigua que puede ser explotada para vincular arbitrariamente secuencias de sonidos a significados”.

Las palabras son la base del lenguaje humano, pero difícil hallarlas en la comunicación vocal no humana. La entonación es otro modo en que se entrega información vía el discurso.

En este estudio, los científicos exploraron si los perros también dependían de esos mecanismos. Los perros fueron expuestos a grabaciones de sus entrenadores mientras les hablaban mediante distintas combinaciones de vocabulario y entonación, bien de modo neutral o alabándolos.

Se utilizaron imágenes de resonancia magnética funcional para analizar el cerebro de los perros mientras escuchaban cada combinación. Se halló que independiente de la entonación, los perros procesan vocabulario, reconociendo cada palabra como diferente y que lo hacen como los humanos usando el hemisferio izquierdo del cerebro.

Y como las personas, se detectó que los perros procesan la entonación por separado del vocabulario, en las regiones auditivas del hemisferio derecho. Por último, también como los humanos, se encontró que dependen del significado de las palabras y la entonación al procesar el valor de la pronunciación.

Entonces, se sugiere que los perros parecen entender tanto las palabras humanas como la entonación. Tal vez pudo ser a través de una estructura cerebral aparecida durante la domesticación, aunque no es fácil un proceso evolutivo rápido en ambos hemisferios cerebrales.

Cuando le hable a su perro sepa que lo entiende, así el no pueda hablarle.

A todos nos suena la música

Sí, un lenguaje universal. ¿Responden iguales cerebros distintos a la misma música? La respuesta es sí, según un estudio de la Escuela de Medicina de Stanford, y eso explica porqué el papel que juega en nuestra existencia social.

Los investigadores usaron imágenes de resonancia magnética funcional para identificar una red de estructuras cerebrales cuyos niveles de actividad subían y bajaban con un patrón sorprendentemente similar entre los participantes del estudio mientras escuchaban música clásica que nunca habían escuchado antes.

Los resultados del estudio fueron publicados en el European Journal of Neuroscience.

“Pasamos mucho tiempo escuchando música, a veces en grupos y a menudo acompañada de movimiento y danza”, dijo Vinod Menon, profesor de Siquiatría y Ciencias del Comportamiento y autor senior del estudio. “Demostramos que a pesar de nuestras diferencias individuales en la experiencia musical y en las preferencias, la música clásica produce un patrón de actividad muy consistente en estructuras cerebrales de las personas, incluidas aquellas relacionadas con la planeación del movimiento, la memoria y la atención”.

La noción de que sujetos sanos respondan de la misma manera a sonidos complejos, dijo Menon, podría aportar pistas sobre cómo los individuos con desórdenes del lenguaje y el habla podrían escuchar y seguir la información diferente a nosotros.

Bla, bla, bla… el gen que hace hablar más

Si las mujeres hablan más ha sido tema de discusión popular y científica desde hace mucho tiempo. Y podría ser cierto, al menos desde el punto de vista genético.

Un estudio publicado en el Journal of Neuroscience, realizado por investigadores de la Escuela de Medicina de la Universidad de Maryland en Baltimore (Estados Unidos) mostró que la proteína producida por el gen FOXP2 es más abundante en el cerebro de las mujeres jóvenes que en los muchachos, lo que parece respaldar la observación de que las niñas desarrollan el habla antes que los varones.

El gen fue descubierto hace cerca de una década y parece ser fundamental para el habla en humanos y la comunicación en ratones, aves y murciélagos.

Los científicos comenzaron sus experimentos con un grupo de ratones de 4 días de edad, separando machos y hembras de la madre y registrando los sonidos que emitía cada uno. Los machos producían dos veces más llamados que las hembras y cuando eran reunidos con la madre, ella los atendía primero. Cuando se estudió su cerebro, se encontró que la proteína era producida en más cantidad en los centros responsables de la vocalización en los machos que en los de las hembras. Y cuando se bloqueó la produccion de FOXP2 en aquellos, la madre no mostraba preferencia por ninguno.

Cuando el experimento se hizo en humanos, fue al contrario. Al medir la cantidad de la proteína en las áreas cerebrales responsables del lenguaje en niños de 4 y 5 años muertos recientemente en accidentes, se encontró un 30% más de FOXP2 en las niñas.

Los investigadores indicaron que se requieren más estudios para corroborar los hallazgos.

Ahí podría estar la clave de porqué no pocos piensan que las mujeres hablan más. O al menos, comienzan a hablar más rápido que los hombres.

Micos distinguen palabras escritas

Aunque carecen de lenguaje conocido, los babuinos pueden distinguir con precisión palabras de 4 letras en inglés de letras que no forman palabras, según un estudio publicado ayer en Science.

Esta situación, el análisis visual de las letras y sus posiciones en una palabra, es considerado por los científicos como el primer paso en el proceso de lectura y fundamentalmente de la dependencia del lenguaje. Por ejemplo, los niños pequeños aprenden a leer por el sonido de las palabras que conocen, pero el nuevo hallazgo sugiere que la capacidad para reconocer las palabras no se basa en habilidades del lenguaje sino en una antigua capacidad, compartida con otros primates, de procesar objetos visuales.

“En últimas, leer depende del lenguaje”, escribió Michael Platt, director del Duke Institute for Brain Sciences en Duke University en Durham, en una nota que acompañó al estudio en Science. “Pero en esa etapa del proceso de traducir símbolos escritos en un significado ¿es necesario el lenguaje? Las bases biológicas de la lectura “pueden estar enraizadas mucho más profundas en la historia humana de lo que se suponía”, dijo.

Un estudio en 2011 concluyó que el análisis visual de las letras, el proceso ortográfico, se presenta en una región del cerebro asociada con el reconocimiento de objetos, sugiriendo que cuando leemos, adaptaos los canales cerebrales que evolucionaron para reconocer los objetos de la vida diaria, como rocas, árboles, y para identificar palabras impresas.

Con base en esa idea, Jonathan Grainger y colegas del National Center for Scientific Research y la Université d’Aix-Marseille en Franci lanzaron la hipótesis de que el procesamiento ortográfico no dependería de un lenguaje predeterminado.

Durante 6 semanas entrenaron 6 babuinos (Papio papio) para discriminar al azar palabras seleccionadas de 4 letras, como wasp, kite, de las letras que no formaban palabras artificialmente generadas como stod.

Las palabras y las no-palabras fueron presentadas en ensayos de 100 palabras en una pantalla de computador y los babuinos recibían una golosina por identificar una palabra (presionando un óvalo) o una no-palabra (presionando una cruz).

Al comienzo, la pantalla repetía palabras con más frecuencia que no-palabras para enseñarles las palabras. Una vez los babuinos habían aprendido una palabra, eran capaces de reconocerla con un 80% de precisión. Cada nueva palabra se adicionaba al conjunto de palabras ya aprendidas y de no-palabras.

Un babuino fue capaz de distinguir 308 palabras de 7.832 no-palabras con un 75% de exactitud.

Los primates no estaban solo memorizando cuáles secuencias de letras eran palabras y cuáles no. Tras la fase inicial de aprendizaje, cuando se les presentaba una palabra nueva por primera vez, la calificaban de palabra más a menudo que lo que calificaban de no-palabra.

“Es una evidencia de que han extraído implícitamente información acerca de lo que distingue las palabras reales de las no palabras”, dijo Grainger. Esa información incluye probablemente cuáles combinaciones de letras aparecen con mayor frecuencia en palabras versus no-palabras, como la K delante de l I en kite y en kill. Además, mientras más parecida una palabra con una no-palabra, más probable que los babuinos respondieran que era una palabra, una tendencia encontrada también hace poco en personas, lo que sugiere que humanos y babuinos compartimos capacidades de procesamiento ortográfico similares.

Cuervos se comunican por gestos

Señalar y coger objetos para llamar la atención es una conducta solo observada en humanos y nuestros parientes cercanos: los grandes simios.

Pero Simona Pika, del Max Planck Institute for Ornithology y Thomas Bugnyar, de la Universidad de Viena, entregaron la primera evidencia de que los cuervos (Corvus corax) también usan los gestos deícticos para verificar el interés de una potencial pareja o para fortalecer un lazo ya existente.

Hacia los nueves meses los bebés humanos comienzan a usar gestos deícticos como señalar o tomar objetos, previo a las primeras palabras. Los científicos piensan que tales gestos se fundamentan en capacidades de inteligencia relativamente complejas y representan el punto de inicio para el uso de símbolos y por tanto del lenguaje humano. Los gestos deícticos son marcas en el desarrollo del habla humana.

La observación de tales gestos entre los grandes simios, para sorpresa, es más bien escasa. Los chimpancés (Pan troglodytes) en el Parque Nacional Kibala en Uganda, por ejemplo, emplean el rascado directo para indicar distintos puntos de su cuerpo para ser aseados.

Esta comunicación deíctica había sido reservada solo para los primates. Según aquellos dos investigadores, esa conducta no está restringida a humanos y grandes simios. Por dos años investigaron la conducta no vocal de miembros marcados de una comunidad cuervos salvajes en el Cumberland Wildpark en Grünau, Austria.

Pudieron observar que los cuervos usan sus picos como las manos para mostrar y ofrecer objetos como musgos, piedras y palos. Esos gestos estaban dirigidos sobre todo a parejas del sexo opuesto y resultaron en la orientación frecuente de los recipientes hacia los objetos y los que los señalaban. Subsecuentemente, los cuervos interactuaban uno con otro, por ejemplo manipulando juntos el objeto.

Los cuervos son aves de la familia de los córvidos, como las urracas, sobrepasan en inteligencia a la mayoría de las otras especies aviares.

Sus marcas en varios test de inteligencia son tan altos como los de los grandes simios. Los cuervos en particular se caracterizan por una comunicación intra-pareja compleja, largos periodos para formar lazos de unión y un alto grado de cooperación entre compañeros.

El nuevo estudio revela que los gestos diferenciados han evolucionado en especies con un alto grado de capacidades colaborativas.

Hablamos por culpa de una mutación

Aunque hablar nos parece normal y no hacerlo algo anormal, ¿por qué hablamos? Científicos parecen tener una explicación algo más clara.

Una mutación que apareció hace más de 500.000 años puede haber ayudado a los humanos a aprender los complejos movimientos musculares críticos para el discurso y el lenguaje.

La explicación surgió tras un estudio con ratones modificados genéticamente para producir una forma del gen FOXP2: con él aprenden más fácil que sus contrapartes sin el gen.

El estudio fue presentado por Christiane Schreiweis, neurocientífico del Max Planck Institute for Evolutionary Anthropology en Leipzig (Alemania) en el encuentro anual de la Sociedad para las Neurociencias en Washington.

El gen FOXP2 fue descubierto en los años 90 gracias al estudio de una familia británica conocida como KE en la que tres generaciones sufrieron severos problemas del habla y el lenguaje. Se encontró que aquellos con inconvenientes en el lenguaje compartían una mutación heredada que inactiva una copia del gen.

La mayoría de los vertebrados poseen versiones casi idénticas del gen, involucrado en el desarrollo de circuitos cerebrales importantes para el aprendizaje del movimiento. La versión humana del FOXP2, la proteína codificada por el gen, difiere de la de los chimpancés en dos aminoácidos, sugiriendo que los cambios en la forma humana podría haber estado envuelta en la evolución del lenguaje.

Un equipo liderado por Svante Pääbo, colega de Schreweis, descubrió que el gen es idéntico en humanos modernos (Homo sapiens) y Neandertales (Homo neanderthalensis), sugiriendo que la mutación apareció antes de que esos dos linajes se separaran hace cerca de 500.000 años.

Por eso hablamos.

No es lo bonito, es como habla…

¿Cómo escoger pareja? No sólo la presencia física. También la personalidad, y los valores. No es inusual que se elija alguien que se parezca a uno en distintos aspectos. Pero todo estos son ingredientes de la receta. Hay otros. ¿Cómo cuáles?

Un estudio publicado en Psychological Science revela que las personas que hablan con un estilo similar son más compatibles. El estudio se centró en las palabras de función. “No son sustantivos ni verbos; son las palabras que muestran cómo esos otros vocablos se relacionan, son palabras que usamos todo el tiempo, como el, un, ser, algo, esto, él, y. Cómo las empleamos define nuestro estilo de conversar y escribir”, dice James Pennebaker, coautor del estudio, de la Universidad de Texas en Austin.

“Las palabras de función son muy sociales y su uso requiere habilidades sociales”, agrega. “Si por ejemplo estoy hablando de un artículo que aparecerá y en pocos minutos hago alguna referencia sobre el artículo, usted y yo sabemos lo que el artículo significa, pero alguien que no haga parte de la conversación no entendería”.

Pennebaker, Molly Ireland y colegas examinaron si los estilos para hablar y escribir que las parejas adoptan durante la conversación con el otro predicen la conducta futura sobre las salidas juntos y la fortaleza a largo plazo de su relación. Los experimentos los condujeron con un programa de computador comparando los estilos de lenguaje de los dos miembros de la pareja.

En el primer estudio, las parejas cuyo estilo de lenguaje tenía concordancias era cuatro veces más factible que quisieran seguir en contacto.

En el segundo, basado en chats diarios entre parejas que se frecuentaban, casi 80 por ciento de las parejas cuyo estilo de escritura se emparejaba, aún salían tres meses después, contra el 54 por ciento de las que no concordaban.

Lo que la gente se dice uno al otro es importante, pero cómo lo dice puede ser más revelador. Las personas no sincronizan deliberadamente su discurso. No hacemos esa decisión, sólo sale de nuestras bocas”, dice Pennebaker.

(Si desea ver si usted y su pareja tienen un estilo de lenguaje similar, visite la aplicación online en In Synch: Language Style Matching, en el sitio http://www.utpsyc.org/synch/

Los bebés aprenden el idioma desde el útero

Los fetos humanos son capaces de memorizar los estímulos auditivos del mundo externo hacia el último trimestre de embarazo, con una particular sensibilidad a la melodía, tanto en la música como en el lenguaje.
Es lo que encontraron Birgit Mampe y colegas de la Universidad Würzburg en Alemania, según un artículo en Current Biology.
Los recién nacidos prefieren la voz de su madre sobre otras y además perciben el contenido emocional de los mensajes transmitidos vía la entonación en el habla de la madre, concluyeron los investigadores.
Para llegar a esa conclusión, analizaron los patrones del llanto de 30 bebés recién nacidos franceses y 30 alemanes con respecto a su melodía e intensidad.

12