Los neurocientíficos del MIT han identificado una población de neuronas en el cerebro humano que responde al canto pero no a otros tipos de música.

Por primera vez, los neurocientíficos del MIT han identificado una población de neuronas en el cerebro humano que se enciende cuando escuchamos cantar, pero no otros tipos de música.

Estas neuronas, que se encuentran en la corteza auditiva, parecen responder a la combinación específica de voz y música, pero no al habla normal ni a la música instrumental. Se desconoce exactamente lo que están haciendo y requerirá más trabajo descubrirlo, dicen los investigadores.

«El trabajo proporciona evidencia de una segregación de funciones relativamente fina dentro de la corteza auditiva, de una manera que se alinea con una distinción intuitiva dentro de la música», dice Sam Norman-Haignere, ex postdoctorado del MIT que ahora es profesor asistente de neurociencia en el Centro Médico de la Universidad de Rochester.

El trabajo se basa en un estudio de 2015 en el que el mismo equipo de investigación utilizó imágenes de resonancia magnética funcional (fMRI) para identificar una población de neuronas en la corteza auditiva del cerebro que responde específicamente a la música. En el nuevo trabajo, los investigadores utilizaron registros de actividad eléctrica tomados en la superficie del cerebro, lo que les proporcionó información mucho más precisa que la resonancia magnética funcional.

“Hay una población de neuronas que responde al canto, y luego, muy cerca, hay otra población de neuronas que responde ampliamente a mucha música. A la escala de resonancia magnética funcional, están tan cerca que no se pueden desenredar, pero con las grabaciones intracraneales, obtenemos una resolución adicional, y eso es lo que creemos que nos permitió separarlos”, dice Norman-Haignere.

Norman-Haignere es el autor principal del estudio, que aparece hoy en la revista Current Biology. Josh McDermott, profesor asociado de ciencias cerebrales y cognitivas, y Nancy Kanwisher, profesora Walter A. Rosenblith de Neurociencia Cognitiva, ambos miembros del Instituto McGovern para la Investigación del Cerebro y del Centro de Cerebros, Mentes y Máquinas (CBMM) del MIT, son los principales autores del estudio.

Grabaciones neuronales

En su estudio de 2015, los investigadores utilizaron fMRI para escanear los cerebros de los participantes mientras escuchaban una colección de 165 sonidos, incluidos diferentes tipos de habla y música, así como sonidos cotidianos como el golpeteo de los dedos o el ladrido de un perro. Para ese estudio, los investigadores idearon un método novedoso para analizar los datos de fMRI, que les permitió identificar seis poblaciones neuronales con diferentes patrones de respuesta, incluida la población selectiva de música y otra población que responde selectivamente al habla.

En el nuevo estudio, los investigadores esperaban obtener datos de mayor resolución utilizando una técnica conocida como electrocorticografía (ECoG), que permite registrar la actividad eléctrica mediante electrodos colocados dentro del cráneo. Esto ofrece una imagen mucho más precisa de la actividad eléctrica en el cerebro en comparación con la IRMf, que mide el flujo sanguíneo en el cerebro como indicador de la actividad neuronal.

“Con la mayoría de los métodos de la neurociencia cognitiva humana, no se pueden ver las representaciones neuronales”, dice Kanwisher. “La mayoría de los tipos de datos que podemos recopilar pueden decirnos que aquí hay una parte del cerebro que hace algo, pero eso es bastante limitado. Queremos saber qué está representado allí”.

Por lo general, la electrocorticografía no se puede realizar en humanos porque es un procedimiento invasivo, pero a menudo se usa para controlar a los pacientes con epilepsia que están a punto de someterse a una cirugía para tratar sus convulsiones. Los pacientes son monitoreados durante varios días para que los médicos puedan determinar dónde se originan sus convulsiones antes de operar. Durante ese tiempo, si los pacientes están de acuerdo, pueden participar en estudios que implican medir su actividad cerebral mientras realizan ciertas tareas. Para este estudio, el equipo del MIT pudo recopilar datos de 15 participantes durante varios años.

Para esos participantes, los investigadores tocaron el mismo conjunto de 165 sonidos que usaron en el estudio anterior de IRMf. Los cirujanos determinaron la ubicación de los electrodos de cada paciente, por lo que algunos no detectaron ninguna respuesta a la entrada auditiva, pero muchos sí. Usando un nuevo análisis estadístico que desarrollaron, los investigadores pudieron inferir los tipos de poblaciones neuronales que produjeron los datos registrados por cada electrodo.

“Cuando aplicamos este método a este conjunto de datos, apareció este patrón de respuesta neuronal que solo respondía al canto”, dice Norman-Haignere. «Este fue un hallazgo que realmente no esperábamos, por lo que justifica en gran medida el objetivo del enfoque, que es revelar cosas potencialmente novedosas que quizás no pienses buscar».

Esa población de neuronas específica de la canción tuvo respuestas muy débiles al habla o a la música instrumental y, por lo tanto, es distinta de las poblaciones selectivas de la música y el habla identificadas en su estudio de 2015.

Música en el cerebro

En la segunda parte de su estudio, los investigadores idearon un método matemático para combinar los datos de las grabaciones intracraneales con los datos de fMRI de su estudio de 2015. Debido a que fMRI puede cubrir una porción mucho más grande del cerebro, esto les permitió determinar con mayor precisión las ubicaciones de las poblaciones neuronales que responden al canto.

“Esta forma de combinar ECoG y fMRI es un avance metodológico significativo”, dice McDermott. “Mucha gente ha estado haciendo ECoG durante los últimos 10 o 15 años, pero siempre ha estado limitado por este problema de la escasez de grabaciones. Sam es realmente la primera persona que descubrió cómo combinar la resolución mejorada de las grabaciones de electrodos con datos de fMRI para obtener una mejor localización de las respuestas generales”.

El punto de acceso específico de la canción que encontraron está ubicado en la parte superior del lóbulo temporal, cerca de las regiones que son selectivas para el lenguaje y la música. Esa ubicación sugiere que la población específica de la canción puede estar respondiendo a características como el tono percibido o la interacción entre las palabras y el tono percibido, antes de enviar información a otras partes del cerebro para su posterior procesamiento, dicen los investigadores.

Los investigadores ahora esperan aprender más sobre qué aspectos del canto impulsan las respuestas de estas neuronas. También están trabajando con el laboratorio de la profesora del MIT Rebecca Saxe para estudiar si los bebés tienen áreas selectivas de música, con la esperanza de aprender más sobre cuándo y cómo se desarrollan estas regiones del cerebro.

La investigación fue financiada por los Institutos Nacionales de Salud, la Oficina de Investigación del Ejército de EE. UU., la Fundación Nacional de Ciencias, el Centro de Ciencia y Tecnología para Cerebros, Mentes y Máquinas de la NSF, la Fondazione Neurone y el Instituto Médico Howard Hughes.

Fuente: https://news.mit.edu/2022/singing-neurons-0222 – mar 2022

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *