Neurocientíficos de la Universidad de California, Berkeley han logrado descifrar la actividad eléctrica en una región del sistema auditivo humano llamada circunvolución temporal superior (STG, por sus siglas en inglés) al analizar el patrón de actividad en la STG, fueron capaces de reconstruir las palabras que los sujetos escuchaban en una conversación normal.
Los hallazgos se basaron en la participación de 15 personas que se sometieron a cirugía cerebral para determinar la ubicación de convulsiones intratables a través de electrodos que se colocan en la superficie del cerebro o corteza. Se utilizaron 256 electrodos para medir la actividad cerebral en una conversación que duró de 5 a 10 minutos. Según los científicos, el cerebro se rompe el sonido en frecuencias, entre un mínimo de alrededor de 1 Hertz (ciclos por segundo) a un máximo de unos 8.000 Hertz, que son importantes para los sonidos del habla. La investigación puede conducir a una tecnología que nos permita escuchar a los pacientes, que son incapaces de hablar debido a un accidente cerebrovascular o parálisis. “Podríamos reconstruir las conversaciones imaginadas de la actividad del cerebro, miles de personas podrían beneficiarse”, dijo Robert Knight, profesor UC de Berkeley de la psicología y la neurociencia.
“Estamos buscando los sitios que incrementan la actividad cortical, en particular por las frecuencias acústicas, para trazar el mapa del sonido en el cerebro”, dijo el primer autor de la investigación Dr. Brian Pasley. Él comparó la técnica con un pianista que conoce los sonidos de las teclas tan bien que puede ver las teclas y escuchar la música de otro pianista aun si éste está tocando en una habitación a prueba de sonido, como Ludwig van Beethoven fue capaz de oír sus composiciones a pesar de ser sordo.
Hay cierta evidencia de que al escuchar o imaginar un sonido se activan áreas similares del cerebro. Si pudiéramos entender la relación entre las grabaciones del cerebro y el sonido, bien podrían sintetizar el sonido real que una persona está pensando, o simplemente escribir las palabras con un tipo de dispositivo de interfaz.
La investigación actual se basa en el trabajo de otros investigadores sobre cómo los animales codifican los sonidos en la corteza auditiva del cerebro. De hecho, algunos investigadores, entre los coautores del estudio de la Universidad de Maryland, han sido capaces de adivinar las palabras de los hurones y que eran leídas por los científicos basados en las grabaciones del cerebro, a pesar de que los hurones fueron incapaces de entender las palabras obviamente.
El objetivo final del estudio fue explorar cómo el cerebro humano codifica el habla, y determinar qué aspectos del lenguaje son más importantes para la comprensión. En el Podcast que acompaña a artículo, el editor de PLoS Biology, Shah Ruchir, Robert Knight y Brian Pasley discutien sus hallazgos principales, las aplicaciones como prótesis neuronales, y las posibles implicaciones éticas de leer la mente.