La IA ahora puede decodificar palabras directamente de las ondas cerebrales

Pin
Send
Share
Send

Los neurocientíficos están enseñando a las computadoras a leer palabras directamente del cerebro de las personas.

Kelly Servick, escribiendo para Science, informó esta semana sobre tres artículos publicados en el servidor de preimpresión bioRxiv en los que tres equipos diferentes de investigadores demostraron que podían decodificar el discurso a partir de grabaciones de neuronas disparando. En cada estudio, los electrodos colocados directamente en el cerebro registraron la actividad neuronal mientras los pacientes de cirugía cerebral escuchaban el habla o leían las palabras en voz alta. Luego, los investigadores trataron de averiguar qué escuchaban o decían los pacientes. En cada caso, los investigadores pudieron convertir la actividad eléctrica del cerebro en archivos de sonido al menos algo inteligibles.

El primer artículo, publicado en bioRxiv el 10 de octubre de 2018, describe un experimento en el que los investigadores reprodujeron grabaciones de discurso a pacientes con epilepsia que estaban en medio de una cirugía cerebral. (Las grabaciones neurales tomadas en el experimento tuvieron que ser muy detalladas para ser interpretadas. Y ese nivel de detalle solo está disponible durante las raras circunstancias en que un cerebro está expuesto al aire y se le colocan electrodos directamente, como en una cirugía cerebral .)

Mientras los pacientes escuchaban los archivos de sonido, los investigadores registraron neuronas disparando en las partes del cerebro de los pacientes que procesan el sonido. Los científicos probaron varios métodos diferentes para convertir esos datos de activación neuronal en habla y descubrieron que el "aprendizaje profundo", en el que una computadora intenta resolver un problema más o menos sin supervisión, funcionaba mejor. Cuando reprodujeron los resultados a través de un codificador de voz, que sintetiza voces humanas, para un grupo de 11 oyentes, esas personas pudieron interpretar correctamente las palabras el 75 por ciento de las veces.

Puedes escuchar el audio de este experimento aquí.

El segundo artículo, publicado el 27 de noviembre de 2018, se basó en grabaciones neuronales de personas sometidas a cirugía para extirpar tumores cerebrales. A medida que los pacientes leían en voz alta palabras de una sola sílaba, los investigadores registraron tanto los sonidos que salían de la boca de los participantes como las neuronas que se disparaban en las regiones productoras de habla de sus cerebros. En lugar de entrenar las computadoras profundamente en cada paciente, estos investigadores enseñaron una red neuronal artificial para convertir las grabaciones neuronales en audio, mostrando que los resultados eran al menos razonablemente inteligibles y similares a las grabaciones realizadas por los micrófonos. (El audio de este experimento está aquí pero debe descargarse como un archivo zip).

El tercer artículo, publicado el 9 de agosto de 2018, se basó en registrar la parte del cerebro que convierte las palabras específicas que una persona decide hablar en movimientos musculares. Si bien no está disponible en línea la grabación de este experimento, los investigadores informaron que pudieron reconstruir oraciones completas (también registradas durante la cirugía cerebral en pacientes con epilepsia) y que las personas que escucharon las oraciones pudieron interpretarlas correctamente en una opción múltiple prueba (de 10 opciones) 83 por ciento del tiempo. El método de ese experimento se basó en identificar los patrones involucrados en la producción de sílabas individuales, en lugar de palabras completas.

El objetivo en todos estos experimentos es algún día hacer posible que las personas que han perdido la capacidad de hablar (debido a la esclerosis lateral amiotrófica o condiciones similares) hablen a través de una interfaz de computadora a cerebro. Sin embargo, la ciencia para esa aplicación aún no está allí.

Interpretar los patrones neuronales de una persona que solo imagina el habla es más complicado que interpretar los patrones de alguien que escucha o produce el habla, informó Science. (Sin embargo, los autores del segundo artículo dijeron que interpretar la actividad cerebral de alguien que imagina el habla puede ser posible).

También es importante tener en cuenta que estos son estudios pequeños. El primer documento se basó en datos tomados de solo cinco pacientes, mientras que el segundo analizó a seis pacientes y el tercero solo a tres. Y ninguna de las grabaciones neuronales duró más de una hora.

Aún así, la ciencia está avanzando, y los dispositivos de habla artificial conectados directamente al cerebro parecen una posibilidad real en algún momento en el camino.

Pin
Send
Share
Send