En una habitación ruidosa, los audífonos pueden suprimir el ruido de fondo, pero tienen dificultades para aislar una voz, la de la persona con la que estás hablando en una fiesta, por ejemplo. Los investigadores de KU Leuven ahora han abordado ese problema con una técnica que utiliza ondas cerebrales para determinar en un segundo a quién estás escuchando.
"Tener una conversación informal en un cóctel es un desafío para alguien con audífonos", dice el profesor Tom Francart del Departamento de Neurociencias de KU Leuven.
“Un audífono puede seleccionar al orador más vehemente de la sala, por ejemplo, pero esa no es necesariamente la persona a la que prentendes escuchar. Además, el sistema auditivo puede tener en cuenta la dirección de visualización, pero cuando conduce un coche, no puede mirar al pasajero sentado a su lado".
Investigadores han estado trabajando en soluciones que tienen en cuenta lo que quiere oír el oyente. “Un electroencefalograma (EEG) puede medir las ondas cerebrales que se producen en respuesta a los sonidos. Esta técnica nos permite determinar qué hablante se desea escuchar . El sistema separa las señales de sonido producidas por diferentes focos y las vincula a las ondas cerebrales. La desventaja es que hay que tener en cuenta un retraso de diez a veinte segundos para hacerlo bien con una certeza razonable ".
Usando IA para acelerar el proceso
"Utilizando inteligencia artificial descubrimos que es posible decodificar directamente la dirección de escucha de las ondas cerebrales únicamente, sin tener que vincularlas a los sonidos reales", comentó el profesor Alexander Bertrand del Departamento de Ingeniería Eléctrica de KU Leuven.
“Entrenamos nuestro sistema para determinar si alguien está escuchando a un orador a su izquierda o a su derecha. Una vez que el sistema ha identificado la dirección, la cámara acústica redirige su objetivo y se suprime el ruido de fondo. En promedio, esto ahora se puede hacer en menos de un segundo. Eso es un gran paso adelante, ya que un segundo constituye un intervalo de tiempo realista para cambiar de un hablante a otro ". Profesor Alexander Bertrand
Pasando del laboratorio a la vida real
Sin embargo, pasarán al menos otros cinco años antes de que tengamos audífonos inteligentes que funcionen con las ondas cerebrales, dijo el profesor Francart. “Para medir las ondas cerebrales en el laboratorio les hacemos usar una gorra con electrodos. Obviamente este método no es factible en la vida real, pero ya se están realizando investigaciones sobre audífonos con electrodos incorporados ".
La nueva técnica también se mejorará aún más, agrega el estudiante de doctorado Simon Geirnaert: “Ya estamos llevando a cabo más investigaciones, por ejemplo, sobre el problema de combinar múltiples direcciones de oradores a la vez. El sistema actual simplemente elige entre dos direcciones. Si bien los primeros experimentos muestran que podemos expandir eso a otras direcciones posibles, necesitamos refinar nuestro sistema de inteligencia artificial alimentándolo con más datos de ondas cerebrales de usuarios que también escuchan a los hablantes de otras direcciones ".
La investigación fue financiada por la Research Foundation - Flanders (FWO), el European Research Council (GA 637424 y GA 802895) y KU Leuven.
Referencia:
“La decodificación rápida basada en EEG del foco direccional de la atención auditiva utilizando patrones espaciales comunes” de Simon Geirnaert, Tom Francart y Alexander Bertrand se publicó en IEEE Transactions on Biomedical Engineering ( doi: 10.1109 / TBME.2020.3033446 ).
Fuente: KU Leuven, IEEE Transactions on Biomedical Engineering
Escribir comentario