
Los pacientes bilingües con pérdida auditiva podrían beneficiarse de configuraciones de audífonos específicas para cada idioma, dependiendo de los idiomas que hablen. Por Marshall Chasin, AuD
Cuando un paciente que necesita audífonos habla dos idiomas diferentes, surge la pregunta de si la programación de sus dispositivos puede o debe configurarse de forma diferente según el idioma. Chasin comenzó a recopilar datos sobre este tema hace más de 15 años y actualmente hay dos fabricantes de audífonos que utilizan sus investigaciones en su software de adaptación realizando 2 programaciones. Desde una perspectiva clínica, el programa 1 puede configurarse para un idioma, y el programa 2 para un segundo idioma.
¿Es necesario configurar los audífonos de manera diferente para optimizarlos para distintos idiomas?
Espectros fonémicos
En 1995, apareció un artículo interesante en la literatura que demostraba que el espectro del habla promedio a largo plazo era similar (al menos para la adaptación de audífonos) para una amplia gama de idiomas. Esto, por supuesto, tiene sentido, ya que todos somos humanos y los hablantes de cualquier idioma generan habla a partir de tractos vocales similares. Los hablantes de todos los idiomas tienen narices, cavidades orales de longitud y volumen similares, dientes, lenguas blandas y labios. No es sorprendente que los espectros del habla promedio a largo plazo sean similares entre idiomas.
Pero este es el espectro físico "fonético". ¿Qué hay de las diferentes señales acústicas que varían de un idioma a otro, lo que quizás resulte en diferentes valores del índice de inteligibilidad del habla (IIH), indicativos de un espectro "fonémico" subyacente?
Lenguajes temporizados tonales y morae
Algunos trabajos iniciales en esta área examinaron las características de los idiomas tonales, donde las diferencias de tono que se producen en las vocales de baja frecuencia generaron medidas de SII con mayor sesgo hacia la necesidad de una mayor ganancia de baja frecuencia. El ejemplo habitual es el chino, que, a diferencia del inglés, utiliza tonos para crear diferentes significados. La palabra china «ma» puede tener cuatro significados diferentes según el contorno de tono durante la articulación de la vocal [a]. Esto sugiere que debería haber mayor ganancia de baja frecuencia (y quizás mayor salida) para las vocales de baja frecuencia que para un idioma como el inglés, y que esto puede lograrse clínicamente con dos programas: uno para inglés y otro para un segundo idioma con mayor ganancia de baja frecuencia prescrita.
Otro ejemplo de diferencias fonémicas es aquel en el que la longitud del fonema —generalmente una vocal— tiene significado lingüístico. El japonés es uno de esos idiomas donde la longitud de la vocal (o morae) es lingüísticamente importante y, al igual que para los hablantes de lenguas tonales, los hablantes de japonés requerirían mayor ganancia de baja frecuencia que para los idiomas sin morae.
Existen otras diferencias lingüísticas que se manifiestan a nivel de palabra, e incluso de oración.
Diferencias a nivel de palabra (morfológicas)
La gran mayoría de los idiomas del mundo no tienen reglas morfológicas demasiado restrictivas, y esto es especialmente cierto en el caso del inglés. Podemos tener dos o incluso tres consonantes seguidas, y una o dos vocales que pueden estar juntas. El orden y las restricciones de los fonemas no son excesivamente restrictivos en idiomas como el inglés.
Sin embargo, hay algunos idiomas como el japonés donde se requiere una estricta estructura Consonante-Vocal-Consonante-Vocal (o CVCV…). Este es un requisito morfológico tan fuerte en japonés que incluso palabras inglesas "prestadas" como "handbag" se convierten en "hanodobago", lo cual es consistente con la restricción morfológica CVCV. Y en idiomas como este, la pronunciación de una palabra sería suave (C)-fuerte (V)-suave (C)-fuerte (V)-suave… según la alteración CVCV…. Los tiempos de ataque y liberación del circuito de compresión tendrían que ser suficientemente más cortos en japonés (en comparación con el inglés) para que las consonantes intermedias más silenciosas tengan suficiente ganancia para tener la audibilidad deseada. Este podría ser un factor de programación electroacústica adicional que difiere entre los programas 1 y 2 para un cliente bilingüe de este tipo.
Diferencias en la sintaxis de las oraciones
La mayoría de los idiomas occidentales, como el inglés, tienen un orden de palabras Sujeto-Verbo-Objeto (SVO), donde las oraciones comienzan y terminan con un sustantivo. Los sustantivos tienden a tener un nivel de sonido más alto que otras formas sintácticas. Y si el sujeto u objeto es un nombre propio, el nivel de sonido es mucho más alto que el de los verbos circundantes u otras palabras auxiliares, como preposiciones, adjetivos y adverbios. Todas las oraciones pierden volumen de sonido desde el principio hasta el final simplemente porque nos quedamos sin aire gradualmente. Pero tener un sustantivo al final de la oración (por ejemplo, objeto) mitiga esta pérdida gradual de volumen cerca del final de la oración en inglés.
Sin embargo, existen muchos otros idiomas con un orden de palabras Sujeto-Objeto-Verbo (SOV), donde las expresiones finales de oración suelen tener un nivel de sonido más bajo que en inglés debido a la ausencia de un sustantivo/objeto final. Algunos ejemplos de idiomas con orden de palabras SOV son el japonés, el coreano, el hindi/urdu, el bengalí, el tamil, el turco, el armenio y el mongol. En estos idiomas, se requeriría mayor ganancia para los sonidos finales de oración. Los sonidos finales de oración suaves implican que se requiere mayor ganancia para los sonidos suaves que para un programa equivalente en inglés.
Volviendo al ejemplo japonés una última vez, para un hablante de inglés/japonés, el programa japonés se diferenciaría del programa inglés al tener:
(1) mayor ganancia de frecuencia baja (lenguaje temporizado por morae),
(2) tiempos de ataque y liberación más rápidos (morfología CVCV rígida) y
(3) mayor ganancia para entradas de nivel más suave (estructura sintáctica SOV).

Esta es una captura de pantalla de dos programas de audífonos para el mismo cliente bilingüe, con el inglés a la izquierda y los ajustes de ganancia ligeramente más altos en la región de frecuencias más bajas para el ruso a la derecha. Imagen: Marshall Chasin
Hasta la fecha, dos fabricantes han adoptado estas modificaciones de software, pero incluso si aún no están disponibles con tu fabricante preferido, las sencillas reglas generales mencionadas anteriormente serían suficientes para optimizar los programas para clientes bilingües con pérdida auditiva.
Marshall Chasin, AuD , es audiólogo y director de investigación auditiva en las Clínicas de Músicos de Canadá, profesor adjunto en la Universidad de Toronto y profesor asociado adjunto en la Universidad de Western. Programación de un audífono para diferentes idiomas.
Escribir comentario