PDF Imprimir


newtop newtop2
Volumen VIII, núm 5, Periodo Septiembre-Octubre  2017


Investigación preliminar del N400 evocado pasivamente como herramienta para estimar los umbrales del habla en presencia de ruido

Caroline Jamison, Steve J. Aiken, Michael Kiefte, Manohar Bance y Lauren Sculthorpe-Petley
School of Human Communication Disorders, Dalhousie University, Halifax, Nova Scotia, Canadá

Steve J. Aiken, Aaron J. Newman y Lauren Sculthorpe-Petley
School of Psychology, Dalhousie University, Halifax, Nova Scotia, Canadá

Steve J. Aiken, Manohar Bance y Lauren Sculthorpe-Petley
Division of Otolaryngoloy, Queen Elizabeth II Health Sciencies Centre, Halifax, Nova Scotia, Canadá

Lauren Sculthorpe-Petley
Biomedical Translational Imaging Centre, IWK Health Centre, Halifax, Nova Scotia, Canadá



Objetivo: Las pruebas del habla en presencia de ruido se basan en una serie de factores que van más allá del sistema auditivo, como son la función cognitiva, la adaptación y la función motora. Es posible que se puedan evitar estas limitaciones mediante la electroencefalografía. En el presente estudio se ha explorado esta posibilidad utilizando el N400.

Método: Once adultos con una audición normal oían oraciones de restricción elevada con terminaciones de palabras congruentes e incongruentes en presencia de ruido en forma de habla. Los participantes ignoraban toda la estimulación auditiva y visualizaban un vídeo. La relación señal-ruido (SNR) variaba en torno al umbral conductual de cada participante durante el registro de la electroencefalografía. El habla también se oía en silencio, sin ruido.

Resultados: La amplitud del efecto N400 mostró una relación no lineal con la SNR. En presencia de ruido de fondo, la amplitud disminuyó desde una SNR elevada (+4 dB) a baja (+1 dB), pero aumentó drásticamente a umbral antes de disminuir de nuevo en la SNR de subumbral (-2 dB).

Conclusiones: La SNR del habla en presencia de ruido modula la amplitud del efecto N400 frente a anomalías semánticas de una forma no lineal. Estos resultados son los primeros en demostrar la modulación del N400 evocado pasivamente por la SNR en presencia de ruido en forma de habla, y representan un primer paso hacia el objetivo final de desarrollar una medida fisiológica basada en el N400 para las pruebas del habla en presencia de ruido.


En la mayoría de entornos del mundo real, el habla se debe entender en presencia de ruido. Por ejemplo, en los hogares y los colegios el habla suele ser entre 5 y 20 dB más elevada que el ruido ambiental (Crandell y Smaldino, 1995; Flexer, 1993; Nabelek y Nabelek, 1994), mientras que en lugares públicos y en fiestas el nivel del habla puede ser mucho menor con respecto al ruido de fondo con una relación de señal-ruido de entre -5 y +5 dB (SNR; Pearsons, Bennett y Fidell, 1976; Plomp, 1977). La dificultad de entender el habla en presencia de ruido (SIN, en sus siglas en inglés) es también una de las quejas más frecuentes de las personas con pérdida auditiva (Giolas y Wark, 1967; Hartford y Barry, 1965). La evaluación del reconocimiento del habla en presencia de ruido es, por lo tanto, un componente lógico de la evaluación auditiva y en los protocolos recomendados para el ajuste de audífonos se incluyen pruebas SIN en condiciones asistidas y no asistidas (Mueller, 2003). De hecho, la audiometría del habla, con o sin ruido de fondo, ha sido un elemento de evaluación auditiva recomendado desde la década de 1940 (Carhart, 1946). El objetivo de las pruebas SIN suele ser determinar la SNR en que una persona puede repetir el habla objetivo correctamente el 50% de las veces, lo que se conoce como la SNR50. Como alternativa, se puede obtener una puntuación porcentual correcta en varias SNR. Entre las pruebas SIN de oraciones para adultos se encuentran el Test de percepción del habla en ruido (Kalikow, Stevens y Elliott, 1977), la Test del discurso hablado (Cox, Alexander y Gilmore, 1987), el Test de audición en ruido (HINT; Nilsson, Soli y Sullivan, 1994), el Test del habla rápida en ruido (Killion, Niquette, Gudmundsen, Revit y Banerjee, 2004) y la AzBio (Spahr et al., 2012).

No obstante, la escucha del habla en ruido (SIN) es un proceso complejo que depende en gran medida de factores cognitivos. Por ejemplo, la cognición contribuye en el proceso de análisis del escenario auditivo (Bronkhorst, 2000), por el que la señal de habla de interés se aísla de otros sonidos concomitantes. Las personas con una audición normal pueden utilizar las características vocales de un hablante (p. ej., la frecuencia fundamental y el timbre) y las señales temporales (p. ej., inicios y finales) para identificar la señal de habla deseada y centrarse en ella. Este proceso implica una interacción compleja entre el procesamiento ascendente (sensorial) y descendente (cognitivo) (Anderson y Kraus, 2010). Las interacciones sensorio-cognitivas también están presentes en los mecanismos fundamentales que subyacen en la percepción del habla que Davis y Johnsrude (2007) describen como agrupación perceptual, segmentación léxica, percepción categórica y aprendizaje perceptual. En todos estos procesos, tanto la representación ecóica (memoria acústica) de la señal del habla como las representaciones somatotópicas y motoras implicadas en la producción del habla actúan conjuntamente en un proceso interactivo para respaldar la percepción del habla.

Entre los procesos descritos por Davis y Johnsrude (2007), el aprendizaje perceptual es especialmente pertinente en el procesamiento del SIN porque implica un aprendizaje rápido para decodificar la voz en condiciones no familiares (p. ej. degradadas o con un marcado acento). Las personas con una audición normal pueden aprender con rapidez a decodificar un habla seriamente degradada a través de influencias descendentes. Por ejemplo, si se les dice que la señal que escuchan contiene habla, las personas son más capaces de descodificar el habla de onda senoidal, que carece de la comodulación de amplitud y la estructura armónica del habla natural (Remez, Rubin, Pisoni y Carrell, 1981). Davis y Johnsrude (2007) sugieren también que el conocimiento pragmático y las señales visuales pueden contribuir al éxito de la decodificación del SIN. Una forma de conocimiento pragmático puede incluir las relaciones probabilísticas entre elementos de palabras en el idioma que oye, lo que puede permitir que la persona rellene el contenido que falta basándose en predicciones (Conway, Bauernschmidt, Huang y Pisoni, 2010). Varias líneas de investigación han implicado también más efectos generales de la atención y la cognición en el desempeño de la percepción SIN. Por ejemplo, los músicos han incrementado el desempeño de la percepción SIN, evaluada mediante la prueba HINT y la Prueba del habla rápida en presencia de ruido, en comparación con los no músicos, lo que se atribuye en parte a una mayor capacidad de la memoria de trabajo (Parbery-Clark, Skoe, Lam y Kraus, 2009). Por lo tanto, queda claro que la cognición realiza una contribución sustancial a la percepción del habla, especialmente en presencia de ruido.

En investigaciones recientes se han puesto de manifiesto dos implicaciones importantes del hecho de que las pruebas SIN están influidas por la cognición. En primer lugar, los trastornos que parecen ser de naturaleza auditiva, como la presbiacusia y el trastorno de procesamiento auditivo central, se pueden atribuir en cierta medida a factores no auditivos, como el deterioro cognitivo o los déficits de atención (Humes et al., 2012; Moore, Rosen, Bamiou, Campbell y Sirimanna, 2013). En segundo lugar, el grado en que la percepción del habla en presencia de ruido se basa en recursos cognitivos, conocidos como el esfuerzo de escucha, podría estar relacionado con una serie de problemas en el caso de pacientes con deficiencia auditiva, entre ellos, la frustración, el agotamiento, la percepción de insatisfacción con el tratamiento y la falta de atención o el mal comportamiento en clase de las poblaciones más jóvenes (Feuerstein, 1992; Gatehouse y Gordon, 1990). Existen también dificultades reconocidas desde hace tiempo con las pruebas SIN cuando existe un déficits del desarrollo, deterioro cognitivo o deficiencias del habla y motoras.

Un enfoque que puede evitar estas limitaciones se basaría en la evaluación pasiva de la comprensión del habla. Este tipo de diagnóstico podría ser posible mediante neuroimágenes y dirigiendo la atención completamente hacia una tarea de distracción no relacionada. Al igual que la respuesta auditiva troncoencefálica, la estimulación pasiva es habitual en los potenciales relacionados con eventos (ERP) corticales, como el N1 y el potencial de disparidad (MMN), desempeñando ambos funciones importantes en la evaluación auditiva (Martin, Tremblay y Korczak, 2008; Stapells, 2009). De hecho, un grupo de investigadores ha investigado la posibilidad de utilizar el ERP cortical N1 en los sonidos del habla en presencia de ruido para predecir las capacidades de percepción del habla en presencia de ruido. Utilizando un sonido de habla sencillo (/ba/), Billings, McMillan, Penman y Gille (2013) demostraron que el N1 evocado pasivamente aumentó en amplitud y disminuyó en latencia con un aumento de la SNR (de -5 a +35 dB) en presencia de ruido en forma de habla. Además, la amplitud del N1 con un nivel de señal de 70 dB y una SNR de 5 dB se identificó como la mejor medida electrofisiológica entre sus datos para la predicción de la SNR50 (Billings et al., 2013). Cuando el grupo experimental se amplió para incluir a personas de más edad, se determinó que los predictores electrofisiológicos del desempeño conductual diferían entre personas con una audición normal y personas con una deficiencia auditiva (Billings, Penman, McMillan y Ellis, 2015). Del mismo modo, mediante un estímulo de habla sencillo (/bu/) en silencio y en presencia de “parloteo”, Koerner y Zhang (2015) concluyeron que el ruido incrementaba la latencia y disminuía la amplitud del N1. Además, determinaron que estos cambios se pueden, en parte, atribuir a cambios en la sincronía neuronal cortical que son inducidos por el ruido (Koerner y Zhang, 2015). No obstante, las respuestas como el N1 y el MMN no ofrecen ninguna información acerca de si la señal del habla se ha entendido. El N400 es un ERP de latencia mayor que refleja un procesamiento semántico. Es menos habitual estudiar el N400 de forma pasiva pero, a diferencia de los enfoques basados en el N1 que se han propuesto para las pruebas SIN, una evaluación basada en el N400 reflejaría la comprensión de la señal del habla.

El N400 fue descrito por primera vez por Kutas y Hillyard (1980) en un estudio en el que las personas leían oraciones que contenían palabras con terminaciones inesperadas o absurdas. Por ejemplo, si se presentaba la oración “Planté judías verdes en el cielo”, se produciría un N400 mejorado en respuesta a la palabra cielo en comparación con la última palabra esperada huerto. El N400 es una onda negativa amplia que alcanza un pico de 400 ms con posterioridad al estímulo y es mayor en lugares centrales y parietales (Kutas y Hillyard, 1980). Es ligeramente mayor en el hemisferio derecho en la modalidad visual, pero es más simétrico en la modalidad auditiva (revisión de Van Petten y Luka, 2006). Al parecer se genera principalmente en las regiones temporales izquierdas (Kutas, Hillyard y Gazzaniga, 1988; Lau, Phillips y Poeppel, 2008).

En los estudios que pretenden obtener N400 se suele utilizar un paradigma de anomalía o cebado semántico (Lau et al., 2008). El estudio de Kutas y Hillyard (1980) es un ejemplo de paradigma de anomalía semántica, en el que las oraciones se presentan con una palabra semánticamente congruente o incongruente y se observa un aumento de las amplitudes del N400 en el caso de estímulos incongruentes. En lugar de utilizar oraciones completas, en los paradigmas de cebado semántico se presentan pares de palabras y, en comparación con los pares de palabras no relacionados, se observa una reducción del N400 cuando la segunda palabra está semánticamente relacionada con la primera. Los N400 obtenidos en ambos paradigmas presentan latencias y distribuciones pericraneales similares, y se acepta que representan la misma actividad subyacente, si bien la respuesta a las anomalías semánticas tiende a ser mayor (Kutas, 1993). Independientemente del paradigma experimental utilizado para evocar el N400, el término efecto N400 se refiere a la diferencia de amplitud del N400 entre palabras congruentes e incongruentes o entre palabras relacionadas y no relacionadas. Al igual que el MMN, el efecto N400 se determina en una onda de diferencia, que se calcula restando la respuesta promediada a la palabra congruente (o relacionada) de la forma de onda promediada a la palabra incongruente (o no relacionada). En la Figura 1 se ilustra este proceso de sustracción.

En un paradigma de anomalía semántica, la amplitud del N400 está influenciada por el grado en que la última palabra incumple la expectativa (Kutas y Hillyard, 1984). Esta expectativa se suele expresar con la probabilidad de Cloze (PC) de una palabra (Taylor, 1953). Las PC se establecen mediante un proceso en el que un gran número de personas finaliza una oración, en la que falta un elemento, con la palabra que se cree que debería estar presente en esa posición. Por ejemplo, en el estudio pionero de normas de finalización de oraciones de Bloom y Fischler (1980), la oración “El capitán Sheir quería quedarse mientras se hundía el _______” se finalizó con la palabra barco por parte del 97% de los participantes. Se trata de un ejemplo de una palabra con una PC elevada (0,97). Block y Baldwin (2010) definieron una palabra con una PC elevada como una palabra que facilitaba el 67% de los participantes o más. La palabra más popular que se genera en una oración con restricción elevada será una palabra con una PC elevada, si bien oraciones con restricción elevada se pueden también asociar con oraciones con una PC baja (es decir, respuestas menos populares; véase un ejemplo en la Figura 2). El efecto N400 se puede observar comparando el N400 de palabras con una PC elevada y el N400 de palabras con una PC baja. No es necesario que las palabras sean incongruentes por sí mismas para generar un efecto N400 (Kutas y Hillyard, 1984). En la Figura 2 se ilustran oraciones con contexto alto y bajo, y palabras terminales de PC diversa.

Jamison Figura 1


El N400 (y su modulación mediante el incumplimiento de la expectativa) no se limita a los estímulos lingüísticos y se ha evocado mediante una serie de estímulos no lingüísticos significativos, por ejemplo, imágenes (Ganis y Kutas, 2003), sonidos medioambientales (Van Petten y Rheinfelder, 1995) y gestos (Kelly, Kravitz y Hopkins, 2004). No obstante, a efectos del presente objetivo, el N400 se analiza específicamente en el contexto de los estímulos lingüísticos. El significado funcional preciso del N400 sigue siendo desconocido. Se ha debatido acerca de si el N400 representa un procesamiento preléxico o posléxico. La perspectiva posléxica se basa en que el N400 refleja la integración de la palabra de destino con el contexto circundante una vez que se ha accedido al significado de la palabra. Según esta teoría, es necesario realizar un mayor esfuerzo para integrar las palabras que no encajan bien en un contexto semántico, lo que se traduce en incrementos de amplitud del N400 en el caso de las palabras menos esperadas. Con esta teoría se pueden explicar los efectos descendentes del N400 y su carácter multimodal. Por el contrario, la perspectiva preléxica afirma que el N400 refleja un procesamiento anterior a la activación de un significado en la memoria semántica o la activación facilitada del significado de una palabra en la memoria. Esta teoría puede explicar las influencias descendentes del N400, como la frecuencia léxica y la magnitud de la vecindad, así como el hecho de que el N400 se observa incluso en respuesta a estímulos sin sentido, como las pseudopalabras y las no palabras (Kutas y Federmeier, 2011; Lau et al., 2008). También se ha sugerido que el N400 refleja el procesamiento en el momento exacto del reconocimiento de la palabra (Kutas y Federmeier, 2000). Hasta el momento, ninguna teoría puede explicar plenamente todos los efectos descendentes y ascendentes del N400 que se han observado empíricamente (revisado en Kutas y Federmeier, 2011).

Independientemente del significado funcional exacto del N400, claramente indexa el procesamiento de los significados de las palabras. Además, no es necesario dirigir la atención explícitamente hacia los estímulos evocadores para observar el efecto N400. Varias líneas de investigación, que incluyen estudios que utilizan el enmascaramiento visual (p. ej., Misra y Holcomb, 2003), el parpadeo atencional (p. ej., Vogel, Luck y Shapiro, 1998), la dirección de la atención hacia una tarea de distracción (p. ej., Relander, Rama y Kujala, 2009) y el sueño (p. ej., Ibáñez, López y Cornejo, 2006) han facilitado pruebas convergentes de que el efecto N400 y, por lo tanto, el efecto del contexto semántico, es hasta cierto punto automático. Hasta la fecha, el cuerpo de literatura encaminado a determinar la posición del efecto N400 a lo largo del espectro de procesos neuronales de automáticos a controlados no ha logrado llegar a un consenso (para obtener una revisión más exhaustiva de este tema, véase Kutas y Federmeier, 2011).

No obstante, la relativa automaticidad del N400 se ha aprovechado para estudiar las capacidades receptivas del habla de forma pasiva en pacientes a los que no se pueden realizar pruebas conductuales, incluidos los pacientes con un trastorno grave de la conciencia (Connolly y D’Arcy, 2000; Daltrozzo et al., 2009; D’Arcy et al., 2003; Kotchoubey et al., 2005) y los niños pequeños (M. Friedrich y Friederici, 2004, 2005, 2008). Considerando lo anterior, existe una amplia evidencia que sugiere que la medición del N400 en condiciones pasivas podría ser un enfoque viable en aplicaciones audiométricas. Con este enfoque se podría evitar la influencia mencionada del esfuerzo de escucha y permitir la realización de pruebas a poblaciones de pacientes que actualmente no son capaces de realizar adecuadamente las pruebas SIN convencionales.

Jamison Figura 2


En un número muy reducido de estudios se ha examinado el efecto del ruido de enmascaramiento en el N400, y en ninguno se ha evocado la respuesta en condiciones pasivas y no atentas (Connolly, Phillips, Stewart y Brake, 1992; Daltrozzo, Claude, Tillmann, Bastuji y Perrin, 2012; Daltrozzo, Wioland y Kotchoubey, 2012; Jerger, Greenwald, Wambacq, Seipel y Moncrieff, 2000; Romei, Wambacq, Besing, Koehnke y Jerger, 2011). En estos estudios, únicamente en los realizados por Daltrozzo y colegas se ha variado sistemáticamente el grado de enmascaramiento para observar cambios en el efecto N400. Daltrozzo, Wioland, et al. (2012) hallaron que la amplitud del N400 variaba con la inteligibilidad de las oraciones presentadas con enmascaramiento de ruido rosa (es decir, frecuencia del habla). Las condiciones de enmascaramiento de este estudio se crearon aplicando diferentes puntos de corte de filtrado al enmascaramiento con ruido rosa: un parámetro que no es relevante en la práctica audiológica típica. El N400 fue significativo en las condiciones de no enmascaramiento, enmascaramiento bajo y enmascaramiento moderado, pero no lo fue en la condición de enmascaramiento elevado. Daltrozzo, Claude, et al. (2012) también aplicaron estímulos similares en el sueño y demostraron un N400 intacto en presencia de ruido en las etapas N2 y R, respaldando estudios previos que mostraban un N400 intacto en el sueño y extendiendo estos resultados a los estímulos degradados. En el sueño, un grado de enmascaramiento creciente se tradujo en una mayor atenuación del efecto N400.

En otros estudios se ha demostrado también una reducción del efecto N400 con la inteligibilidad. Se ha detectado en el filtrado de paso bajo del habla (Aydelott, Dick y Mills, 2006), la codificación de voz (Obleser y Kotz, 2011; Strauss, Kotz y Obleser, 2013) y el enmascaramiento de “parloteo” (Romei et al., 2011). Acompañados de los resultados de Daltrozzo y colegas, estos resultados indican que el efecto N400 varía en función de la inteligibilidad del habla. No obstante, según nuestros datos, no existen resultados publicados en los que se examine el efecto de la SNR en el ruido en forma de habla, que es un parámetro común en las evaluaciones audiométricas SIN. El objetivo del presente estudio fue determinar si la amplitud del efecto N400 frente a las anomalías semánticas varía con la SNR en presencia de ruido con forma de habla. Con el fin de maximizar la relevancia para la práctica clínica, las condiciones de la SNR investigadas se desarrollaron en torno a la SNR50 conductual, y el N400 se evocó en condiciones pasivas y de no atención para evitar la mayor influencia descendente posible. El objetivo final es avanzar hacia un paradigma para evaluar el reconocimiento pasivo del habla en condiciones de escucha difíciles en ruido como las que frecuentemente encuentran las personas con discapacidad auditiva.


Método

Participantes

Catorce adultos sanos con audición normal participaron en este estudio. Los datos de electroencefalografía (EEG) de tres participantes no fueron adecuados para el análisis debido a la presencia de artefactos excesivos o conexiones de electrodos deficientes; por lo tanto, los datos de 11 participantes (cuatro mujeres y siete hombres, de 21 a 35 años, M = 27, DT = 3,9) se seleccionaron para su análisis. Todos los participantes eran diestros según se confirmó mediante una versión modificada del cuestionario de lateralidad de Edimburgo (Cohen, 2008), tenían una visión normal o corregida-normal y una audición normal, no habían tenido problemas neurológicos y hablaban inglés como primer idioma. El estado auditivo normal se verificó a través de una pantalla auditiva de tonos puros en el campo de sonido a 20 dB HL en frecuencias octavas de 250 a 8000 Hz. Se remuneró a todos los participantes por su participación. El estudio recibió la aprobación de investigación del Comité Ético de la Universidad de Dalhousie.


Estímulos

Una hablante joven emitió a un ritmo natural las oraciones que se grabaron. La grabación de voz se realizó utilizando un micrófono Marantz PMD671 (Kawasaki, Japón) en una cabina audiométrica de doble pared con atenuación acústica. Se seleccionó un total de 150 oraciones con una PC mínima de 0,89 a partir de un estudio a gran escala de normas de finalización de oraciones (Block y Baldwin, 2010). Para componer los estímulos para la condición incongruente, las palabras terminales se reorganizaron de tal forma que el final congruente de una oración se convertía en el final incongruente de otra oración, en la que era contextualmente impredecible. De esta manera se controló la frecuencia a través de listas apropiadas. En todos los casos, las palabras incongruentes se emparejaron según la categoría de la palabra (es decir, los nombres se reemplazaron solo con nombres) y el número (es decir, las palabras en plural se reemplazaron con palabras en plural) y los fonemas iniciales de las palabras congruentes e incongruentes eran diferentes. El resultado fue un total de 300 oraciones (150 congruentes y 150 incongruentes). Las versiones incongruentes y congruentes de cada oración se grabaron por separado. En las oraciones completas, incluidas las palabras terminales, se ecualizó la sonoridad utilizando la normalización de la raíz media cuadrática. El ruido en forma de habla se generó en MATLAB (The MathWorks, Natick, MA) mediante el espectro de la voz grabada.

Las 300 oraciones se dividieron aleatoriamente en 15 listas de 20 palabras de tal manera que ninguna oración se presentaba en las formas congruente e incongruente en la misma lista. En cada lista se insertó una pausa silenciosa entre el final de cada palabra final y el inicio de la siguiente oración. La duración de esta pausa silenciosa era aleatoria, con un mínimo de 1 s y un máximo de 2 s. Cada lista se componía de 10 oraciones congruentes y 10 incongruentes y, a través de un análisis de varianza (ANOVA) unidireccional, se verificó que la PC no era significativamente diferente entre las listas (F < 1). Con el fin de determinar si las 15 listas eran significativamente diferentes en cuanto a la inteligibilidad, se realizó un estudio piloto con seis participantes sanos con audición normal. En este estudio, la SNR50 se determinó utilizando cada lista de 20 oraciones en un protocolo adaptativo similar al HINT, con las siguientes diferencias: (a) Las palabras finales de las oraciones se omitieron porque se preveían grandes diferencias de inteligibilidad entre las oraciones congruentes e incongruentes (Kalikow et al., 1977) y (b) se varió el nivel de ruido, en lugar del habla. El habla se presentó a 70 dB SPL y se varió el nivel de ruido para conseguir la SNR requerida. En este estudio piloto se observó una diferencia quasi-significativa en la SNR50 determinada utilizando cada una de las 15 listas, F(14, 70) = 1,8, p = 0,06. En un análisis post hoc de Tukey no se detectó ninguna comparación significativa entre pares, indicando que la SNR50 conductual que se determina utilizando las listas de oraciones desarrolladas para el protocolo del N400 no difieren significativamente dependiendo de la lista que se utilice en las pruebas. Como resultado, todas las listas de oraciones N400 se consideraron equivalentes para las pruebas de la SNR50 conductual que se utilizó para determinar la SNR umbral en el experimento electrofisiológico.


Procedimiento

Tras el consentimiento informado, los participantes se sentaron en una cabina audiométrica de doble pared con atenuación acústica y dos altavoces (GSI 61 Sound Field System; Grason-Stadler, Eden Prairie, MN) colocados con un azimut de +45º y -45º. Los estímulos se presentaron utilizando un instrumento virtual personalizado, diseñado en LabVIEW (National Instruments, Austin, Texas), y se reprodujeron mediante una Tarjeta de adquisición de señal dinámica National Instruments PXI 4461, enrutada a través de un audiómetro GSI 61 (Grason-Stadler) a los altavoces. Después de una selección de tonos puros, se determinó la SNR50 clínica de cada participante utilizando la HINT estándar (presentación de 20 oraciones) y, a continuación, se determinó su SNR50 experimental utilizando el procedimiento de umbral adaptativo empleado en el estudio piloto. Este procedimiento permitió una comparación de los resultados obtenidos con una medida estándar clínicamente relevante.

La lista de oraciones utilizada para el procedimiento del umbral adaptativo se seleccionó aleatoriamente entre las 15 listas disponibles y se omitió su uso en la obtención de EEG. La SNR50 experimental se utilizó en la elaboración de cinco condiciones de inteligibilidad para su uso en la recopilación de datos de EEG: SNR de -2 dB (inteligibilidad muy baja), SNR de 0 dB (umbral), SNR de +1 dB (inteligibilidad moderada), SNR de +2 dB (inteligibilidad moderadamente elevada) y SNR de +4 dB (inteligibilidad elevada). En todos los casos, la condición SNR indica una diferencia de la SNR50 y se generó para modificar el nivel de ruido con respecto al habla (que siempre se presentó a 70 dB SPL). Por ejemplo, si un participante tenía una SNR50 de -2 dB en el procedimiento de umbral adaptativo (habla a 70 dB SPL, ruido a 72 dB SPL), la condición SNR de +4 dB se generaba disminuyendo el nivel de ruido en 4 dB hasta 68 dB SPL.

Tras la determinación del umbral, se presentaban cinco bloques de estímulos (cada uno compuesto de una lista de oraciones) para cada condición de inteligibilidad. Se seleccionaban aleatoriamente con sustitución a partir de las 14 listas de oraciones restantes con la restricción de que ninguna lista se utilizaba más de dos veces. El orden de presentación de las condiciones y los bloques se fue aleatorio entre los participantes. Tras la presentación de todas las condiciones de inteligibilidad, todas las listas de oraciones se presentaron nuevamente en silencio. En todas las condiciones experimentales, se indicó a los participantes que visualizaran una película muda e ignoraran todos los estímulos auditivos en la medida de lo posible. Se observó a los participantes durante las pruebas para asegurarse de que visualizaban la película y se les invitaba a realizar una pequeña pausa después de cada cinco o seis bloques.


Adquisición de EEG

Después del umbral conductual, el EEG se registró continuamente utilizando un sistema de bio-potenciales BioSemi Active-Two (BioSemi Instrumentation, Ámsterdam, Países Bajos). Los participantes utilizaron un gorro elástico con 128 electrodos activos de plata/cloruro de plata, y 10 electrodos adicionales se adhirieron al hueso mastoideo y al rostro. Otros lugares adicionales fueron el hueso mastoideo, delante del trago, los pómulos, los cantos lateral y externo, y debajo del centro de los párpados inferiores. El tiempo total de obtención de EEG fue de aproximadamente 1,5 horas. Los datos se registraron a una tasa de muestreo de 2048 Hz y se guardaron utilizando el software Actiview 7.0 (Biosemi, Ámsterdam, Países Bajos).


Derivación y medición de ERP

Los datos se procesaron sin conexión con el BrainVision Analyzer 2 (Brain Products GmbH, Gilching, Alemania). El EEG se muestreó a 1024 Hz, mediante filtro pasabanda en el rango de 0,1 a 20,0 Hz y se volvió a referenciar con el promedio de las dos mastoides. Los artefactos oculares se identificaron utilizando un algoritmo de pendiente para la detección del parpadeo y se corrigieron mediante el análisis de componentes independientes. Los componentes del análisis de componentes independientes se inspeccionaron visualmente para determinar los componentes que correspondían al artefacto ocular antes de su extracción. Después de la corrección ocular, el EEG continuo se segmentó en periodos que se bloquearon temporalmente hasta el inicio de la palabra terminal de la oración. La duración de estos periodos fue de 1100 ms, incluida una línea basal preestímulo de 100 ms. Los periodos se corrigieron utilizando un periodo preestímulo de 100 ms y los que contenían artefactos (p. ej., del movimiento) se descartaron automáticamente utilizando un umbral de ±75 μV para el tamaño de desviación máximo. A continuación, los periodos se promediaron por separado en función de cada lugar de registro, condición experimental y tipo de estímulo (congruente e incongruente) para cada participante. En la Tabla 1 se muestran la media y la desviación típica del número de ensayos que se promediaron para cada tipo de estímulo y condición de inteligibilidad. Las ondas de diferencia se calcularon para cada participante restando la forma de onda promedio congruente de la forma de onda promedio incongruente. La latencia máxima del efecto N400 se seleccionó automáticamente en un lugar central agrupado (C, que consistía en un electrodo A1 [Cz] y los cinco electrodos circundantes: D1, C1, B1, A2 y D15) como el punto más negativo de la forma de onda diferente en el periodo postestímulo de 250 a 650 ms. Esta ventana se seleccionó para facilitar una cobertura completa del efecto N400 observado visualmente y se corresponde perfectamente con la latencia típica del N400 (entre 200 y 600 ms desde el inicio de la palabra; Kutas y Federmeier, 2011). Si bien el N400 se muestra a menudo con numerosos picos y se suele medir como una amplitud media en una ventana amplia en torno a 400 ms (p. ej., 200-500 ms en Federmeier, Van Petten, Schwartz y Kutas, 2003), no ha sido el enfoque típico en la literatura sobre el N400 y las señales del habla degradadas. En la medición del N400 en esta ocasión se han utilizado medidas de picos (p. ej., Connolly et al., 1992) o se han medido amplitudes medias en ventanas secuenciales no superpuestas (p. ej., Daltrozzo, Wioland, et al., 2012). Para el objetivo del presente estudio, decidimos utilizar una medida de amplitud de picos, pero empleando el cálculo de una amplitud media en una ventana pequeña (muestra de ±5 = 11 ms) en torno al pico. El cálculo de la amplitud de picos como un valor medio a partir de una ventana estrecha rodeando el pico es un método común para compensar la influencia del ruido (Luck, 2005). También se midieron las amplitudes medias en las formas de onda promedio incongruentes y congruentes en la misma ventana de latencia utilizada para medir el efecto N400 en la onda diferente.

Jamison Tabla 1


Análisis estadístico

Se utilizó una prueba t pareada para comparar las medidas del umbral conductual obtenidas con la HINT estándar y el procedimiento de determinación del umbral realizado mediante estímulos experimentales. A efectos de los análisis estadísticos convencionales (ANOVA, comparaciones post hoc) y todas las figuras de formas de onda, se suministraron datos de nueve lugares agrupados en los que se combinaron los datos de varios electrodos: frontal (F), frontal derecho (FR), frontal izquierdo (FL), central (C), central derecho (CR), central izquierdo (CL), parietal (P), parietal derecho (PR) y parietal izquierdo (PL). Se realizó un ANOVA bidireccional de mediciones repetidas con los factores de SNR (-2 dB, umbral, +1 dB, +2 dB, +4 dB y silencio) y lugar (F, FR, FL, C, CR, CL, P, PR y PL) sobre la amplitud del N400 medido en las ondas diferenciadas. Para comparar la latencia del N400 entre las condiciones, se realizó un ANOVA unidireccional de mediciones repetidas con el factor de SNR sobre la latencia del pico del N400 en el lugar central. Se realizaron pruebas post hoc de efectos que se encontraban en línea con las expectativas a priori mediante pruebas t que se restringieron al lugar central (C). Con este enfoque se maximizó la sensibilidad al efecto de la SNR y se emularon los efectos que se pueden observar clínicamente utilizando un sencillo montaje con un único electrodo activo situado cerca de Cz.

Debido a que los efectos observados utilizando este enfoque estadístico convencional fueron pequeños y se requirieron pruebas post hoc, también se realizó un análisis estadístico secundario basado en datos utilizando mínimos cuadrados parciales (PLS; McIntosh, Bookstein, Haxby y Grady, 1996). PLS es un método estadístico más adecuado para analizar los datos de neuroimágenes funcionales espacio-temporales que un ANOVA convencional porque, a diferencia del ANOVA, en el PLS no se produce inflación de error en las comparaciones múltiples (Lobaugh, West y McIntosh, 2001). Por lo tanto, los efectos experimentales que no cumplen el criterio de significación ANOVA debido a la corrección de comparaciones múltiples pueden alcanzar una significación estadística en un análisis PLS.

Existen varias formas de PLS (revisadas por Krishnan, Williams, McIntosh y Abdi, 2011); en el presente análisis se utilizó un PLS de tarea, en el que se analiza la covarianza entre la actividad cerebral y el diseño experimental. En el PLS se utiliza la descomposición del valor singular de la matriz de covarianza para identificar las variables latentes (VL) que representan las diferencias entre las condiciones experimentales (McIntosh et al., 1996). Cada VL está asociada con dos tipos de datos: datos salientes de electrodo (“cerebro”) y de diseño. La forma de onda saliente de electrodo es conceptualmente similar a una onda de diferencia ponderada que expresa mejor las diferencias entre las condiciones experimentales que se comparan. Las de diseño son similares a las ponderaciones de contraste e indican el grado y la dirección en que una condición experimental contribuye al efecto descrito por la VL. La significación de cada VL se determina mediante una prueba de permutación. El enfoque PLS facilita también un medio para garantizar que los efectos estadísticos notificados no se basan en unos pocos valores atípicos de la muestra; una consideración importante teniendo en cuenta el tamaño relativamente pequeño del grupo sometido a prueba en el presente estudio. Junto con la significación estadística a través de la prueba de permutación, cada VL del análisis PLS se somete a prueba para realizar una generalización a través de una prueba de bootstrap. En este análisis de bootstrap, el cómputo de la VL se reproduce numerosas veces utilizando un subconjunto de los participantes de la muestra y la significación solo se logra cuando un efecto es altamente generalizable (es decir, no depende de la selección de un subconjunto específico de la muestra del estudio). Para obtener una descripción detallada del método PLS, el lector interesado puede consultar Krishnan et al. (2011), Lobaugh et al. (2001) y McIntosh et al. (1996). Para otros ejemplos de PLS aplicados a datos de ERP, véase Duzel et al. (2003), y Itier, Taylor y Lobaugh (2004).

En el presente estudio, el PLS de tarea centrado en la media se realizó sobre datos de onda de diferencia procedentes de 128 lugares de colocación de electrodos y las seis condiciones de SNR utilizando una interfaz gráfica de PLS basada en MATLAB (versión 6.1311050) disponible en el Rotman-Baycrest Institute (Toronto, Ontario, Canadá). En el análisis se utilizaron 500 permutaciones y 500 muestras bootstrap. Las ondas salientes se visualizaron en el pericráneo utilizando un BrainVision Analyzer 2 (Brain Products GmbH, Gilching, Alemania). Para el objetivo de estos mapas, se determinó el umbral de ubicación de cada electrodo mediante un ratio de bootstrap de ±3,09, que corresponde aproximadamente a un intervalo de confianza del 99%. Por lo tanto, los valores salientes no se muestran en el caso de las ubicaciones de electrodos en las que el efecto experimental no cumplió el umbral de generalización.


Resultados

Comparación de HINT y el procedimiento experimental de determinación de umbrales

La SNR50 medida mediante el procedimiento experimental de determinación de umbrales fue significativamente menor que la obtenida mediante HINT, t(13) = 5,5, p = 0,0003. En promedio, la SNR50 obtenida mediante el procedimiento experimental fue de -6,7 dB (DT = 1,1 dB), y la obtenida mediante HINT fue de -2,4 dB (DT = 2,2 dB).


Resultados de ERP: ANOVA y contrastes post hoc

Los mapas pericraneales de diferencia promedio general N400 se muestran en la Figura 3 mediante voltajes medios en intervalos de 100 ms desde el inicio del estímulo a 1000 ms postestímulo. En silencio, el efecto N400 alcanzó su pico máximo en aproximadamente 500 ms y fue mayor en los lugares centrales y parietales. El efecto N400 fue similar a la condición de silencio en la condición de +4 dB y, a continuación, disminuyó hacia la condición de +1 dB. En el umbral, el efecto N400 volvió a aumentar drásticamente en amplitud, pero alcanzó su pico máximo una vez avanzada la época (alrededor de 700 ms), con una distribución pericraneal que se mostró más frontal y lateralizada a la derecha. En la condición de -2 dB, el efecto N400 aparecía atenuado en relación con el umbral. Esta tendencia, refleja la ausencia del efecto N400 en la condición de +1 dB, también se puede apreciar en las ondas diferenciadas de promedio general que se muestran en la Figura 4. El ANOVA bidireccional de SNR y el lugar no mostró ningún efecto principal significativo de SNR, F(5, 50) = 1,0, p = 0,40, y ninguna interacción significativa de SNR y el lugar, F(40, 400) = 1,17, p = 0,23. Se observó un efecto principal significativo del lugar, F(8, 80) = 3,6, p = 0,001, que las pruebas post hoc de Tukey demostraron que era atribuible al hecho de que el efecto N400 medido en C fue significativamente mayor que en FR, PL y PR. El ANOVA correspondiente a la latencia del N400 en C no generó ningún efecto significativo de SNR, F(5, 50) = 1,6, p = 0,18.

Jamison Figura 3

Jamison Figura 4

Si bien el efecto de la SNR en la amplitud del N400 no fue significativo en el ANOVA ómnibus, el efecto aparente que se observó en los mapas pericraneales y las formas de onda de ERP, combinado con nuestras predicciones a priori, justificó una prueba estadística post hoc. Estos efectos se ilustran más directamente en el panel superior de la Figura 5, que muestra la amplitud media del efecto N400 en una ventana estrecha (11 ms) que rodea su pico máximo, para todas las condiciones de SNR y todos los lugares agrupados. Las amplitudes de pico que se muestran en esta figura, en concreto en FR, sugieren un efecto de la SNR en el que la amplitud se reduce en las condiciones +1 y -2 dB. Para examinar este efecto, se realizó una prueba t utilizando datos del lugar central (C) entre las condiciones +4 y +1 dB. Este contraste fue significativo, t(10) = 2,5, p = 0,03. En la Figura 5 también se muestra la amplitud del N400 a través de las condiciones experimentales en las formas de onda congruente e incongruente. El patrón de los cambios de amplitud observados en estas formas de onda indica que el origen de los efectos observados en la onda de diferencia se debió principalmente a la modulación de la forma de onda incongruente. Para examinar las contribuciones de las ondas congruente e incongruente en el efecto de la SNR, se realizó la misma prueba t sobre amplitudes en estas formas de onda (en C) en la misma ventana de latencia utilizada para la onda de diferencia. No se apreció ningún efecto de SNR en la onda congruente, t(10) = 044, p = 0,67, pero la onda incongruente demostró una tendencia quasi-significativa, t(10) = 1,8, p = 0,11.

Jamison Figura 5


Resultados de ERP: análisis PLS

En el análisis PLS se obtuvo una VL significativa (p = 0,006). En la Tabla 2 se muestran los salientes de diseño de esta VL. Estas indican que las formas de onda de diferencia con respecto a las condiciones de silencio, +4 dB, +2 dB y umbral (es decir, las condiciones salientes de diseño ponderadas positivamente) fueron significativamente diferentes como grupo de las condiciones +1 y -2 dB (las condiciones salientes de diseño ponderadas negativamente). Por lo tanto, a diferencia del análisis estadístico convencional, en el que la significación se logró únicamente en un contraste post hoc que se limitó a las condiciones +4 y +1 dB, los resultados del análisis PLS sugieren un efecto no lineal de la SNR en el que la amplitud del efecto N400 fue elevada en las condiciones de silencio, +4 dB, +2 dB y umbral. Como se puede observar en la Tabla 2, entre las condiciones ponderadas positivamente (silencio, +4 dB, +2 dB y umbral), la condición de umbral obtuvo un saliente de diseño que fue aproximadamente el doble que el observado en las otras tres condiciones. Al igual que las ponderaciones de contraste, las de diseño indican el grado con el que una condición experimental contribuye en los resultados observados. Por lo tanto, el saliente de diseño en la condición de umbral indica que contribuyó más en el efecto experimental observado que cualquier otra condición única en el grupo ponderado positivamente (silencio, +4 dB y +2 dB). Del mismo modo, entre las condiciones ponderadas negativamente, el pequeño saliente de diseño en la condición de -2 dB (casi un cuarto) con respecto a la condición de +1 dB indica que esta condición contribuyó más en el efecto observado que la condición de -2 dB.

Jamison Tabla 2


En la Figura 6 se muestran los salientes de electrodo como una función de tiempo trazada como mapas pericraneales. Se debe recordar que, tal como se describe en la sección de Análisis estadístico, las formas de onda salientes de electrodo son conceptualmente similares a las ondas de diferencia ponderadas. Las ponderaciones se describen como salientes de diseño; por lo tanto, la onda de diferencia muestra la diferencia entre las condiciones ponderadas positivamente (silencio, +4 dB, +2 dB y umbral) y las condiciones ponderadas negativamente (+1 y -2 dB), pero recibe contribuciones mayores de las condiciones de umbral y +1 dB que de cualquier otra condición experimental. A efectos de visualización en la Figura 5, se ha determinado el umbral de los salientes de electrodo mediante un ratio de bootstrap de ±3,09 (equivalente aproximadamente a un IC del 99%); de esta forma, únicamente se representan en esta figura los salientes que han cumplido un criterio riguroso de significación con fines de generalización. Las salientes negativas mostradas en estos mapas indican que las ondas de diferencia correspondientes a las condiciones de silencio, +4 dB, +2 dB y umbral tendieron a mostrar un voltaje más negativo que las condiciones de +1 y -2 dB, concretamente en los electrodos frontocentrales lateralizados a la derecha en el rango de latencias de 475-550 ms. Este dato es coherente con la latencia típica del efecto N400 de 200 a 600 ms desde el inicio de la palabra (Kutas y Federmeier, 2011). La distribución espacial de estos efectos refleja la distribución frontal derecha del efecto N400 observado en la condición de umbral.

Jamison Figura 6


Discusión

El objetivo de este proyecto fue examinar si se podría diseñar una prueba SIN pasiva utilizando el efecto N400 evocado por las anomalías semánticas. Las hipótesis fueron que el efecto N400 se podría suscitar mediante oraciones presentadas en condiciones pasivas con ruido en forma de habla y que su amplitud variaría en función de la SNR. Además, las condiciones de la SNR utilizadas se desarrollaron en torno a la SNR50 de cada participante para determinar la correspondencia entre los cambios en amplitud del efecto N400 y la medición conductual convencional del umbral del SIN.

En este estudio se detectó que una mejora amplia y negativa de los finales de oraciones semánticamente incongruentes con respecto a los congruentes (coherente con el efecto N400) se generaba en presencia de diversos niveles de ruido de fondo en forma de habla. Cuando se sometió a prueba utilizando estadísticas convencionales, el efecto de la SNR en la amplitud del efecto N400 fue significativa únicamente en un contraste post hoc entre las condiciones +4 y +1 dB. Además, este análisis se restringió al lugar central agrupado para maximizar la sensibilidad estadística frente al efecto de la SNR y emular lo que se podría observar clínicamente utilizando un montaje simplificado con un solo electrodo activo cerca de CZ.

Los resultados que se obtuvieron mediante el análisis de PLS basado en datos fueron más complejos, indicando que el efecto N400 fue mayor en las condiciones de silencio, +4 dB, +2 dB y umbral como grupo que en las condiciones de +1 y -2 dB como grupo, lo que sugiere que el efecto de la SNR en la amplitud del N400 no es lineal en todo el espectro de las condiciones de la SNR, como se puede observar en la Figura 5. El efecto N400 disminuyó de forma acusada entre +4 y +1 dB (confirmado por pruebas post hoc), si bien aumentó inesperadamente de nuevo en el umbral, de tal forma que su amplitud fue similar a la observada en las condiciones de +2 dB, +4 dB y silencio. De hecho, el análisis PLS agrupó conjuntamente las condiciones de silencio, +4 dB, +2 dB y umbral. Por último, en la SNR más baja (-2 dB), la amplitud del N400 disminuyó una vez más, lo que se confirmó mediante la agrupación de los PLS de la condición de -2 dB y la condición de +1 dB. El efecto experimental que se identificó mediante PLS al contrastar estos grupos consistió en una atenuación significativa de la negatividad (es decir, un efecto N400 menor) en la gama de latencias de 475-550 ms, concretamente en FR, en las condiciones de +1 y -2 dB. Si bien las condiciones de +1 y -2 dB contribuyeron en este efecto como grupo, el saliente de diseño correspondiente a la condición de +1 dB fue prácticamente el cuádruple del obtenido en el caso de la condición de -2 dB, lo que indica que la reducción observada de amplitud del efecto N400 era mayor en la condición de +1 dB que en la condición de -2 dB.

A diferencia de Connolly et al. (1992), que detectaron una mayor latencia del N400 con enmascaramiento de “parloteo”, un efecto aparente de la SNR en la latencia del efecto N400 en el presente estudio, visible en los mapas pericraneales de la Figura 3, no fue estadísticamente significativo. Entre las numerosas diferencias entre el presente estudio y el de Connolly et al. se puede mencionar el tipo de enmascaramiento utilizado. En estudios de investigación en que se utilizan sonidos del habla en diversos tipos de enmascaramiento se detectó que el ruido de “parloteo” generaba los mayores retrasos de latencia en las respuestas evocadas corticales P1 y N1, en comparación con otros tipos de ruido, incluido el ruido en forma de habla (Billings, Bennett, Molis y Leek, 2011). Por lo tanto, es concebible que el tipo de enmascaramiento explique esta diferencia.

En la mayoría de los estudios anteriores en los que se analizó la modulación del efecto N400 mediante inteligibilidad se utilizaron condiciones de tarea activa, como el reconocimiento de palabras o juicios de inteligibilidad (Aydelott et al., 2006; Daltrozzo, Wioland, et al., 2012; Obleser y Kotz, 2011; Romei et al., 2011; Strauss et al., 2013). Estas tareas requieren atención e imponen una determinada carga de memoria a corto plazo y de trabajo, sugiriéndose que los cambios en el N400 en condiciones degradadas reflejaban una mayor demanda de atención y memoria (es decir, carga cognitiva; Connolly et al., 1992; Romei et al., 2011). Nuestros resultados, que según nuestros datos son los primeros en mostrar los efectos del ruido en el N400 en condiciones pasivas en las que la atención se aleja explícitamente de las oraciones en favor de un estímulo competidor (es decir, una película), demuestran que la modulación del N400 mediante la SNR no depende de los cambios relacionados con la tarea en la asignación de recursos cognitivos.

El efecto del N400 no se produce con las palabras que se presentan de forma aislada. Por el contrario, refleja una discrepancia entre una palabra entrante y las predicciones basadas en el contexto. En el presente experimento se anticipó que la modulación del efecto N400 por la SNR se produciría por la inteligibilidad reducida de los fragmentos de oraciones (la oración completa excepto la palabra terminal). Cuando los fragmentos de oraciones son menos inteligibles, resultan menos útiles para generar predicciones acerca de la última palabra de la oración. En ausencia de tales predicciones basadas en el contexto (es decir, con SNR bajas), los N400 obtenidos con respecto a las palabras finales congruentes e incongruentes deberían ser más similares. En línea con esta expectativa, nuestros resultados indican que la reducción de la amplitud del efecto N400 entre nuestras condiciones +4 y +1 dB se basa en los cambios en el procesamiento de palabras incongruentes. No existe ninguna modulación de amplitud con la SNR de palabras congruentes. Por lo tanto, la mejora del N400 que se produce por la discrepancia del contexto demuestra la mayor sensibilidad a la SNR. Unos resultados similares fueron obtenidos por Romei et al. (2011) utilizando un enmascaramiento de “parloteo”. Si bien la atención no se controló estrictamente en nuestro diseño experimental, nuestros datos se encuentran en línea con los de otros estudios que han suscitado el efecto N400 auditivo con la atención explícitamente alejada de los estímulos del habla (Relander et al., 2009; Sculthorpe-Petley et al., 2015) y durante el sueño (Daltrozzo, Claude, et al., 2012; Ibáñez et al., 2006; Perrin, Bastuji y Garcia-Larrea, 2002). Se respalda la literatura del N400 que sugiere que los efectos del contexto semántico pueden ser relativamente automáticos (revisado en Kutas y Federmeier, 2011).

El resultado más desconcertante observado en el presente estudio fue que, si bien la amplitud del efecto N400 disminuía a medida que la SNR se acercaba al umbral (+1 dB) y era baja por debajo del umbral (-2 dB), en el umbral aumentó drásticamente. Una posible explicación puede ser que el proceso subyacente del efecto N400 se modificó alrededor del umbral. Es concebible que, en el umbral, debido a que las palabras terminales son básicamente ininteligibles y la comprensión no se facilita mediante el contexto, las palabras incongruentes pueden haber sido tratadas como pseudopalabras en lugar de palabras reales. Se ha demostrado que las pseudopalabras que no infringen reglas fonológicas u ortográficas (p. ej., gambor, nobek) suscitan N400 mayores que las palabras reales (p. ej., C. K. Friedrich, Eulitz y Lahiri, 2006; O’Rourke y Holcomb, 2002; Supp et al., 2004). Se ha propuesto que este efecto surge del procesamiento adicional aplicado a las pseudopalabras en un intento de identificar una coincidencia en el léxico mental (C. K. Friedrich et al., 2006; O’Rourke y Holcomb, 2002). El efecto de las pseudopalabras en el N400 se ha estudiado ampliamente en los paradigmas de una sola palabra, a diferencia de los paradigmas de oraciones. No obstante, Laszlo y Federmeier (2009) hallaron que la amplitud media del N400 era significativamente mayor en el caso de las palabras inesperadas y las pseudopalabras, en comparación con las palabras esperadas, y que las respuestas a las palabras inesperadas y las pseudopalabras eran similares.

El principal objetivo de este estudio fue explorar la posibilidad de que un paradigma pasivo de N400 de infracción de oraciones se pudiera utilizar clínicamente. Las tareas pasivas evitan los problemas de desempeño que dificultan la realización de pruebas a algunas poblaciones. La tendencia de la amplitud del efecto N400 a disminuir de +4 dB a +1 dB sugiere que puede constituir una ruta prometedora para la investigación translacional en cuanto al desarrollo de una prueba SIN electrofisiológica pasiva. Dado que el aumento de la amplitud del N400 en el umbral es de hecho un fenómeno reproducible, también resulta potencialmente útil: en lugar de tener que definir un umbral (SNR50) en algún punto a lo largo de un continuo de disminución de la amplitud del N400, el umbral se podría definir como la SNR en que la amplitud del N400 alcanza un pico con respecto a los niveles de SNR, por encima y por debajo.

El objetivo final de esta línea de investigación es desarrollar una prueba SIN electrofisiológica basada en el N400. Se necesitarán más investigaciones y mejoras sustanciales para conseguir que este enfoque sea realmente viable en la clínica. Aparte de verificar la reproducibilidad de estos resultados y examinar los procesos subyacentes (p. ej., procesamiento de palabras incongruentes frente a no palabras), un requisito fundamental será determinar si se pueden obtener resultados similares en pacientes con pérdida auditiva. También es importante destacar que la metodología actual comenzó con pruebas conductuales para establecer la SNR50. Sin este tipo de determinación de umbral conductual, sería necesario someter a prueba una gama mucho más extensa de SNR, lo que podría incrementar drásticamente la duración de la prueba. Es improbable que se realice en la clínica un proceso de determinación del umbral de SIN basado en el N400 mientras el N400 se deba derivar utilizando un promedio de señal convencional. No obstante, si el enfoque de un solo ensayo para la detección de ERP que se utiliza en las interfaces cerebro-ordenador (p. ej., Boutani y Ohsuga, 2012; Chen, Guan y Liu, 2011; Guo, Gao y Hong, 2010; Heinrich, Dickhaus, Rothenberger, Heinrich y Moll, 1999; Iyer y Zouridakis, 2007; Zou, Zhang, Yang y Zhou, 2010) avanza hasta el punto de ser útil clínicamente, se podría convertir en una posibilidad. En ausencia de tales innovaciones, las pruebas en un solo nivel y utilizando la respuesta electrofisiológica como predictor de la SNR50, como en la investigación en curso que utiliza el N1 (Billings et al., 2013, 2015), representan una opción entre la variedad de enfoques prácticos concebibles destinados a reducir la duración de la prueba, utilizando al mismo tiempo el promedio de la señal. Una vez que se desarrolle una prueba práctica, los estudios de fiabilidad test-retest y los resultados clínicos servirán para determinar si la prueba es eficaz en la mejora del tratamiento de la pérdida auditiva. Los resultados del presente estudio proporcionan la primera prueba de modulación del efecto N400 pasivo mediante la SNR en presencia de ruido con forma de habla, relacionan tal modulación con un umbral clínicamente relevante y representan un primer paso hacia este objetivo a largo plazo.


Conclusiones

La SNR del habla en presencia de ruido con forma de habla tuvo un efecto estadísticamente significativo sobre la amplitud del efecto N400 evocado pasivamente. El impacto de la SNR en el efecto N400 no siguió un patrón lineal. El N400 frente a anomalías semánticas puede ser valioso en el diseño de una prueba electrofisiológica pasiva en la comprensión del habla en presencia de ruido. Todavía se necesitan estudios de investigación destinados a discernir el origen y la reproducibilidad de un aumento inesperado en la amplitud del efecto N400 en el umbral, así como a optimizar el paradigma experimental para su traslación a la práctica clínica.


Agradecimientos

El IWK Health Center financió todo el trabajo mediante una beca de investigación de Categoría B concedida a la autora que aparece en sexto lugar. El trabajo que se describe en este documento se realizó como tarea parcial del máster de logopedia  de la autora que aparece en primer lugar.


Bibliografía

Anderson, S. y Kraus, N. (2010). Sensory-cognitive interaction in the neural encoding of speech in noise: A review. Journal of the American Academy of Audiology, 21, 575-585.

Aydelott, J., Dick, F. y Mills, D. L. (2006). Effects of acoustic distortion and semantic context on event-related potentials to spoken words. Psychophysiology, 43, 454-464.

Billings, C. J., Bennett, K. O., Molis, M. R. y Leek, M. R. (2011). Cortical encoding of signals in noise: Effects of stimulus type and recording paradigm. Ear and Hearing, 32, 53-60.

Billings, C. J., McMillan, G. P., Penman, T. M. y Gille, S. M. (2013). Predicting perception in noise using cortical auditory evoked potentials. Journal of the Association for Research in Otolaryngology, 14, 891-903.

Billings, C. J., Penman, T. M., McMillan, G. P. y Ellis, E. M. (2015). Electrophysiology and perception of speech in noise in older listeners: Effects of hearing impairment and age. Ear and Hearing, 36, 710-722.

Block, C. K. y Baldwin, C. L. (2010). Cloze probability and completion norms for 498 sentences: Behavioral and neural validation using event-related potentials. Behavior Research Methods, 42, 665-670.

Bloom, P. A. y Fischler, I. (1980). Completion norms for 329 sentence contexts. Memory & Cognition, 8, 631-642.

Boutani, H. y Ohsuga, M. (2012). Input interface using event-related potential P3. Actas de conferencias de IEEE Engineering in Medicine and Biology Society, 2012, 6504-6507.

Bronkhorst, A. W. (2000). The cocktail party phenomenon: A review of research on speech intelligibility in multiple-talker conditions. Acustica, 86, 117-128.

Carhart, R. (1946). Selection of hearing aids. Archives in Otolaryngology, 44(1), 1-18.

Chen, M., Guan, J. y Liu, H. (2011). Enabling fast brain-computer interaction by single-trial extraction of visual evoked potentials. Journal of Medical Systems, 35, 1323-1331.

Cohen, M. S. (2008). Handedness questionnaire. Consultado en http://www.brainmapping.org/shared/Edinburgh.php#

Connolly, J. F. y D’Arcy, R. C. (2000). Innovations in neuropsychological assessment using event-related brain potentials. International Journal of Psychophysiology, 37, 31-47.

Connolly, J. F., Phillips, N. A., Stewart, S. H. y Brake, W. G. (1992). Event-related potential sensitivity to acoustic and semantic properties of terminal words in sentences. Brain & Language, 43(1), 1-18.

Conway, C. M., Bauernschmidt, A., Huang, S. S. y Pisoni, D. B. (2010). Implicit statistical learning in language processing: Word predictability is the key. Cognition, 114, 356-371.

Cox, R. M., Alexander, G. C. y Gilmore, C. (1987). Development of the Connected Speech Test (CST). Ear & Hearing, 8(5 Suppl.), 119S-126S.

Crandell, C. C. y Smaldino, J. J. (1995). Classroom acoustics. En R. J. Roeser & M. P. Downs (Eds.), Auditory disorders in school children (3ª ed., pág. 219-234). Nueva York, NY: Thieme Medical.

Daltrozzo, J., Claude, L., Tillmann, B., Bastuji, H. y Perrin, F. (2012). Working memory is partially preserved during sleep. PLoS One, 7(12), e50997.

Daltrozzo, J., Wioland, N. y Kotchoubey, B. (2012). The N400 and late positive complex (LPC) effects reflect controlled rather than automatic mechanisms of sentence processing. Brain Sciences, 2, 267-297.

Daltrozzo, J., Wioland, N., Mutschler, V., Lutun, P., Calon, B., Meyer, A., . . . Kotchoubey, B. (2009). Cortical information processing in coma. Cognitive and Behavioral Neurology, 22, 53-62.

D’Arcy, R. C., Marchand, Y., Eskes, G. A., Harrison, E. R., Phillips, S. J., Major, A., . . . Connolly, J. F. (2003). Electro-physiological assessment of language function following stroke. Clinical Neurophysiology, 114, 662-672.

Davis, M. H. y Johnsrude, I. S. (2007). Hearing speech sounds: Top-down influences on the interface between audition and speech perception. Hearing Research, 229(1-2), 132-147.

Duzel, E., Habib, R., Schott, B., Schoenfeld, A., Lobaugh, N., McIntosh, A. R., … Heinze, H. J. (2003). A multivariate, spatiotemporal analysis of electromagnetic time-frequency data of recognition memory. NeuroImage, 18, 185-197.

Federmeier, K. D., Van Petten, C., Schwartz, T. J. y Kutas, M. (2003). Sounds, words, sentences: Age-related changes across levels of language processing. Psychology and Aging, 18, 858-872.

Feuerstein, J. F. (1992). Monaural versus binaural hearing: Ease of listening, word recognition, and attentional effort. Ear & Hearing, 13, 80-86.

Flexer, C. (1993). Management of hearing in an educational setting. En J. G. Alpiner & P. A. McCarthy (Eds.), Rehabilitative audiology: Children and adults (2ª ed., pág. 176-210). Baltimore, MD: Williams & Wilkins.

Friedrich, C. K., Eulitz, C. y Lahiri, A. (2006). Not every pseudoword disrupts word recognition: An ERP study. Behavioral and Brain Functions, 2, 36.

Friedrich, M. y Friederici, A. D. (2004). N400-like semantic incongruity effect in 19-month-olds: Processing known words in picture contexts. Journal of Cognitive Neuroscience, 16, 1465-1477.

Friedrich, M. y Friederici, A. D. (2005). Semantic sentence processing reflected in the event-related potentials of one- and two-year-old children. NeuroReport, 16, 1801-1804.

Friedrich, M. y Friederici, A. D. (2008). Neurophysiological correlates of online word learning in 14-month-old infants. NeuroReport, 19, 1757-1761.

Ganis, G. y Kutas, M. (2003). An electrophysiological study of scene effects on object identification. Brain Research Cognitive Brain Research, 16, 123-144.

Gatehouse, S. y Gordon, J. (1990). Response times to speech stimuli as measures of benefit from amplification. British Journal of Audiology, 24, 63-68.

Giolas, T. G. y Wark, D. J. (1967). Communication problems associated with unilateral hearing loss. Journal of Speech and Hearing Disorders, 32, 336-343.

Guo, J., Gao, S. y Hong, B. (2010). An auditory brain-computer interface using active mental response. IEEE Transactions in Neural Systems Rehabilitation and Engineering, 18, 230-235.

Harford, E. y Barry, J. (1965). A rehabilitative approach to the problem of unilateral hearing impairment: The contralateral routing of signals (CROS). Journal of Speech and Hearing Disorders, 30, 121-138.

Heinrich, H., Dickhaus, H., Rothenberger, A., Heinrich, V. y Moll, G. H. (1999). Single-sweep analysis of event-related potentials by wavelet networks—Methodological basis and clinical application. IEEE Transactions on Biomedical Engineering, 46, 867-879.

Humes, L. E., Dubno, J. R., Gordon-Salant, S., Lister, J. J., Cacace, A. T., Cruickshanks, K. J., … Wingfield, A. (2012). Central presbycusis: A review and evaluation of the evidence. Journal of the American Academy of Audiology, 23, 635-666.

Ibáñez, A., López, V. y Cornejo, C. (2006). ERPs and contextual semantic discrimination: Degrees of congruence in wakefulness and sleep. Brain & Language, 98, 264-275.

Itier, R. J., Taylor, M. J. y Lobaugh, N. J. (2004). Spatiotemporal analysis of event-related potentials to upright, inverted, and contrast-reversed faces: Effects on encoding and recognition. Psychophysiology, 41, 643-653.

Iyer, D. y Zouridakis, G. (2007). Single-trial evoked potential estimation: Comparison between independent component analysis and wavelet denoising. Clinical Neurophysiology, 118, 495-504.

Jerger, J., Greenwald, R., Wambacq, I., Seipel, A. y Moncrieff, D. (2000). Toward a more ecologically valid measure of speech understanding in background noise. Journal of the American Academy of Audiology, 11, 273-282.

Kalikow, D. N., Stevens, K. N. y Elliott, L. L. (1977). Development of a test of speech intelligibility in noise using sentence materials with controlled word predictability. The Journal of the Acoustical Society of America, 61, 1337-1351.

Kelly, S. D., Kravitz, C. y Hopkins, M. (2004). Neural correlates of bimodal speech and gesture comprehension. Brain & Language, 89, 253-260.

Killion, M. C., Niquette, P. A., Gudmundsen, G. I., Revit, L. J. y Banerjee, S. (2004). Development of a quick speech-in-noise test for measuring signal-to-noise ratio loss in normal-hearing and hearing-impaired listeners. The Journal of the Acoustical Society of America, 116(4 Pt. 1), 2395-2405.

Koerner, T. K. y Zhang, Y. (2015). Effects of background noise on inter-trial phase coherence and auditory N1-P2 responses to speech stimuli. Hearing Research, 328, 113-119.

Kotchoubey, B., Lang, S., Mezger, G., Schmalohr, D., Schneck, M., Semmler, A., … Birbaumer, N. (2005). Information processing in severe disorders of consciousness: Vegetative state and minimally conscious state. Clinical Neurophysiology, 116, 2441-2453.

Krishnan, A., Williams, L. J., McIntosh, A. R. y Abdi, H. (2011). Partial least squares (PLS) methods for neuroimaging: A tutorial and review. NeuroImage, 56, 455-475.

Kutas, M. (1993). In the company of other words: Electrophysio-logical evidence for single-word and sentence context effects. Language and Cognitive Processes, 8, 533-572.

Kutas, M. y Federmeier, K. D. (2000). Electrophysiology reveals semantic memory use in language comprehension. Trends in Cognitive Science, 4, 463-470.

Kutas, M. y Federmeier, K. D. (2011). Thirty years and counting: Finding meaning in the N400 component of the event-related brain potential (ERP). Annual Review of Psychology, 62, 621-647.

Kutas, M. y Hillyard, S. A. (1980). Reading senseless sentences: Brain potentials reflect semantic incongruity. Science, 207, 203-205.

Kutas, M. y Hillyard, S. A. (1984). Brain potentials during reading reflect word expectancy and semantic association. Nature, 307, 161-163.

Kutas, M., Hillyard, S. A. y Gazzaniga, M. S. (1988). Processing of semantic anomaly by right and left hemispheres of commissurotomy patients. Evidence from event-related brain potentials. Brain, 111(Pt. 3), 553-576.

Laszlo, S. y Federmeier, K. D. (2009). A beautiful day in the neighborhood: An event-related potential study of lexical relationships and prediction in context. Journal of Memory and Language, 61, 326-338.

Lau, E. F., Phillips, C. y Poeppel, D. (2008). A cortical network for semantics: (De)constructing the N400. Nature Reviews Neuroscience, 9, 920-933.

Lobaugh, N. J., West, R. y McIntosh, A. R. (2001). Spatiotemporal analysis of experimental differences in event-related potential data with partial least squares. Psychophysiology, 38, 517-530.

Luck, S. J. (2005). An introduction to the event-related potential technique. Cambridge, MA: MIT Press.

Martin, B. A., Tremblay, K. L. y Korczak, P. (2008). Speech evoked potentials: From the laboratory to the clinic. Ear & Hearing, 29, 285-313.

McIntosh, A. R., Bookstein, F. L., Haxby, J. V. y Grady, C. L. (1996). Spatial pattern analysis of functional brain images using partial least squares. NeuroImage, 3, 143-157.

Misra, M. y Holcomb, P. J. (2003). Event-related potential indices of masked repetition priming. Psychophysiology, 40, 115-130.

Moore, D. R., Rosen, S., Bamiou, D.-E., Campbell, N. G. y Sirimanna, T. (2013). Evolving concepts of developmental auditory processing disorder (APD): A British Society of Audiology APD special interest group “white paper.” International Journal of Audiology, 52, 3-13.

Mueller, H. G. (2003). In the words of Shakespeare: Fitting test protocols are “more honored in the breach than the observance.” The Hearing Journal, 56(10), 19-20.

Nabelek, A. K. y Nabelek, I. V. (1994). Room acoustics and speech perception. En J. Katz (Ed.), Handbook of clinical audiology (pág. 624-637). Baltimore, MD: Williams & Wilkins.

Nilsson, M., Soli, S. D. y Sullivan, J. A. (1994). Development of the Hearing in Noise Test for the measurement of speech reception thresholds in quiet and in noise. The Journal of the Acoustical Society of America, 95, 1085-1099.

Obleser, J. y Kotz, S. A. (2011). Multiple brain signatures of integration in the comprehension of degraded speech. NeuroImage, 55, 713-723.

O’Rourke, T. B. y Holcomb, P. J. (2002). Electrophysiological evidence for the efficiency of spoken word processing. Biological Psychology, 60, 121-150.

Parbery-Clark, A., Skoe, E., Lam, C. y Kraus, N. (2009). Musician enhancement for speech-in-noise. Ear & Hearing, 30, 653-661.

Pearsons, K. S., Bennett, R. L. y Fidell, S. (1976). Speech levels in various noise environments (Rep. No. EPA-600/1-77-025). Washington, DC: Office of Health and Ecological Effects, Office of Research and Development, U.S. Environmental Protection Agency.

Perrin, F., Bastuji, H. y Garcia-Larrea, L. (2002). Detection of verbal discordances during sleep. NeuroReport, 13, 1345-1349.

Plomp, R. (1977). Acoustical aspects of cocktail parties. Acustica, 38, 186-191.

Relander, K., Rama, P. y Kujala, T. (2009). Word semantics is processed even without attentional effort. Journal of Cognitive Neuroscience, 21, 1511-1522.

Remez, R. E., Rubin, P. E., Pisoni, D. B. y Carrell, T. D. (1981). Speech perception without traditional speech cues. Science, 212, 947-949.

Romei, L., Wambacq, I. J., Besing, J., Koehnke, J. y Jerger, J. (2011). Neural indices of spoken word processing in back-ground multi-talker babble. International Journal of Audiology, 50, 321-333.

Sculthorpe-Petley, L., Liu, C., Ghosh Hajra, S., Parvar, H., Satel, J., Trappenberg, T. P., … D’Arcy, R. C. (2015). A rapid event-related potential (ERP) method for point-of-care evaluation of brain function: Development of the Halifax Consciousness Scanner. Journal of Neuroscience Methods, 245, 64-72.

Spahr, A. J., Dorman, M. F., Litvak, L. M., Cook, S., Loiselle, L. M., DeJong, M. D., . . . Gifford, R. H. (2012). Development and validation of the Pediatric AzBio sentence lists. Ear & Hearing, 35, 418-422.

Stapells, D. R. (2009). Cortical event-related potentials to auditory stimuli. En J. Katz, L. Medwetsky, R. Burkhard y L. Hood (Eds.), Handbook of clinical audiology (6ª ed., pág. 395-430). Nueva York, NY: Lippincott, Williams & Wilkins.

Strauss, A., Kotz, S. A. y Obleser, J. (2013). Narrowed expectancies under degraded speech: Revisiting the N400. Journal of Cognitive Neuroscience, 25, 1383-1395.

Supp, G. G., Schlogl, A., Gunter, T. C., Bernard, M., Pfurtscheller, G. y Petsche, H. (2004). Lexical memory search during N400: Cortical couplings in auditory comprehension. NeuroReport, 15, 1209-1213.

Taylor, W. L. (1953). “Cloze procedure”: A new tool for measuring readability. Journalism Quarterly, 30, 415-433.

Van Petten, C. y Luka, B. J. (2006). Neural localization of semantic context effects in electromagnetic and hemodynamic studies. Brain & Language, 97, 279-293.

Van Petten, C. y Rheinfelder, H. (1995). Conceptual relationships between spoken words and environmental sounds: Event-related brain potential measures. Neuropsychologia, 33, 485-508.

Vogel, E. K., Luck, S. J. y Shapiro, K. L. (1998). Electrophysio-logical evidence for a postperceptual locus of suppression during the attentional blink. Journal of Experimental Psychology: Human Perception and Performance, 24, 1656-1674.

Zou, L., Zhang, Y., Yang, L. T. y Zhou, R. (2010). Single-trial evoked potentials study by combining wavelet denoising and principal component analysis methods. Journal of Clinical Neurophysiology, 27, 17-24.


Traducido con autorización del artículo “Investigación preliminar del N400 evocado pasivamente como herramienta para estimar los umbrales del habla en presencia de ruido“, por Caroline Jamison, Steve J. Aiken, Michael Kiefte, Aaron J. Newman, Manohar Bance y Lauren Sculthorpe-Petley (American Journal of Audiology, vol. 25, 344-358, diciembre 2016, http://aja.pubs.asha.org/journal.aspx)). Este material ha sido originalmente desarrollado y es propiedad de la American Speech-Language-Hearing Association, Rockville, MD, U.S.A., www.asha.org. Todos los derechos reservados. La calidad y precisión de la traducción es únicamente responsabilidad de CLAVE.

La American Speech-Language-Hearing Association (ASHA) no justifica o garantiza la precisión, la totalidad, la disponibilidad, el uso comercial, la adecuación a un objetivo particular o que no se infringe el contenido de este artículo y renuncia a cualquier responsabilidad directa o indirecta, especial, incidental, punitiva o daños consecuentes que puedan surgir del uso o de la imposibilidad de usar el contenido de este artículo.

Translated, with permission, from “Preliminary Investigation of the Passively Evoked N400 as a Tool for Estimating Speech-in-Noise Thresholds“, by Caroline Jamison, Steve J. Aiken, Michael Kiefte, Aaron J. Newman, Manohar Bance and Lauren Sculthorpe-Petley (American Journal of Audiology, vol. 25, 344-358, diciembre 2016
, http://aja.pubs.asha.org/journal.aspx). This material was originally developed and is copyrighted by the American Speech-Language-Hearing Association, Rockville, MD, U.S.A., www.asha.org. All rights are reserved. Accuracy and appropriateness of the translation are the sole responsibility of CLAVE.

The American Speech-Language-Hearing Association (ASHA) does not warrant or guarantee the accuracy, completeness, availability, merchantability, fitness for a particular purpose, or noninfringement of the content of this article and disclaims responsibility for any damages arising out of its use. Description of or reference to products or publications in this article, neither constitutes nor implies a guarantee, endorsement, or support of claims made of that product, publication, or service. In no event shall ASHA be liable for any indirect, special, incidental, punitive, or consequential damages arising out of the use of or the inability to use the article content.





Música para tus oídos

Haley Blum


Por su pertenencia a un sector no regulado donde se trabaja con ruido, los músicos pueden beneficiarse del apoyo de los audiólogos para conservar su audición y potenciar su interpretación musical.


Músicos: Están dotados para crear temas pegadizos e irresistibles, despertar sentimientos con un acorde y capturar emociones en una melodía que no se podrían expresar de otra manera.

No siempre están preparados para cuidar sus oídos.

Si bien algunos son más proactivos que otros, “los músicos no se preocupan [normalmente] de proteger su audición, porque no desean sacrificar su rendimiento, que es sin duda su objetivo principal”, afirma Amber Powner, una audióloga clínica con sede en Santa Rosa, California, especialista en músicos, prevención de la pérdida auditiva y problemas vestibulares.

Pertenecientes a un sector no regulado que se basa en el arte y la actuación, los músicos carecen de cualquier forma de protección y cuidados auditivos estandarizados. Los audiólogos pueden realizar una gran labor preocupándose de la salud auditiva de estos profesionales, además de conseguir un nuevo colectivo de pacientes, aconseja Powner.

Se empieza con lo que ya se conoce, lo que cualquier alumno de audiología aprende en la facultad sobre ruido y acústica, asegura Marshall Chasin, un audiólogo clínico y de investigación, con sede en Toronto y conocido por su trabajo con músicos en los últimos 35 años. Chasin insiste en que los audiólogos no deben sentirse intimidados por las necesidades específicas de los músicos.

“No es necesario ser músico, ni siquiera saber nada de música, para trabajar con músicos… Toco [el clarinete] un poco, pero no soy muy bueno”, Chasin comenta con una carcajada. “No soy un músico con dotes naturales, pero la solución de los problemas de los músicos es el verdadero núcleo de Audiology 101”.
Si se añaden unos conocimientos específicos de los músicos y unas ideas de marketing a las competencias básicas de audiología que se poseen, añade Chasin, es posible reajustar la base de clientes.

Por qué los músicos descuidan la salud auditiva

Los músicos, tanto si agotan las entradas en conciertos, desfilan en bandas escolares o cantan en el coro de una iglesia, tienen una misión: actuar. Si se añade el sentido de ser invencibles que los músicos más jóvenes suelen sentir hacia su audición, se tiene la receta para adoptar pocas medidas o ninguna.

Powner afirma que se encuentra constantemente con la misma actitud al observar las actitudes de los clientes hacia la pérdida auditiva: “La verdad es que la protección de la audición no me preocupa, a no ser que note alguna diferencia”.

“Especialmente en el mundo de la música, si estamos tratando con músicos que tocan profesionalmente, y esta actividad representa todo su sustento”, asegura, “lo que les preocupa es… proteger su rendimiento en contraposición con lo que realmente les afecte físicamente”.

No obstante, Chasin, que trabaja como director de investigación auditiva de Musicians’ Clinics of Canada, afirma que, en los últimos 25 años, ha observado un gran incremento en el número de músicos que se interesan por la protección auditiva, principalmente debido a las iniciativas educativas de los colegios, de organizaciones como Hearing Education Awareness for Rockers (HEAR) y de músicos famosos, como Pete Townshend de The Who, que hablan abiertamente de sus propios problemas de audición.

Cuando, en 1988, aparecieron en el mercado los tapones de oídos para músicos (con atenuación plana para reducir los niveles de sonido uniformemente y mantener la calidad original), “muy pocos querían utilizarlos; no era viril ni admirable utilizar tapones de oídos”, Chasin comenta. Sin embargo, actualmente, existen músicos veteranos, que han experimentado los efectos a menudo devastadores de la pérdida auditiva y hablan honestamente de su propia experiencia, tanto de los acúfenos como de la distorsión del sonido musical, y recomiendan: “chicos, lo que hay que hacer es utilizar tapones de oídos; es de tontos no utilizarlos”.

La utilización de tapones de oído para músicos o monitores in-ear es actualmente un “procedimiento estándar” en las bandas jóvenes populares, afirma Joseph Montano, profesor asociado de audiología en otorrinolaringología clínica y director de audición y habla en el Weill Cornell Medical College. Es también vicepresidente de ASHA en estándares y ética en audiología y es miembro del Consejo de HEAR.

Mientras los tapones de oído para músicos reducen simplemente la exposición al ruido, los monitores in-ear ofrecen una retroalimentación auditiva a los miembros de la banda con el fin de que puedan oír con claridad su propia interpretación. Los audiólogos pueden trabajar con sus clientes músicos para encontrar el dispositivo adecuado, asegura Montano.

“En cuanto a los músicos más veteranos, es interesante mencionar que esta generación, especialmente la del rock ’n’ roll, nunca ha utilizado monitores in-ear, por lo que ha estado expuesta a una situación que ha afectado su audición. Los músicos más jóvenes están más familiarizados con la pérdida auditiva. Los monitores in-ear les sirven realmente de ayuda para oír su propia música y, por nuestra parte, podemos limitar el volumen”.

No obstante, aunque la naturaleza impetuosa del rock ’n’ roll puede dar la impresión de que es el tipo de música que puede producir una pérdida auditiva, no es tan sencillo. O, al menos, el problema no está tan orientado al género, “sino al volumen de la música”, comenta Montano. “Si escuchas a Mozart con un volumen elevado, te puede producir una pérdida auditiva… Existen muchas personas de la Filarmónica, muchas personas que tocan en orquestas clásicas, que tienen una pérdida auditiva porque el volumen es muy elevado”.

Y, como bien saben los audiólogos, con exposiciones prolongadas a una música con gran volumen se producen pérdidas auditivas. Los acúfenos, seguidos de la hipersensibilidad y la distorsión de los tonos son las quejas más frecuentes que Powner escucha de los pacientes. “Si un paciente acude a la consulta y desea hablar sobre la protección auditiva, suele ser raro que no presente síntomas de pérdida auditiva inducida por el ruido”, afirma. “Si tienen una pérdida auditiva moderada-severa plana, mostrarán normalmente interés en una amplificación que les permita tocar adecuadamente utilizando audífonos, y otros se mostrarán interesados en el tratamiento de los acúfenos”.

La pérdida auditiva puede repercutir negativamente en la vida de cualquier paciente, pero Powner, que padece una pérdida auditiva conductiva en un oído, señala que la perspectiva de padecer acúfenos y una pérdida auditiva puede ser doblemente devastadora en el caso de los músicos, que suelen depender de la audición como medio de sustento.

“Son un colectivo de personas mucho más emocional”, asegura. “Por lo general, describirán su pérdida auditiva (en contraposición al paciente tradicional que expresaría inquietudes como: “lo que quiero realmente es oír a mis nietos” o “lo que deseo es participar en conversaciones”) centrada en torno a: “Esta es mi vida, en lo que realmente deseo trabajar y me asusta que mi carrera haya terminado”.

“He oído esta frase miles de veces”, comenta. “Sin embargo, me siento feliz de afirmar que la mayoría de los músicos con los que trabajo se da cuenta de que sus miedos son infundados. Este es el objetivo que perseguimos: devolverles su pasión por la música, pero permitiéndoles que trabajen de una forma segura”.

La amplificación y protección auditiva

También es importante que los audiólogos muestren a sus pacientes músicos la manera en que pueden mantener su relación con la música, comenta Montano. “Debemos facilitar que oigan el habla, pero también que perciban adecuadamente la música, porque forma parte de su vida”.

En este punto es donde entra en juego el asesoramiento. Los dispositivos pueden ser útiles, pero Montano destaca el papel clave que desempeña la orientación en el trabajo con músicos, ayudándoles a adaptarse al hecho de que padecen una pérdida auditiva y enseñándoles la manera de preservar la audición que todavía mantienen.

En lo que se refiere a preservar la audición, todo gira por supuesto en torno a la manera de utilizar las herramientas. Los monitores in-ear, una opción habitual para los músicos, especialmente para los que actúan en actuaciones programadas, pueden utilizarse como protección auditiva, pero únicamente si están programados con volúmenes seguros. De lo contrario, si tienen demasiados transductores (las partes en forma de cono o cuerno de los altavoces que se desplazan hacia adelante y hacia atrás para crear sonido) o si están ajustados para producir un volumen demasiado alto, pueden perjudicar más que beneficiar, afirma Powner, por lo que enseñar a los pacientes la manera de utilizarlos correctamente es esencial.

“Si un músico toca en un entorno ruidoso con una banda electrónica, siempre que se utilice amplificación, recomiendo usar monitores in-ear y proporciono bastante asesoramiento”, comenta. “Existen monitores in-ear en el mercado que tienen hasta 12 transductores, lo que es una pesadilla para un audiólogo que tiene como objetivo la prevención, porque todos estos transductores amplifican el volumen, lo que no favorece la calidad global del sonido”.

Los monitores in-ear tienen otro atributo de venta: son una opción atractiva para los artistas que buscan “despejar” el escenario y disminuir la cantidad de equipos que deben transportar, afirma Powner. Los monitores in-ear de tamaño bolsillo pueden sustituir a los grandes monitores de suelo de “cuña” que se sitúan en la parte delantera del escenario, dirigidos hacia los músicos para que puedan escuchar sus instrumentos. Las cuñas generan un volumen en el escenario increíblemente elevado; los monitores in-ear permiten que las bandas se liberen de la cacofonía que producen.

Al realizar impresiones de oído para la realización de monitores in-ear y tapones de oídos personalizados, los audiólogos deben considerar el tipo de instrumento que toca la persona y si es cantante, Chasin comenta. Recomendar que la persona abra la boca ligeramente puede servir para asegurarse de que el producto cierra el oído suficientemente sin provocar irritación ni dolor. Aconseja también considerar la penetración en el conducto. Al contrario de lo que recomiendan los fabricantes de monitores in-ear, no es necesario que penetren a gran profundidad en el oído para conseguir la calidad de sonido deseada.

Los vibradores de baja frecuencia, también conocidos como “bass shakers” o “butt kickers”, son otra herramienta que los audiólogos pueden sugerir a sus pacientes músicos que tocan con percusionistas para reducir el sonido global durante las actuaciones. Los pequeños altavoces, a menudo con forma de disco de hockey, se colocan en la tarima donde se sienta el batería, vibrando físicamente para intensificar la retroalimentación. Cuando el batería golpea, se escucha fuerte.

“Les permitirá tocar a un volumen más razonable, de manera que la persona próxima a ellos no deba tocar más alto para compensar”, comenta Chasin, agregando que los bajos pueden también utilizar vibradores para conseguir el mismo efecto. “Hasta cierto punto, podemos utilizar la tecnología para engañar al músico”. Los tambores también se pueden tocar resguardados con grandes escudos de plexiglás que protegerán de la exposición a otros miembros de la banda.

No obstante, para empezar a considerar la protección auditiva, Powner opina que los tapones de oídos para músicos son un buen punto de partida.

“Les permite hacerse una idea de lo que representa utilizar una protección auditiva mientras tocan y adquirir una buena costumbre, en lugar de utilizar de inmediato tapones de oídos personalizados o monitores in-ear personalizados”, asegura. Muchos músicos que acuden a la consulta nunca se han puesto nada en los oídos mientras interpretan y empezar con un monitor de protección completo representa un enorme cambio. Por lo tanto, el asesoramiento es fundamental.

Chasin sugiere también ajustar los factores ambientales, como desplazar o elevar un amplificador si resulta molesto para algún miembro de la banda, con el fin de proporcionar a los músicos una menor exposición.

Tampoco hay que olvidarse de facilitar a los pacientes protección en otras situaciones, además de cuando interpretan en un escenario. “Los músicos no solo tocan instrumentos, sino que acuden a conciertos de sus amigos. Escuchan música en numerosos lugares diferentes, por lo que mantener el uso de la protección auditiva es verdaderamente importante”, comenta Montano. “Es preciso mencionarlo siempre”.

Convertirse en un aliado del músico

Los músicos que acuden a su consulta están realizando obviamente un esfuerzo pero, como profesional, deben adoptarse medidas adicionales para informarles y motivarles acerca del cuidado de la salud auditiva.

Powner, por ejemplo, ofrece a los músicos un dosímetro acústico para que midan el volumen por sí mismos. Un paciente que tocaba en varias bandas de jazz, que generan un sonido increíblemente alto debido a todos los instrumentos de metal, llevó consigo el dosímetro a los ensayos y las actuaciones.

Si bien ya tenía motivación para utilizar protección auditiva porque padecía acúfenos, acudió a la consulta con el dosímetro mostrando que “en una sesión de hora y media había alcanzado el 460% de su dosis de ruido”, comenta Powner. “Se mostró sorprendido, asegurando: “estoy impaciente por mostrárselo a los miembros de la banda”. Este dispositivo fue un excelente factor de motivación y finalmente optó por la amplificación para abordar los acúfenos cuando no tocaba como consecuencia de este problema”.

No solo los miembros de una banda pueden obtener beneficios de una visita al audiólogo. Los objetivos pedagógicos de HEAR no solo se centran en los propios músicos, sino también en técnicos de sonido, managers, camareros, guardias de seguridad de clubes, cualquier persona que se encuentre en un entorno en el que suene música con un volumen elevado, opina Montano.

Si es posible, una visita a estos entornos puede ayudarle a recopilar información que le permitirá asesorar mejor a los pacientes músicos: el lugar donde se sitúan en el escenario con respecto a los altavoces y a otros miembros de la banda, el tipo de instrumento y música que interpretan, el sonido típico del lugar.

En opinión de Chasin, se trata de ciencia forense combinada con audiología. “Si acude a su consulta una persona que escucha peor con el oído izquierdo que con el derecho, es posible que sea un batería, con los dos platillos [a su izquierda]. Puede tratarse de un violinista, con el instrumento en su oído izquierdo. O es posible que se deba a que, a su izquierda, toca un flautista. Puede tratarse de un DJ que solo utilice el auricular en un oído, con algún tipo de protección, no estando el otro oído protegido sino expuesto al entorno”, asegura.

Parte de la estrategia de Powner es presenciar la actuación de sus clientes músicos. “Me hago una mejor idea de cuál es su entorno”, afirma. Si no puede acudir a una actuación, les pide que dibujen un diagrama de la disposición en el escenario. Si es posible, también les recomienda que traigan sus instrumentos, lo que contribuye a fomentar la relación paciente-clínico.

“Mantener una buena relación con los músicos es esencial para animarles a que utilicen una protección auditiva y que entiendan lo que se protege y la razón para que se proteja”, asegura Powner. Cuando el profesional reconoce que su afición o carrera es importante, es menos probable que considere su consejo como una reprimenda.

Una manera en que Montano establece relaciones con los pacientes, especialmente con los músicos “viriles” que pueden no sentirse cómodos hablando de sus problemas de audición, es a través de un enfoque de acercamiento más sutil: cuelga sus antiguos LP alrededor de la consulta. “Cuando alguien entra, suele decir: ese me encanta; allí está Tom Waits. Con los músicos, se establece un vínculo inmediato”.


HEAR recibe el premio “Annie” 2016

ASHA entregó el premio Annie Glenn 2016 a Hearing Education Awareness for Rockers (HEAR), una organización dedicada a “la prevención de la pérdida auditiva y los acúfenos en los músicos, otros profesionales musicales y todos los amantes de la música (especialmente, los adolescentes y adultos jóvenes) a través de la educación y la sensibilización social”.

El “Annie” lleva el nombre de Annie Glenn, la esposa del senador John Glenn. Es conocida en todo el país por su defensa de las personas con trastornos de comunicación y el premio reconoce el esfuerzo de difusión de los problemas de comunicación, así como a las personas que siguen el ejemplo de la distinción, la valentía y el carisma sereno de la Sra. Glenn.

HEAR ha ayudado a identificar a rockeros famosos para que defiendan las prácticas de audición seguras entre sus colegas y seguidores. Pat Benatar es la portavoz de una iniciativa nacional para educar a la generación de “baby boomers” acerca de la importancia de tener en cuenta la salud auditiva, su prevención y tratamiento y otros músicos han aparecido en anuncios de servicio público: Green Day, George Clinton, Perry Farrell de Jane’s Addiction, Herbie Hancock, Pete Townshend de The Who, Lars Ulrich de Metallica, Ray Charles y otros.


Musician Marketing 101: cómo “amplificar” su oferta

Entrar en colectivo musical de su localidad es una cuestión de marketing específico. Los audiólogos Marshall Chasin y Amber Powner comparten sus consejos:

En primer lugar, supere el miedo: Incluso si no toca ningún instrumento. “El colectivo de músicos no es tan singular como la gente piensa”, Chasin asegura.

Dese a conocer en su localidad: Chasin sugiere escribir una columna para un periódico local o un blog, ofrecerse a dar una charla en las clases de salud de un instituto, visitar una facultad local o el departamento de música de una universidad, o impulsar una iniciativa de boca a boca en su lugar de culto.

Hable con médicos generales: “Transmítales que existen opciones y que la mayoría de las personas que acude a su consulta por problemas de acúfenos está realmente desesperada”, aconseja Powner.

Prepare un folleto o un manual: Chasin ofrece a los pacientes material escrito fácil de comprender, como su libro de 90 páginas “Hear the Music” asegurando que los pacientes suelen prestarlo a sus amigos.


Este artículo se publicó en The ASHA Leader, Mayo de 2016, Vol. 21, 50-56.







c/ Santísima Trinidad,
35, bajo
28010 · Madrid · España
Tfno: (+34) 91 523 99 00
Fax: (+34) 91 531 56 94
www.oiresclave.org