Mayo-Junio 2022 – número 3

audiología

- El impacto de los criterios de superación/derivación en el uso de la técnica de otoemisiones acústicas en el cribado auditivo neonatal, Amisha Kanji y Alida Naude.
- La pérdida auditiva y las diferencias en el desempeño de los jóvenes de minorías urbanas, por Lori A. Pakulski, Jennifer Gassman y Monica Williams.

Legibilidad e idoneidad de las guías de usuario de audífonos en español

Laura Gaeta
Departamento de Ciencias y Trastornos de la Comunicación, California State University, Sacramento

Edward Garcia

Departamento de Logopedia, California State University, Long Beach

Valeria Gonzalez
Departamento de Ciencias y Trastornos de la Comunicación, California State University, Sacramento

Objetivo: El objetivo de este estudio fue evaluar la legibilidad y la idoneidad de las guías de usuario de audífonos en español.

Método: Se descargaron guías de usuario de audífonos en inglés y en español para su análisis. La legibilidad de las guías en inglés se calculó con la “Escala de facilidad de lectura” de Flesch y la Fórmula de legibilidad de Flesch-Kincaid, y la legibilidad de las guías en español se calculó con la fórmula de Fernández-Huerta y Spaulding y el Gráfico de Fry. Para valorar la idoneidad de cada par de guías de usuario de audífonos en español y en inglés se utilizó la “Evaluación de la idoneidad de los materiales” (Suitability Assessment of Materials).

Resultados: De los nueve fabricantes que disponían de materiales en inglés, únicamente cinco disponían de guías en español. Si bien la legibilidad de las guías de usuario en español y en inglés era similar, ambas guías estaban redactadas, en promedio, para un nivel de lectura de octavo curso estadounidense (segundo curso de la ESO en España). La idoneidad de las guías de usuario en español y en inglés analizadas fue del 78% y del 80%, respectivamente.

Conclusiones: Las guías de usuario de audífonos en español tenían una legibilidad y una idoneidad menores. Considerando que los pacientes con un dominio limitado del inglés, incluida la población hispana, corren el riesgo de tener una baja «alfabetización sanitaria», se recomienda a los proveedores y fabricantes que elaboren más materiales en español. Para mejorar la legibilidad y la idoneidad de las guías de usuario en ambos idiomas sería conveniente realizar una revisión.

Las afecciones crónicas, incluida la pérdida auditiva, requieren una gestión eficaz de múltiples aspectos de la atención médica, como la comunicación, la evaluación y el acceso a los servicios. Los profesionales reconocen que en los resultados influye la alfabetización sanitaria, que se refiere a la capacidad de una persona de adquirir y comprender información sanitaria con el fin de tomar decisiones relacionadas con la salud (Centers for Disease Control and Prevention, 2000). Los pacientes con un nivel alto de alfabetización sanitaria pueden tener una mayor participación en la toma de decisiones (Brabers et al., 2017). Los pacientes que no son activos en la toma de decisiones pueden tener comportamientos poco saludables, lo que puede dar lugar a resultados de salud deficientes (Berkman et al., 2011). Una baja alfabetización sanitaria se ha asociado con resultados de salud negativos, como la hospitalización y la mortalidad (Baker et al., 1998; Berkman et al., 2011), concretamente en el caso de pacientes mayores o con un nivel socioeconómico bajo, afecciones crónicas, un nivel educativo bajo y que no son hablantes nativos de inglés (Nielsen-Bohlman et al., 2004). La gestión de la pérdida auditiva y otras afecciones crónicas requieren también un elevado nivel de compromiso de los profesionales y los servicios de atención médica, incluyendo los procesos de toma de decisiones compartidas entre los profesionales y los pacientes. Para participar en la toma de decisiones compartida, los pacientes deben comprender la información que los profesionales les facilitan y acordar un plan de tratamiento (Charles et al., 1997). Sin embargo, los pacientes vulnerables pueden experimentar barreras para acceder a la atención médica y participar en estas conversaciones con los profesionales, lo que puede contribuir a resultados deficientes en salud.

Se ha identificado que el dominio limitado del inglés es una barrera para el acceso a la atención médica y la alfabetización sanitaria. En comparación con los pacientes anglohablantes, los pacientes sin dominio del inglés tenían más probabilidades de presentar peores resultados de salud (Sentell y Braun, 2012) y de notificar una menor satisfacción con la atención médica recibida (Downey y Zun, 2008). DuBard y Gizlice (2008) encontraron que el 39% de los hispanos hispanohablantes notificaron una salud «regular» o «mala», en comparación con el 17% de los hispanos anglohablantes. En una encuesta nacional de alfabetización de adultos, la población hispana presentaba el promedio más bajo de alfabetización sanitaria de cualquier grupo racial/étnico (Kutner et al., 2006). Asimismo, los encuestados que hablaban un idioma distinto del inglés o que hablaban otros idiomas, además del inglés, tenían una menor alfabetización sanitaria que los que hablaban inglés como único idioma (Kutner et al., 2006).

Otras barreras para el acceso a la atención médica son la falta de profesionales bilingües y la necesidad de intérpretes capacitados. En la encuesta de proveedores de servicios bilingües de 2018 de la American Speech-Language-Hearing Association (ASHA), solo el 37,9% de los audiólogos certificados por ASHA eran profesionales hispanohablantes. En el Código de Ética de la ASHA también se establece que los clínicos son responsables de prestar servicios que sean apropiados cultural y lingüísticamente, independientemente de su propio nivel de competencia. La colaboración con un intérprete capacitado puede dar lugar a mejores resultados clínicos, una mayor satisfacción de los pacientes y menos errores (Karliner et al., 2007). En los casos en que los profesionales no dispongan de tiempo suficiente para facilitar asesoramiento informativo y asesoramiento de ajuste personal durante la sesión de orientación sobre los audífonos, se les pueden facilitar materiales escritos, como las guías de usuario de audífonos. Las guías de usuario de audífonos se refieren a materiales informativos digitales o impresos en los que se proporciona información sobre las características y las funciones del dispositivo, el mantenimiento y la resolución de problemas y el uso general (Caposecco et al., 2014). A medida que los profesionales se centran en la configuración de los ajustes personales (Meibos et al., 2017), las guías de usuario de audífonos tienen una mayor importancia como complementos de cualquier instrucción verbal y/o como material de referencia después de una cita.

En estudios de investigación anteriores se han evaluado la legibilidad y la idoneidad de las guías de usuario de audífonos para la población anglohablante. Kelly (1996) informó que la mayoría de las guías de usuarios de audífonos (de una muestra de 55) tenían puntuaciones de legibilidad a nivel universitario, lo que se atribuyó a la terminología compleja que a menudo contenía palabras multisilábicas. Nair y Cienkowski (2010) también evaluaron la legibilidad de la comunicación verbal y escrita en 12 sesiones de orientación sobre audífonos grabadas en vídeo. Los autores concluyeron que el nivel promedio de lectura de las guías era de 7,96, lo que se situaba por encima del nivel de alfabetización sanitaria inferior al tercer curso de primaria previsto de los participantes.

Caposecco et al. (2014) evaluaron la legibilidad y la idoneidad de 36 guías de usuario de audífonos, y determinaron que la mayoría no era adecuada, debido en gran parte al nivel de lectura, el diseño y la tipografía, el alcance y el vocabulario. Estos hallazgos subrayan la necesidad de diseñar guías de usuario de audífonos que los adultos mayores puedan entender y utilizar para desarrollar su autoeficacia e incrementar el uso de los dispositivos.

Más recientemente, Coco et al. (2017) determinaron la legibilidad de los indicadores de resultados en español en audiología y otorrinolaringología. Concluyeron que los niveles de legibilidad calculados en varios de los indicadores superaban el nivel recomendado para quinto curso de primaria (Kutner et al., 2006). Coco et al. recomendaron que en los materiales se utilizasen un vocabulario y unas ilustraciones más sencillas para mejorar la legibilidad y que los profesionales tuviesen en cuenta el nivel de alfabetización sanitaria del paciente al considerar el uso de materiales escritos.

En investigaciones anteriores se observó que tanto las guías de audífonos en inglés como los indicadores de resultados en español, en audiología y otorrinolaringología, tenían una legibilidad baja (es decir, textos de nivel de lectura de cursos superiores) o una idoneidad baja (Coco et al., 2017; Kelly, 1996; Manchaiah et al., 2020; Nair y Cienkowski, 2010). Nos propusimos ampliar esta investigación examinando la legibilidad de las guías de usuario de audífonos y las diferencias entre los materiales escritos en español y en inglés a través de la evaluación de la legibilidad y la idoneidad de las guías de usuario de audífonos en ambos idiomas. En esta tarea, realizamos una actualización del trabajo de Nair y Cienkowski (2010) para determinar si los niveles de legibilidad de las guías en inglés habían cambiado, ampliamos el estudio de Coco et al. (2017) a las guías de usuario de audífonos como otra forma de materiales escritos y adoptamos la metodología de Caposecco et al. (2014) para evaluar las guías de usuario en un idioma distinto del inglés. Además, considerando las diferencias en alfabetización sanitaria entre las personas anglohablantes y aquellas con un dominio limitado del inglés, en el estudio actual se analizaron más a fondo estos temas de legibilidad e idoneidad con respecto a la alfabetización sanitaria de la creciente población hispanohablante. El objetivo de este estudio fue evaluar la legibilidad y la idoneidad de las guías de usuario de audífonos en inglés y en español. Basándonos en investigaciones anteriores, planteamos la hipótesis de que los materiales en español tendrían puntuaciones de idoneidad y legibilidad más bajas que las guías de usuario en inglés.

Método

La metodología de este estudio se basó en el diseño de Capoecco et al. (2014). En febrero de 2020 se descargaron las guías de usuario de audífonos en inglés y en español de nueve fabricantes: Oticon, Phonak, Signia/Siemens, Starkey, Widex, Unitron, Bernafon, ReSound y Sonic Innovations. Se descargaron guías de usuario de audífonos para modelos retroauriculares e intracanales en inglés y en español para su análisis.

Legibilidad

La legibilidad de las guías de usuario de audífonos en inglés se calculó utilizando la Escala de facilidad de lectura de Flesch (Flesch, 1948) y la Fórmula de legibilidad de Flesch-Kincaid (Kincaid et al., 1975) con un programa de legibilidad informático. La legibilidad de las guías de usuario de audífonos en español se evaluó utilizando la fórmula de Fernández Huerta (una versión modificada de la Escala de facilidad de lectura de Flesch; Fernández Huerta, 1959) y Spaulding (Spaulding, 1956) y el Gráfico de Fry (Fry, 1977; Gilliam et al., 1980).

Idoneidad

Cada guía de usuario de audífonos se analizó con la Evaluación de la idoneidad de los materiales (SAM, Suitability Assessment of Materials); Doak et al., 1996). La SAM se ha utilizado en el análisis de materiales en idiomas distintos del inglés (p. ej., Howe et al., 2016), además de materiales de audiología (p. ej., Capoecco et al., 2014). La SAM incluye seis categorías (contenido, exigencia de alfabetización, gráficos, diseño y tipografía, estimulación y motivación del aprendizaje, y adecuación cultural) que se califican como superiores, adecuadas o inadecuadas. Esta calificación se corresponde con una puntuación de dos, uno o cero puntos, respectivamente. A continuación, se puede calcular la calificación total de la idoneidad como la suma de estos puntos dividida entre el número total de puntos disponibles. El porcentaje resultante corresponde a una categoría general de inadecuada (0-39%), adecuada (40-69%) o superior (70-100%). Las guías de usuario en ambos idiomas se calificaron de forma independiente utilizando la SAM por parte de los tres autores bilingües (español-inglés) y se calculó la puntuación media global de cada guía.

Análisis de los datos

Los datos (resultado de la SAM y puntuaciones de legibilidad) se introdujeron en una hoja de cálculo de Excel y se analizaron con JASP (JASP Team, 2020). Se calcularon estadísticas descriptivas de la idoneidad y la legibilidad de las guías de usuario. Para analizar la legibilidad y la idoneidad, se incluyeron guías de usuario de audífonos que estaban disponibles tanto en inglés como en español. En los casos en que un fabricante disponía de más de una guía de este tipo, se seleccionaba una de ellas mediante un generador de números aleatorios. Se utilizó una regresión de Poisson para comparar el número de guías de usuario de audífonos disponibles en cada idioma, y se utilizaron pruebas t de muestras pareadas para comparar las puntuaciones de la SAM y la legibilidad.

Resultados

En la Tabla 1 se muestra el número de guías de usuario de audífonos en cada idioma. Los nueve fabricantes disponían de guías de usuario de audífonos en inglés (n = 144). Cinco fabricantes ofrecían guías de usuario de audífonos en español (n = 19), pero solo cuatro fabricantes disponían de una guía para modelos retroauriculares e intracanal en ambos idiomas. Existían significativamente más guías de usuario de audífonos disponibles en inglés que en español (χ2 = 108,60, df = 1, p <0,001; consúltese la Tabla 1). Los fabricantes disponían de guías de usuario en inglés, pero no todas las guías estaban disponibles en español (es decir, ninguno de los fabricantes tenía guías exclusivamente en español).

Legibilidad

Se evaluó la legibilidad de las guías de usuario disponibles en inglés y español (consúltese la Tabla 2). La mayoría de las guías en ambos idiomas estaban redactadas para un nivel de lectura de octavo curso estadounidense (segundo curso de la ESO en España); ninguna lo estaba para un nivel por debajo de sexto curso de primaria. Se encontró una diferencia significativa en el Gráfico de Fry en español y en inglés, t (7) = -3,667, p = 0,008, d de Cohen = -1,296 e IC del 95% [-2,234, -0,313], dado que las guías de usuario en inglés tenían niveles de lectura de cursos superiores (por lo tanto, una menor legibilidad) que las guías de usuario en español.

Idoneidad

Las puntuaciones promedio de la SAM de los tres evaluadores fueron del 78,4% para las guías de usuario en español y del 80,2% para las guías de usuario en inglés. Las guías de usuario en español obtuvieron puntuaciones de la SAM significativamente inferiores a las guías de usuario en inglés, t(7) = -2,517, p = 0,040, d de Cohen = -0,89, e IC del 95% [-1,698, -0,038]. La fiabilidad interevaluador de las puntuaciones de la SAM, calculada con el coeficiente AC1 de Gwet, fue de 0,83.

Discusión

El objetivo de este estudio fue evaluar la legibilidad y la idoneidad de las guías de usuario de audífonos en español. El principal hallazgo de esta investigación fue que las guías de usuario de audífonos en español tenían carencias en legibilidad e idoneidad. Un hallazgo secundario fue que, si bien en las guías de usuario en inglés se había mejorado la legibilidad desde el estudio de Caposecco et al. (2014), los niveles seguían por encima del nivel de lectura recomendado de quinto curso de primaria (The Joint Commission, 2010). Cuando la falta de materiales se combina con altos niveles de lectura requeridos y baja idoneidad, se introducen barreras para la comprensión y el acceso del paciente a la información.

El número de guías de usuario de audífonos en español era significativamente menor que el de las guías en inglés. De los nueve fabricantes que disponían de materiales para su análisis en inglés, únicamente cuatro disponían de guías en español. Además, los cuatro fabricantes que ofrecían guías en español disponían de una gama más limitada de modelos que en inglés. En comparación con el inglés, existen menos materiales de audiología disponibles en español (por ejemplo, pruebas de reconocimiento del habla e indicadores de resultados), a pesar de la creciente población de personas hispanohablantes en Estados Unidos (Noe-Bustamante et al., 2020) y el número de países en los que el español es el idioma principal. La gama limitada de guías específicas para todos los modelos en español se puede explicar por la superposición de muchos de los contenidos de las guías de usuario; sin embargo, las guías en inglés estaban disponibles para todos los modelos. Los pacientes hispanohablantes que reciben estas guías pueden considerar que los documentos no son tan útiles como las guías disponibles en inglés, lo que podría limitar la comprensión y la aplicación del contenido. Además, si las guías se facilitan a los pacientes después de una cita, pueden existir pocas oportunidades de que puedan plantear preguntas, especialmente si los profesionales no hablan su mismo idioma. En el caso de estos profesionales, es imprescindible que dispongan de materiales impresos y accesibles, dada su utilidad en la instrucción y la resolución de problemas.

La legibilidad calculada de las guías de usuario en español y en inglés oscilaba entre el sexto y el décimo curso en todas las fórmulas, que es similar a los niveles notificados en investigaciones anteriores (p. ej., Caposecco et al. [2014] concluyeron que el promedio de los niveles de lectura era del 9,6). Es probable que estos cálculos aumentaran debido a los términos técnicos. La terminología relacionada con los audífonos puede dar lugar a una sobreestimación de la legibilidad, especialmente porque muchas de las palabras son multisilábicas y los términos previamente definidos o explicados no se tienen en cuenta con la fórmula de legibilidad (Finnie et al., 2010). En los estudios en los que se analizan indicadores de resultados en ciencias y trastornos de la comunicación se detectaron niveles de legibilidad similares a los del estudio actual (Coco et al., 2017; Manchaiah et al., 2020; Margol-Gromada et al., 2020). La Joint Commission (2010) recomienda que los materiales se redacten en un nivel de lectura de quinto curso o inferior. Los profesionales deben utilizar fórmulas de legibilidad para determinar si sus materiales escritos cumplen o superan esta recomendación. Entre las sugerencias para mejorar la legibilidad se incluyen dar prioridad a la información más importante, utilizando la voz activa y frases más cortas, y evitar la jerga y la terminología técnica (Centers for Disease Control and Prevention, 2009). Los esfuerzos por mejorar la legibilidad serían beneficiosos para los materiales en ambos idiomas, especialmente cuando los utilizan pacientes con escasa alfabetización sanitaria.

Se encontró que la idoneidad de las guías de usuario de audífonos en español era comparable a la de las guías en inglés. No obstante, sería beneficioso para la mejora de las puntuaciones generales de las guías de usuario en ambos idiomas una revisión en cuatro áreas principales. En primer lugar, se recomienda la inclusión de un mayor número de imágenes. Si bien se facilitaban imágenes en las guías para las secciones seleccionadas, ninguna tenía leyenda, lo que también contribuyó a la disminución de la puntuación en la SAM. En las guías de usuario se puede sustituir y/o complementar el texto con imágenes o fotografías. Por ejemplo, un tutorial de resolución de problemas paso a paso con imágenes con leyenda podría sustituir a una sección de varios pasos. Estas guías paso a paso pueden también ayudar a mejorar la autoeficacia de un paciente, lo que aumentaría la puntuación en la SAM de una guía. Con la disponibilidad de contenido en internet, las guías de usuario pueden incluir enlaces a vídeos. Los profesionales pueden también crear este tipo de vídeos, que pueden complementar las guías electrónicas o impresas o servir como referencia, o dirigir a los pacientes a sitios web con un dominio específico (p. ej., sitios web de fabricantes con un código de dominio de país: .es para recursos en español). Sin embargo, todavía se debe considerar la exigencia de idoneidad y alfabetización en el caso de los vídeos y faltan indicadores para evaluar la idoneidad del contenido de los vídeos destinados a la formación del paciente (Gabarron et al., 2013). Por lo tanto, es responsabilidad del creador asegurarse de que el contenido de los vídeos sea preciso, accesible y adecuado para los destinatarios. En segundo lugar, la mejora del diseño tendría un efecto positivo en la idoneidad. En las guías de usuario se debe incluir más espacio en blanco, lo que reduciría la falta de claridad en las páginas. También se pueden utilizar leyendas para clasificar o simplificar listas largas de elementos. Las listas con cinco o más elementos se deben agrupar con un título, ya que las personas con una baja alfabetización sanitaria solo pueden recordar algunos de los elementos de una lista (Doak et al., 1996; McCarthy et al., 2012). En tercer lugar, en la SAM se incluye una sección sobre «exigencia de alfabetización», en la que influye la legibilidad de la guía. Además de las sugerencias mencionadas, la exigencia de alfabetización se puede reducir utilizando un estilo conversacional y centrándose en comportamientos y acciones. También se debe prestar atención a las palabras utilizadas, ya que tanto si las palabras son cortas o multisilábicas pueden no ser fácilmente entendidas. Por ejemplo, funcionalidad y garantía son palabras multisilábicas en español, pero la primera es más difícil de entender que la segunda. En cuarto lugar, en ninguna de las guías de usuario revisadas en este estudio se incluía una sección de resumen o repaso. Según la SAM, un resumen facilita una oportunidad de que el lector revise los puntos clave, lo que mejora la comprensión. Considerando que en todas las guías de usuario de audífonos se incluyen subsecciones, sería conveniente añadir un breve resumen dentro de cada tema.

Si bien el estudio actual se ha centrado en la legibilidad y la idoneidad, estos resultados se pueden aplicar a la literatura sobre alfabetización sanitaria. Para abordar los problemas de la alfabetización sanitaria relacionados con sus materiales escritos, los profesionales se pueden referir a herramientas e indicadores validados que sean útiles en la alfabetización sanitaria. La Agency for Healthcare Research and Quality (Agencia estadounidense para la investigación y la calidad de la atención médica) ha desarrollado herramientas en inglés y en español que los clínicos pueden utilizar para evaluar la alfabetización sanitaria. Uno de estos indicadores, la «Short Assessment of Health Literacy for Spanish-speaking Adults» (Evaluación breve de la alfabetización sanitaria para adultos hispanohablantes, Lee et al., 2006), es una herramienta fiable de 50 puntos en la que se evalúa la comprensión de la terminología médica utilizada con frecuencia. En una revisión de las herramientas de alfabetización sanitaria para adultos hispanohablantes se concluyó que las habilidades evaluadas, así como la puntuación y el uso previsto, variaban significativamente entre los indicadores (Stonbroker et al., 2015). No obstante, Stonbroker et al. recomendaron que los profesionales sanitarios y los investigadores utilicen estos resultados para diseñar herramientas de alfabetización sanitaria que sean más específicas y eficaces para sus pacientes, y que los profesionales las utilicen para identificar a los pacientes que necesitan diferentes materiales (p. ej., redactados en niveles de lectura más bajos). Los audiólogos que trabajan con poblaciones hispanohablantes y otras poblaciones cultural y lingüísticamente diversas también deben ser conscientes de que se deben extender estas prácticas a otras áreas, como, por ejemplo, durante las evaluaciones y las interacciones con intérpretes, para garantizar el cumplimiento de las mejores prácticas (Colella et al., 2020; Gaeta y John, 2015).

En conclusión, en este estudio se averiguó que, si bien había menos guías disponibles en español que en inglés, las guías de usuario en ambos idiomas eran similares en cuanto a su legibilidad e idoneidad. Los hallazgos respaldan el trabajo previo sobre la legibilidad y la idoneidad de las guías de usuario de audífonos, y los indicadores de resultados en audiología, y demuestran la necesidad de poner a disposición de los pacientes hispanohablantes y anglohablantes guías de usuario accesibles. Los fabricantes y los profesionales deben modificar sus materiales para hacer frente a las necesidades de los pacientes, en concreto, de los que tienen una escasa alfabetización sanitaria, y mejorar los resultados sanitarios.

Bibliografía

Baker, D. W., Parker, R. M., Williams, M. V. y Clark, W. S. (1998). Health literacy and the risk of hospital admission. Journal of General Internal Medicine, 13(12), 791-798. https://doi.org/10.1046/j.1525-1497.1998.00242.x

Berkman, N. D., Sheridan, S. L., Donahue, K. E., Halpern, D. J. y Crotty, K. (2011). Low health literacy and health outcomes: An updated systematic review. Annals of Internal Medicine, 155(2), 97-107. https://doi.org/10.7326/0003-4819-155-2-201107190-00005

Brabers, A. E. M., Rademakers, J. D. J. M., Groenewegen, P. P., van Dijk, L. y de Jong, J. D. (2017). What role does health literacy play in patients’ involvement in medical decision-making? PLOS ONE, 12(3), e0173316. https://doi.org/10.1371/journal.pone.0173316

Caposecco, A., Hickson, L. y Meyer, C. (2014). Hearing aid user guides: Suitability for older adults. International Journal of Audiology, 53(Suppl. 1), S43-S51. https://doi.org/10.3109/14992027.2013.832417

Centers for Disease Control and Prevention. (2000). Healthy people 2010. https://www.cdc.gov/nchs/healthy_people/hp2010.htm

Centers for Disease Control and Prevention. (2009). Simply put: A guide for creating easy-to-understand materials. U.S. Department of Health and Human Services. https://www.cdc.gov/health-literacy/pdf/Simply_Put.pdf

Charles, C., Gafni, A. y Whelan, T. (1997). Shared decision-making in the medical encounter: What does it mean? (or it takes at least two to tango). Social Science & Medicine, 44(5), 681-692. https://doi.org/10.1016/s0277-9536(96)00221-3

Coco, L., Colina, S., Atcherson, S. R. y Marrone, N. (2017). Readability level of Spanish-language patient-reported outcome measures in audiology and otolaryngology. American Journal of Audiology, 26(3), 309-317. https://doi.org/10.1044/2017_AJA-17-0018

Colella, K. M., Gaeta, L., Friedland, E., Hudson, M. A. y Busacco, D. (2020). Being mindful of cultural and linguistic diversity in everyday practice. Audiology Today, 32, 28-34.

Doak, C. C., Doak, L. G. y Root, J. (1996). Teaching patients with low literacy levels. American Journal of Nursing, 96(12), 16. https://doi.org/10.1097/00000446-199612000-00022

Downey, L. V. A. y Zun, L. S. (2008). Assessing adult health literacy in urban healthcare settings. Journal of the National Medical Association, 100(11), 1304—1308. https://doi.org/10.1016/S0027-9684(15)31509-1

DuBard, C. A. y Gizlice, Z. (2008). Language spoken and differences in health status, access to care, and receipt of preventive services among U.S. Hispanics. American Journal of Public Health, 98(11), 2021-2028. https://doi.org/10.2105/AJPH.2007.119008

Fernández Huerta, J. (1959). Simple measures of readability. Consigna, 214, 29-32.

Finnie, R. K. C., Felder, T. M., Linder, S. K. y Mullen, P. D. (2010).

Beyond reading level: A systematic review of the suitability of cancer education print and web-based materials. Journal of Cancer Education, 25(4), 497-505. https://doi.org/10.1007/s13187-010-0075-0

Flesch, R. F. (1948). A new readability yardstick. Journal of Applied Psychology, 32(3), 221-233. https://doi.org/10.1037/h0057532

Fry, E. (1977). Fry’s readability graph: Calculations, validity, and extensions to level 17. Journal of Reading, 21(3), 242-252.

Gabarron, E., Fernandez-Luque, L., Armayones, M. y Lau, A. Y. S. (2013). Identifying measures used for assessing quality of YouTube videos with patient health information: A review of current literature. Interactive Journal of Medical Research, 2(1), e6. https://doi.org/10.2196/ijmr.2465

Gaeta, L. y John, A. B. (2015). Considerations in speech recognition testing of bilingual and Spanish-speaking patients, Part I: Older children and adults. Journal of Educational, Pediatric, and (Re)Habilitative Audiology, 21, 1 -10.

Gilliam, B., Pena, S. C. y Moutain, L. (1980). The Fry graph applied to Spanish readability. The Reading Teacher, 33, 426-430.

Gunning, J. (1968). The technique of clear writing. McGraw-Hill.

Howe, C. J., Barnes, D. M., Estrada, G. B. y Godinez, I. (2016). Readability and suitability of Spanish language hypertension and diabetes patient education materials. Journal of Community Health Nursing, 33(4), 171-180. https://doi.org/10.1080/07370016.2016.1227210

JASP Team. (2020). JASP (Version 0.13.1) [Computer software]. https://www.jasp-stats.org

Karliner, L. S., Jacobs, E. A., Chen, A. H. y Mutha, S. (2007). Do professional interpreters improve clinical care for patients with limited English proficiency? A systematic review of the literature. Health Services Research, 42(2), 727-754. https://doi.org/10.1111/j.1475-6773.2006.00629.x

Kelly, L. J. (1996). The readability of hearing aid brochures. Journal of the Academy of Rehabilitative Audiology, 29, 41-47.

Kincaid, J. P., Fishburne, R. P., Rogers, R. L. y Chissom, B. S. (1975). Derivation of new readability formulas (Automated Readability Index, Fog Count, and Flesch Reading Ease Formula) for Navy enlisted personnel. Institute for Simulation and Training, 56. https://doi.org/10.21236/ADA006655

Kutner, M., Greenberg, E., Jin, Y. y Paulsen, C. (2006). The health literacy of America’s adults: Results from the 2003 National Assessment of Adult Literacy. https://nces.ed.gov/pubs2006/2006483.pdf

Lee, S.-Y. D., Bender, D. E., Ruiz, R. E. y Cho, Y. I. (2006). Development of an easy-to-use Spanish health literacy test. Health Services Research, 41(4), 1392-1412. https://doi.org/10.1111/jJ475-6773.2006.00532.x

Manchaiah, V., Kelly-Campbell, R. J., Bellon-Harn, M. L. y Beukes, E. W. (2020). Quality, readability, and suitability of hearing health-related materials: A descriptive review. American Journal of Audiology, 29(3), 513-527. https://doi.org/10.1044/2020_AJA-19-00040

Margol-Gromada, M., Sereda, M. y Baguley, D. M. (2020). Read-ability assessment of self-report hyperacusis questionnaires. International Journal of Audiology, 59(7), 506-512. https://doi.org/10.1080/14992027.2020.1723033

McCarthy, D. M., Waite, K. R., Curtis, L. M., Engel, K. G., Baker, D. W. y Wolf, M. S. (2012). What did the doctor say? Health literacy and recall of medical instructions. Medical Care, 50(4), 277-282. https://doi.org/10.1097/MLR.0b013e318241e8e1

Meibos, A., Munoz, K., Schultz, J., Price, T., Whicker, J. J., Caballero, A. y Graham, L. (2017). Counselling users of hearing technology: A comprehensive literature review. International Journal of Audiology, 56(12), 903-908. https://doi.org/10.1080/14992027.2017.1347291

Nair, E. L. y Cienkowski, K. M. (2010). The impact of health literacy on patient understanding of counseling and education materials. International Journal of Audiology, 49(2), 71-75. https:// doi.org/10.3109/14992020903280161

Nielsen-Bohlman, L., Panzer, A. M., Institute of Medicine (U.S.), Committee on Health Literacy y Kindig, D. A. (2004). Health literacy: A prescription to end confusion. The National Academies Press. https://doi.org/10.17226/10883

Noe-Bustamante, L., Lopez, M. H. y Krogstad, J. M. (2020). U.S. Hispanic population surpassed 60 million in 2019, but growth has slowed. Pew Research Center. https://www.pewresearch.org/fact-tank/2020/07/07/u-s-hispanic-population-surpassed-60-million-in-2019-but-growth-has-slowed/

Sentell, T. y Braun, K. (2012). Low health literacy, limited English proficiency, and health status in Asians, Latinos, and other racial/ethnic groups in California. Journal of Health Communication, 17(Suppl. 3), 82-99. https://doi.org/10.1080/10810730.2012.712621

Spaulding, S. (1956). A Spanish readability formula. The Modern Language Journal, 40(8), 433-441. https://doi.org/10.1111/jJ540-4781.1956.tb02145.x

Stonbraker, S., Schnall, R. y Larson, E. (2015). Tools to measure health literacy among Spanish speakers: An integrative review of the literature. Patient Education and Counseling, 98(12), 1513-1523. https://doi.org/10.1016/j.pec.2015.07.012

The Joint Commission. (2010). Advancing effective communication, cultural competence, and patient-and-family-centered care: A roadmap for hospitals. Joint Commission Resources. https://www.jointcommission.org/-/media/tjc/documents/resources/ patient-safety-topics/health-equity/aroadmapforhospitalsfinalversion727pdf.

Traducido con autorización del artículo “Legibilidad e idoneidad de las guías de usuario de audífonos en español», por Laura Gaeta,  Edward Garcia  y Valeria Gonzalez (American Journal of Audiology, vol. 30, 452-457, Junio 2021, http://pubs.asha.org/pubd/rights_and_permissions). Este material ha sido originalmente desarrollado y es propiedad de la American Speech-Language-Hearing Association, Rockville, MD, U.S.A., www.asha.org. Todos los derechos reservados. La calidad y precisión de la traducción es únicamente responsabilidad de AG BELL INTERNATIONAL.

La American Speech-Language-Hearing Association (ASHA) no justifica o garantiza la precisión, la totalidad, la disponibilidad, el uso comercial, la adecuación a un objetivo particular o que no se infringe el contenido de este artículo y renuncia a cualquier responsabilidad directa o indirecta, especial, incidental, punitiva o daños consecuentes que puedan surgir del uso o de la imposibilidad de usar el contenido de este artículo.

Translated, with permission, from “Readability and Suitability of Spanish-Language Hearing Aid User Guides”, by Laura Gaeta,  Edward Garcia and Valeria Gonzalez (American Journal of Audiology, vol. 30, 452-457, June 2021, http://pubs.asha.org/pubd/rights_and_permissions). This material was originally developed and is copyrighted by the American Speech-Language-Hearing Association, Rockville, MD, U.S.A., www.asha.org. All rights are reserved. Accuracy and appropriateness of the translation are the sole responsibility of AG BELL INTERNATIONAL.

The American Speech-Language-Hearing Association (ASHA) does not warrant or guarantee the accuracy, completeness, availability, merchantability, fitness for a particular purpose, or noninfringement of the content of this article and disclaims responsibility for any damages arising out of its use. Description of or reference to products or publications in this article, neither constitutes nor implies a guarantee, endorsement, or support of claims made of that product, publication, or service. In no event shall ASHA be liable for any indirect, special, incidental, punitive, or consequential damages arising out of the use of or the inability to use the article content.


COVID-19, mascarillas e interacción social: una pandemia mundial arroja luz sobre la importancia de la comunicación cara a cara

Tina M. Grieco-Calub
Departamento de Psiquiatría y Ciencias del Comportamiento, Rush NeuroBehavioral Center, Rush University Medical Center, Chicago, IL.

Objetivo: El objetivo de este artículo es analizar el impacto de las estrategias de mitigación de la COVID-19 en la comunicación cara a cara. En el artículo se abordan tres áreas principales: el efecto de las mascarillas y la distancia social en determinados aspectos de la comunicación, como son la producción del habla, el reconocimiento del habla y el reconocimiento de las emociones; el efecto de las mascarillas en el acceso a las señales visuales del habla; y los efectos del reconocimiento deficiente del habla en el lenguaje y las habilidades cognitivas.

Conclusiones: El uso de mascarillas y la distancia social son estrategias de mitigación implementadas para minimizar la propagación de la COVID-19 y otras enfermedades de transmisión por vía aérea. Sin embargo, estas estrategias pueden suponer para las personas con trastornos de la audición, el habla y el lenguaje un mayor riesgo de problemas de comunicación en su vida diaria. Los profesionales que trabajan directamente con estos pacientes deben tener en cuenta estos aspectos en el análisis conjunto de las estrategias de comunicación.

La pandemia mundial del SARS-CoV-2 (COVID-19) será uno de los acontecimientos que marcarán el año 2020. En el momento de la redacción de este artículo, el principal modo de transmisión de la COVID-19 es a través de moléculas de aire y, por lo tanto, principalmente a través del contacto de persona a persona (Centers for Disease Control and Prevention, 2020a). Entre los síntomas frecuentes que experimentan las personas infectadas se encuentran la pérdida del gusto, problemas respiratorios, fiebre y/o problemas digestivos (Centers for Disease Control and Prevention, 2020b; Organización Mundial de la Salud, 2020). No obstante, no todas las personas infectadas con COVID-19 experimentan síntomas físicos. Además, tanto los portadores sintomáticos como los asintomáticos del virus pueden transmitirlo a otras personas: una situación que probablemente haya influido negativamente en la capacidad de las comunidades de controlar la propagación del virus. Entre los millones de personas que se han infectado con COVID-19 en todo el mundo, se han observado complicaciones más graves, incluida la muerte. Entre las personas más vulnerables a la presentación de estas complicaciones graves se encuentran aquellas con afecciones médicas preexistentes y de edad avanzada.

A medida que el virus comenzó a propagarse por todo el mundo a principios de 2020, las autoridades sanitarias de muchos países ordenaron el cierre de establecimientos y el confinamiento de las personas en su domicilio. Estas medidas extremas de mitigación tenían por objeto reducir rápidamente la transmisión del virus y proteger a la población. A mediados de 2020, se permitió la reapertura de los establecimientos a medida que disminuía la tasa de personas infectadas. Los establecimientos y los lugares de culto abrieron las puertas al público y la gente comenzó a congregarse en pequeños grupos. La clave de la reapertura exitosa, al mismo tiempo que se reducía la propagación del virus, fue la implementación de medidas de seguridad conocidas por su eficacia en la reducción de la transmisión del virus por vía aérea, es decir, el uso de mascarillas, la distancia social (mantener una distancia de 2 metros con otras personas) y la reducción del número de personas en las reuniones sociales (p. ej., Chu et al., 2020; Markel et al., 2007). A pesar de los beneficios de estas estrategias de mitigación, también suponen problemas para muchas personas que dependen de las conversaciones cara a cara y de la interacción social en su vida diaria. Entre ellas se encuentran las personas con sordera o hipoacusia, los estudiantes de un segundo idioma, los niños con trastornos del habla y del lenguaje y las personas mayores cuyas interacciones sociales son la base de sus funciones cognitivas y sus niveles de actividad. Incluso con el descubrimiento de una vacuna eficaz contra la COVID-19 a finales de 2020 y el aumento de la cantidad de personas vacunadas durante 2021, en algunos lugares sigue vigente la obligación del uso de mascarillas y el mantenimiento de la distancia social para mitigar la propagación del virus. Las poblaciones de pacientes atendidos por audiólogos y logopedas tienen un mayor riesgo de enfrentarse a dificultades en la comunicación y es probable que la implementación de estas estrategias de mitigación las exacerbe. Por lo tanto, el objetivo de este artículo es analizar las diversas maneras en que las mascarillas y la distancia social tienen un impacto en la comunicación cara a cara.

Es importante destacar que esta exposición general no es un argumento en contra de las estrategias de mitigación que son eficaces para minimizar la propagación del virus en las comunidades. Más bien, se trata de un resumen de las posibles barreras de comunicación que surgen debido a estas estrategias con el fin de que nosotros, como profesionales del habla, el lenguaje y la audición, podamos atender mejor a las poblaciones que se encuentran en riesgo de sufrir problemas de comunicación.

La vía de comunicación a través del habla

Para comprender mejor la manera en que las estrategias de mitigación de la COVID-19 plantean barreras a la comunicación, consideremos primero la vía de comunicación a través del habla (véase la Figura 1). Durante una conversación, un transmisor (es decir, un hablante) comparte contenido con un receptor (es decir, un oyente). Para compartir este contenido, el hablante produce una señal acústica del habla que contiene fluctuaciones en la frecuencia y la intensidad. La producción del habla es el resultado de movimientos motores orales coordinados que son visibles para el oyente y que, por lo tanto, proporcionan representaciones visuales que coinciden con el habla. En el caso de cualquier lenguaje hablado, los cambios en la frecuencia y en la intensidad del habla reflejan unidades específicas del habla que, cuando se combinan, forman palabras. A continuación, el oyente decodifica la señal del habla para comprender el significado del contenido. Para ello, el oyente debe realizar una correspondencia entre lo percibido y sus propias representaciones léxicas del habla para facilitar la comprensión y extraer el significado.

El reconocimiento del habla no es siempre una tarea sencilla considerando la gran variabilidad en la producción del habla entre los hablantes debido a las diferencias de sexo, edad, acento o dialecto (p. ej., Magnuson y Nusbaum, 2007; Trude y Brown-Schmidt, 2011). Además, factores externos pueden alterar el acceso a la señal del habla. Uno de estos factores es el sonido de fondo, como el ruido ambiental o los hablantes de fondo, que enmascara el habla objetivo o distrae al receptor (Cherry, 1953; Festen y Plomp, 1990). Otro factor es el filtrado espectral de la señal, que puede ocurrir cuando pasa a través de un dispositivo eléctrico, un dispositivo auditivo o una mascarilla. Por último, la amplitud de la señal del habla disminuye a medida que aumenta la distancia entre el hablante y el oyente. De forma aislada o en combinación, estas fuentes de degradación de la señal dificultan el acceso a la señal del habla.

Existen consecuencias derivadas de un acceso deficiente a la señal del habla, independientemente de la fuente de degradación. En las conversaciones cara a cara no solo se requiere que los oyentes oigan palabras individuales, sino que, con frecuencia, deben seguir un flujo de habla continuo, que suele ser rápido y con pocas pausas. En los estudios en los que se utilizan paradigmas de seguimiento ocular se ha demostrado de una manera sistemática que tanto los niños como los adultos tienen un reconocimiento más lento del habla cuando se encuentra degradada por el ruido de fondo o el filtrado espectral (Grieco-Calub et al., 2009; McMurray et al., 2017; Newman y Chatterjee, 2013). El habla degradada también influye negativamente en los procesos cognitivos verbales, como la memoria de trabajo y, en el caso de los niños, en la adquisición de nuevas palabras (Newman et al., 2020; Sullivan et al., 2015). Finalmente, el habla degradada no solo afecta al reconocimiento de palabras y al procesamiento lingüístico, sino que también puede alterar las señales acústicas relacionadas con la prosodia del habla, como la entonación, el tono y la acentuación, que son cruciales en el reconocimiento y en el procesamiento de las emociones (Everhardt et al., 2020; Tinnemore et al., 2018).

Una estrategia que emplean los oyentes para preservar el reconocimiento cuando se degrada la acústica del habla es utilizar las señales visuales del hablante que se producen en la comunicación cara a cara. La capacidad de los oyentes, tanto niños como adultos, de aprovechar el habla visual (es decir, lectura labial o lectura del habla) para facilitar el reconocimiento cuando el habla auditiva se encuentra degradada es ampliamente conocida (Erber, 1969; Grant y Seitz, 2000; Kuhl y Meltzoff, 1982; Lalonde y Holt, 2015; MacLeod y Summerfield, 1987; Ross et al., 2011; Sumby y Pollack, 1954). Además, las expresiones faciales son útiles para entender el contexto emocional de la señal del habla (p. ej., Busso et al., 2004). Finalmente, el uso de gestos, del tacto o de otros movimientos corporales puede facilitar la comunicación. Por lo tanto, si bien solemos centrarnos en la acústica de la señal del habla y en la capacidad de los oyentes de decodificarla, otras señales verbales y no verbales pueden servir de ayuda en una comunicación eficaz.

¿Cómo influyen las mascarillas y la distancia social en la transmisión del habla y en su percepción?

Teniendo en cuenta nuestros conocimientos del proceso de la comunicación hablada, no es ninguna sorpresa que las personas tengamos dificultades para comprender el contenido del habla de un interlocutor cuando se utilizan mascarillas y se practica la distancia social. Existen tres cuestiones principales relacionadas con estas observaciones. En primer lugar, considerando que la COVID-19 se transmite a través de moléculas de aire, el uso de mascarillas reduce la transmisión de aire desde la boca del hablante a las cavidades nasal y bucal del oyente. Si bien las mascarillas son eficaces para mitigar la transmisión del virus, también reducen la energía del habla que se transmite por la boca del hablante (Corey et al., 2020; Goldin et al., 2020; Mendel et al., 2008; Vos et al., 2021). Específicamente, las mascarillas quirúrgicas actúan como filtros pasa banda baja, reduciendo la intensidad de las frecuencias más altas (>2 kHz) del habla que son importantes para su reconocimiento. No obstante, el uso generalizado de mascarillas ha dado lugar a un aumento de la variedad de materiales y tejidos que se utilizan en su fabricación. Dado que los diferentes materiales tendrán una transparencia variable y, por lo tanto, diferentes propiedades de filtrado, algunas mascarillas pueden degradar la señal más que otras. Además, algunas personas pueden utilizar filtros adicionales debajo de la mascarilla o utilizar más de una al mismo tiempo como una protección adicional contra el virus. Todos estos factores contribuyen a los efectos de filtrado de la señal del habla. Es de suponer que los materiales de mascarilla menos transparentes ejerzan un mayor filtrado de la salida del habla.

En segundo lugar, con la distancia social, el sonido del habla debe recorrer una mayor distancia entre el hablante y el oyente. Al igual que el uso de las mascarillas, la distancia social tiene por objeto reducir la propagación de patógenos por vía aérea. Con el contacto cercano en espacios confinados se incrementa la probabilidad de que el oyente entre en contacto con moléculas de aire que porten el virus. Al considerar la relación entre la distancia y la energía del habla, la ley de la inversa del cuadrado nos dice que el nivel de presión sonora de la señal del habla disminuye 6 dB por cada duplicación de la distancia entre el hablante y el oyente, lo que puede tener un impacto tanto en el oyente como en el hablante. Desde la perspectiva del oyente, la disminución de la energía de la señal del habla puede dar lugar a que partes de la señal sean menos audibles o totalmente inaudibles. En el primer caso, es probable que el oyente necesite realizar un mayor esfuerzo cognitivo para comprender la señal del habla, lo que puede tener consecuencias en su capacidad de comprender o recordar el contenido de la señal. Desde la perspectiva del hablante, solo se logrará una comunicación con éxito si el oyente recibe el contenido del habla. Para contrarrestar la pérdida de intensidad de la señal del habla debido a la mayor distancia entre el hablante y el oyente, es probable que el hablante deba aumentar su esfuerzo vocal (Fiorella et al., 2021; Michael et al., 1995). El aumento sostenido del esfuerzo vocal puede tener consecuencias negativas en la salud física del hablante.

En tercer lugar, las mascarillas limitan el acceso al rostro del hablante, que facilita señales verbales y no verbales que mejoran la comunicación. Con respecto al reconocimiento del habla, al no poder ver el rostro del hablante se limita el acceso a las señales visuales del habla que aparecen al mismo tiempo que el habla auditiva. Desde los primeros trabajos de Sumby y Pollack (1954), en los estudios se ha demostrado repetidamente que a las personas nos resulta beneficioso tanto oír como ver a un hablante (es decir, la percepción del habla audiovisual), especialmente en situaciones en las que los componentes auditivos del habla son menos accesibles (Erber, 1969; Grant y Seitz, 2000; Kuhl y Meltzoff, 1982; Lalonde y Holt, 2015; MacLeod y Summerfield, 1987; Ross et al., 2011). En consonancia con esta idea, en las interacciones sociales naturales, los oyentes centran su atención visual en un hablante en situaciones en las que los componentes auditivos del habla están degradados o son poco familiares (Lewkowicz y Hansen-Tift, 2012; MacDonald et al., 2020). Existe un beneficio al ver al hablante incluso cuando solo se tenga un acceso parcial a su rostro, lo que sugiere que las señales visuales son accesibles aun cuando no se vean los labios del hablante (Fecher y Watt, 2013; Jordan y Thomas, 2011; Schwartz et al., 2004; Swerts y Krahmer, 2008; Thomas y Jordan, 2004). Considerando que el acceso a las señales visuales del habla beneficia a un oyente que tenga un acceso deficiente a la acústica de una señal del habla, una recomendación habitual de los audiólogos a sus pacientes con pérdida auditiva es que miren a sus interlocutores mientras conversan. Por lo tanto, el uso generalizado de las mascarillas tiene el potencial, no solo de alterar el acceso a la señal del habla, sino también de alterar las estrategias de comunicación establecidas que implementan las personas que ya tenían un acceso deficiente a la señal del habla. En concreto, las mascarillas pueden reducir la energía total del habla y ocultar otras señales que eliminan la ambigüedad en la información del habla. El alcance con el que las mascarillas ejerzan estos efectos estará relacionado con el tipo de mascarilla, su grado de filtrado de la acústica de la señal del habla y su ocultación de las señales visuales del habla; por lo tanto, las personas pueden experimentar dificultades diversas para comprender el habla cuando el hablante utiliza una mascarilla.

Conjuntamente, el uso de mascarillas y la distancia social pueden reducir significativamente la intensidad global y la forma espectral del habla tanto para los hablantes como para los oyentes. En el caso de algunas personas, el uso de mascarillas y la distancia social puede requerir simplemente hablar un poco más alto o prestar más atención al habla para poder entenderla. En el caso de otras, las barreras de comunicación derivadas del uso de mascarillas y la distancia social pueden ser más difíciles de superar. Por ejemplo, las personas que ya tienen dificultades con la producción del habla, incluidas aquellas con disartria, errores de articulación y disfonía, pueden experimentar alteraciones más frecuentes en la comunicación debido al esfuerzo adicional que deben realizar. Además, hay muchas personas que no han recibido ningún tratamiento audiológico y que informan de una dificultad auditiva en situaciones de audición complejas. Entre estas personas se encuentran aquellas con una pérdida auditiva leve que son capaces de desenvolverse en su vida diaria utilizando diversas estrategias de comunicación, ya sea de una manera abierta o encubierta, para compensar la pérdida auditiva. Además, las personas con «pérdida auditiva oculta» (personas que informan tener dificultades para oír en presencia de ruido a pesar de tener una audición audiométricamente normal) pueden experimentar un aumento en la cantidad de situaciones en las que tienen problemas para comprender el habla. ¿Qué significado tiene para los logopedas y los audiólogos? En primer lugar, los pacientes existentes pueden notificar una mayor dificultad en la producción del habla o en su reconocimiento. En segundo lugar, los clínicos pueden experimentar un aumento en el número de derivaciones que reciben para evaluaciones del habla y la audición, especialmente de personas que ya no puedan implementar con éxito estrategias de comunicación debido a la existencia de estrategias de mitigación de la COVID-19.

¿Qué es el esfuerzo en escuchar y cómo se relaciona con la comunicación cara a cara?

Como se ha expuesto, la eficacia en las interacciones sociales depende de la capacidad de un oyente para percibir el habla de su interlocutor. Los audiólogos cuantifican esta capacidad a través de pruebas estandarizadas de reconocimiento del habla. En estas pruebas, los oyentes escuchan el habla (palabras u oraciones) y repiten lo que oyen lo mejor que pueden. La precisión con la que los pacientes repiten las palabras se utiliza para inferir su capacidad de oír el habla en sus entornos cotidianos.

No obstante, existe un creciente consenso de que en las tareas típicas de reconocimiento del habla no se capta completamente lo que experimentan los oyentes en su vida diaria. Las pruebas de reconocimiento del habla realizadas clínicamente tienen normalmente lugar en cabinas insonorizadas, en ausencia de distracciones visuales y, por lo general, con un nivel de intensidad supraumbral. La escucha en el mundo real difiere de la escucha en las evaluaciones clínicas de varias maneras. En primer lugar, el entorno de escucha es más complejo que en las cabinas insonorizadas. En los entornos del mundo real existe con frecuencia sonido de fondo (p. ej., ruido ambiental, otros hablantes) y reverberación que pueden enmascarar o distorsionar la información del habla objetivo. En segundo lugar, la escucha en el mundo real suele implicar una compleja codificación del sonido (proceso ascendente) y unos procesos cognitivos o descendentes a medida que una persona oye y procesa el habla en tiempo real (McClelland y Elman, 1986). Por último, la escucha en el mundo real es un poco más dinámica que las pruebas de reconocimiento del habla. En las interacciones sociales diarias, los oyentes deben, no solo reconocer el habla de su interlocutor, sino también utilizarla de una manera significativa (es decir, comprender un mensaje o aprender a partir de su contenido).

Debido a que el procesamiento del lenguaje en tiempo real incluye procesos ascendentes y descendentes, un oyente es capaz de utilizar estrategias tanto abiertas como encubiertas para facilitar su percepción cuando se altera el acceso al habla. Para comprenderlo mejor, el lector puede recordar algún momento en que tratase de mantener una conversación con un amigo en un entorno ruidoso. Es posible que modificase la situación física para escucharle mejor (es decir, disminuyese la distancia social entre ustedes). Es posible que se centrase más en su rostro (es decir, recopilase información visual del habla). Es posible que se esforzase más para centrarse en lo que su interlocutor estaba diciendo (es decir, le prestase más atención y al mismo tiempo inhibiera la atención al ruido circundante). Es posible que recuerde que pudo seguir la conversación bastante bien.

De lo que es posible que no se diera cuenta es de que su percepción precisa del habla en ese entorno auditivo complejo tuvo un coste. Las estrategias adicionales abiertas y encubiertas que emplean los oyentes para mantener un reconocimiento preciso del habla degradada requieren una reasignación de recursos cognitivos. En otras palabras, el reconocimiento de palabras y el procesamiento del habla se realizan «con esfuerzo», como lo demuestran los indicadores fisiológicos, conductuales y subjetivos. Por ejemplo, las personas que se esfuerzan más durante una tarea de escucha tienden a mostrar una mayor actividad fisiológica, que incluye cambios en la conductancia de la piel, la función cardiovascular y la dilatación de las pupilas (tal como se menciona en Francis y Love, 2020). Además, en los estudios conductuales se indica que el procesamiento del habla degradada requiere mayores recursos de atención. Considerando que las personas tenemos un conjunto limitado de recursos de atención (Kahneman, 1973), la asignación de una mayor atención a la comprensión del habla significa que un oyente dispone de menos recursos cognitivos para realizar multitareas o manipular el contenido del habla de una manera significativa. En estudios en los que se implementan paradigmas de doble tarea se facilita un respaldo a esta idea. En concreto, el desempeño de niños y adultos en tareas secundarias disminuye a medida que se degrada el habla objetivo de la tarea primaria de reconocimiento del habla (Grieco-Calub et al., 2017; Pals et al., 2013; Ward et al., 2017). Además, existe una creciente evidencia de que el acceso al léxico tanto en niños como en adultos es más lento cuando la entrada auditiva se degrada por el filtrado espectral, el ruido de fondo, la pérdida auditiva o el habla en tono bajo (Grieco-Calub et al., 2009; Hendrickson et al., 2020; McMurray et al., 2017; Newman y Chatterjee, 2013). Los resultados de este trabajo sugieren que los oyentes que sean más lentos en el reconocimiento de palabras en estas situaciones pueden correr el riesgo de perderse el contenido del habla en una interacción social, dado que el habla se produce con rapidez y pocas pausas.

En resumen, existen consecuencias derivadas de la necesidad de realizar un mayor esfuerzo para comprender el habla degradada. En torno a la última década, se han intentado modelar en nuestro campo los costes cognitivos y comunicativos relacionados con este esfuerzo en escuchar. Los modelos teóricos, como el modelo de facilidad de comprensión del lenguaje (Ronnberg et al., 2013) y el marco para comprender el esfuerzo en escuchar (Pichora-Fuller et al., 2016), facilitan maneras de considerar las estrategias que utilizan los oyentes para conseguir una buena percepción del habla cuando su acceso a la misma se degrada debido a la pérdida auditiva, el ruido de fondo u otras formas de filtrado espectral. El trabajo en esta área sugiere que el conocimiento del lenguaje, la capacidad cognitiva y la función cognitiva son componentes importantes de este proceso. Por ejemplo, los oyentes que obtienen una puntuación más alta en indicadores estandarizados de control inhibitorio (es decir, funciones ejecutivas) y memoria de trabajo verbal tienden a mostrar un mejor desempeño en condiciones auditivas adversas que los oyentes que obtienen una puntuación más baja en indicadores comparables (p. ej., Ng y Ronnberg, 2020; Pichora-Fuller et al., 1995). Además, la capacidad de los oyentes para utilizar los conocimientos existentes para «llenar las lagunas» de la omisión del habla influirá probablemente en su desempeño. En concreto, unas mejores habilidades lingüísticas posibilitan un mejor procesamiento del habla (Benichov et al., 2012; Lash et al., 2013).

Otra consideración es la manera en que el esfuerzo en escuchar influye en el procesamiento del lenguaje y en su aprendizaje. Si un oyente asigna un mayor esfuerzo cognitivo al procesamiento del habla y su capacidad de comprensión es más lenta, es razonable esperar que tanto su comprensión como su capacidad de recordar o aprender a partir de la entrada del habla se vean afectadas. En consonancia con esta idea, los niños en edad escolar muestran un peor desempeño en tareas de comprensión cuando el habla se presenta con ruido de fondo (Sullivan et al., 2015). Además, los niños más pequeños aprenden menos palabras cuando el habla objetivo se degrada por el ruido de fondo (Avivi-Reich et al., 2020; Han et al., 2019; McMillan y Saffran, 2016). Estas cuestiones son especialmente relevantes en el caso de los niños que asisten a la escuela de manera presencial, ya sea a tiempo completo o parcial (p. ej., como en algunos modelos académicos híbridos), y tanto el profesor como todos los alumnos deben utilizar mascarillas. En las aulas suele haber un ruido de fondo y una reverberación considerables, lo que influye negativamente en la percepción del habla y en las tareas de memoria de trabajo verbal (Crandell y Smaldino, 2000; Klatte et al., 2013). En resumen, las innumerables fuentes de degradación del habla en las aulas, como son el ruido ambiental y los hablantes de fondo, además de las mascarillas, pueden influir negativamente en el grado en que los niños pueden acceder al contenido del habla y retenerlo.

¿Cómo influyen las mascarillas en los componentes sociales de la comunicación cara a cara?

Las mascarillas no solo alteran el acceso a los aspectos acústicos y visuales del habla, sino que también alteran los aspectos sociales de la comunicación cara a cara (sonrisas, fruncimiento de ceño, rictus, etc.) que son señales verbales y no verbales sutiles y facilitan un contexto al contenido verbal y a las emociones. Las personas utilizamos una variedad de señales faciales y corporales para comunicar y percibir emociones (Banziger et al., 2009; Planalp, 1996). No obstante, con el rostro se obtienen señales especialmente destacadas acerca del estado emocional de un interlocutor. Si bien con los ojos y la boca se pueden comunicar aspectos de la emoción, las posiciones de la boca tanto estáticas como dinámicas suelen facilitar más información (Blais et al., 2012). Por lo tanto, en los momentos en que se deben utilizar mascarillas durante una interacción social, se puede alterar la percepción de las emociones.

No obstante, es importante señalar que la emoción también se comunica a través de señales prosódicas no verbales, como son la entonación, el tono y la acentuación de la producción vocal del hablante (p. ej., Juslin y Laukka, 2003). Por ejemplo, diferentes tipos de emociones tienen diferentes perfiles prosódicos que los oyentes utilizan para determinar el estado emocional del hablante. Dado que los hablantes pueden comunicar la emoción a través de modalidades auditivas y visuales, los oyentes pueden dirigir de una manera flexible su atención hacia las señales más destacadas. Por lo tanto, sería posible inducir que la percepción de las emociones podría no alterarse cuando un hablante utiliza una mascarilla. No obstante, existe evidencia que sugiere que la percepción unimodal reduce la variabilidad de la percepción de las emociones en una variedad de diferentes emociones. Por ejemplo, De Silva et al. (1997) demostraron que las personas mostraban una mayor precisión en la identificación de emociones, como la ira, la felicidad, la sorpresa y la aversión cuando se facilitaba una señal solo visual (frente a una señal solo auditiva). Por el contrario, las personas percibían la tristeza y el miedo con una mayor precisión con una señal solo auditiva (en comparación con una señal solo visual). Sin embargo, los oyentes muestran una mayor precisión cuando tienen acceso a marcadores acústicos y visuales de la emoción (Busso et al., 2004; Chen et al., 1998). En resumen, las mascarillas y la distancia social pueden alterar la percepción de la emoción de un hablante por parte de un oyente, lo que podría tener consecuencias en su percepción de la interacción social o la intención del acto de comunicación.

Estrategias para superar los efectos negativos de las herramientas de mitigación de la COVID-19 en la comunicación cara a cara

Tanto para los logopedas como para los audiólogos es fundamental comprender los efectos negativos existentes y potencialmente en cascada del uso de mascarillas y la distancia social en la comunicación. Como se ha mencionado, es posible que los pacientes se quejen del esfuerzo vocal y de la dificultad para entender el habla. Sin embargo, existen estrategias que se pueden aplicar para superar potencialmente estos efectos negativos.

Una estrategia que suelen aplicar las personas que interactúan con pacientes o alumnos con pérdida auditiva es el uso de mascarillas y protectores faciales transparentes. Ambos equipos ofrecen protección frente a la propagación de patógenos por vía aérea y facilitan al oyente un acceso al habla visual. Considerando los beneficios de las señales visuales en el reconocimiento del habla cuando el habla acústica se degrada, es razonable prever que el acceso al habla visual a través de mascarillas y protectores faciales transparentes contrarreste las propiedades de filtrado acústico de estos equipos. De acuerdo con esta idea, en estudios recientes se ha demostrado que el acceso a los labios de un hablante (es decir, el acceso al habla visual) a través de una mascarilla transparente mejora el reconocimiento del habla (Lalonde et al., 2021; Thibodeau et al., 2021). No obstante, es importante señalar que los materiales utilizados para fabricar mascarillas y protectores faciales transparentes tienen propiedades de filtrado acústico y transparencia variables debido a los reflejos o al empañamiento (Corey et al., 2020; L. Hunter, comunicación personal, 3 de junio de 2021). Consecuentemente, los beneficios observados con los equipos transparentes y, por lo tanto, el acceso al habla visual, se pueden reducir si el propio material produce una degradación excesiva de la señal del habla.

Otra estrategia eficaz para mejorar el reconocimiento del habla en presencia de una degradación de la señal acústica es el uso de sistemas de micrófono remoto (p. ej., el micrófono Roger de Phonak). Estos sistemas están diseñados para mejorar la intensidad del habla del interlocutor con respecto a otros sonidos presentes en el entorno. Se suelen utilizar en las aulas para ofrecer a los niños con sordera o hipoacusia un mejor acceso a la voz de sus profesores y compañeros de clase. Si las mascarillas y la distancia social siguen siendo obligatorias en los colegios, los sistemas de micrófono remoto pueden ser esenciales para garantizar que los niños puedan oír a las personas que hablan en el aula.

Si los oyentes pueden reconocer mejor el habla porque tienen acceso al habla visual o a una mejor relación señal-ruido se reducirá el esfuerzo que deben realizar para contrarrestar el filtrado acústico de las mascarillas y la distancia social. De acuerdo con esta idea, Beechey et al. (2020) han demostrado el beneficio de la amplificación auditiva tanto para los usuarios adultos con pérdida auditiva como para sus interlocutores. En conjunto, los datos sugieren que encontrar formas de mejorar la fidelidad de la señal del habla puede ser fundamental para garantizar la eficacia de la comunicación cuando las personas utilizan mascarillas y se impone la distancia social.

Los efectos a largo plazo del aislamiento social en las funciones cognitivas y sociales

Las estrategias de mitigación de la COVID-19 no solo han influido en la comunicación cara a cara. Sería una negligencia no abordar los efectos de la reducción de la interacción social en las personas a lo largo de la vida. La interacción social es fundamental en la experiencia humana. Es esencial en la infancia para fomentar el desarrollo cognitivo, social y del lenguaje. La interacción social promueve el desarrollo del vocabulario y el aprendizaje socioemocional en la infancia. A medida que envejecemos, incluso pequeñas dosis de interacción social mejoran nuestras funciones cognitivas (Evans et al., 2018; Glei et al., 2005; Ybarra et al., 2008).

En la primera etapa de la pandemia mundial, se indicó a las personas que se aislaran y se ordenó su confinamiento en todo el país. En el caso de las unidades familiares, para sus miembros significó pasar más tiempo juntos. Por el contrario, en el caso de las personas que vivían solas, significó una reducción del contacto humano cara a cara. A los adultos mayores les afectó especialmente esta orden de confinamiento al considerarles como una población más vulnerable a los efectos mortales del virus. Las actividades sociales de rutina, como acudir a servicios religiosos, almorzar con amigos o celebrar días festivos con miembros de toda la familia, se desaconsejaron enfáticamente y, en algunas áreas, dejaron de permitirse. Cada vez existe una mayor evidencia de que la reducción de la interacción, o el aislamiento social, se relaciona con el deterioro cognitivo de los adultos mayores (Lin et al., 2013; Maharani et al., 2019). Por lo tanto, la orden de confinamiento durante toda la pandemia de COVID-19 puede tener efectos duraderos en la población de adultos mayores en las comunidades.

Una estrategia para combatir el aislamiento social ha sido la utilización de la tecnología de videoconferencia, que ha permitido una conexión continua con familiares, amigos y compañeros de trabajo. Para muchas personas, el trabajo, el colegio y los contactos sociales simplemente cambiaron a un formato telemático. Sin embargo, la realidad es que la disponibilidad de la tecnología de videoconferencia no ha sido equitativa. A pesar del éxito generalizado de las videoconferencias para conectar a las personas, han existido disparidades en la accesibilidad a esta tecnología. Entre las razones de estas disparidades se encuentran la falta de dispositivos con capacidad de realizar videoconferencias, un acceso inalámbrico inestable o la falta de conocimientos técnicos del usuario final. En un estudio previo a la COVID realizado por el Pew Research Center (2019) se demostró que el acceso a Internet y el uso de la tecnología varían ampliamente según la renta de los hogares y la edad, repercutiendo más en las personas con una renta baja y de mayor edad. Los efectos inmediatos de esta disparidad han dado lugar a una educación, una atención médica y una conexión social desiguales. No obstante, es probable que los efectos a largo plazo de las disparidades tecnológicas y el aislamiento social relacionados con la COVID-19 en la salud comunicativa de las personas no se perciban hasta pasado un tiempo.

Resumen

Se ha demostrado el éxito de las mascarillas y la distancia social a la hora de mitigar la propagación de la COVID-19. A pesar de este éxito, pueden suponer problemas en una comunicación eficaz, lo que puede tener efectos negativos en la producción del habla, el reconocimiento del habla, el procesamiento del lenguaje y la cognición. Las personas con trastornos de comunicación preexistentes pueden correr un mayor riesgo de sufrir estos efectos negativos. La comprensión de los mecanismos que subyacen a los problemas de comunicación asociados a las mascarillas y la distancia social mejorará nuestra capacidad de atender a estos pacientes.

Agradecimientos

Este trabajo ha contado con el apoyo de las subvenciones R01DC018596 y R01DC017984 del National Institute on Deafness and Other Communication Disorders Grants y de la subvención R01HD100439 del National Institute of Child Health and Human Development. La autora desea agradecer a Natalie Krasuska, Diana Cortez, Samuel Shipley y Kelsey Sherry por sus útiles comentarios sobre el artículo.

Bibliográfia

Avivi-Reich, M., Roberts, M. Y. y Grieco-Calub, T. M. (2020). Quantifying the effects of background speech babble on pre-school children’s novel word learning in a multisession paradigm: A preliminary study. Journal of Speech, Language, and Hearing Research, 63(1), 345-356. https://doi.org/10.1044/2019_JSLHR-H-19-0083

Bänziger, T., Grandjean, D. y Scherer, K. R. (2009). Emotion recognition from expressions in face, voice, and body: The Multimodal Emotion Recognition Test (MERT). Emotion, 9(5), 691-704. https://doi.org/10.1037/a0017088

Beechey, T., Buchholz, J. M. y Keidser, G. (2020). Hearing aid amplification reduces communication effort of people with hearing impairment and their conversation partners. Journal of Speech, Language, and Hearing Research, 63(4), 1299-1311. https://doi.org/10.1044/2020_JSLHR-19-00350

Benichov, J., Cox, L. C., Tun, P. A. y Wingfield, A. (2012). Word recognition within a linguistic context: Effects of age, hearing acuity, verbal ability, and cognitive function. Ear and Hearing, 32(2), 250-256. https://doi.org/10.1097/AUD.0b013e31822f680f

Blais, C., Roy, C., Fiset, D., Arguin, M. y Gosselin, F. (2012). The eyes are not the window to basic emotions. Neuropsychologia, 50(12), 2830-2838. https://doi.org/10.1016/j.neuropsychologia.2012.08.010

Busso, C., Deng, Z., Yildirim, S., Bulut, M., Lee, C. M., Kazemzadeh, A., Lee, S., Neumann, U. y Narayanan, S. (2004). Analysis of emotion recognition using facial expressions, speech and multimodal information. En Proceedings of the 6th International Conference on Multimodal Interfaces (pág. 205-211). Association for Computing Machinery.

Centers for Disease Control and Prevention. (2020a). How COVID-19 spreads. https://www.cdc.gov/coronavirus/2019-ncov/prevent-getting-sick/how-covid-spreads.html

Centers for Disease Control and Prevention. (2020b). Symptoms of coronavirus. https://www.cdc.gov/coronavirus/2019-ncov/symptoms-testing/symptoms.html

Chen, L. S., Huang, T. S., Miyasato, T. y Nakatsu R. (1998). Multimodal human emotion/expression recognition. Proceedings of the Third IEEE International Conference on Automatic Face and Gesture Recognition (pág. 366-371). IEEE. https://doi.org/10.1109/AFGR.1998.670976

Cherry, E. C. (1953). Some experiments on the recognition of speech, with one and with two ears. The Journal of the Acoustical Society of America, 25(5), 975-979. https://doi.org/10.1121/1.1907229

Chu, D. K., Akl, E. A., Duda, S., Solo, K., Yaacoub, S., Schünemann, H.  J. y autores del estudio COVID-19 Systematic Urgent Review Group Effort (SURGE). (2020). Physical distancing, face masks, and eye protection to prevent person-to-person trans-mission of SARS-CoV-2 and COVID-19: A systematic review and meta-analysis. The Lancet, 395(10242), 1973-1987. https://doi.org/10.1016/S0140-6736(20)31142-9

Corey, R. M., Jones, U. y Singer, A. C. (2020). Acoustic effects of medical, cloth, and transparent face masks on speech signals. The Journal of the Acoustical Society of America, 148(4), 2371-2375. https://doi.org/10.1121/10.0002279

Crandell, C. C. y Smaldino, J. J. (2000). Classroom acoustics for children with normal hearing and with hearing impairment. Language, Speech, and Hearing Services in Schools, 31(4), 362-370. https://doi.org/10.1044/0161-1461.3104.362

De Silva, L. C., Miyasato, T. y Nakatsu, R. (1997). Facial emotion recognition using multi-modal information. Proceedings of 1997 International Conference on Information, Communications and Signal Processing (ICICS). Theme: Trends in Information Systems Engineering and Wireless Multimedia Communications, 1, 1397-1401.

Erber, N. P. (1969). Interaction of audition and vision in the recognition of oral speech stimuli. Journal of Speech and Hearing Research, 12(2), 423-425. https://doi.org/10.1044/jshr.1202.423

Evans, I. E. M., Llewellyn, D. J., Matthews, F. E., Woods, R. T., Brayne, C., Clare, L. y CFAS-Wales Research Team. (2018). Social isolation, cognitive reserve, and cognition in healthy older people. PLOS ONE, 13(8), Article e0201008. https://doi.org/10.1371/journal.pone.0201008

Everhardt, M. K., Sarampalis, A., Coler, M., Başkent, D. y Lowie, W. (2020). Meta-analysis on the identification of linguistic and emotional prosody in cochlear implant users and vocoder simulations. Ear and Hearing, 41(5), 1092-1102. https://doi.org/10.1097/AUD.0000000000000863

Fecher, N. y Watt, D. (Septiembre de 2013). Effects of forensically-realistic facial concealment on auditory-visual consonant recognition in quiet and noise conditions. Proceedings of AVSP 2013 (International Conference on Auditory-Visual Speech Processing), Annecy, Francia.

Festen, J. M. y Plomp, R. (1990). Effects of fluctuating noise and interfering speech on the speech-reception threshold for impaired and normal hearing. The Journal of the Acoustical Society of America, 88(4), 1725-1736. https://doi.org/10.1121/1.400247

Fiorella, M. L., Cavallaro, G., Di Nicola, V. y Quaranta, N. (2021). Voice differences when wearing and not wearing a surgical mask. Journal of Voice. Advance online publication. https://doi.org/10.1016/jjvoice.2021.01.026

Francis, A. L. y Love, J. (2020). Listening effort: Are we measuring cognition or affect, or both? Wiley Interdisciplinary Reviews: Cognitive Science, 11(1), e1514. https://doi.org/10.1002/wcs.1514

Glei, D. A., Landau, D. A., Goldman, N., Chuang, Y. L., Rodríguez, G. y Weinstein, M. (2005). Participating in social activities helps preserve cognitive function: An analysis of a longitudinal, population-based study of the elderly. International Journal of Epidemiology, 34(4), 864—871. https://doi.org/10.1093/ije/dyi049

Goldin, A., Weinstein, B. y Shiman, N. (2020). How do medical masks degrade speech perception? Hearing Review, 27(5), 8-9.

Grant, K. W. y Seitz, P. F. (2000). The use of visible speech cues for improving auditory detection of spoken sentences. The Journal of the Acoustical Society of America, 108(3), 1197-1208. https://doi.org/10.1121/1.1288668

Grieco-Calub, T. M., Saffran, J. R. y Litovsky, R. Y. (2009). Spoken word recognition in toddlers who use cochlear implants. Journal of Speech, Language, and Hearing Research, 52(6), 1390-1400. https://doi.org/10.1044/1092-4388(2009/08-0154)

Grieco-Calub, T. M., Ward, K. M. y Brehm, L. (2017). Multitasking during degraded speech recognition in school-age children. Trends in Hearing, 21, 2331216516686786. https://doi.org/10.1177/2331216516686786

Han, M. K., Storkel, H. y Bontempo, D. E. (2019). The effect of neighborhood density on children’s word learning in noise. Journal of Child Language, 46(1), 153-169. https://doi.org/10.1017/S0305000918000284

Hendrickson, K., Spinelli, J. y Walker, E. (2020). Cognitive processes underlying spoken word recognition during soft speech. Cognition, 198, 104196. https://doi.org/10.1016/j.cognition.2020.104196

Jordan, T. R. y Thomas, S. M. (2011). When half a face is as good as a whole: Effects of simple substantial occlusion on visual and audiovisual speech perception. Attention, Perception y Psychophysics, 73(7), 2270-2285. https://doi.org/10.3758/s13414-011-0152-4

Juslin, P. N. y Laukka, P. (2003). Communication of emotions in vocal expression and music performance: Different channels, same code? Psychological Bulletin, 129(5), 770-814. https://doi.org/10.1037/0033-2909.129.5.770

Kahneman, D. (1973). Attention and effort (Vol. 1063, pág. 218-226). Prentice-Hall.

Klatte, M., Bergström, K. y Lachmann, T. (2013). Does noise affect learning? A short review on noise effects on cognitive performance in children. Frontiers in Psychology, 4, 578.

Kuhl, P. K. y Meltzoff, A. N. (1982). The bimodal perception of speech in infancy. American Association for the Advancement of Science, 218(4577), 1138-1141. https://doi.org/10.1126/science.7146899

Lalonde, K., Buss, E., Miller, M. K. y Liebold, L. J. (28-31 de marzo de 2021). Effects of face masks on auditory and audiovisual speech recognition in children with and without hearing loss [Presentación de póster]. 8th International Pediatric Audiology Conference [Conferencia virtual]. https://osf.io/xrqft/

Lalonde, K. y Holt, R. F. (2015). Preschoolers benefit from visually salient speech cues. Journal of Speech, Language, and Hearing Research, 58(1), 135-150. https://doi.org/10.1044/2014_JSLHR-H-13-0343

Lash, A., Rogers, C. S., Zoller, A. y Wingfield, A. (2013). Expectation and entropy in spoken word recognition: Effects of age and hearing acuity. Experimental Aging Research, 39(3), 235-253. https://doi.org/10.1080/0361073X.2013.779175

Lewkowicz, D. J. y Hansen-Tift, A. M. (2012). Infants deploy selective attention to the mouth of a talking face when learning speech. Proceedings of the National Academy of Sciences, 109(5), 1431-1436. https://doi.org/10.1073/pnas.1114783109

Lin, F. R., Yaffe, K., Xia, J., Xue, Q.-L., Harris, T. B., Purchase- Helzner, E., Satterfield, S., Ayonayon, H. N., Ferrucci, L., Simonsick, E. M. y Health ABC Study Group. (2013). Hearing loss and cognitive decline in older adults. JAMA Internal Medicine, 173(4), 293-299. https://doi.org/10.1001/jamainternmed.2013. 1868

MacDonald, K., Marchman, V. A., Fernald, A. y Frank, M. C. (2020). Children flexibly seek visual information to support signed and spoken language comprehension. Journal of Experimental Psychology: General, 149(6), 1078-1096. https://doi.org/10.1037/xge0000702

MacLeod, A. y Summerfield, Q. (1987). Quantifying the contribution of vision to speech perception in noise. British Journal of Audiology, 21(2), 131-141. https://doi.org/10.3109/03005368709077786

Magnuson, J. S. y Nusbaum, H. C. (2007). Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology: Human Perception and Performance, 33(2), 391-409. https://doi.org/10.1037/0096-1523.33.2.391

Maharani, A., Pendleton, N. y Leroi, I. (2019). Hearing impairment, loneliness, social isolation, and cognitive function: Longitudinal analysis using English longitudinal study on ageing. The American Journal of Geriatric Psychiatry, 27(12), 1348-1356. https://doi.org/10.1016/jjagp.2019.07.010

Markel, H., Lipman, H. B., Navarro, J. A., Sloan, A., Michalsen, J. R., Stern, A. M. y Cetron, M. S. (2007). Nonpharmaceutical interventions implemented by U.S. cities during the 1918-1919 influenza pandemic. JAMA, 298(6), 644-654. https://doi.org/10.1001/jama.298.6.644

McClelland, J. L. y Elman, J. L. (1986). The TRACE model of speech perception. Cognitive Psychology, 18(1), 1-86. https://doi.org/10.1016/0010-0285(86)90015-0

McMillan, B. T. M. y Saffran, J. R. (2016). Learning in complex environments: The effects of background speech on early word learning. Child Development, 87(6), 1841-1855. https://doi.org/10.1111/cdev.12559

McMurray, B., Farris-Trimble, A. y Rigler, H. (2017). Waiting for lexical access: Cochlear implants or severely degraded input lead listeners to process speech less incrementally. Cognition, 169, 147-164. https://doi.org/10.1016/j.cognition.2017.08.013

Mendel, L. L., Gardino, J. A. y Atcherson, S. R. (2008). Speech understanding using surgical masks: A problem in health care? Journal of the American Academy of Audiology, 19(9), 686-695. https://doi.org/10.3766/jaaa.19.9.4

Michael, D. D., Siegel, G. M. y Pick, H. L., Jr. (1995). Effects of distance on vocal intensity. Journal of Speech and Hearing Research, 38(5), 1176-1183. https://doi.org/10.1044/jshr.3805.1176

Newman, R. S. y Chatterjee, M. (2013). Toddlers’ recognition of noise-vocoded speech. The Journal of the Acoustical Society of America, 133(1), 483-494. https://doi.org/10.1121/1.4770241

Newman, R. S., Morini, G., Shroads, E. y Chatterjee, M. (2020). Toddlers’ fast-mapping from noise-vocoded speech. The Journal of the Acoustical Society of America, 147(4), 2432-2441. https://doi.org/10.1121/10.0001129

Ng, E. H. N. y Ronnberg, J. (2020). Hearing aid experience and background noise affect the robust relationship between working memory and speech recognition in noise. International Journal of Audiology, 59(3), 208-218. https://doi.org/10.1080/14992027.2019.1677951

Pals, C., Sarampalis, A. y Başkent, D. (2013). Listening effort with cochlear implant simulations. Journal of Speech, Language, and Hearing Research, 56(4), 1075-1084. https://doi.org/10.1044/1092-4388(2012/12-0074)

Pew Research Center. (Junio de 2019). Mobile technology and home broadband 2019. https://www.pewresearch.org/internet/wp-content/uploads/sites/9/2019/06/PI_2019.06.13_Mobile-Technology-and-Home-Broadband_FINAL2.pdf

Pichora-Fuller, M. K., Kramer, S. E., Eckert, M. A., Edwards, B., Hornsby, B. W., Humes, L. E., Lemke, U., Lunner, T., Matthen, M., Mackersie, C. L., Naylor, G., Phillips, N. A., Richter, M., Rudner, M., Sommers, M. S., Tremblay, K. L. y Wingfield, A. (2016). Hearing impairment and cognitive energy: The Framework for Understanding Effortful Listening (FUEL). Ear and Hearing, 37, 5S-27S. https://doi.org/10.1097/AUD.0000000000000312

Pichora-Fuller, M. K., Schneider, B. A. y Daneman, M. (1995). How young and old adults listen to and remember speech in noise. The Journal of the Acoustical Society of America, 97(1), 593-608. https://doi.org/10.112m.412282

Planalp, S. (1996). Varieties of cues to emotion in naturally occurring situations. Cognition and Emotion, 10(2), 137-154. https://doi.org/10.1080/026999396380303

Ross, L. A., Molholm, S., Blanco, D., Gomez-Ramirez, M., Saint- Amour, D. y Foxe, J. J. (2011). The development of multisensory speech perception continues into the late childhood years. European Journal of Neuroscience, 33(12), 2329-2337. https://doi.org/10.1111/j.1460-9568.2011.07685.x

Rönnberg, J., Lunner, T., Zekveld, A., Sörqvist, P., Danielsson, H., Lyxell, B., Dahlström, Ö., Signoret, C., Stenfelt, S., Pichora-Fuller, M. K. y Rudner, M. (2013). The Ease of Language Understanding (ELU) model: Theoretical, empirical, and clinical advances. Frontiers in Systems Neuroscience, 7, 31.

Schwartz, J.-L., Berthommier, F. y Savariaux, C. (2004). Seeing to hear better: Evidence for early audio-visual interactions in speech identification. Cognition, 93(2), B69-B78. https://doi.org/10.1016/j.cognition.2004.01.006

Sullivan, J. R., Osman, H. y Schafer, E. C. (2015). The effect of noise on the relationship between auditory working memory and comprehension in school-age children. Journal of Speech, Language, and Hearing Research, 58(3), 1043-1051. https://doi.org/10.1044/2015_JSLHR-H-14-0204

Sumby, W. H. y Pollack, I. (1954). Visual contribution to speech intelligibility in noise. The Journal of the Acoustical Society of America, 26(2), 212-215. https://doi.org/10.1121/1.1907309

Swerts, M. y Krahmer, E. (2008). Facial expression and prosodic prominence: Effects of modality and facial area. Journal of Phonetics, 36(2), 219-238. https://doi.org/10.1016/j.wocn.2007.05.001

Thibodeau, L. M., Thibodeau-Nielsen, R. B., Tran, C. M. Q. y de Souza Jacob, R. T. (2021). Communicating during COVID-19: The effect of transparent masks for speech recognition in noise. Ear and Hearing, 42(4), 772-781. https://doi.org/10.1097/AUD.0000000000001065

Thomas, S. M. y Jordan, T. R. (2004). Contributions of oral and extraoral facial movement to visual and audiovisual speech perception. Journal of Experimental Psychology: Human Perception and Performance, 30(5), 873-888. https://doi.org/10.1037/0096-1523.30.5.873

Tinnemore, A. R., Zion, D. J., Kulkarni, A. M. y Chatterjee, M. (2018). Children’s recognition of emotional prosody in spectrally-degraded speech is predicted by their age and cognitive status. Ear and Hearing, 39(5), 874-880. https://doi.org/10.1097/AUD.0000000000000546

Trude, A. M. y Brown-Schmidt, S. (2011). Talker-specific perceptual adaptation during online speech perception. Language and Cognitive Processes, 27(7-8), 979-1001. https://doi.org/10.1080/01690965.2011.597153

Vos, T. G., Dillon, M. T., Buss, E., Rooth, M. A., Bucker, A. L., Dillon, S., Pearson, A., Quinones, K., Richter, M. E., Roth, N., Young, A. y Dedmon, M. M. (2021). Influence of protective face coverings on the speech recognition of cochlear implant patients. The Laryngoscope, 131(6), E2038-E2043. https://doi.org/10.1002/lary.29447

Ward, K. M., Shen, J., Souza, P. E. y Grieco-Calub, T. M. (2017). Age-related differences in listening effort during degraded speech recognition. Ear and Hearing, 38(1), 74-84. https://doi.org/10.1097/AUD.0000000000000355

World Health Organization. (2020). Coronavirus. https://www.who.int/health-topics/coronavirus#tab=tab_1

Ybarra, O., Burnstein, E., Winkielman, P., Keller, M. C., Manis, M., Chan, E. y Rodriguez, J. (2008). Mental exercising through simple socializing: Social interaction promotes general cognitive functioning. Personality and Social Psychology Bulletin, 34(2), 248-259. https://doi.org/10.1177/0146167207310454

Este artículo se publicó en THE ASHA LEADER en octubre 2017, vol. 6 (1097-1105).

Logotipo AG BELL International

AG BELL International
Correo electrónico: contacto@agbellinternational.org
Teléfono: +34 915239900
SMS: +34 722442546
Dirección: Calle Santísima Trinidad 35 28010 Madrid