¿Oímos lo que vemos? De acuerdo con estudios recientes, la comunicación es más compleja de lo que parece, llegando incluso a depender el significado de lo que se percibe al escuchar con lo que se observa. Gestos, movimientos corporales y otros signos no verbales ayudan a decodificar los mensajes en la comunicación humana.
Por Joaquín Mateu Mollá
Profesor Adjunto en Universidad Internacional de Valencia, Doctor en Psicología Clínica, Universidad Internacional de Valencia
Madrid, 3 de abril (The Conversation).- El oído no es completamente objetivo, ni tampoco independiente. Cada vez que conversamos con alguien cara a cara –o a través de Zoom–, además de sus palabras nos llegan sus movimientos corporales, sus gestos. Y tienen tanta importancia que pueden hacer que escuchemos algo distinto a lo que nos han dicho.
Después de todo, la comunicación es una realidad compleja. El extraordinario desarrollo neurológico de nuestra especie (y particularmente de su corteza prefrontal) nos ha permitido transformar realidades perecederas en símbolos abstractos y duraderos, susceptibles de ser transmitidos a los demás mediante la escritura y el habla.
Tan valioso recurso no sólo ha facilitado la expresión de ideas o necesidades inmediatas: también ha dotado de inmortalidad a los hechos del mundo, más allá del inevitable ocaso de quienes poblamos temporalmente la tierra. De hecho, la aparición de la escritura se considera la línea divisoria entre la historia y la prehistoria. Gracias a ella es posible salvaguardar culturas remotas, y mantener el conocimiento acumulado de generación en generación.
Pese a la enorme ventaja evolutiva que representa el lenguaje en todas sus formas, pocas veces reparamos en lo maravilloso que es poder hacer uso de él. En este artículo abordaremos un recentísimo avance científico al respecto, pero primero deberemos preguntarnos: ¿qué ocurre realmente cuando hablamos con alguien?
¿QUÉ OCURRE REALMENTE CUANDO HABLAMOS CON ALGUIEN?
La comunicación cara a cara, contrariamente a la que discurre a través de un teléfono o mediante aplicaciones de mensajería instantánea, nos da una perspectiva privilegiada de la presencia física del otro. Este hecho se traduce en la oportunidad de usar diversas herramientas para confeccionar nuestros mensajes; requiriéndose generalmente la coordinación del sistema auditivo, el aparato fonador y las destrezas gestuales.
Cuando interactuamos con alguien, más allá de escuchar sus palabras e inferir el significado que pudiera subyacer a ellas, apreciamos también sus movimientos corporales y su posición relativa en el espacio. Esto último se conoce como comunicación no verbal y resulta esencial para garantizar el éxito del proceso. De hecho, representa aproximadamente el 70 por ciento de la información de la que disponemos al tratar de entender al otro.
Así pues, comunicarse adecuadamente requiere la puesta en marcha de notables destrezas lingüísticas, pero también motoras. Los movimientos que se expresan durante una conversación pueden tener múltiples objetivos: mostrar complicidad a través de la mímica, enfatizar contenidos relevantes del discurso o incluso ilustrar con gestos aquello que se narra. En los últimos años, además, se están encontrando otras funciones nuevas e inesperadas.
LO QUE VEMOS CONDICIONA LO QUE OÍMOS
Al hablar codificamos símbolos abstractos para transformarlos en palabras, con sus correspondientes propiedades acústicas. Al escucharlas, no obstante, se recorre el camino inverso: decodificamos el sonido para sustraer su naturaleza simbólica y entender su significado tácito. En toda conversación cotidiana se suceden alternativamente ambos procesos, mientras el cuerpo de los implicados actúa como canal informativo fundamental. Todo el proceso requiere de destrezas lingüísticas, motoras, sociales y emocionales; imbricadas con precisión en la situación comunicativa.
Si bien existe amplia evidencia sobre cómo los aspectos sociales y emocionales influyen en la selección y en el procesamiento de la información verbal, todavía resulta muy escasa la investigación sobre la aportación relativa del movimiento a la comprensión integral de un mensaje. Por ejemplo: ¿puede la comunicación no verbal condicionar el modo en que escuchamos las palabras del otro?
Uno de los fenómenos más conocidos al respecto es el clásico efecto McGurk. Este se despliega al presentar a un sujeto una grabación muda de labios articulando sonidos, mientras que simultáneamente escucha una sílaba sencilla (“ba”, por ejemplo) que no coincide con la que aquellos deberían emitir. Ante esta disyuntiva sensorial el individuo percibiría un sonido combinado de ambas fuentes, pero sustancialmente distinto al de cada una de ellas por separado. En definitiva: la información visual disponible moldearía la integración auditiva.
En los últimos años, los científicos se han preguntado si este conocido efecto podría extenderse también al movimiento del resto del cuerpo (más allá de la boca). Esto es, si los gestos podrían condicionar el modo en que escuchamos las palabras. La respuesta, en apariencia, parece ser que sí.
UN EJEMPLO SENCILLO
En español existen palabras que cambian completamente su significado en función del énfasis con el que se acentúe una u otra de las sílabas que las conforman. Un ejemplo de ello lo encontramos en los términos “plato” (acentuando la primera sílaba hace referencia a un tipo concreto de recipiente) y “plató” (enfatizando la segunda sílaba aludiría a un escenario acondicionado para el rodaje de películas).
Si bien sus diferencias como estímulos escritos son evidentes (pues en el segundo caso la palabra se acentúa atendiendo al consenso gramatical), en su transformación sonora no resulta tan sencillo distinguirlos. La persona que las pronuncia debe subrayar prosódicamente el segmento adecuado (sílaba), de forma que el sonido adquiera el matiz pretendido. Si esta tarea fracasa… ¡podría incluso cambiar el significado de lo que estamos diciendo!
Pues bien, estudios recientes han demostrado que el movimiento corporal puede actuar como sustituto del acento verbal. De esta forma, si se presenta a una persona la palabra “plato” mientras quien la pronuncia acentúa con sus manos la última de las sílabas, el oyente podrá “escuchar” realmente la palabra “plató”. ¡La información visual interferirá nuevamente en el procesamiento auditivo!
Estas investigaciones subrayan cómo la percepción del lenguaje hablado va más allá de la simple recepción de una señal acústica. Al parecer, la información adicional que orbita en torno a él puede llegar a transformar el modo en que se procesa cognitivamente una palabra. No es un simple “apoyo expresivo”. Puede decirse que la recepción de la voz humana adquiere un carácter multimodal mucho más complejo de lo que pensábamos hasta ahora.
Se espera que con el paso del tiempo este hallazgo pueda aplicarse a tecnologías que potencien la interacción entre seres humanos y sistemas informáticos, o también a los software de reconocimiento multimodal del habla. Sea como fuere, contribuirá a desentrañar el misterio de la comunicación humana y de los procesos perceptivos que median en la interpretación del lenguaje.