Anda di halaman 1dari 233

Universidad de Barcelona.

Datos catalográficos

Música y sonido en los audiovisuales. –


(Comunicació activa ; 10)

Notes. Bibliografia
ISBN 978-84-475-3686-3

I. Gustems Carnicer, Josep II. Col·lecció


1. Comunicació audiovisual 2. Música 3. So

© Publicacions i Edicions de la Universitat de Barcelona


Adolf Florensa, s/n
08028 Barcelona
Tel.: 934 035 530
Fax: 934 035 531
www.publicacions.ub.edu
comercial.edicions@ub.edu

DISEÑO DE LA
Quim Duran
CUBIERTA

ISBN 978-84-475-3686-3
DEPÓSITO LEGAL B-2.432-2013

Queda rigurosamente prohibida la reproducción total o parcial de esta obra.


Ninguna parte de esta publicación, incluido el diseño de la cubierta, puede ser
reproducida, almacenada, transmitida o utilizada mediante ningún tipo de medio
o sistema, sin autorización previa por escrito del editor.
Índice

Presentación

Música y comunicación
Ly dia Sánchez
Manuel Campos

La física del sonido


A ik aterini Konstantinidou

Fundamentos psicológicos y emocionales del sonido en los


audiovisuales
Caterina Calderón
Josep Gustems

Análisis de las cualidades del sonido y los elementos de la


música en la expresión audiovisual
Josep Gustems

Elementos expresivos y comunicativos de la voz en los


audiovisuales
Josep Gustems
Caterina Calderón
Los recursos auditivos del cine y el audiovisual
Jaume Duran

Producción y posproducción sonora en los audiovisuales


Francesc Llinares

El sonido como recurso expresivo en los audiovisuales


Francesc Llinares

La música en los medios: usos y características


Mònica Barberá
PRESENTACIÓN

Josep Gustems Carnicer, Universidad de Barcelona

Este libro es el resultado de un Proyecto de Innovación Docente de


la Universitat de Barcelona (2010 PID-UB/45) cuya intención era
diseñar materiales docentes para el grado de Comunicación
Audiovisual, puesto que a los profesores de sonido y música de
esta titulación nos resulta difícil aconsejar un libro sobre el tema. La
mayoría de los volúmenes están agotados, descatalogados o son
muy difíciles de conseguir; por otra parte, muchos de ellos están
dedicados a la historia de la música de cine, a sus autores y a las
obras más relevantes, descuidando otros géneros audiovisuales, y
tampoco dedican ninguna atención a la acústica, la narrativa, las
emociones, la comunicación o las nuevas tecnologías en la música,
dada la novedad de todos estos temas y la obsolescencia de los
contenidos propuestos en décadas anteriores.
Debido a todos estos motivos, un grupo multidisciplinar de
profesores del grado nos decidimos a elaborar un material realizado
con una visión completa y multimodal, gracias a un equipo de
autores que eran profesionales de diferentes ámbitos: filosofía de la
comunicación, montaje audiovisual, música, psicología, física y
comunicación audiovisual, y que tenían la experiencia de haber
trabajado juntos en la misma facultad y en algunos proyectos de
investigación.
Este libro es una completa actualización de los contenidos
necesarios para cursar las asignaturas del grado de Comunicación
Audiovisual de la Universitat de Barcelona dedicadas al sonido.
Contiene una amplia descripción teórica de los contenidos, con un
claro componente panorámico de ejemplos, abrazando todo tipo de
obras, estilos, géneros y países, desde un posicionamiento
respetuoso, no-etnocentrista y ecológico. La bibliografía y las
fuentes documentales utilizadas y citadas son una excelente
recopilación a través de la cual profundizar en esta temática
científica.
Es una realidad que la actual «videoesfera» (en palabras de
Jaume Radigales) da la preferencia a la imagen por encima de todo.
No obstante todos los modelos audiovisuales requieren de
contenidos sonoros en cualquiera de sus modalidades. El
tratamiento y la atención debida al sonido es mucho menor que los
que se dedican a la imagen, al guión o al lenguaje: normalmente la
música de cine se escribe con el rodaje acabado o con un montaje
provisional (con unas pocas excepciones en el audiovisual, como
los videoclips). En la historia del cine, inicialmente la música tuvo
una intención emocional, la kinoteca (J. S. Zamenick); después se
pasó a utilizar piezas célebres para las distintas escenas (cue
sheets, de M ax Winkler o M ichael P. Krueger). Posteriormente la
música y el sonido pasaron a ser un elemento organizado
intencionalmente, lo que se denomina banda sonora. En este
sentido encontramos binomios de referencia (director/ compositor):
Hitchcock/Hermann; Edwards/M ancini; Fellini/Rota; Spielberg/
Williams; Lynch/Badalamenti; Burton/Elfman, y un largo etcétera.
En la banda sonora apreciamos una dependencia entre las artes;
la música y la imagen interactúan, tal como ocurre en la ópera. La
unidad de lo audiovisual es uno de los puntos de partida de este
trabajo, donde encontraremos la música y el sonido formando un
entramado inseparable con el resto de los elementos del
audiovisual. Copland, ya en 1949, anunciaba algunos roles que se
adjudicarían a la música en los audiovisuales y sus funciones, tanto
descriptivas (proporciona credibilidad y realismo a una época o
lugar) como expresivas (otorga significado e intención, crea o
subraya estados psicológicos, pensamientos o implicaciones
ocultas de un personaje o de una situación) o narrativas (cohesiona,
da sentido a la narración, organiza, anticipa, rellena como un fondo,
construye el sentido de continuidad, une, separa, puntúa, diluye,
ambienta, retiene, disimula errores de continuidad, sustituye a un
personaje o una situación...). Desde entonces las bandas sonoras y
su estudio han sido el centro de atención de muchos investigadores,
periodistas y creadores. El patrimonio musical y audiovisual
producido en estos últimos noventa años quedará en la memoria
durante generaciones.
No se aprende a bailar con un libro; lo mismo sucede con la
música y con el análisis de los audiovisuales. Nada podrá sustituir
la presencia y los consejos de un profesorado experimentado. Este
libro no pretende cambiar en ningún modo la tradición del
aprendizaje presencial, sino ser simplemente un complemento de
éste.
/ Música y comunicación

Lydia Sánchez Gómez, Universidad de Barcelona


M anuel Campos Havidich, Universidad de Barcelona

La misma inutilidad de la música en lo relativo a la


selección natural, así como su extravagancia, obligaron a
Darwin a verla como un producto de la selección sexual,
procedente de los gritos de rivalidad y apareamiento de
nuestros antepasados prehumanos.

DENIS DUTTON, El instinto del arte

Frecuentemente relacionamos, en contextos discursivos ordinarios,


la música con la comunicación. Así, solemos decir cosas del tipo:
«Esta melodía transmite tristeza» o «Este movimiento comunica la
pasión por los ideales ilustrados y el ansia de libertad popular
ejemplificada en los triunfos de los ejércitos napoleónicos». ¿Qué
queremos decir con ello? Comparemos las anteriores afirmaciones
con las siguientes: «El profesor anunció a sus alumnos que el lunes
era fiesta», «El castor comunica a sus congéneres que el peligro
acecha batiendo el agua con la cola» o «Las abejas informan a sus
compañeras de colmena de la localización de las fuentes de néctar,
invitándolas a acudir a las mismas». ¿Usamos la idea de
comunicación en la música en el mismo sentido que en estos
ejemplos? M ientras que en el caso del profesor o del castor parece
que lo que se comunica es una «porción» de información, un
mensaje o contenido preciso, delimitado y cerrado (un contenido
proposicional, para utilizar la expresión técnica), en el caso de la
música, como en el del resto de las artes, no parece nada claro que
sea así.
Existe un test muy simple que permite ver de qué estamos
hablando. Si hay transmisión de información, tiene sentido hablar
de verdad; más en concreto, si algo es «dicho», tiene sentido
preguntarse si es cierto o falso. Tiene sentido la pregunta: ¿Es esto
(la afirmación, la representación, la pieza musical, el retrato, el
bodegón, la danza abejuna, la estatua ecuestre) verdad? Por
ejemplo, ¿qué mensaje o información transmite una pieza musical o
un crucifijo plantado en la rotonda de entrada a un pueblo ceretano?
¿Es verdad el «666» pintado con espray en dicho crucifijo? ¿Tiene
sentido esta pregunta? ¿No sería más correcto decir que lo que
estos símbolos producen en el receptor son, en el mejor de los
casos, estados emocionales, cuando no indiferencia? ¿Pero es esto
equivalente a comunicar?
En otro capítulo de esta obra, titulado «Fundamentos
psicológicos y emocionales del sonido en los audiovisuales», por
ejemplo, Caterina Calderón y Josep Gustems desarrollan la idea de
la existencia de una relación íntima entre música y emoción. De
hecho, en la teoría de la comunicación se suelen distinguir dos
grandes formas de aproximación al fenómeno comunicativo. Una de
ellas entiende, básicamente, la comunicación como transmisión de
contenidos, tomando el lenguaje como forma paradigmática de
dicho fenómeno. La otra entiende que la comunicación va más allá
del mero intercambio de mensajes. Weaver (1949), por ejemplo, nos
habla de la posibilidad de contemplar como acto comunicativo
cualquier forma de alteración cognitiva producida entre unos
agentes, y la semiótica parece favorecer un punto de vista similar a
éste. Una de las variedades más populares dentro de la perspectiva
contraria a la idea de la comunicación como transmisión entiende la
comunicación como una ceremonia, como un ritual.1 Este modelo,
conocido como modelo ritual, parte del significado del término
latino originario (communicatio, communicare), centrado en la idea
de compartir, de participación, de comunión, de estar en relación
con, de comunidad (Radford, 2005).
Aunque ambos modelos (de transmisión y ritual) se han
presentado a menudo como opuestos e incompatibles, nuestro
punto de vista es contrario a esta idea.2 En este capítulo tratamos
de ofrecer una interpretación de la posible relación entre música y
comunicación que, como ya hemos sugerido, otorgue a las
emociones y otros elementos connotados un papel relevante. Para
ello partimos de las intuiciones contenidas en el modelo de
transmisión. No es una tarea fácil: como hemos sugerido, el caso de
la música, como en general el del arte, es precisamente el más difícil
de compatibilizar con el modelo de transmisión. Por este motivo,
ofrecer una posible aproximación teórica que dé cuenta del valor
comunicativo de la música (y del arte) y que constituya un
complemento del modelo de transmisión, tiene, creemos, un interés
especial. En particular, si nos comprometemos a aceptar los
presupuestos filosóficos realistas y naturalistas que acompañan a
la visión de la realidad que nos ofrece la ciencia empírica.3

› Semántica de la «comunicación»

En todo caso, y como sugieren los ejemplos utilizados


anteriormente, el término comunicación parece ambiguo,
plurirreferencial (véase Frege, 1892). Es decir, utilizamos esta
palabra en contextos tan diferentes que es difícil concluir que en
todos los casos —de la transmisión de estímulos hormonales entre
glándulas, a la comunión anímica producida por la entonación de un
himno en un partido de fútbol o un mitin patriótico— estemos
hablando de un único fenómeno. Esto sugiere la posibilidad de que
esta palabra tenga lo que Wittgenstein (1953) denominaba una
semántica de racimo: es decir, que lo único que podamos establecer
entre distintos ejemplos del fenómeno comunicativo sea un aire de
familia, por el que encontramos rasgos comunes entre cada dos
casos de dicho fenómeno, pero no un conjunto de características
comunes a todos. ¿Cómo podemos acercarnos, entonces, al estudio
de esta materia?
La aproximación que nos parece más razonable no es, sin
embargo, la wittgensteiniana. Quizá la etiqueta comunicación se
aplique a fenómenos diversos, pero es también posible que entre
los mismos podamos hallar algunos que por su relevancia teórica y
elucidativa, por su sustancialidad (véase M illikan, 2000), puedan
sostener el peso de una explicación básica, mientras que los demás
resultan secundarios, como lo son los tigres de papel, de peluche o
clónicos respecto a los tigres ordinarios. En este sentido, pensamos
que está bastante claro que la capacidad que tienen los seres vivos
de representarse el mundo, acumular información acerca del mismo
y transmitirla a otros individuos se halla en la base de una variedad
básica del fenómeno comunicacional.
Además, nos encontramos con el hecho de que las aportaciones
teóricas en el área de la explicación biológica de la representación
han adquirido una relevancia extraordinaria en las últimas décadas.
Creemos que estas aportaciones, en especial la de Ruth M illikan,
permiten un acercamiento al fenómeno de la comunicación de una
fertilidad teórica sorprendente. Pero antes de presentar la visión
millikanina veamos algunos de los componentes básicos y las
carencias obvias de la idea de comunicación como trasmisión.

› Transmisión de información

Como decíamos anteriormente, uno de los puntos de vista más


aceptados sobre la comunicación considera que ésta requiere la
transmisión de contenido entre interlocutores. Así, algunos autores
se refieren a este punto de vista como el de la comunicación
entendida como transmisión de información. La idea básica del
mismo puede encontrarse ya en Locke y, más recientemente, en
teorías y áreas de investigación como la teoría matemática de la
comunicación de Shannon y Weaver (1949), el funcionalismo
psicológico, la cibernética o la ciencia cognitiva. Los elementos
básicos de la comunicación, según este punto de vista, incluyen un
agente emisor que transmite un mensaje a un receptor con la
finalidad de afectar sus disposiciones a la conducta (su arquitectura
cognitiva). El mensaje se codifica y transmite a través de un canal y
lo descodifica el receptor, que obtiene de este modo el mensaje,
significado o contenido codificado.
Este punto de vista está inspirado en el modelo del lenguaje
humano. Parece claro que una de las funciones básicas del mismo es
la de permitir la transmisión de información entre individuos. Esta
función se ha entendido tradicionalmente como una forma de
intercambio de opiniones, creencias, conocimiento, información,
sentimientos, emociones, etc. El lenguaje nos serviría, de forma
paradigmática, para expresar lo que pensamos y sentimos, de
manera que otros puedan recogerlo y actuar en consecuencia. En
este sentido, parecería que en un caso de comunicación hay un
conocimiento o contenido que se transmite. Nuestros pensamientos
tendrían contenidos que mediante el lenguaje podríamos transmitir
a otras personas. Esto se conseguiría a través de la realización de
actos en los que el hablante produciría afirmaciones, que son la
unidad lingüística mínima que permitiría la transmisión de
contenido. Otra manera de decir lo mismo, o algo muy similar, sería
indicar que nuestras afirmaciones tienen significados que el oyente
debe entender si aspiramos a la realización de un acto comunicativo
exitoso.
Está claro, sin embargo, que hay actos lingüísticos completos
que no sirven para transmitir información, sino que el lenguaje
humano se puede utilizar para una gran variedad de actividades:
rogar, preguntar, insultar, ensalzar, ordenar, loar, solicitar, etc.4 No
cabe duda de que nos hallamos ante actos de carácter comunicativo
en los que el agente busca afectar cognitivamente al receptor.
Vemos, pues, claramente, que una versión simple del modelo de
transmisión falla a la hora de responder a nuestras intuiciones
básicas sobre el uso del término comunicación al no recoger esta
variedad de formas de uso lingüísticas.
Otra variedad de usos literarios, los ficcionales, a pesar de
constituir una forma de comunicación, fallan a la hora de responder
a la exigencia de transmisión de información. En casos como éstos,
la función del lenguaje no es la de hablar del mundo (incluyendo en
él las propias creencias o sentimientos) con la pretensión de
describirlo o de hacer referencia a aspectos reales y actuales del
mismo, como mínimo de forma directa y literal,5 y esto es conocido
y compartido tanto por el autor de la ficción como por el lector.
En resumen, pues, nos hallamos ante situaciones que no
dudaríamos en calificar de comunicativas, pero que no satisfacen las
restricciones de una versión demasiado simple del modelo de
transmisión. Parece claro que esta simplicidad es uno de los
ingredientes que más han contribuido al descrédito de este tipo de
modelos comunicacionales. ¿Podemos superar esta situación sin
abandonar las ideas y presupuestos razonables que contiene el
modelo de transmisión?
Como hemos dicho, creemos que la introducción de temas
biológicos en esta área de reflexión nos puede ayudar a establecer
un cierto orden que nos permita separar lo básico de lo secundario.
Al fin y al cabo, parece que los únicos animales artistas son los del
circo.6 Si la comunicación es un fenómeno de raíz biológica, como
parece innegable, quizá sus formas biológicas básicas deberían
servirnos para una comprensión ordenada del mismo.
Existen ciertas intuiciones básicas al respecto, derivadas del
conocimiento del mundo que nos proporciona la ciencia empírica
contemporánea, que fundamentan esta aproximación. Por un lado,
la idea de que los hombres son animales, es decir, de que no existe
una discontinuidad en la escala biológica que nos convierta en seres
especiales, semiangélicos, con características de naturaleza no
biológica. Si nuestras características derivan de este carácter animal,
encontrar sus antecedentes en otras especies nos puede servir para
conseguir un mejor entendimiento de las mismas: una comprensión
filogenética, por decirlo de alguna manera.
Ítem más, y como ya hemos adelantado, existen propuestas
desarrolladas desde esta perspectiva biologista del fenómeno de la
comunicación y, de forma más básica, de esa capacidad, que
encontramos a lo largo de toda la escala biológica, de representarse
aspectos de la realidad y que recibe, en contextos filosóficos, el
nombre de intencionalidad.
Creemos que afrontar los temas de la comunicación a la luz de
estos desarrollos puede contribuir a una nueva visión que ataña a
los elementos más sustantivos del fenómeno, en la línea de lo que
hemos mencionado anteriormente. Por ejemplo, uno de los
problemas que generalmente se asocian con el punto de vista de la
comunicación como transmisión de información tiene que ver con la
noción de contenido. ¿Qué son los contenidos? Éste es uno de los
temas centrales de la filosofía del lenguaje y de la mente
contemporánea, y tiene un lugar principal en la teoría de la
comunicación;7 también es, naturalmente, objeto de grandes
discrepancias. ¿Nos puede ayudar la biología a la hora de
acercarnos a la comprensión de esta idea? La respuesta, en pocas
palabras, es que finalmente tenemos un conjunto de explicaciones
razonables que compiten para servir de modelo en esta área
(especialmente la proporcionada por Ruth M illikan, 1984). Son
explicaciones de lo que puedan ser los contenidos y, en general, del
fenómeno de la representación que se atienen al conocimiento del
mundo establecido por las ciencias empíricas y, en particular, por la
biología, y a los presupuestos realistas y naturalistas que gobiernan
la investigación en las mismas. Nos parece que sobre la base de este
tipo de explicación podemos empezar a aproximarnos de una
manera razonable al fenómeno de la comunicación.
› Comunicación y representación

M uchas veces nos referirnos a los objetos8 que sirven como


vehículos de comunicación como signos o señales. Sin embargo,
hay fenómenos que implican la presencia de eventos calificados de
esta manera que no se incluyen dentro de la categoría de los
comunicativos. Se trata de unos fenómenos naturales que, estando
relacionados causalmente con otros, pueden servir para indicar la
ocurrencia de los mismos, para ser sus señales o indicios. Por
ejemplo, la presencia de nubes en el cielo en ciertas circunstancias
puede considerarse un signo de lluvia inminente. Hay una relación
causal entre ambos tipos de fenómenos, pero no podemos decir que
la presencia de las nubes nos comunique que lloverá. Parece que no
hay comunicación en estos casos porque el signo ni siquiera es el
producto de la actividad descriptiva de la realidad llevada a cabo
por algún tipo de organismo biológico.
Siguiendo las propuestas de Ruth M illikan (1984),9
aceptaremos que la comunicación es un fenómeno biológico, que no
puede, por tanto, atribuirse a entidades «prebiológicas». Para esta
autora, a nivel básico la comunicación implica el uso de
representaciones del mundo. De hecho, el fenómeno de la
representación es previo al de la comunicación. Por decirlo de
forma simple: una cosa es autorepresentarse el mundo, y otra
posterior, comunicar esa información a otros individuos.
Si antes decíamos que el concepto de comunicación es ambiguo,
también lo es el de representación, pues solemos aplicarlo a
fenómenos diferentes. Así, por ejemplo, tanto podemos decir que
el número de anillos en el tronco cortado de un árbol representa su
edad como que la frase «Barcelona es una ciudad contaminada»
representa el hecho de que una determinada ciudad posee una
propiedad concreta, o que una paloma blanca representa la paz. Sin
embargo, y desde un punto de vista conceptual, no todos estos
usos son relevantes a la hora de establecer una teoría del fenómeno
de la representación y de la comunicación. Como decíamos
anteriormente, el concepto de representación que creemos
ineludible para esta finalidad implica considerarla como un
fenómeno de origen biológico. Desde este punto de vista, y como
veremos, algunos de los casos a los que solemos aplicar el término
representación resultarán serlo sólo derivativamente, como es el
caso de los anillos de los troncos de los árboles. Ello nos permitirá
delimitar mejor el origen de los fenómenos comunicativos.
Según M illikan, una de las características básicas de los
organismos vivos es que poseemos sistemas de representación del
mundo (como la percepción o el sistema generador de nuestras
creencias), que nos permiten mapear aspectos de la realidad10
circundante que son importantes para nuestra supervivencia. A
partir de estos sistemas de representación internos, podemos
regular nuestra conducta evitando peligros y buscando situaciones
favorables.
Las representaciones, como los mapas, de las cuales son el
ejemplo por antonomasia, contienen información sobre la realidad.
Nos dicen que ésta es de una determinada manera y son indicativas
de cómo es. Decimos también que las representaciones tienen o
expresan un contenido, que determinan una condición sobre la
realidad y que nos indican que la realidad es de una determinada
manera.11 Como hemos avanzado anteriormente, en el lenguaje
técnico propio de la filosofía se dice que las representaciones
expresan proposiciones; por ello, las de este tipo son llamadas
proposicionales.
Nuestra capacidad de representación del mundo a través de los
estados de nuestro organismo debe entenderse como parte de un
sistema más complejo cuya finalidad es conseguir que nuestra
conducta sea conducente a la supervivencia de la especie. Este
complejo sistema de motivación de la conducta implica otra parte,
complementaria de la indicativa, cuya función es representar el
mundo no tal como es, sino tal y como nos «interesaría» que fuera.
No sólo necesitamos estados representacionales indicativos, que
contengan información sobre el mundo, sino también otros
conativos, que muestren cómo, en tanto que organismos, buscamos
que sea el mundo. Sin estos dos componentes la explicación de la
generación de la conducta queda coja.
Utilizando términos humanos, nos comportamos de manera que
procuramos satisfacer nuestros deseos teniendo siempre en cuenta
cómo creemos que es el mundo. La complementariedad entre
estados representacionales indicativos y conativos parece clara: un
ser sin proyectos sería inerte, incapaz de generar conducta alguna;
por otro lado, un ser sin creencias sería ciego a las características de
su entorno. Esta capacidad de motivar la conducta a partir de
estados indicativos y conativos es, por tanto, también explicable
evolutivamente. Por otro lado, también está claro que los estados
conativos están asociados a condiciones proposicionales, en este
caso no de verdad, sino de satisfacción. El organismo busca que,
con su conducta, queden satisfechos sus deseos, apetencias, etc.
M ás allá de esto, los organismos vivos no sólo poseemos
estados representacionales internos, sino que también somos
capaces de transmitir la información que manejamos sobre el
mundo a través del lenguaje. El lenguaje nos permite codificar dicha
información y transmitirla a nuestros congéneres. Sin embargo, esta
manera de entender el lenguaje no resulta exclusiva de los seres
humanos. Podemos encontrar sistemas de comunicación que
cumplen con este tipo de función en una gran variedad de
organismos.

›› Algunas características básicas de las representaciones


proposicionales

De acuerdo con la teoría de las representaciones en la que nos


estamos basando, éstas poseen, al menos, una serie de
características básicas (M illikan, 1989). En primer lugar, no se
generan de forma aislada, sino que son productos de sistemas cuya
función es producir una variedad de las representaciones, cada una
de ellas dotada de un contenido; M illikan denomina a estos
sistemas productores de representaciones. Además, cada tipo de
representación tiene una función diferente, dentro de la general de
contribuir a la generación de conductas. Así, por ejemplo, los
sistemas generadores de representaciones perceptivas tienen como
función generar percepciones que van a desempeñar un papel
inmediato sobre la conducta del organismo en cuestión adaptada a
las partes de su entorno más próximo que son susceptibles de
afectarle a través de los sentidos (por ejemplo, en los actos
reflejos). Por otro lado, los efectos conductuales de los recuerdos
ejercerán un papel mucho más dilatado en el tiempo y afectarán a
situaciones vivenciales de forma mucho menos directa.
Por otro lado, para poder cumplir su función, la representación
debe ser leída por un sistema consumidor de ésta, el cual ha de
«recoger» de alguna manera su contenido para generar una conducta
adecuada a él. Esta modificación se ha caracterizado
tradicionalmente, en la filosofía analítica, como una alteración de la
arquitectura cognitiva del individuo causada por la lectura de la
representación. El consumidor o receptor puede formar parte del
mismo individuo que genera la representación o de un agente
distinto.
Las representaciones están asociadas a un contenido único, una
condición sobre el mundo que la realidad puede satisfacer o no.
Esta condición es el contenido de la representación: aquella
circunstancia concreta que, si se da en la realidad, hará que la
representación pueda contribuir a la realización de su propósito
con éxito a través de la generación de una conducta adecuada. Las
representaciones indicativas pueden ser verdaderas o falsas
dependiendo de si el contenido expresado por las mismas es
satisfecho por el mundo (es decir, si se corresponde o adecúa al
mismo) o no. Si el contenido se corresponde con el mundo, la
representación es verdadera. Esta noción de verdad, que coincide
con el uso ordinario del término, se denomina teoría de la
correspondencia de la verdad. Como hemos dicho anteriormente,
en el caso de las representaciones conativas (deseos, órdenes) no se
aplica el concepto de verdad, sino el de satisfacción.
Por último, cabe decir que la existencia de sistemas productores
y consumidores de representaciones se explica en términos de
diseño. Cada sistema está diseñado (por la naturaleza, en los casos
que estamos considerando)12 para producir representaciones con
una cierta finalidad que va desde la reacción inmediata ante un
estímulo perceptual de los actos reflejos hasta la conducta diferida
que originan los recuerdos y las evocaciones.

› Variedades de representaciones

¿Cómo se puede compaginar esta visión biologista de la


representación con el fenómeno comunicacional tal como lo
percibimos a nivel ordinario? ¿Cómo queda el panorama tras la
propuesta teórica millikaniana? Parece claro que el abanico de
entidades (o mejor, de hechos) que pueden pasar por
representaciones en fenómenos comunicacionales sobrepasa con
creces la esfera de las representaciones proposicionales
millikanianas. Repasemos el repertorio comunicativo ordinario para
poder proponer una serie de caracterizaciones teóricas de los rasgos
de éste que la propuesta de M illikan no recoge.
En primer lugar, y como ya hemos señalado, no todo aquello que
agrupamos bajo las etiquetas de señal, indicio, signo, etc. puede ser
una parte integrante de un proceso comunicacional. Así, contamos
con lo que podemos llamar, siguiendo en parte a Fred Dretske
(1981) y a Ruth M illikan (2000), señales naturales o indicadores
naturales, los cuales se distinguen claramente de las
representaciones proposicionales. Por ejemplo, a partir de un
rastro en la arena podemos extraer la información de que alguien ha
pasado por aquel lugar. Esto es posible gracias a una regularidad
que relaciona causalmente un tipo de hecho (la presencia de las
huellas) con otro (el paso reciente de un individuo). Ejemplos
similares, algunos de los cuales ya hemos visto anteriormente,
pueden obtenerse de manera trivial si nos basamos en regularidades
naturales como las siguientes: humo-fuego, número de anillos-edad
del árbol, marcas de la viruela-enfermedad, etc. Somos capaces de
extraer información de estas áreas de la realidad porque tenemos
alguna clase de conocimiento de las regularidades mencionadas. En
tanto que seres vivos, el conocimiento de estas relaciones (el hecho
de estar en sintonía con ellas, por utilizar una metáfora de John
Perry) es fundamental para nuestra supervivencia.
Ahora bien, ¿podemos hablar de comunicación en este caso?
Como ya adelantamos, y si nos basamos en las características
esenciales de las representaciones que hemos comentado en el
apartado anterior, no podemos hablar de comunicación en estos
casos porque no existe ningún diseño en la regularidad: ésta no ha
sido creada como parte de un mecanismo que implique a un sistema
productor de representaciones y a otro consumidor de las mismas
(ni mucho menos a agentes productores y lectores). De hecho, no
hay diseño detrás de la relación nube-lluvia. En estos casos,
claramente, no podemos hablar de comunicación.
En este sentido, cabe enfatizar la diferencia entre mera señal
indicadora y representación, y entre información y contenido. Se
suele decir que una señal lleva asociada una determinada
información; en cambio, en el caso de las representaciones
proposicionales hablamos de contenido, el cual también puede
constituir información. Es decir, en las circunstancias adecuadas (en
particular, si este contenido se corresponde con el mundo), el
contenido de una representación forma parte de la información
asociada a la misma; a saber, se trata de aquella parte de la
información transmitida que ha sido diseñada. Por tanto, las
representaciones pueden actuar como señales.
En segundo lugar, encontramos las representaciones
proposicionales biológicas (indicativas o conativas), de las que
hemos hablado en las secciones anteriores. Éstas han sido diseñadas
para almacenar o transmitir un cierto contenido proposicional. En
este nivel no podemos, por lo general, hablar de intenciones por
parte del agente, pero evidentemente existe un diseño, el natural
resultado de la adaptación al medio. El ejemplo por antonomasia de
este tipo de representaciones son los bailes a través de los cuales
las abejas informan a sus congéneres de la situación de las fuentes
de néctar y las instan a acudir a las mismas.
Cabe decir que una propuesta teórica, como la millikaniana, no
tiene por qué justificar absolutamente todas y cada una de las
intuiciones del sentido común acerca del área sobre la cual versa.
Así, por ejemplo, existe un tipo de representaciones biológicas para
las que no utilizaríamos ordinariamente el término comunicación y
que, sin embargo, se encuentran englobadas dentro de la propuesta
de nuestra autora. Por ejemplo, de acuerdo con ésta, tiene sentido
decir que una glándula informa a otra sobre, por ejemplo, la
dotación ovárica de una persona, de tal manera que el
comportamiento de la segunda glándula queda afectado por esta
información. No está claro que en este caso pudiéramos decir, en el
contexto de una conversación ordinaria y de forma no metafórica,
que hay comunicación entre glándulas.
En todo caso, en el ser humano podemos encontrar desde
ejemplos obvios de representaciones proposicionales de raíz
biológica, como nuestras percepciones, juicios, afirmaciones,
opiniones y recuerdos sobre el mundo, encuadrables de forma clara
dentro del modelo millikaniano, hasta las formas de
«representación» o de comunicación que parecen carecer en
absoluto de elementos referenciales, como algunas representaciones
artísticas y, en particular, musicales. Recordemos, en este sentido,
que si M illikan tuviera razón, el origen del fenómeno
representacional estaría esencialmente relacionado con la capacidad
de la mayoría de los organismos de hacerse mapas de la realidad.
Pues bien, está claro que ciertas formas de representación artística
carecen no sólo de condiciones de verdad y de contenido
proposicional (no nos pretenden decir cómo es el mundo), sino que
ni siquiera denotan o hacen referencia a ninguna de las partes del
mismo. En otros casos, por ejemplo, nos encontramos con
elementos denotados acerca de los cuales no se especifica nada
preciso a través de la representación o el símbolo, por más que
pueda connotarse o sugerirse una gran cantidad de cosas, y aunque
éstos generen en nosotros una clara respuesta emocional o estética.
¿Podemos explicar la semántica connotacional o emocional de
este tipo de producciones? ¿Cuál es el papel de las mismas,
asumiendo que claramente no tienen una función descriptiva de la
realidad? ¿Podemos incluirlas como ejemplos del modelo ritual de
comunicación, puesto que no parecen encajar en el de transmisión?

› Significado como uso

Para poder responder a las preguntas del apartado anterior nos


vemos obligados a introducir, ahora, una breve reflexión acerca de
unas categorías semánticas sobre las cuales hemos pasado hasta
ahora de puntillas: significados y sentidos. Se suele decir que las
representaciones, especialmente las humanas, tienen significado o
sentido, palabras que se utilizan, una vez más, de modo muy
ambiguo. Vamos a intentar clarificar su uso de manera similar a
como hemos procedido con las representaciones.
La palabra significado se utiliza a veces para referirse a la
denotación o referencia de una expresión (un uso del propio Frege),
como cuando decimos que neige y il pleut significan, en francés,
«nieve» y «está lloviendo». Otras veces, esta palabra se usa para
referirse a la definición de una palabra que encontramos en el
diccionario. Así, el significado de caballo, de acuerdo con el DRAE,
sería: «M amífero del orden de los Perisodáctilos, solípedo, de
cuello y cola poblados de cerdas largas y abundantes, que se
domestica fácilmente». Otra manera de presentar la idea de
significado es, aplicado a una expresión, aquello que el hablante ha
de adquirir para ser considerado competente en el uso de ésta.
También se suele pensar que el significado de una palabra debe
determinar la referencia de la misma (si es que no consiste
justamente en ésta, tal como decíamos que sucede en la primera de
las opciones comentadas).
Pero quizá el autor que más ha afinado a la hora de proveernos
de una noción de significado más comprensiva e interesante
teóricamente haya sido el segundo Wittgenstein, con su idea de que
el significado es el uso (Wittgenstein, 1953). Para este autor, las
palabra son utilizadas de diversos modos, en diversos juegos de
lenguaje (denotar, describir, mapear, sería uno de ellos, pero no el
único; la exaltación de valores cohesivos socialmente podría
caracterizar otros muchos juegos, así como la mera diversión o el
entretenimiento, o incluso la producción de expresiones
estéticamente apreciables) sometidos a unas reglas que el hablante
ha de asimilar para ser considerado un jugador competente. En
otras palabras, un hablante debe ser consciente de las convenciones
que rigen el uso del lenguaje, las cuales, en ciertos casos, pueden
implicar el conocimiento de ciertas definiciones, pero en otros
pueden involucrar disposiciones a la conducta de género muy
distinto (pensemos, por ejemplo, en el uso de expresiones verbales
en canciones y juegos infantiles).13
Las citadas convenciones afectan a aspectos muy diversos del
fenómeno lingüístico, desde características formales y sintácticas
hasta aspectos semánticos. En todo caso, lo que nos parece
importante es que este aspecto convencional se aplica a lenguajes
como los formales o artísticos que, sin embargo, pueden carecer de
una semántica de condiciones de verdad, como la correspondiente a
las representaciones proposicionales, y poseer otra menos estricta,
de carácter connotativo. De hecho, existe una versión de la idea de
lenguaje según la cual se trata de un sistema de signos sometidos a
reglas de uso, un concepto muy amplio que abarcaría desde
actividades animales hasta las tradiciones artesanas, los cálculos
lógicos o los lenguajes informáticos, artesanales, publicitarios,
musicales, cinematográficos o artísticos en general, desde los
patrones de dibujo de las decoraciones en alfarería hasta las formas
musicales tradicionales. Esta idea de lenguaje resalta más el aspecto
formal que el semántico y, como veremos, permite explicar la
semántica de los lenguajes no proposicionales.

› Conceptos, connotaciones y sentidos

La otra noción a la que debemos dedicar una breve reflexión es la de


sentido. Para ello es imprescindible mencionar el sistema de
almacenamiento de nuestro conocimiento de la realidad y su
intrínseca relación con los lenguajes humanos. Quizá la mejor
manera de hacerlo es recurriendo a un modelo propuesto, entre
otros, por John Perry (1990) y Ruth M illikan (2000), aunque
muchos otros autores hayan hecho propuestas similares (Campos
y Cirera, 2003). Simplificando mucho, este sistema de acumulación
de información permite estructurar la misma en conceptos (Perry
utiliza la analogía de un sistema de archivo en el que cada concepto
haría el papel de una carpeta) dotados de un referente o denotación
en el mundo, acerca del cual versa la información falible contenida
en el mismo. Cada concepto está asociado a una o diversas
expresiones lingüísticas que refieren a la entidad denotada y
contiene, además, «enlaces» con otros conceptos y con el sistema
emocional del agente. La totalidad del sistema constituye una de las
partes fundamentales del esqueleto de nuestra estructura cognitiva;
hay que tener en cuenta que no todas las partes de este sistema
tienen por qué ser accesibles a la conciencia. Naturalmente, las
emociones y los sentimientos también tienen una función básica en
la generación de la conducta producida por dicha estructura
cognitiva.14
Esta estructura nos permite hablar no sólo de conceptos y
denotación, sino de connotación y sentido. Nuestros conceptos de
las entidades con las que estamos en contacto acumulan
información derivada de nuestras interacciones con ellas, de manera
que cada uno de nosotros mantiene un sistema conceptual propio,
basado en nuestra historia particular, y distinto del de los demás.
Cada entidad con la que interactuamos tiene un sentido particular
para nosotros, además de connotaciones epistémicas y emocionales
que también son fruto de nuestra relación personal histórica con la
misma. Ello implica que cada agente interactuará según su personal
arquitectura cognitiva.
La utilización de un lenguaje como el humano implica
necesariamente la existencia de estas connotaciones o sentidos.
Nuestra conducta lingüística, incluso la dedicada exclusivamente a
la descripción de nuestra realidad circundante, es demasiado
sofisticada para que pueda explicarse sólo en términos de
denotación o condiciones de verdad.
Además, y como ya hemos adelantado, los lenguajes humanos
generan prácticas comunicativas muy diversas, no todas ellas
ligadas necesariamente a la función básica de la representación
proposicional del mundo. Por ejemplo, podemos preguntar, mentir,
usar de manera retórica el lenguaje como vehículo de motivación,
hacer un uso derogatorio o de alabanza, o un empleo literario cuyo
objetivo central sea producir experiencias estéticas, emocionales o
reflexivas en el receptor. En muchos de estos usos, especialmente
en los retóricos y artísticos, esta doble dimensión connotativo-
emocional adquiere una relevancia obvia. Pensemos, por ejemplo,
en el caso de la ficción literaria, y en toda la carga emocional y
reflexiva que implica.
Por lo demás, buena parte de las prácticas de comunicación a
través de los medios se basan en explotar, en parte, estas
dimensiones emocionales. Consideremos, sin ir más lejos, la
publicidad o la propaganda, cuya función obvia es producir en
nosotros, a través de la manipulación de nuestras emociones, un
estado conativo conducente a la adquisición de un producto o a la
obtención de un voto.

› Otros sistemas simbólicos

M ás allá de los lenguajes verbales, cuyas expresiones suelen tener


un carácter denotativo aunque no siempre un uso proposicional, se
abre, por lo tanto, el amplio abanico de las representaciones
simbólicas no proposicionales. El himno de la Champions League,
la paloma de la paz, la Marcha Radetzky, la estatua ecuestre de
Franco en El Ferrol, el Cristo Redentor de Río o la Gioconda no
tienen condiciones de verdad, no pretenden decir cómo es la
realidad. Aunque podamos afirmar que poseen una denotación, que
se refieren a algo (a una federación deportiva o un campeonato, a la
idea de la paz, a un general y su ejército, a un dictador, a Cristo, a
una mujer), la lectura que se pueda hacer de los mismos varía de un
individuo a otro y de una situación a otra, según el sentido que cada
una de estas personas les asigne, y según las evocaciones, recuerdos
y emociones que le despierte. Por otro lado, este carácter
denotativo suele venir dado por la posible intención
representacional del autor (por poner otro ejemplo tópico,
considérese el poema sinfónico Vltava, de Smetana, en el que se
supone que distintos pasajes del poema se refieren a los diferentes
parajes que atraviesa el río M oldava y, en cierto modo, los retrata).
El contenido entendido como condición de verdad cede, en casos
como éstos, toda la carga semántica al aspecto connotativo. Cuando
éste tiene un fuerte componente que concierne a la cohesión social,
entramos de lleno en una situación en la que el aspecto ritual,
comunitario de la comunicación, oblitera el componente de
transmisión de información: por ejemplo, las celebraciones
políticas, nacionales o religiosas, con su empleo de símbolos (más
allá de la mera palabra), ya sean himnos, banderas, esculturas,
ceremonias, construcciones, etc.
Finalmente, en el otro extremo del arco representacional, nos
hallamos, por ejemplo, con el caso de ciertas formas musicales y
poéticas en las que se ha perdido totalmente el componente
descriptivo y denotativo, y en las que el significado se centra, por
un lado, en aspectos relacionados con usos y convenciones
culturales (por ejemplo, rasgos musicales como formas, ritmos,
etc., ligadas a tradiciones culturales determinadas, desde las
distintas danzas a las que hacen referencia las partes de ciertas
obras barrocas a los palos del flamenco), y a los elementos
connotativos y emocionales ligados a ellos. Calderón y Gustems
nos han mostrado la correlación, en parte natural, entre distintas
propiedades musicales y estados emocionales de los oyentes; el
caso de los palos del flamenco constituye otro claro ejemplo de
relación entre formas musicales y estados de ánimo.
El abanico de la representación

› Consideraciones sobre intención, expresión y


conocimiento

Nos gustaría insistir en el hecho de que las intenciones del autor,


que parecen tener relevancia en el aspecto denotativo de muchas
piezas musicales, afectan también a las connotaciones culturales de
otras, sin las cuales resultarían difícilmente inteligibles o
interpretables. Dichas connotaciones pueden estar presentes
incluso cuando el aspecto denotativo ha desaparecido
completamente. Basta con pensar, como ejemplo extremo, en
ciertas obras de arte contemporáneo en las cuales reflexiones
generales sobre el producto artístico (el urinario invertido de
Duchamp) o la propia tradición (la controversia alrededor del
dodecafonismo) condicionan, en mayor o menor medida, la
elaboración de piezas concretas.
En este sentido, nos gustaría enfatizar que el producto artístico
contemporáneo nos aleja de visiones populares del fenómeno
artístico que contemplan éste como el vehículo de expresión de los
sentimientos o pensamientos del autor. Es difícil pensar que el
compositor (John Cage) de una pieza consistente en cuatro
minutos de silencio pretenda expresar con ella algún sentimiento o
emoción, y tan sólo la información acerca de las intenciones
(explícitas o implícitas) del mismo nos va a permitir entender o
interpretar dicha pieza, captar el sentido pretendido por su autor,
llevar a cabo la reflexión sobre el fenómeno musical que,
posiblemente, éste quiere generar a partir de la perplejidad del
oyente.
De hecho, en el caso de la música, esta misma debilidad en la
idea de finalidad expresiva es conjeturable de forma mucho más
general, y no se limita exclusivamente al arte contemporáneo. Y
todo ello a pesar de la abundancia de situaciones en las que las
intenciones del autor permiten hablar de la pieza como vehículo de
expresión de un mensaje. ¿Qué decir, en este sentido, de piezas
(por ejemplo, las Variaciones Goldberg) compuestas para ayudar a
un mecenas (el conde Keyserling) a combatir el insomnio, o para
facilitar la práctica de su clavicordista de elección (Johann Gottlieb
Goldberg)? Para acabar, nos gustaría mencionar que el tipo de
conocimiento que nos proporcionan afirmaciones, artículos,
tratados, noticias, etc., es distinto y complementario del producido
por experiencias en las que a dichas representaciones
proposicionales las sustituyen obras artísticas. Como hemos visto,
en el caso de estas últimas, la experimentación de emociones y
sentimientos, o la mera experiencia estética, tienen un papel central.
Así pues debemos distinguir claramente el conocimiento
proposicional obtenido, por ejemplo, a partir de vehículos
proposicionales como los mencionados, del conocimiento vivencial
generado por las experiencias que vivimos, incluyendo las de
carácter artístico o estético. Y en el caso de experiencias estéticas
denotativas, hay que diferenciar entre la vivencia de la obra de arte
y la del suceso denotado por la misma. Así, por ejemplo, la lectura
de unas memorias de Auschwitz nos transporta metafóricamente al
lugar, despertando en nosotros sentimientos de empatía, de modo
análogo a lo que sucede con la escucha informada del primer
movimiento de Babi Yar.
Esperemos que estas distinciones triviales entre formas de
conocimiento y de vivencia permitan matizar afirmaciones, tan
populares contemporáneamente, como que el verdadero
conocimiento (así, de manera tan ambigua) sólo es vehiculable a
través del arte,15 especialmente a la luz de las meditaciones
darwinianas a las que alude la cita inicial, según las cuales podría
parecer que el acmé musical se sitúa en intérpretes como M ick
Jagger, Freddie M ercury o M ontserrat Caballé.16

› Conclusión

Es una hipótesis plausible que el fenómeno de la comunicación se


origina a nivel biológico para permitir a ciertos organismos la
transmisión de información acerca del entorno en que se mueven.
En este contexto, el modelo de transmisión de información se
adecua perfectamente al fenómeno.
A la par, aunque en mucha menor medida, se produce en el reino
animal, ligado generalmente a la selección sexual, el desarrollo de
lenguajes con una semántica asociada a la disponibilidad
reproductiva, los cuales pueden llegar a poseer una notable
complejidad sintáctica. Estamos pensando aquí en animales que
constituyen en sí mismos obras de arte (la cola del pavo real), o que
son capaces de producir objetos no alejados de las mismas (ciertas
aves, virtuosas de la arquitectura nupcial).
En el caso humano, las cosas se complican por diversos
motivos. Como mínimo, por dos. Por un lado surgen
representaciones de ficción, historias, relatos ilustrados,
ilustraciones, emblemas, monumentos, recordatorios,
construcciones funerarias, religiosas, etc., cuyo carácter
proposicional es, en muchos casos, cuestionable. Y finalmente
aparecen lenguajes carentes de todo aspecto proposicional (ciertas
manifestaciones artísticas, entre las que destacan diversas formas
musicales), para los cuales la función semántica se reduce al
aspecto connotativo. Nos vemos así arrastrados a la apreciación de
un doble aspecto semántico, innecesario en el caso de las
representaciones proposicionales biológicas básicas. Además de los
contenidos proposicionales, debemos postular un nivel de
significado relacionado con la connotación y los sentidos.17
Es la aparición de este doble aspecto semántico lo que motiva
con mayor fuerza la necesidad de revisión del modelo de
comunicación como transmisión de información. Cuando decimos,
por ejemplo, que la música comunica, por lo general nuestra
intención es decir que la música suscita en el receptor una
experiencia estética, pero no, ciertamente, que le informa de una
proposición determinada. Esto es análogo en los casos de otros
sistemas simbólicos, en los cuales la parte relevante no es la
proposicional, o ni siquiera existe.
La conclusión a la que llegamos tentativamente es que el modelo
de transmisión es bueno para ciertos aspectos básicos (y
generadores) del fenómeno de la comunicación, pero que debe ser
ampliado si pretendemos aplicarlo a situaciones comunicacionales
derivativas. Hemos apuntado, en parte, hacia dónde nos podría
llevar este tipo de conclusiones, y nos remitimos a Sánchez y
Campos (2009) para un esbozo más detallado.
En cuanto al uso de la etiqueta comunicación en el caso de la
música, nos hallamos ante dos alternativas. O bien descartamos su
uso, porque desde un punto de vista teórico queremos que la
comunicación se circunscriba exclusivamente a cierto tipo de
fenómenos: la que se produce entre humanos, a través del lenguaje,
para transmitir información, etc. En este caso, la música no podría
considerarse una forma de comunicación, y simplemente
tendríamos que concluir que el uso de esta palabra en el lenguaje
ordinario debería revisarse a este respecto.
La otra alternativa es aceptar que la música comunica y ofrecer
una explicación de en qué consiste esto, ampliando el modelo que
hemos escogido como básico. Ésta es la alternativa que hemos
adoptado en este capítulo, la cual, en primer lugar, no abandona la
intuición de que comunicar implica, de forma básica, la transmisión
de contenidos a través de representaciones, pero que reconoce que
esta idea puede ampliarse para abarcar fenómenos muy diversos,
como los de tipo comunitario o ritual, o las experiencias estéticas
que nos proporcionan los productos artísticos, las cuales juzgamos
ordinariamente como comunicacionales a pesar de su carencia de
contenidos proposicionales. Esta ampliación remite necesariamente
a la reflexión sobre características semánticas de tipo connotacional
o de sentido.

Bibliografía

ADORNO, Theodor Wiesengrund (2006). Escritos musicales I-III. Madrid, Akal.


C AMPOS, Manuel (2002). El fenómeno de la representación. Barcelona,
EDIUOC.
C AMPOS, Manuel / C IRERA, Ramón (2003). « Communication without Sense» .
Teorema, vol. XXII/1-2.
C AREY, James (1989). « A cultural approach to communication» . En: McQuail,
Dennis (ed.). McQuail’s Reader in Mass Communication Theory. Londres,
Sage Publications, pp. 37-45.
C RAIG, Robert (1999). « Communication theory as a field» . Communication
Theory, vol. 9, pp. 119-161.
DONSBACH, Wolfgang (2006). « The Identity of Communication Research» .
Journal of Communication, núm. 56, pp. 437-448.
DRETSKE, Fred (1981). Knowledge and the Flow of Information. Cambridge
(Mass), MIT Press. — (1988). Explaining Behaviour. Reasons in a World
of Causes. Cambridge (Mass), MIT Press.
DUTTON, Denis (2010). El instinto del arte. Barcelona, Paidós.
F REGE, Gottlob (1892). « On Sense and Reference» . En: Geach, Peter / Black,
Max, ed. (1960). Translations from the Philosophical Writings of Gottlob
Frege. Oxford, Basil Blackwell.
MILLIKAN, Ruth (1984). Language, thought and other biological categories.
Cambridge, MIT Press.
— (1989). « Biosemantics» , Journal of Philosophy, núm. 86, pp. 281-297.
— (2000). On Clear and Confused Ideas. Nueva York, Cambridge. University
Press.
P ERRY, J. (1990). « Self-Notions» . LOGOS: Philosophic Issues in Christian
Perspective, núm. 11, pp. 17-31.
P UTNAM, Hilary (1975). « The meaning of “ meaning”» . Mind, Language and
Reality. Philosophical Papers, vol. 2. Cambridge, Cambridge University
Press.
R ADFORD, Gary (2005). On the Philosophy of Communication. Belmont
(California), Thomson Wadsworth.
S ÁNCHEZ, Lydia / C AMPOS, Manuel (2009). « Content and Sense» .
Empedocles: European Journal for the Philosophy of Communication, 1,
núm. 1.
S HANNON, Claude / W EAVER, Warren (1949). The Mathematical Theory of
Communication. Urbana, University of Illinois Press.
S HEA, Nicholas (2004). On Millikan. Belmont (California), Thomson
Wadsworth.
W ITTGENSTEIN, Ludwig (1922). Tractatus Logico-Philosophicus. Londres,
Routledge & Kegan Paul.
— (1953). Philosophical Investigations. Nueva York, Macmillan.

1 Carey (1989).
2 Si bien es verdad que la teoría ritual acepta unos presupuestos metafísicos de
carácter idealista que consideramos inaceptables (véase Sánchez y Campos,
2009), su énfasis en el aspecto cohesivo, desde un punto de vista social, de la
comunicación parece imposible de soslayar.
3 Es decir, las ideas de que existe una realidad independiente del sujeto,
ordenada y cognoscible, al menos en parte, y de que los fenómenos
antropológicos, como la comunicación, son naturales.
4 En cualquiera de los ejemplos citados, parece ser necesaria la utilización de
un enunciado completo o de su equivalente, que exprese un contenido, una
proposición. Sin embargo, con ello no queremos decir que no existan otros
usos del lenguaje humano en los que ni siquiera esta exigencia de completud
rija. Estamos pensando, en particular, en los usos literarios y artísticos,
particularmente poéticos.
5 Una obra literaria nos puede ilustrar, naturalmente, acerca de características de
la naturaleza humana, por ejemplo, pero lo hace retratando esta misma « en
acción» , aunque ésta sea ficticia. No lo hace de manera explícita, como sí lo
haría un tratado de psicología al describir su estructura.
6 Como se verá, más adelante deberemos precisar esta afirmación.
7 Véase, por ejemplo, Sánchez y Campos (2009) para una propuesta sobre
contenidos dentro de una perspectiva realista.
8 En realidad, los vehículos de comunicación son siempre hechos.
9 Véase también Shea (2004) y Campos (2002); en una línea parecida se
mueve Fred Dretske (1987). Tanto este autor como Millikan se inspiran en
una semántica tractariana (Wittgenstein, 1922).
10 Tanto Millikan como nosotros adoptamos una actitud realista. No vamos a
dedicar espacio, en este artículo, a su justificación. A este respecto, véase
Sánchez y Campos (2009).
11 Las representaciones verdaderas determinan una condición sobre la realidad
que es satisfecha por la misma, mientras que las representaciones falsas
expresan una condición que no es satisfecha por el mundo.
12 Naturalmente, más allá de la naturaleza, al menos los seres humanos somos
capaces de diseñar sistemas representacionales: por poner ejemplos triviales,
de los relojes a los ordenadores.
13 El propio significado de la palabra caballo se aleja enormemente de la
definición del DRAE, como muestra una breve reflexión sobre el tema
(¿cuántos usuarios competentes de la palabra saben que los caballos son
Perisodáctilos?). Para la semántica de este tipo de palabras de susstancia, la
referencia clásica contemporánea es Putnam (1975).
14 Hasta tal punto de que incluso algunos autores de una cierta tradición de
pensamiento moral, entre los que destaca Hume, han juzgado que los
sentimientos son la base de la conducta ética.
15 Naturalmente, respecto a este tema es inevitable pensar en las reflexiones del
filósofo Theodor W. Adorno (2006).
16
Los « gritos de rivalidad y apareamiento» a los que alude Dutton son, claro
está, posibles ejemplos de representaciones proposicionales indicativas y
conativas. Dejamos a la imaginación del lector aplicado la especulación
acerca de sus contenidos. El desarrollo de la música nos habría llevado
entonces, si Darwin tenía razón, de los aullidos simiescos de contenido
proposicional procaz a las formas más sublimes de virtuosismo artístico.
17 Hemos hablado del caso humano, pero parece obvia la necesidad de
investigar la existencia de elementos simbólicos de cohesión social en los
primates. Los « gritos de rivalidad y apareamiento» a los que alude Dutton
podrían constituir también ejemplos de los mismos.
/ La física del sonido

Aikaterini Konstantinidou, Universidad de Barcelona

› Ondas y propiedades del sonido

›› Introducción

Las ondas marinas viajan miles de millas a través del océano, pero
las partículas de agua no llevan a cabo ese viaje. Cuando le gritas a
un amigo, la onda de sonido atraviesa la sala, pero las moléculas de
aire no recorren esa distancia. Estamos familiarizados con el hecho
de que la energía y el ímpetu se transporten de un lugar a otro en
virtud del movimiento de las partículas; el movimiento ondulatorio
proporciona una manera alternativa de que ambos se muevan de un
lugar a otro sin que las partículas materiales hagan ese viaje.
Las ondas de agua y las sonoras son ejemplos de ondas
mecánicas que viajan a través de un medio, se desplazan de su
posición normal y quedan liberadas. Debido a las propiedades
elásticas del medio, la perturbación se propaga a través de éste. A
nivel microscópico, las propiedades mecánicas, como las fuerzas
entre los átomos, son las causantes de la propagación de las ondas
mecánicas.
Para ilustrar algunas propiedades generales de las ondas
mecánicas, que implican la oscilación de una cuerda estirada como
las que se utilizan en una guitarra, cuando una onda alcanza a una
partícula situada en el medio pone a ésta en movimiento y la
desplaza, transfiriéndole así energía tanto cinética como potencial.
M ediante el movimiento ondulatorio, puede transmitirse a grandes
distancias no solamente energía, sino además información sobre la
naturaleza de la fuente de ondas. Podemos decir que las partículas
del medio recorren, al pasar la onda, únicamente distancias
pequeñas con respecto a sus posiciones previas, sin experimentar
un desplazamiento neto en la dirección del viaje de la onda. Por
ejemplo, los pequeños objetos flotantes, como una hoja o un
corcho, muestran que el movimiento real del agua al paso de la onda
es más bien hacia arriba y hacia abajo, y quizás ligeramente en
vaivén. Una vez que la onda ha pasado de largo, el objeto está más
o menos en el mismo lugar que antes.

›› Oscilaciones

Un cuerpo oscila cuando va de un lado a otro, como un ventilador o


un péndulo. Una oscilación puede ser libre, como cuando dejamos
un péndulo suelto, o forzada, por ejemplo si tomamos el péndulo
con la mano y lo movemos de un lado a otro. En las oscilaciones
libres por lo general no podemos elegir el tipo de movimiento del
cuerpo que oscila, mientras que en las forzadas podemos
determinarlo hasta cierto punto.

›› Vibraciones

Una vibración no es más que una oscilación rápida. Tomemos un


cuerpo flexible como una regla de plástico y sujetémosla contra el
tablero de una mesa; si golpeamos el extremo libre de la regla, ésta
comenzará a vibrar. si lo observamos a cámara lenta, veremos que
se trata de una oscilación, sin ninguna diferencia más que la rapidez.
Un cuerpo oscilante tiene un punto de equilibrio o reposo: aquel en
que el cuerpo permanece quieto si se lo deja suelto. Llamaremos en
adelante punto cero a este lugar de equilibrio; en el caso del
péndulo, se encuentra en la mitad del recorrido y su posición es
perfectamente vertical.

›› Elongación

Cuando un cuerpo oscila o vibra, en todo momento hay una cierta


distancia hasta el punto cero; naturalmente, si el cuerpo se
encuentra ahí, esta distancia es cero. Conforme el cuerpo se aleja
del punto cero hacia un lado (por ejemplo, hacia la derecha), esta
distancia es positiva; si lo hace en dirección al lado contrario, la
distancia es negativa. A esta distancia, positiva o negativa, entre el
cuerpo y el punto cero la llamaremos elongación.
Figura 1

›› Amplitud

La amplitud es la máxima elongación, es decir: la mayor distancia al


punto cero que el cuerpo alcanza cuando oscila (fig. 1); aunque a
veces llamamos así a la distancia entre los dos puntos de máxima
elongación, el positivo y el negativo. Esta distancia sería,
lógicamente, el doble de la anterior. Esto no supone ningún
problema para nosotros, pues al ser una el doble de la otra, son
proporcionales y nos podemos referir indistintamente a cualquiera
de los dos conceptos con el nombre de amplitud.

›› Frecuencia

Las oscilaciones se repiten cíclicamente, lo que significa que, en su


movimiento, todo se vuelve a repetir exactamente igual (o casi)
llegado un cierto momento. En general tenemos cuatro fases:

1. El cuerpo se encuentra en un extremo de máxima elongación y


se dirige al punto cero.
2. El cuerpo está en el punto cero y sigue en la misma dirección
hacia el punto opuesto de máxima elongación.
3. El cuerpo llega a este extremo opuesto, se detiene e inicia su
camino de retorno.
4. El cuerpo pasa por segunda vez por el punto de equilibrio,
camino del punto de partida, donde se detendrá
momentáneamente.

A partir de este momento decimos que se ha completado un


ciclo y observaremos cómo se repite una y otra vez. Si, en un lapso
fijo de tiempo (un segundo, por ejemplo), contamos el número de
ciclos completos que el cuerpo describe, tendremos una medida de
su frecuencia vibratoria en ciclos por segundo. La unidad que
usamos para expresar frecuencias es el hertzio o hercio (Hz); una
frecuencia de 1 Hz equivale a un ciclo por segundo. El sonido es
producido por vibraciones y su altura depende de la frecuencia de
éstas.

› Concepto de onda

¿Qué es una onda? A veces puede ser más fácil describir qué no es
una onda.
Una corriente de agua, como un río, no es una onda, que se
parecería más a las olas del mar. Pensemos en un medio material,
formado por una infinidad de pequeñas partículas, como el agua;
resulta indiferente que este medio sea sólido, líquido o gaseoso.
Representemos las partículas de este medio mediante una fila de
cuatro monedas, colocadas sobre una mesa de forma que se toquen
las unas con las otras. Sujetemos tres monedas situadas
consecutivamente con sendos dedos de una mano, dejando libre la
cuarta. Si lanzamos otra moneda contra la primera de la fila, la que
estaba libre al otro extremo saldrá despedida. Las monedas que
teníamos firmemente sujetas no se han movido. Esto es un ejemplo
claro de onda; concretamente de una del tipo mecánico. Pondremos
otro ejemplo de onda mecánica: dos personas sostienen una cuerda
larga, sin que esté tensa; una de las dos da una sacudida rápida y se
verá claramente cómo ésta viaja por la cuerda hasta el otro extremo.

›› Ondas en un medio

Lo que distingue una onda de otros fenómenos naturales en que


existe un desplazamiento neto de la materia es que en ellas es la
energía del movimiento lo que se transmite de una partícula a otra,
no las partículas en sí. En un medio material cada partícula tiene un
lugar más o menos estable; si una empuja a su vecina, ésta a su vez
hará lo mismo con una tercera. Cuando la primera partícula vuelva a
su lugar, también lo hará la segunda, más tarde. El movimiento de
vaivén se transmite de una a otra. Las partículas no se desplazan
netamente, sino que es la perturbación momentánea de su estado de
reposo lo que se traslada. Una onda es un desplazamiento de
energía, no de materia. Cuando una piedra cae sobre la superficie
del agua, el estado de equilibrio se perturba; esta perturbación se
transmite en forma de circunferencias concéntricas, en todas
direcciones. Un objeto que flote en la superficie, como un corcho,
sube y baja al paso de la onda, pero no necesariamente se mueve
del sitio.

›› Otras ondas

No todas las ondas necesitan un medio para transmitirse; por


ejemplo, las de radio se transmiten a la perfección en el vacío
absoluto y el equilibrio perturbado es el de un campo
electromagnético. La luz que vemos se comporta en muchas
ocasiones como la onda que de hecho es, y también se transmite en
el vacío.

›› Ondas transversales y longitudinales

Las ondas son una perturbación periódica del medio en que se


mueven. En las ondas longitudinales, el medio se desplaza en la
dirección de propagación. Por ejemplo, el aire se comprime y
expande en la misma dirección en que avanza el sonido (fig. 2). En
las ondas transversales, el medio se desplaza en ángulo recto a la
dirección de propagación. Por ejemplo, las ondas en un estanque
avanzan horizontalmente, pero el agua se desplaza verticalmente.
Los terremotos generan ondas de los dos tipos, que avanzan a
distintas velocidades y con diferentes trayectorias. Estas
diferencias permiten determinar el epicentro del sismo. Las
partículas atómicas y la luz pueden describirse mediante ondas de
probabilidad, que en ciertos aspectos se comportan como las ondas
de un estanque.

Figura 2

› El sonido

El sonido puede ser visto como un movimiento ondulatorio en el


aire u otro medio elástico; en este caso, se trata de un estímulo. El
sonido también puede ser visto como una excitación del mecanismo
del oído humano que da lugar a su percepción; en este caso, es una
sensación. Hemos visto en el apartado anterior que el sonido es una
onda, concretamente una de carácter mecánico y, más
concretamente, longitudinal.
Cuando un cuerpo vibra en el aire, transmite su vibración a las
«partículas de aire» que lo circundan. Esto produce pequeñas
«olas» que se expanden en forma de esferas concéntricas en todas
direcciones; tarde o temprano, éstas alcanzan nuestro tímpano y se
inicia el mecanismo de la audición.
En ocasiones diremos que el sonido está formado por ondas de
presión, lo que significa que las partículas, cuando se juntan y se
separan sin alejarse nunca mucho de su posición fija, dan lugar a
capas de aire más «concentrado» o «enrarecido», respectivamente.
Insistimos en que estas capas (bastante estrechas) que alternan alta
y baja presión, tienen forma esférica y su radio crece conforme la
onda se transmite. La anchura de una onda de alta o baja presión es
justamente la mitad de la distancia que la separa de la siguiente; las
ondas se parecen a las crestas y los valles de las ondulaciones de la
superficie del agua. El punto cero a que nos referíamos en el primer
apartado corresponde a la presión atmosférica media reinante en la
zona. Los instantes de máxima o mínima presión corresponden a
los extremos de máxima y mínima elongación del cuerpo que vibra.
La distancia entre una cresta y la siguiente es la longitud de onda.
Según la forma de la onda, se producen diferentes sonidos: más
graves (ondas muy juntas entre sí), más graves (más separadas),
más fuertes o débiles (dependiendo de la intensidad).

›› La velocidad del sonido

Todas las ondas avanzan a una cierta velocidad: algunas son


extremadamente rápidas, como la luz. Otras son bastante lentas,
como una sacudida en la cuerda floja o las olas del mar. El sonido
tiene una velocidad en el aire de unos 340 metros por segundo;
comparada con la velocidad de la luz, es francamente lenta. El
sonido no sólo se transmite por el aire, sino también a través de los
sólidos y los líquidos.
Las ondas de sonido son longitudinales; es decir, se pueden
propagar por cualquier medio, ya sea sólido, ya sea fluido. En la
tabla 1 se pueden ver las diferentes velocidades de propagación del
sonido.

Velocidad del sonido en distintos medios (a 20º C)


M aterial Densidad (kg/m-3) Velocidad (m/s-1)
Aire 1,20 344
Agua 1.000 1.498
Vidrio 2.300 5.170
Aluminio 2.700 5.000
Hierro 7.900 5.120

Tabla 1

El sonido se transmite por las partículas que forman un medio; a


cada una de ellas se le da una energía que le hace vibrar; así
transmite su vibración a las partículas que le rodean y transfiere la
energía que le han proporcionado. Un claro ejemplo de esto se
puede ver en la superficie del agua: al tirar una piedra, las partículas
del agua oscilan y transmiten su movimiento a las contiguas
sucesivamente. Después de que haya pasado un tiempo desde el
impacto, las ondas se van atenuando hasta desaparecer.
Por ello, los diferentes sonidos dependen de los distintos
materiales por los que se muevan. No es lo mismo propagar el
sonido por el aire, donde las partículas están más sueltas y la
transmisión es más difícil, que hacerlo a través del hierro, el cual, al
ser un sólido, tiene las partículas muy unidas y permite una
transmisión rápida del sonido. Generalmente, el sonido se mueve a
mayor velocidad en líquidos y sólidos que en gases.
Cuanto más denso es el material, mayor tiende a ser la velocidad
del sonido en este medio. Así, en el acero puede llegar a los 5.000
metros por segundo. Una velocidad de 340 metros por segundo se
puede convertir de manera aproximada, sin cometer un error
excesivo, a la de 1 kilómetro cada 3 segundos. De esta forma es fácil
calcular la distancia aproximada de un rayo, simplemente
dividiendo por tres el tiempo en segundos que tarda el trueno en
llegar, y expresando el resultado en kilómetros.

›› La barrera del sonido

Si bien la velocidad de la luz es insuperable, la del sonido es


relativamente fácil de sobrepasar por parte de un vehículo
supersónico, por ejemplo, el avión Concorde. Las dificultades
estriban en la transición entre dos situaciones: la infrasónica y la
supersónica. Las ondas de presión, que como hemos visto se
expanden en forma de esferas concéntricas, forman una figura en
forma de cono cuando la fuente sonora se desplaza a velocidad
supersónica. En el momento del paso de la velocidad infrasónica a
la supersónica, las ondas se acumulan en la punta de la aeronave y
forman una auténtica barrera de altísima presión; cuando ésta toca
el suelo, todo aquel situado en la superficie percibe un gran
estruendo.

›› El tono o altura

Hemos adelantado ya que la frecuencia de un sonido determina su


altura. Es el momento de precisar algo más esta relación entre el
tono y la frecuencia.
La calidad de agudo o de grave de un sonido es lo que llamamos
altura o tono. Es una sensación que tendemos a unificar para cada
sonido: siempre que es posible, nuestro oído asigna a un sonido una
única altura. Los sonidos de frecuencia más alta se perciben como
más agudos; los de más baja, como más graves. ¿Existe alguna otra
relación entre las distintas alturas? Efectivamente, cada vez que la
frecuencia es doble, el tono que se percibe es una octava más agudo.
Hay que tener en cuenta que el concepto de octava no tiene
realmente nada que ver con el hecho de que las escalas más
comúnmente utilizadas en la música occidental consten de siete
notas. En música, una octava es el intervalo que separa dos sonidos
cuyas frecuencias fundamentales tienen una relación de dos a uno,
y esta denominación proviene exclusivamente de este hecho. Una
sucesión de tonos cuyas frecuencias sean el doble, nota a nota, de
otra sucesión, se percibe como una que tiene esencialmente las
mismas alturas, sólo que más agudas, y decimos que está una
octava por encima.

› Cualidades del sonido

›› Intensidad

La intensidad del sonido percibido, o la propiedad que hace que


éste se capte como fuerte o como débil, está relacionada con la de la
onda sonora correspondiente, también llamada intensidad acústica.
Se trata de una magnitud que nos da una idea de la cantidad de
energía que fluye por el medio como consecuencia de la
propagación de la onda.
Se define como la energía que atraviesa por segundo una unidad
de superficie dispuesta perpendicularmente a la dirección de
propagación. Equivale a una potencia por unidad de superficie y se
expresa en W/m2. La intensidad de una onda sonora es proporcional
al cuadrado de su frecuencia y al de su amplitud y disminuye con la
distancia del foco. La magnitud de la sensación sonora depende de
la intensidad acústica, pero también depende de la sensibilidad del
oído. El intervalo de intensidades acústicas que va desde el umbral
de audibilidad, o valor mínimo perceptible, hasta el umbral del
dolor es muy amplio, y ambos valores límite están en una relación
del orden de 1014.
Debido a la extensión de este intervalo de audibilidad, para
expresar intensidades sonoras se emplea una escala cuyas
divisiones son potencias de diez y cuya unidad de medida es el
decibelio (dB). Ello significa que una intensidad acústica de 10
decibelios corresponde a una energía diez veces mayor que una
intensidad de cero decibelios; una intensidad de 20 dB representa
una energía 100 veces mayor que la que corresponde a 0 decibelios
y así sucesivamente. Otro de los factores de los que depende la
intensidad del sonido percibido es la frecuencia: ello significa que
para una frecuencia dada un aumento de intensidad acústica
produce un incremento del nivel de sensación sonora, aunque
intensidades acústicas iguales a diferentes frecuencias pueden dar
lugar a sensaciones distintas.

›› El tono

El tono es la cualidad del sonido mediante la cual el oído le asigna


un lugar en la escala musical y que permite, por lo tanto, distinguir
entre los graves y los agudos. La magnitud física que está asociada
al tono es la frecuencia. Los sonidos percibidos como graves
corresponden a frecuencias bajas, mientras que los agudos se deben
a frecuencias altas. Así, el sonido más grave de una guitarra
corresponde a una frecuencia de 82,4 Hz y el más agudo a 698,5
Hz. Junto con la frecuencia, en la percepción sonora del tono
intervienen otros factores de carácter psicológico; por ejemplo, en
general, al elevar la intensidad aumenta el tono percibido para las
frecuencias altas y disminuye para las bajas. Entre las frecuencias
comprendidas entre 1.000 y 3.000 Hz el tono es relativamente
independiente de la intensidad.

›› El timbre

El timbre es la cualidad del sonido que permite distinguir sonidos


procedentes de diferentes instrumentos, aun cuando posean igual
tono e intensidad. Debido a esta misma cualidad es posible
reconocer a una persona por su voz, que resulta característica de
cada individuo. El timbre está relacionado con la complejidad de las
ondas sonoras que llegan al oído; pocas veces éstas corresponden a
sonidos puros, algo que sólo generan los diapasones, los cuales se
deben a una única frecuencia y se representan mediante una onda
armónica. Los instrumentos musicales, por el contrario, producen
un sonido más rico que procede de vibraciones complejas; cada una
de ellas puede considerarse compuesta por una serie de vibraciones
armónicas simples de una frecuencia y de una amplitud
determinadas que si se consideraran de forma separada, daría lugar a
un sonido puro. Esta mezcla de tonos parciales es característica de
cada instrumento y define su timbre. Debido a la analogía existente
entre el mundo de la luz y el del sonido, al timbre se le denomina
también color del tono. Las distintas formas de onda, que se
reflejan en diferentes timbres del sonido, tienen su origen en la
mezcla de armónicos, los cuales se deben a su vez a la vibración
fraccionada de los cuerpos.
›› Difracción

Las ondas son capaces de traspasar orificios y bordear obstáculos


interpuestos en su camino. Esta propiedad característica del
comportamiento ondulatorio puede explicarse como una
consecuencia del principio de Huygens y del fenómeno de
interferencias. Así, cuando una fuente de ondas alcanza una placa
con un orificio o rendija central, cada punto de la porción del frente
de ondas que limita la rendija se convierte en foco emisor de ondas
secundarias de idéntica frecuencia. Los focos secundarios que
corresponden a los extremos de la abertura generan ondas que son
las responsables de que el haz se abra tras la rendija y bordee sus
esquinas. En los puntos intermedios se producen superposiciones
de las ondas secundarias que dan lugar a zonas de intensidad
máxima y mínima típicas de los fenómenos de interferencias.

›› Reflexión y refracción del sonido

La reflexión es un cambio que se produce en la dirección de


propagación de una onda dentro de un medio. Ocurre cuando la
onda choca contra la superficie de otro medio, se refleja y cambia
su dirección, pero no su forma. La refracción es la consecuencia de
que una onda que se propaga por un medio pase a otro en el que su
velocidad de propagación es diferente; su dirección también cambia
y se produce, además, una pérdida de energía en este proceso.
Ahora que ya sabemos ligeramente en qué consisten estas
propiedades, veamos algunos de los efectos asociados a ellas, entre
los que se encuentran el eco, los radares y las ecografías.

• Eco: a todos nos han engañado alguna vez diciéndonos que el


eco era una persona que repetía lo que tú decías. En verdad, un
eco es una onda sonora reflejada, cuyo intervalo entre la
emisión y la repetición del sonido corresponde al tiempo que
tardan las ondas en llegar al obstáculo y volver. Normalmente,
el eco es más débil que el sonido original porque no todas las
ondas se reflejan; algunas de ellas se desvanecen y, por lo
tanto, pierden energía.
Generalmente, los ecos escuchados en las montañas se
producen cuando las ondas sonoras rebotan en grandes
superficies alejadas más de 30 m de la fuente. Si golpeamos
levemente un tubo metálico pegado al oído también podemos
escuchar ecos.
• Radar: es un sistema electrónico que permite detectar objetos
fuera del alcance de la vista y determinar la distancia a la que
se encuentran proyectando sobre ellos ondas de radio. No sólo
indican la presencia y la distancia de un objeto remoto, sino
que también fijan su posición en el espacio, su tamaño y su
forma, así como su velocidad y la dirección de
desplazamiento.
Todos los sistemas de radar utilizan un transmisor de radio
de alta frecuencia que emite un haz de radiación
electromagnética, con una radiación de longitud de onda
comprendida entre algunos centímetros y cerca de 1 m. Los
objetos que se hallan en la trayectoria del haz reflejan las
ondas de nuevo hacia el transmisor, que las detecta y
representa los datos que ha recibido en una pantalla. El radar
se fundamenta en las leyes de la reflexión de las ondas de
radio.
Similar al radar pero de uso diferente es el sonar. Este
sistema se utiliza bajo el agua, es decir, en submarinos o
buques de guerra. El sonar emite pulsos de ultrasonido
mediante un dispositivo transmisor sumergido. Luego, a través
de un micrófono sensible, capta los pulsos reflejados por
posibles obstáculos o submarinos que se hayan topado con
ellos. Con el sonar sólo podemos saber la distancia a la que se
encuentra el objeto, pero no su profundidad.
• Ecografías: todos hemos visto alguna vez una ecografía, pero
en lo que no habremos caído casi nunca es en que se deben al
sonido. Sabemos que se utilizan en las embarazadas para
seguir un desarrollo detallado del feto sin ningún tipo de
riesgo. Es una técnica en la que un sonido de frecuencia muy
alta se dirige hacia el organismo, donde se refleja y el sonido
resultante se digitaliza para producir una imagen móvil en una
pantalla o una fotografía. Esta técnica no se puede utilizar
para observar los huesos o los pulmones, ya que el aire y los
huesos absorben prácticamente todo el haz de ultrasonidos
emitidos.

› Vibración fraccionada de los cuerpos


›› La serie armónica

Cuando un cuerpo vibra, lo puede hacer en toda su longitud o por


fracciones. Cuando los cuerpos vibrantes, como las cuerdas y los
tubos sonoros, vibran por fracciones, éstas son iguales entre sí: por
mitades, tercios, etcétera. Para ser exactos, los cuerpos suelen
vibrar a la vez en toda su longitud y también por mitades, tercios y
las subsiguientes subdivisiones. Esto produce un movimiento
generalmente muy complejo, salvo excepciones, ya que mezclan
varios modos vibratorios. Cuando una cuerda (o un tubo) vibra en
toda su longitud, este modo es el que tiene la frecuencia más baja, o
sea, el tono más grave; lo llamaremos a este modo 1. Cuando vibra
por mitades, su frecuencia es el doble y su sonido es una octava
más aguda que el modo 1; éste se denomina modo 2. Cuando vibra
por tercios, la frecuencia es el triple a la del modo 1, y su altura
está una quinta por encima de la del modo 2 (una octava más una
quinta por encima del modo 1); es el modo 3.
Si la relación o proporción entre las frecuencias de los modos 2
y 1 es de 2 a 1, y la del modo 3 con el 1 está en una proporción de
3 a 1, entonces los modos 3 y 2 se encuentran en una proporción
de frecuencias de 3 a 2.
El modo 4 tiene una frecuencia cuádruple de la del modo 1, y se
encuentra en proporción de 2 a 1 respecto al modo 2. Cada vez que
la proporción es doble, como en este caso, la altura es una octava
más aguda. Por ello tenemos un sonido que es dos octavas más
agudo que el sonido 1, y una cuarta por encima del sonido 3.
De esta forma vamos construyendo una sucesión de sonidos que
recibe el nombre de serie armónica. Hay que reparar en unos
puntos importantes acerca de esta serie: cada sonido de ella
corresponde a un modo de vibración de un cuerpo sencillo como
una cuerda o un tubo. Los intervalos que forman los sonidos de la
serie armónica son iguales, sea cual sea el sonido número 1, el cual
corresponde al tono que oímos. Los demás sonidos estarán por
encima de éste, guardando las mismas relaciones interválicas.

›› M ezcla de armónicos

Es muy importante advertir lo siguiente: la vibración de los cuerpos


es compleja y se compone de una combinación o mezcla de otros
modos de vibrar más sencillos. Puesto que a cada uno de éstos le
corresponde un sonido de la serie armónica, estos sonidos están
presentes a la vez en un timbre concreto; si no oímos normalmente
cada armónico en particular es porque en nuestro oído los
«fundimos» en uno solo, cuya altura es la del sonido número 1 de la
serie. De todas formas, con un poco de concentración es posible
distinguir, por ejemplo, los primeros armónicos de una nota grave
del piano tocada con fuerza. De hecho, si recorremos la serie
ascendentemente y vamos tocando suavemente los distintos
sonidos, tendremos la sensación de que de alguna manera aquéllos
ya estaban sonando antes de tocarlos; ahora podemos decir
tranquilamente que, efectivamente, estaban sonando. Otro punto
fundamental para comprender el fundamento del timbre es que los
armónicos, su cantidad y su intensidad relativa, son los
responsables de las diferencias entre unos timbres y otros. Para un
timbre dado, los armónicos son sonidos con unas alturas fijas pero
unas intensidades que dependen del tipo de timbre. Un timbre de
flauta tiene un primer armónico fuerte; el segundo es mucho más
débil y los restantes casi no existen. Un timbre de clarinete tiene
principalmente armónicos impares. Un timbre de violín tiene
armónicos pares e impares. Además, el timbre depende de la forma
de la onda: podemos ver ahora cómo los tres conceptos están
íntimamente relacionados: timbre, forma de onda y armónicos.

›› Formas de onda

La forma de onda es el resultado directo de los armónicos presentes


en un sonido y, a su vez, esto determina el timbre que percibimos.
Los timbres más «claros», brillantes o incluso chillones o
estridentes, tienen una gran cantidad de armónicos agudos; dicho de
otra forma, los armónicos que corresponden a números de orden
elevado en la serie tienen una intensidad relativamente alta. Por otro
lado, los sonidos con «cuerpo», apagados, dulces o de color
«oscuro», son pobres en armónicos agudos.
A la vista de una determinada forma de onda, la presencia de
ángulos, esquinas y segmentos más o menos rectilíneos es un
síntoma de abundancia en armónicos agudos; en cambio, las formas
de onda más suaves o redondeadas son más pobres en armónicos
agudos.

›› La onda senoidal. El sonido del diapasón


De todas las formas de onda, unas más «puntiagudas» y otras de
curvas más suaves, la que con mayor propiedad pertenece al
segundo grupo es la onda senoidal, la cual posee muchos
significados físicos y tiene importancia por su carácter de onda
pura. Los tonos senoidales son extremadamente insípidos al oído.
Al golpear un diapasón de horquilla, se produce un sonido con
forma de onda senoidal, aunque no en el momento mismo del
impacto, sino cuando han transcurrido unos segundos. Los sonidos
agudos de la flauta también son aproximadamente senoidales. El
análisis de los armónicos presentes en un sonido con un
determinado timbre se realiza mediante el análisis de Fourier. El
teorema de Fourier viene a decir que cualquier forma de onda, a
condición de que sea periódica (es decir, que se repita siempre
igual) se puede descomponer en una serie más o menos larga de
ondas puras (senoidales) llamadas armónicos. La combinación o
mezcla de éstos produce de nuevo el sonido original, y sus
frecuencias son múltiplos enteros de la del sonido fundamental. Por
supuesto, según esta lógica, los armónicos no pueden
descomponerse en otros sonidos distintos, ya que son puros. Un
timbre puro (una onda senoidal) consta de un solo sonido, igual a sí
mismo, mientras que uno complejo (una forma de onda periódica
distinta a la senoidal) consta de una serie de ondas senoidales
mezcladas, sumadas o combinadas entre sí. Todos estos sonidos
nos llegan fundidos en uno solo de forma que normalmente no
podemos distinguir unos de otros. Se puede decir que nuestro oído
es una especie de analizador de Fourier.
¿Qué ocurre si la onda no es periódica? En este caso tenemos
una representación en forma de un mapa de frecuencias que no está
formado por líneas situadas a distancias fijas, sino con algunos
sonidos entre ellas. Nuestro oído percibe estos sonidos como
ruidos.

Bibliografía

EVEREST, Alton (2009). Master Handbook of Acoustics. Nueva York, McGraw-


Hill/TAB Electronics.
HALLIDAY, David / R ESNICK, Robert / W ALKER, Jearl (2010). Fundamentals
of Physics. Nueva York, John Wiley & Sons.
/ Fundamentos psicológicos y
emocionales del sonido en los
audiovisuales

Caterina Calderón Garrido, Universidad de Barcelona


Josep Gustems Carnicer, Universidad de Barcelona

› Elementos psicobiológicos de la música y del sonido

Hablar hoy de música y emoción es algo que no sorprende a nadie.


Existe una amplia literatura dedicada a estudiar los efectos
psicológicos del sonido y la música en los seres humanos: la
musicoterapia y la psicología musical son un claro exponente de
este interés creciente en nuestro siglo. El estudio de la emoción
musical vive actualmente un renacimiento, aunque la literatura
sobre el tema presente un perfil confuso y, con frecuencia, poco
científico. El área epistemológica se encuentra aún en proceso de
delimitación y necesitamos más precisión respecto al estudio de
música y emoción.
A pesar de ello, todo el mundo coincide en señalar que el sonido
nos afecta. Las relaciones entre música y comportamiento forman
parte de la historia de la humanidad y han sido recogidas por
numerosos escritos y autores a lo largo de los tiempos. La tradición
primordial es el primer fundamento de dichas relaciones. Por citar
algunos ejemplos debemos referirnos a Platón y sus propuestas
políticoeducativas recogidas en La República sobre el ethos
(proporción, armonía) y el pathos (sentimiento, empatía) de las
diferentes músicas de su tiempo y sus efectos sobre la población.
De la Grecia clásica nos ha llegado también el mito de Orfeo, el
relato de Ulises y las sirenas, y la consideración de las musas como
inductoras de estados anímicos especiales. El poder de la música
atribuido a la musa Euterpe sería tal que la palabra música acabó
designando el nombre colectivo de las musas (Mousiké).
En las culturas tradicionales se vinculan estados de ánimo,
momentos del día, del año, etc., con determinadas características de
la música apropiada a ellas; tal sería el caso de los talas y los ragas
hindúes y de los maqâms árabes. Toda la tradición mitológica,
chamánica, mágica y cuentística avala el carácter misterioso de la
experiencia musical. Las religiones aprovechan el poder de esta
musa que es capaz de amansar las fieras, encantar a unos niños,
crear el mundo con una palabra o doblegar la voluntad más
poderosa con una canción.
En tiempos más recientes, las ciencias biológicas, médicas y
psicológicas han investigado las bases que sustentan la relación
entre el sonido y los estados de ánimo y las conductas. Es un
campo de estudio de amplio calado, pues abarca la anatomía, la
fisiología, el aprendizaje, la motivación, la cultura y el arte, por lo
cual la mejor manera de abordar dicho estudio es mediante grupos
multidisciplinares cuyo objetivo sea un trabajo conjunto de carácter
interdisciplinar. Estamos en condiciones de afirmar que el oído es el
primer órgano sensorial del feto, que se forma hacia la mitad del
embarazo y es el primer contacto con el mundo exterior que recibe
el ser humano. El oído está conectado con áreas del cerebro muy
diversas relacionadas con la activación, la emoción, el lenguaje, la
orientación espacial, etc. por lo que nacer con un oído en buenas
condiciones facilitará el desarrollo normal y óptimo de la persona.
Diversos estudios han demostrado que la intensidad del sonido y la
velocidad o tempo son los principales agentes de los cambios de
conducta; así pues, un ambiente silencioso o de baja intensidad
promueve el descanso y la baja activación neuronal, mientras que el
ruido intenso molesta y fuerza cambios en nuestra orientación
conductual. Actualmente, se admite que existe una corteza auditiva
de procesamiento «grosero» del estímulo auditivo, encargada de
categorizar éste, y otra más especializada, responsable de integrar
la sensación auditiva con conceptos e ideas guardadas en la
memoria, lo que permite, por comparación con experiencias
previas, la interpretación de estas sensaciones dentro de cánones
estéticos, culturales o personales. Esta percepción categórica en el
sistema auditivo permite reconocer variaciones de una misma
fuente, agrupándolas en unidades mayores: por ejemplo, las sílabas
o las notas musicales. Así pues, la modalidad sensorial auditiva
incluye dos procesos cognitivos funcionalmente diferentes: los
lingüísticos y los propiamente musicales. Existe, de hecho, una
estrecha relación entre música y lenguaje en el nivel perceptivo, de
forma que ambos sistemas pueden ser considerados como sistemas
formales capaces de transmitir una información concreta, además de
valores culturales, sociales, emocionales o intelectuales.
En diferentes estudios en los que se han empleado técnicas de
imaginación cerebral, se ha podido demostrar que los músicos
establecen una percepción categórica para los tonos similar a la
establecida para las consonantes en el lenguaje. Para ello, la
información musical se lateraliza de forma diferente en los músicos
profesionales que en quienes sólo tienen una experiencia musical
meramente recreativa. En el primer grupo se interpreta la
información musical en el hemisferio izquierdo y se establece un
nivel profundo de análisis, mientras que en el segundo se dirige
hacia el hemisferio derecho, donde únicamente se capta el contorno
melódico, sin penetrar en un nivel analítico profundo. Así,
podemos afirmar que la integración y la reelaboración de la
información sonora depende de una habilidad tonal innata y de las
experiencias previas de cada individuo.
Respecto al oído absoluto, actualmente sabemos que quienes lo
poseen presentan una asimetría en una de las regiones cerebrales
más relacionadas con el lenguaje, el llamado planum temporale.
M uchos aspectos del procesamiento melódico dependen de la
integración de la corteza temporal superior y la frontal y, más
específicamente, de las regiones de la corteza auditiva situadas en el
giro temporal superior derecho, que se encuentran implicadas en el
análisis del tono y del timbre. De igual forma, la memoria de trabajo
para los tonos musicales depende de la interacción entre la corteza
temporal y la frontal. Al contrario que el oído absoluto, la habilidad
armónica y el sentido del centro tonal, van aumentando con la edad
y son fenómenos básicamente culturales, de forma que las
preferencias por la consonancia o la disonancia no son en absoluto
transculturales.
Otro elemento que condiciona de forma importante el tipo de
habilidad musical es la memoria tonal o memoria para
configuraciones secuenciales de tonos. Ésta aumenta con la edad,
pero no así con el grado de experiencia musical, si bien esta
habilidad desaparece más fácilmente en individuos con una
formación musical escasa. M ás aún, unos niveles elevados de
experiencia musical en personas de edad avanzada atenúan el efecto
negativo de la edad sobre la pérdida de memoria y la velocidad de
percepción.
Una forma de objetivar estas respuestas es a través de la
medición de las emociones negativas generadas por las disonancias
o la desafinación, que parecen ser relativamente consistentes y
estables, y no están influidas por las preferencias musicales
(M eyer, 2001).
Para Hargreaves (1998), el impacto de la experiencia musical
sobre la esfera emocional es especialmente importante en
determinados colectivos, como en el caso de los adolescentes, en
los que tiene una función integradora, pues les permite formar su
imagen del mundo exterior y satisfacer sus necesidades
emocionales.
A nivel macroestructural, el cerebro se divide en dos mitades
aparentemente iguales, los hemisferios cerebrales. La mitad
izquierda recibe información y controla los movimientos de la parte
derecha de nuestro cuerpo, de manera que las dos mitades del
cerebro y las de nuestro cuerpo están «cruzadas». Aparentemente,
cada uno de los hemisferios cumple una función biológica distinta:
así, el hemisferio izquierdo está implicado en la regulación precisa
de las acciones motrices y en el establecimiento de un orden serial
de secuencias repetitivas. Desde el punto de vista perceptivo, el
hemisferio izquierdo participa en el análisis temporal de secuencias
auditivas no-verbales y desde hace tiempo es bien conocida su
implicación fundamental en el procesamiento, comprensión y
producción del lenguaje.
Por el contrario, el hemisferio derecho controla la prosodia del
lenguaje y la entonación en el canto. Así, las lesiones en el
hemisferio derecho no bloquean el lenguaje, pero generan la
producción de un habla monótona, sin inflexiones. Contrariamente,
las lesiones en las áreas del hemisferio izquierdo hacen que el
paciente no pueda hablar, aunque mantenga la capacidad de cantar
canciones con letra. Estudios de varios casos de lesiones cerebrales
han demostrado que el hemisferio derecho produce una
discapacidad específica para el reconocimiento de la información
musical. Por el contrario, las lesiones en el hemisferio izquierdo
producen alteraciones en tareas de memoria musical (Despins,
1994).
La complejidad del procesamiento cerebral que lleva a término
un músico implica una fenomenología biológica todavía no del todo
clara, más aún cuando se ha podido comprobar que las áreas
cerebrales activadas durante la audición musical son
sustancialmente diferentes en personas con o sin entrenamiento
musical. De entrada, se ha descrito una diferencia general entre
personas «musicales» y «no musicales», con lo que se sugiere que
existe un innatismo musical. Esto ha supuesto, en algunos casos,
una cierta discriminación de aquellas personas que carecen de una
habilidad musical innata (Blacking, 1994). Un estudio británico
sugería que más de tres cuartas partes de los profesores de música
consideraban que un niño no llegaría a ser un buen músico a menos
que poseyera este talento innato. En realidad no existen, por el
momento, evidencias científicas que apoyen la existencia de una
base genética clara para el talento musical.
No todo el mundo reacciona de igual forma ante la música, ni sus
beneficios son tan patentes. Los músicos profesionales, por
ejemplo, deberían ser los principales beneficiados y, en cambio,
presentan una esperanza de vida inferior en un 22% al resto de la
población (según un estudio de la International Society for M usic
Education —ISM E—). Por lo tanto, no todo son virtudes en el
mundo de la música; tendremos que ser muy prudentes en nuestras
aseveraciones.

› Evocar emociones de forma poderosa


La música es el medio de expresión de los estados anímicos.

DESCARTES

En general, y siguiendo a Bisquerra (2000), podemos afirmar que


una emoción es un estado de ánimo complejo del organismo,
caracterizado por una excitación o perturbación que predispone a
una respuesta organizada. Las emociones se generan como
respuesta a un acontecimiento externo o interno, como las
interrelaciones sociales, los pensamientos o las sensaciones
propioceptivas. Una emoción tiene componentes de tres tipos de
respuesta: neurofisiológica, conductual y cognitivo-verbal, que, a su
vez, pueden presentarse en tres dimensiones: valencia (agradable-
desagradable), arousal (relajante-activante) y dominancia
(intensidad-suavidad).
El ámbito de las emociones ha sido un terreno ampliamente
debatido en la psicología. Quienes se han preocupado de explicar el
comportamiento de los seres humanos han buscado razones que
motiven la diversidad de conductas del ser humano, vinculándolas
con elementos naturales externos, familiares, genéticos y
ambientales, y en este sentido el entorno sonoro es uno de los
responsables de nuestras conductas. La utilización de determinados
tipos de música en ceremonias, actos, rituales, etc. demuestra el
interés por ajustar y coincidir nuestra intención con el ambiente
propicio y necesario para la comprensión efectiva de un acto. En
este sentido, la música en los audiovisuales, y particularmente en el
cine, adopta un rol fundamental en el establecimiento de estados
emocionales en el público, ya sean coincidentes o divergentes con la
narración y las imágenes. Los compositores de música de películas
deben seguir indicaciones emocionales precisas según las
intenciones comunicativas del film en que están trabajando.
La psicología básica, que se ocupa entre otros temas del
lenguaje, ha sido uno de los campos de reflexión en torno a la
definición y ubicación de la música y del sonido, dentro de un
terreno más amplio que la comunicación verbal. Así pues,
Rousseau (siglo XVIII) vinculó e igualó la música al lenguaje.
Posteriormente Spencer, en el siglo XIX, propuso que la música
fuese un tipo especial dentro de los lenguajes, a saber, uno de ellos;
así, todos los componentes de ésta pertenecerían al lenguaje.
Darwin, por su parte, pensó todo lo contrario, es decir, que todos
los lenguajes serían un subtipo de música, la cual les precedería y
sería su sustrato natural. Hoy día, M ithen et al. proponen un
acuerdo entre ambas teorías al sostener que existen elementos del
lenguaje fuera de la música y elementos de la música fuera del
lenguaje; aunque ambos compartirían elementos comunes o vías
relacionadas con las tareas de organización temporal, denominadas
SSIRH (del inglés Shared Syntactic Integration Resource
Hypothesis). Al tratar el tema del significado de la música,
debemos tener en cuenta la paradoja de, por un lado, la presencia
inevitable de la evocación que suscita el sonido y, por el otro, la
imposibilidad de verbalizarla de manera unívoca. La raíz de muchos
errores está, en el fondo, en creer que el lenguaje constituye el
modelo de todos los fenómenos simbólicos. El estudio de la música
aporta una corrección y una contribución esenciales al
conocimiento del mundo simbólico.
La traducción de una emoción abstracta en una sensación
corporal se lleva a cabo en nuestro cuerpo, y en este proceso
intervienen las hormonas y los neurotransmisores que
proporcionan señales al cerebro para que nuestro cuerpo reaccione
a determinados estímulos. Los avances en las neurociencias son
fundamentales para entender el papel de los estímulos en las
emociones y sus procesos internos. Se ha comprobado que la
percepción de estímulos musicales placenteros o desagradables
produce cambios en la presencia de algunas hormonas responsables
de los sistemas de neurotransmisión cerebral: la audición de sonidos
agradables produce un incremento de cortisol (la hormona contra el
estrés), mientras que los de carácter desagradable producirían
aumentos en los niveles cerebrales de serotonina, una
neurohormona relacionada con fenómenos como la depresión o la
agresividad.
De modo general, podemos afirmar que existe una memoria de
las emociones debida al aprendizaje y una percepción de distintas
intensidades en éstas. Otro dato importante es el conocimiento de
que las emociones negativas o el malestar tienden a perdurar unas
cinco veces más que las positivas o el bienestar (lo que se conoce
como Ley de la simetría hedónica, de Frijda), por lo que el ser
humano debe perseguir su equilibrio emocional a través de más
estímulos positivos que negativos. Esta afirmación puede aplicarse
también a la música para películas y sus características.
Las emociones (del latín movere, «mover») son reacciones a las
informaciones que recibimos de nuestro entorno. Su intensidad está
en función de la evaluación subjetiva que realizamos sobre cómo la
información recibida puede afectar a nuestro bienestar. En esta
evaluación intervienen conocimientos previos, creencias, objetivos
personales, percepción del ambiente provocativo, etc.
La función de las emociones es motivar la conducta y, según
Darwin, tendrían un carácter adaptativo, por lo tanto, pragmático.
Las emociones pueden afectar a la percepción, a la atención, a la
memoria, al razonamiento o a la creatividad. En resumen, éstas
poseen una función motivadora, adaptativa, informativa y social, y
ejercen una importante contribución al desarrollo personal del
individuo.
La experimentación de las emociones es siempre anterior a la
capacidad para expresarlas: los niños saben discriminarlas antes de
ser capaces de denominarlas. De todas formas, debemos pensar que
una misma música no necesariamente conseguirá en todos sus
oyentes los mismos efectos, pues esto dependerá de las
características de cada receptor, y de las particulares metáforas
personales y sociales vinculadas al hecho sonoro. El poder de la
música recae, entre otras cosas, en la experiencia hedonista que
provoca, pues es básicamente placentera y actúa de forma holística
en todo el organismo estimulándolo, relajándolo e inspirando la
imaginación mediante sensaciones intensas... Cualquier emoción
provocada mediante la escucha musical es similar a las conseguidas
por medios no musicales. Aunque es innegable que la música es
altamente significativa para nosotros, resulta mucho más dudoso
que signifique algo, en el sentido de que represente o se refiera a
algo externo a sí misma. Las diferentes posturas teóricas van desde
aquellos que niegan una dimensión semántica a la música, que sería
entonces un arte de naturaleza abstracta, pasando por quienes
defienden que la música ejemplifica relaciones entre sonidos,
estructuras más o menos abstractas, hasta los que argumentan que
la música representa emociones o, quizá la más extendida, que las
expresa. El carácter expresivo de la experiencia musical, su
capacidad para emocionarnos, es una intuición extendida, pero la
manera de expresión o el tipo de emociones que provoca ya no
recibe una respuesta unitaria.

› ¿Una música para cada emoción?

Desde la antigüedad, la humanidad ha tratado de clasificar los


estados de ánimo y las emociones mediante calificativos de uso
común. Descartes, por ejemplo, categorizó las somatizaciones de
los seis principales estados de ánimo siguiendo la teoría griega de
los cuatro temperamentos psicológicos. Algunos de los términos
utilizados para calificar las emociones pasaron en los siglos XVII y
XVIII al lenguaje musical a través de la teoría de los afectos y aún
hoy perduran en nuestras partituras: nos referimos a palabras tan
conocidas como allegro o adagio que provienen claramente de una
denominación emotiva, aunque en la actualidad se hayan
transformado en indicadores de velocidad o tempo. En el mismo
sentido, compositores y teóricos de la música como M attheson
otorgaron en pleno siglo XVIII a determinados instrumentos y a
sus timbres una relación directa con los estados de ánimo o el color
emotivo que querían despertar. Kant, años más tarde, atribuiría
también a la música una capacidad emocional pasajera, aunque de
mayor intimidad que otras artes como la poesía, más reflexivas.
Posteriormente, la psicología ha propuesto diferenciar entre las
sensaciones emocionales según sean más o menos permanentes en
una persona. Así, un estado emocional es una reacción positiva o
negativa provocada por un contexto específico; un rasgo emocional
es una característica de la persona, una tendencia a reaccionar de
una determinada forma que facilita la aparición de determinados
estados emocionales. Debido a que las emociones crean hábito,
experimentar con frecuencia las de carácter negativo puede
provocar que una persona tienda, por ejemplo, a la tristeza.
Los teóricos de las emociones, como Goleman (1995), suelen
distinguir seis o siete emociones básicas agrupadas en torno a dos
polos opuestos: bienestar y malestar. Así tendríamos la felicidad y
la alegría en el bienestar, la eutonía o estado neutro, y la tristeza, la
ira, el miedo y la vergüenza en la zona del malestar, aunque las
reacciones emocionales suelan contener elementos combinados de
ellas. La alegría suele expresar un estado de ánimo activo y, por lo
tanto, la persona alegre suele moverse y está lista para la acción. Lo
contrario sucede en la tristeza, donde la persona tiende al
recogimiento y la inacción, la lentitud y la calma. En la ira o la rabia,
por el contrario, la persona vuelve a mostrar una actitud activa,
aunque instalada en el malestar. En el extremo del malestar tenemos
el miedo y la vergüenza (que combinan el miedo y la rabia en una
actitud pasiva e impotente). Las sensaciones corporales vividas y
traducidas en esas emociones definirán los estados condicionados
en los distintos géneros audiovisuales.
De este modo, la publicidad audiovisual suele buscar el bienestar
de los consumidores mediante imágenes y sonidos placenteros.
También el humor, los musicales o la comedia romántica apuntan
hacia las emociones positivas. Los productos audiovisuales
infantiles o juveniles también comparten dichas características. Los
géneros audiovisuales que persiguen generar en el público un
malestar momentáneo, como el terrorífico, el bélico, el trágico o el
documental de denuncia, pueden utilizar recursos sonoros que
produzcan emociones negativas exacerbadas. Finalmente, otros
géneros audiovisuales buscan la combinación de emociones y
cambios emocionales dentro de sus productos: los géneros de
ciencia ficción, aventuras y thrillers serían buenos ejemplos de ello.
Los elementos de la música (ritmo, agógica, dinámica, métrica,
melodía, armonía, forma musical, género...) establecen de alguna
forma el contenido emocional de cada obra, aunque no debemos
caer en el error de establecer una simple relación lineal entre las
características de cada parámetro musical y las expresiones
emocionales. No obstante, existe un acuerdo importante en el uso
emocional de determinados parámetros sonoros en los
audiovisuales: el silencio suele ser signo de preparación de una
acción o de miedo; los sonidos agudos en general resultan más
alegres y divertidos que los graves; la música con tempo rápido
expresa más alegría que la lenta; los sonidos largos son
tranquilizadores, mientras que los cambios de tempo suelen
expresar una fuerte carga emotiva. En el plano de la intensidad
sonora tenemos parecidos resultados respecto a la activación
neuronal generada por sonidos fuertes en actividades motrices
prolongadas, como la conducción de vehículos por la noche, las
fiestas al aire libre o las discotecas. Respecto a la armonía y a los
acordes, en Occidente tendemos a otorgar al modo mayor la
expresión de la alegría y al modo menor el recogimiento o la
tristeza, a pesar de las distinciones y matices otorgados desde lo
griegos hasta el Renacimiento, pasando por los modos eclesiásticos,
a la distinta organización modal. El estilo musical estaría vinculado
a la edad del público y a sus preferencias, así como la elección de
timbres instrumentales muy sujetos a modas o atribuciones
culturales temporales.
La música es, con diferencia, la actividad preferida por la
juventud, aunque las encuestas no se refieran sólo a la práctica
musical en sí, sino al placer de escuchar o participar en actividades
donde se encuentra presente la música, como la danza o el cine. Así
pues, programas de radio o televisión dedicados a la promoción o
concursos de intérpretes consiguen porcentajes de audiencia dignos
de elogio. De todas formas no debemos olvidar que, del mismo
modo que la música es fuente de gozo para los que la disfrutan,
también puede producir frustración y enojo para quienes se ven
forzados a escucharla sin deseo. Los gustos musicales son muy
personales y provocan grandes simpatías y desacuerdos entre los
miembros de un grupo; en determinadas edades, coincidir en la
admiración de algún músico o banda es motivo suficiente para
pertenecer a ese grupo o para iniciar o fortalecer una amistad.

› La expresión musical de las emociones

La música es la inminencia de una revelación, que no se


produce.

J. L. BORGES

Si consideramos los elementos comunicativos de la música,


debemos analizar la expresión musical como un proceso lingüístico
en el que intervienen un emisor, un canal, un mensaje y un receptor.
Tanto el emisor como el resto de elementos están sujetos a
aspectos que modifican la eficacia comunicativa y que pueden
agruparse en dos grandes bloques: denotativos y connotativos.
Entendemos por elementos denotativos aquellos aspectos
propios del estímulo y de sus características que serán compartidos
por todos los seres humanos, con independencia de su origen o
formación. Por tanto, consideraremos las bases biológicas y
neurológicas como elementos que influirán necesariamente en la
comprensión emocional del sonido. Entre ellos destacan la
intensidad y la altura (atribuidos a la edad, el género o la actitud del
oyente), el ritmo y el tempo (atribuidos a la actividad y a la edad),
el uso prolongado de silencios (según la actividad y edad), la
elección de timbres o ruidos característicos (según la edad, género,
contexto o actividad cotidiana), el uso de consonancias o
disonancias (según el grado de acuerdo), la postergación de una
respuesta esperada (M eyer, 2001) o la resolución de una tensión
motivada por las expectativas (Sloboda, 2001), entre otros.
Los elementos connotativos de la música y el sonido son de
carácter sociocultural, psicológico o simbólico, y representan
aquellos aspectos de la expresión y comprensión musicales propios
de cada sujeto o de cada grupo social según sus experiencias
personales, educación, cultura, entorno, época, etc. Los más
importantes serían: el género musical (según los usos sociales), el
estilo musical (según el origen sociocultural), la intensidad (según el
nivel socioeconómico), el uso de determinadas piezas musicales
icónicas de una generación, la memoria musical de un grupo de
edad, las filias y fobias culturales, las modas, los modos de
identificación grupal (himnos, etc.) y, en última instancia, las
atribuciones particulares de valor añadido a un sonido determinado.
El uso de la música para la regulación de las emociones presenta
dos opciones: enfatizar un estado de ánimo a través de la empatía,
la profundidad y la comprensión del mismo; o bien buscar uno que
contrarreste el sentido por el público. Siguiendo la teoría del ISO
(Benenzón, 1981) podemos determinar un ISO presente y uno
complementario, según se trate de la primera o segunda opción. En
este sentido, muchos autores coinciden al determinar las
modalidades de la relación entre la imagen y el sonido, al igual que
que las existentes entre emoción y música. Así hablamos de
similitud, convergencia, complementación, contextualización,
acentuación, contraste, divergencia, regulación... según se trate de
subrayar, añadir, coincidir, ambientar, centrar la atención,
compensar, anticipar, sincronizar, retrasar, sustituir, etc. unos
contenidos por otros efectos.
Siguiendo la estructura y clasificación de las emociones sugerida
en el apartado anterior, podemos caracterizar musicalmente la
eutonía mediante una música con pocos cambios de intensidad, sin
tensiones, pocos saltos melódicos, tempo medio y con un ISO
coincidente con el del oyente en relación con los timbres
instrumentales y el estilo musical. Valgan como ejemplo muchas de
las sintonías elegidas por Woody Allen para las ambientaciones
generales de sus películas, una acertada mezcla de nostalgia y
alegría contenida.
Si queremos musicalizar la alegría, el elemento más característico
es la rapidez en el tempo (Ferri, 2003), que coincide con una cierta
similitud con la velocidad del pulso cardíaco de quien está alegre. A
mucha distancia, otros elementos musicales pueden reforzar esa
sensación, como el uso del modo mayor (que en Occidente tiene
una clara connotación de bienestar), un aumento de intensidad
(crescendos), los saltos melódicos ascendentes, el uso de sonidos
agudos, así como los timbres instrumentales brillantes, como el
metal, la flauta, la cuerda, el fagot (en un sentido burlesco) o la
percusión. Como ejemplos cinematográficos podemos citar el cine
infantil (Disney o Pixar serían claros exponentes), musicales
juveniles (por ej. High School Musical), escenas de Chaplin y de
comedias estadounidenses, por citar las más convencionales.
Algunos autores plantean la felicidad como un estadio algo
distinto a la alegría, más consolidado, asentado y libre, por lo que
las sensaciones corporales del movimiento y excitación quedan más
aletargadas, a pesar del bienestar. Siguiendo este perfil podemos
plantear una música para la felicidad parecida a la de eutonía, que
evita saltos, cambios y tensiones armónicas, y busca la empatía con
el público en el ritmo, el timbre y la intensidad, y por lo general en
el modo mayor. Por citar un ejemplo, el uso del vals El Danubio
azul en el film 2001: una odisea en el espacio, exhibe una sensación
de plenitud y calma cósmicas, que podríamos calificar de feliz.
Respecto a la tristeza, existe un amplio consenso entre los
compositores y teóricos occidentales en asignarle un tempo lento
(Ferri, 2003), que aumenta su fuerza si coincide con el modo menor
(con interválica descendente), cambios en la intensidad, disonancias
suaves y preparadas (Rameau, 1722) y la preferencia por algunos
instrumentos, como el oboe, el corno inglés, el fagot, las campanas
o la cuerda grave. Los géneros cinematográficos dramáticos y los
documentales son los ejemplos más relevantes de uso de música
«triste». Cineastas españoles como Almodóvar o Amenábar nos
han dejado grandes ejemplos de bandas sonoras con elementos de
tristeza y dolor.
Cercana a la tristeza pero con mucha más energía tenemos a la
ira, la cólera o la rabia, como expresión de un conflicto que enerva al
oyente. Para ello, los compositores suelen hacer uso de tempos
rápidos y del modo menor (Ferri, 2003), saltos melódicos,
glissandos, cambios de intensidad y uso de f y ff, melodías
dodecafónicas, seriales y no-tonales, empleo de disonancias
armónicas, uso de instrumentos de metal (especialmente graves),
percusión y música electrónica, etc. Entre los géneros audiovisuales
que utilizan este tipo de expresión tenemos el cine bélico, la ciencia
ficción y el terror.
Cercanos a la ira tenemos el miedo y la vergüenza como
exponentes de un estado de ánimo que produce un tremendo
malestar, especialmente la vergüenza, que aúna el miedo y la cólera.
En general los audiovisuales dedicados a desarrollar estas
emociones, como los thrillers, el cine de terror y los documentales
de denuncia, suelen contener música lenta y con preferencia por el
modo menor respecto al mayor (Ferri, 2003), con muchas
disonancias, cambios de intensidad, uso de silencios prolongados e
intensidades extremas... M elódicamente tenemos saltos, líneas
truncadas, uso de series dodecafónicas, ambigüedad tonal,
disonancias mayores y no preparadas... (Rameau, 1722). Respecto
a la tímbrica, los instrumentos graves de metal, cuerda y percusión
continúan siendo los preferidos.
Cuando no se disponía aún de música original (banda sonora),
los músicos encargados de acompañar en cada sala las exhibiciones
solían recurrir a compilaciones musicales escritas para ambientar
estados de ánimo o situaciones genéricas (kinotecas), las cuales
podían acompañar cualquier film. Las más famosas son las del
americano J. S. Zamecnik y las del italiano G. Becce.

› Música, bienestar y significados culturales

La música es un fenómeno transcultural, del mismo modo que el


lenguaje o las emociones, pues en nuestro cerebro encontramos un
impulso básico que nos anima a escucharla o a producirla. Por lo
tanto, debe existir un sustrato neurobiológico que sustente tal
función y que justifique la habilidad musical implícita del cerebro
humano. Efectivamente, incluso aunque carezca de una significación
concreta, el esfuerzo empleado al crear o reproducir música es
realmente ingente. La habilidad musical, al contrario que la
lingüística, no es universal, sino que únicamente la desarrollan
algunas personas. Todavía no están claras las causas genéticas o
ambientales que determinan la existencia o el desarrollo de tal
habilidad, pero es evidente que la interpretación y la composición
musicales incluyen un número considerable de habilidades
perceptivas visuales, auditivas y motrices.
La música no es necesaria para la supervivencia humana, aunque
diferentes culturas de todo el mundo le hayan asignado múltiples
funciones: la comunicación, la expresión emocional, la
representación simbólica, el placer estético, el entretenimiento, la
contribución a la estabilidad y continuidad de la cultura, y a la
integración en la sociedad, etc. La música permite entrar en el ritmo
y la armonía universales a través de la identificación con los
sonidos.
Para Lévi-Strauss, la música sería el camino intermedio entre el
pensamiento lógico y la percepción estética, lo que la convertiría en
un fenómeno que compartiría elementos sígnicos y simbólicos en
todas las culturas. Como en todas las formas del discurso
simbólico, la música tiene la capacidad de llevarnos más allá de
nosotros mismos, de nuestro pequeño espacio y tiempo,
ensanchando y manteniendo abierta nuestra capacidad de conocer.
La música, al ser un arte no representativo, puede hacer aflorar
mejor que ningún otro la capacidad de transformación simbólica de
la mente humana. Podríamos calificar el símbolo musical como
autorrepresentacional, en el sentido de que su significado está
implícito, no fijado convencionalmente; la música no expresa
sentimientos, sino que simplemente los exhibe, los presenta. Sus
estructuras muestran una cierta analogía con modelos dinámicos
presentes en nuestra experiencia interior y de ahí su fuerza como
símbolo: la música puede articularse en formas que le son negadas
al lenguaje. M ás que dirigirse a algún objeto extrínseco, la música se
representa como un lenguaje que se significa en sí mismo. Para
unos, el significado de la música estaría dado en la descripción del
significante, mientras que otros admiten la coexistencia tanto de
referencias externas como internas: según las épocas, las culturas y
las teorías se concede al reenvío intrínseco (absoluto) o al externo
(referencial) un mayor o menor peso explicativo.
En general los significados en música competen a uno de estos
tres tipos de representaciones:

• Esquemas de tensión y de calma: movimientos corporales y


actitudes.
• Esquemas de resonancia emocional (afectos y sentimientos):
estados de ánimo positivos y negativos, integración y
desintegraciónangustia.
• Representaciones icónicas y cinéticas.

En estos últimos años, el parisino IRCAM (del francés Institut


de Recherche et Coordination Acoustique/M usique) ha efectuado
estudios de análisis significativo de la música y ha llegado a
identificar hasta diecinueve tipos diferentes de unidades semióticas
temporales (UST). Entre ellos tenemos: la caída, el estiramiento, el
frenado, las olas, el intento de arranque, la trayectoria, la
desorientación, la contracción-extensión, el flote, el peso, el avance,
la inercia, la interrogación, el impulso, la suspensión, la obsesión, el
giro, el movimiento estacionario... La mayoría de estas expresiones
tienen relación con la imaginación de un tipo de movimiento
determinado que suscita una situación emocional concreta.

› Música y emoción en la infancia


Los ambientes que rodean la infancia cuentan con numerosos
elementos musicales. La conversación de las madres con sus hijos
es similar a la música y exhibe una variedad de recursos musicales
que reflejan su expresividad emocional (como el babytalk). No
obstante, esta comunicación tiene un contorno melódico similar
aunque distinto en cada cultura, un hecho que refleja unas
intenciones expresivas comparables, aunque cada madre utilice
modelos interválicos individualmente distintivos (speech tunes).
A lo largo de la infancia, el uso de la música en la educación
permitirá la práctica individual y social de múltiples actividades
que despierten tanto la emoción como la inteligencia de los
alumnos. La práctica musical puede considerarse, pues, una
verdadera y completa educación intelectual en el sentido más
tradicional de la palabra, y abarca la interpretación (canto,
instrumentos, danza...), la improvisación, la creación, la audición, la
imaginación, etc. Como propone Csikszentmihalyi (1999), la
educación musical permite ampliar el número de situaciones vitales
en que la música es fuente de placer y por lo tanto de calidad de
vida, siempre que se respete el componente de goce en su práctica:
debe ser como un juego, donde las dificultades y las propias
capacidades vayan en consonancia y estén en una proporción
estimulante.
La educación tradicional se ha ocupado especialmente del
desarrollo cognititivo y ha olvidado demasiado a menudo el
emocional. Podemos caracterizar a una persona emocionalmente
inteligente por algunas de sus conductas, como por ejemplo:
manifestar una actitud positiva; reconocer los propios sentimientos
y emociones; ser capaz de expresar y controlar estos últimos;
sentir y mostrar empatía; notarse motivado, ilusionado o
interesado; disfrutar de una autoestima suficiente; saber dar y
recibir; ser capaz de superar dificultades y frustraciones, de integrar
polaridades enfrentadas; en definitiva, ser capaz de tomar las
decisiones más adecuadas en la vida (Bisquerra, 2000).
Podríamos relacionar la educación emocional con el concepto de
inteligencias múltiples propuesto por Gardner (1998),
especialmente con la denominada inteligencia intrapersonal, que se
ocupa de nuestros aspectos internos como persona: la propia vida
emocional, la evaluación de las emociones, la capacidad de
discriminar éstas y denominarlas, la capacidad de recurrir a ellas
como medio para interpretar y dirigir la propia conducta... Además,
de forma secundaria nos permite distinguir matices en los estados
de ánimo de los demás, sus motivaciones e intenciones, etc.
Para Lazarus (1991), la madurez emocional incluiría tres tipos
de conocimientos básicos en todo proceso emocional:

• Identificación de las señales sociales.


• Conocimiento de las reglas de expresión y de sentido que
pueden producirse.
• Utilización y control de las emociones.

La educación en la etapa infantil y primaria debería ocuparse de


proporcionar elementos y contextos de aprendizaje donde
desarrollar dichas competencias de forma activa, reflexiva,
participativa y colectiva, aunque la educación de las emociones
competa al ámbito privado de cada individuo. La música es una
herramienta eficaz, un arte privilegiado en la evocación de las
emociones de los sujetos y, por tanto, en la educación emocional.
En cualquier caso, la eficacia de la música estará condicionada a
las características contextuales en que incida, como la formación del
oyente, el valor social que le otorgue el público, etc. No existe una
música para cada emoción, sino que depende de cada emisor y
receptor.
La música no es magia, aunque comparta con ella algunas raíces
perdidas en el tiempo, y, al igual que las emociones, nos acerca al
misterio del presente.

Bibliografía

ALCARAZ, María José / P ÉREZ C ARREÑO, Francisca (eds.). (2010). Significado,


emoción y valor. Ensayos sobre filosofía de la música. Madrid, Machado
Libros.
B ENENZÓN, Rolando O. (1981). Manual de musicoterapia. Barcelona, Paidós.
B ETÉS DE T ORO, Mariano (comp.). (2000). Fundamentos de musicoterapia.
Madrid, Morata.
B ISQUERRA, Rafael (2000). Educación emocional y bienestar. Barcelona,
Praxis.
B LACKING, John (1994). Fins a quin punt l’home és músic? Vic, Eumo.
C OLÓN, Carlos / INFANTE, Fernando / LOMBARDO, Manuel (1997). Historia y
teoría de la música en el cine. Presencias afectivas. Sevilla, Alfar.
C ZIKSZENTMIHALYI , Mihály (1999). Fluir. Barcelona, Kairós.
DESPINS, Jean Paul (1994). La música y el cerebro. Barcelona, Gedisa.
F ERRI , Fabrizio (2003). « Efectos de tempo y modo sobre el contenido
emocional de la música» . En: Fórum de recerca. Universitat Jaume I.
Disponible en: http://www.uji.es/bin/publ/edicions/jfi9/psi/5.pdf [Consulta:
30/6/2010]
GARDNER, Howard (1998). Inteligencias múltiples. Barcelona, Paidós.
GOLEMAN, Daniel (1995). Inteligencia emocional. Barcelona, Kairós.
GUSTEMS, Josep (2001). « L’entorn sonor, un element educatiu de primer
ordre» . Temps d’Educació, núm. 25, pp. 77-88.
— (2005). « Escuchar los anuncios: una aproximación al uso de la música y del
sonido en la publicidad televisiva» . Eufonía, Didáctica de la música, núm.
34, pp. 91-100.
— / C ALDERÓN, C. (2005). « No t’emocionis... Escolta! L’ús de la música en
l’educació emocional» . Revista Catalana de Pedagogia, núm. 3, pp. 331-
347. Disponible en: http://hdl.handle.net/2072/4283 [consulta: 7/7/2010].
HARGREAVES, David (1998). Música y desarrollo psicológico. Barcelona, Graó.
LAKOFF, George / JOHNSON, Mark (1980). Metaphors we live by. Chicago,
Chicago University Press.
LANGER, Susanne (1953). Feeling and Form. Nueva Cork, Scribner’s.
LAZARUS, Richard S. (1991). Emotion and adaptation. Nueva York, Oxford
University Press.
LEVITIN, Daniel J. (2006). Tu cerebro y la música. Barcelona, RBA.
LÓPEZ C ANO, Rubén (2000). Música y retórica en el Barroco. México,
UNAM.
MEYER, Leonard B. (2001). Emoción y significado en la música. Madrid,
Alianza.
P OLO, Magda (2007). L’estètica de la música . Barcelona: UOC.
R AMEAU, Jean-Philippe (1722/1984). Traité de l’Harmonie. París, Baillard /
Madrid, Arte Tripharia (facsímil).
R ODRÍGUEZ B RAVO, Ángel (1998). La dimensión sonora del lenguaje
audiovisual. Barcelona, Paidós.
S LOBODA, John (1985). The Musical Mind. Oxford, Oxford University Press.
— / JUSLIN, Patrik (2001). Music and emotion: theory and research. Nueva
York, Oxford University Press.
S TORR, Anthony (2001). La música y la mente. Barcelona, Paidós.
T HAYER GASTON, E. et al. (1989). Tratado de musicoterapia. Barcelona,
Paidós.
/ Análisis de las cualidades del sonido y
los elementos de la música en la
expresión audiovisual

Josep Gustems Carnicer, Universidad de Barcelona

Si escuchamos una música desconocida al azar, percibimos


globalmente un cúmulo de sensaciones que evocan una serie de
significados más o menos familiares. Si nos centramos únicamente
en nuestras sensaciones auditivas, veremos que algún elemento
sonoro pasa a dominar nuestro campo perceptivo. Se trata de
alguna de las llamadas cualidades del sonido, atributos de éste que
guardan un especial interés en el ámbito comunicativo. Una obra
musical o audiovisual remite inexorablemente a juicios estéticos y
técnicos, a experiencias y significaciones, y a juicios de orden
introspectivo, como las emociones o las imágenes. En este capítulo
nos centraremos en los elementos que permiten desarrollar nuestro
juicio técnico respecto al sonido y la música en un audiovisual: la
taxonomía, el vocabulario básico, la estructura y su valor expresivo.
El sonido (tal y como se ha explicado en el capítulo dedicado a
las bases acústicas) se transmite por el aire en forma de ondas
invisibles, pero que pueden visualizarse mediante el osciloscopio y
presentan cuatro características principales derivadas de su
tipología:

• Su altura o entonación, expresada en herzios (Hz) o


vibraciones por segundo.
• Su duración o tiempo.
• Su intensidad, expresada en decibelios (dB).
• Su timbre, según sea la fuente sonora, la forma de la onda y su
armonicidad.

Hoy en día existen distintas formas de visualizar los sonidos,


según sea una manera centrada en el tiempo (oscilograma, en un
osciloscopio, de visión lateral) o focalizado en las frecuencias, a
partir de sus componentes o formantes (monograma o
espectrograma), si se trata de un corte transversal para apreciar sus
intensidades relativas.
Todas estos rasgos o atributos pueden aplicarse a cualquier
sonido, sea del tipo que sea; unos serán más fáciles de caracterizar,
otros más complejos, pero de todos ellos podemos intentar
destacar cuatro grupos de significados que serán de gran valor para
la música y la acústica en particular. Gracias a la tecnología también
podemos considerar la dirección del sonido (estéreo, por ejemplo)
en los audiovisuales.
› La intensidad

La intensidad del sonido guarda relación con la amplitud de las


ondas sonoras, designadas por decibelios (dB) y medidas por el
sonómetro. Por debajo de 15 dB apenas percibimos un rumor; a los
120 dB el ruido es ensordecedor; habitualmente nos movemos en
entornos entre 40 y 100 dB. Etimológicamente, la palabra
intensidad remite a intención; es decir, que este rasgo, en un sonido,
estará relacionado con el objetivo expresivo o comunicativo
propuesto por el emisor. En los audiovisuales se referirá a la
emoción, al realismo (que llega al hiperrealismo en algunos anuncios
de refrescos gaseosos), a la distancia física y social y a la
importancia y alcance territorial.
A pesar de que la intensidad es la cualidad del sonido más fácil
de observar (los niños de tres años distinguen muchos matices), la
práctica musical no ha contemplado una discriminación ajustada a
ella hasta hace apenas unas décadas. Así, las indicaciones de
intensidad en las partituras no aparecen o son muy ambiguas, a
diferencia de las duraciones o las entonaciones. Los términos
utilizados para designar la intensidad sonora musical fueron
tomados del italiano, pues fue en el siglo XVIII cuando por primera
vez se anotó esta cualidad del sonido en las partituras. Los
términos utilizados corrientemente son:

Fortissimo ff muy fuerte


Forte f fuerte
Mezzo forte mf medio fuerte
Mezzo piano mp medio suave
Piano p suave
Pianissimo pp muy suave

Además de estas intensidades sostenidas, la música experimenta


muchos cambios que pueden ser súbitos o progresivos, las llamadas
transiciones o cambios de dinámica. En este último caso se
expresan mediante los términos:

Crescendo cresc. creciendo, aumentando


Diminuendo dimin. disminuyendo

Los crescendos son muy utilizados en publicidad audiovisual


para vencer la caída atencional en los anuncios. Como podemos
apreciar, los términos utilizados aclaran el sentido de la acción
sonora pero no su límite, así pues el ff de una trompeta no
equivaldrá en dB al ff de una flauta, y así sucesivamente. Tampoco
no son perceptibles los cambios de intensidad inferiores a 2 dB: el
famoso Boléro de M . Ravel se basa en un crescendo progresivo que
duraría más de 10 minutos, pero que es imposible de lograr por este
motivo, si no es mediante saltos perceptivos. El umbral de cambios
de intensidad sonora se sitúa entre los 2 y los 10 dB según el
sonido sea agudo o grave, pues detectamos mejor los cambios de
intensidad en los primeros. Perdemos finura a la hora de captar los
cambios cuando la intensidad es muy elevada; para medir la
sensibilidad sonora se utiliza otra medida: el limen.
La intensidad sonora es responsable de una mayor o menor
activación del sistema nervioso: los sonidos suaves (pp) y sin
cambios facilitan la relajación, mientras que los fuertes nos
mantienen despiertos. En general el umbral de audición humana está
entre los 20 dB y los 120 dB, cuando ya sentimos dolor. Dichos
límites dependen de la edad y de cada persona, pues tendemos a
reducir esta distancia con la edad.
La intensidad depende también de la distancia entre la fuente
sonora y el receptor: en general se admite que cada vez que
doblamos la distancia disminuimos unos 6 dB. A más distancia
física, necesitamos que el sonido sea más fuerte, agudo y afilado si
queremos que se escuche bien. Además, este efecto de distancia
puede referirse también al ámbito social; un sonido muy suave, una
voz susurrante, expresa proximidad personal e intimidad (por
ejemplo, en la radio). Podemos establecer una cierta gradación
respecto la distancia física y personal: así, en la intimidad la voz es
un susurro suave; en la distancia personal es suave, y en la formal o
pública, la voz es proyectada y fuerte. M urray Schafer señala tres
zonas de proximidad:

• La lejana o de fondo, que se oye pero no se escucha.


• La media, que es el acompañamiento, el ambiente sonoro.
• La inmediata o próxima, que resulta fuerte y se escucha con
atención.

Combinando intensidades podemos hacer que un sonido se aleje


o se acerque. Lo mismo ocurre si modificamos la intensidad que
llega a cada oído; entonces, producimos el efecto llamado
estereofonía, que permite distinguir el origen y la dirección de un
sonido, el cual llega con más intensidad a un oído que al otro. Este
efecto también permite la sensación de movimiento en el cine.
Un efecto derivado de los cambios de intensidad es el llamado
efecto eco (delay), consistente en la prolongación con intensidad
decreciente de un sonido. En realidad se trata de una resonancia
añadida, en algunos casos artificialmente, para dar sensación de
espacio, amplitud (catedrales, palacios, poder...), misterio
(laberintos o criptas), vacío o soledad (Leeuwen, 1999). El eco,
físicamente hablando, se da cuando los sonidos están distanciados
entre sí por un breve lapso de tiempo, un rebote que se da en
espacios amplios y rodeados de paredes de consistencia dura. El
efecto eco suele acompañar a escenas de pánico, de lucha (como la
persecución en las alcantarillas de El tercer hombre), de
alucinaciones y sueños (como los 13 minutos de Rocky II donde
está a punto de caer por KO), de pensamientos interiores,
obsesiones... Se trata de un recurso marcadamente expresivo del
que no se debe abusar porque satura el oído e interfiere en la
comunicación.
El efecto eco tiene que ver con cambios naturales en la
intensidad de un sonido, los cuales suelen ser muy importantes en
el final de éste, lo que se conoce como caída del sonido. En general
podemos distinguir cuatro tipos de caídas:

• Dura: brusca, pasa de 50 a 0 dB en 0,01 s.


• Blanda: tarda más de 0,05 s.
• Lenta: tarda aproximadamente 1 s.
• M últiple: lenta con fluctuaciones (por ejemplo, la campana o
el gong).

Según las características de los materiales de las superficies


(techos, paredes y suelos) que conforman una sala y su geometría,
podemos encontrarnos con distintos efectos de resonancia. A modo
de ejemplo, damos los datos promedio de distintos ambientes
sonoros:

• Estudios de grabación 0,4-0,6 s


• Aulas 0,5-0,9 s
• Salas de conferencias 0,8-1,2 s
• Cines 0,7-1,3 s
• Teatros pequeños 1,1-1,5 s
• Salas de conciertos 1,1-2,3 s
• Iglesias 1,8-2,5 s
• Catedrales 2,4-3,3 s

Como puede comprobarse fácilmente, la resonancia aumenta con


la dureza del material de construcción de paredes, techos y suelos.
En nuestra propuesta didáctica (fig. 1) plantearemos la
posibilidad de expresar mediante un diseño geométrico simple los
distintos componentes sonoros de un audiovisual (voces habladas,
música y ruidos) a modo de tabla, en la que la base representa el
tiempo (en segundos, por ejemplo) y en el eje vertical encontramos
las tres franjas citadas. Esta imagen sonora o audiograma
permitirá expresar la intensidad mediante un diseño de distinta
amplitud según el caso, además de señalar de modo sencillo las
intervenciones sonoras y sus intensidades relativas para destacar
los elementos principales, los planos auditivos, evitar los
enmascaramientos y potenciar la comunicación de los mensajes
sonoros. Podemos añadir a nuestro audiograma una franja destinada
a los fotogramas de las principales escenas, lo que nos permitirá
analiza las relaciones del sonido con las imágenes.

Figura 1: Ejemplo de audiograma

En el ámbito audiovisual, la intensidad plantea relaciones con la


perspectiva del público y la distancia a la que se sitúa (personal,
física o social). Además, los planos sonoros permiten la
articulación del concepto figura-fondo, desarrollado por la escuela
de la Gestalt.

› La altura

La altura o entonación del sonido es uno de los elementos más


característicos de la música y del habla. Ésta guarda relación con su
frecuencia vibratoria y se mide en herzios (Hz). En el ámbito
musical es la causante de las notas, entendidas como los sonidos
que conformarán las melodías mediante su distinta entonación. En
Occidente tenemos dos sistemas de nomenclatura para ello: el
silábico (difundido en el área latina mediterránea: do/ut, re, mi, fa,
sol, la, si) y el anglogermánico (C, D, E, F, G, A, B /H). Ambos
modelos tienen ventajas e inconvenientes y conviven en la
actualidad.
La relación de la altura sonora con la visual es muy evidente en
cualquier partitura o notación musical, que suele representar los
sonidos más agudos (de mayor frecuencia) en la parte superior del
gráfico, y los más graves (profundos, de menor frecuencia) en la
inferior. Esta particularidad también la expresaremos en nuestro
audiograma, de forma que un sonido agudo estará situado en la
parte superior de la franja y uno grave en la inferior. La distinción
entre agudo y grave es bastante universal, aunque hay personas que
no la perciben tan fácilmente como la diferenciación de
intensidades. Un oído musicalmente educado exige un grado muy
elevado de «afinación» o distinción de alturas. Algunos expertos
llegan a discriminar las llamadas microtonalidades, subdivisiones de
los intervalos tonales usuales, pero que son comunes en algunos
estilos y tradiciones musicales (el vibrato, tan habitual en algunos
estilos musicales, sería una oscilación y cambio sutil de
entonación), Aunque se requieran 0,10 s para determinar la altura
de un sonido (si no se percibirá como un «clic»), la relación entre
ellos será lo que permitirá una distinción tonal efectiva.
Los sonidos agudos excitan más el sistema nervioso que los
graves; así, una voz profunda nos calma mientras que un pitido nos
enerva. Este fenómeno se utiliza en las señales acústicas
universales, como los pitos, sirenas, etc., que en general suelen ser
muy agudas; además, la intensidad ayuda a subrayar dichos
sonidos. Según Fletcher (en Rodríguez Bravo, 1998), a medida que
aumentamos de frecuencia se incrementa la audiabilidad (nuestra
capacidad de escucha de sonidos muy suaves), pues para un sonido
muy grave (35 Hz) requerimos al menos 60 dB, mientras que en la
zona del canto y de la música instrumental (500 a 3.000 Hz)
podemos llegar a percibir sonidos de apenas unos pocos dB. En
sonidos mucho más agudos (a partir de 10.000 Hz) volvemos a
restringir el campo audible de forma similar a la zona grave.
La audición humana puede llegar hasta los 20.000 Hz, por lo
que la cualidad técnica del sistema de reproducción de los sonidos
audiovisuales ha recibido distintas calificaciones según su respuesta
de frecuencia del sonido original. Así tenemos:

• Sonido chillón o estridente, si un equipo enfatiza los agudos.


• M atiz oscuro, si pierde agudos.
• Atronador, si enfatiza los graves.
• M etálico, si pierde los graves.
• Si se acentúan las frecuencias medias se produce un sonido
«nasal».

› La duración

La duración sonora es la responsable de los ritmos y las


polirritmias, al combinar y superponer distintas duraciones en un
discurso musical o sonoro. El mundo natural es polirrítmico por
naturaleza: el andar de la gente se combina de forma compleja y
caótica entre sí con otros mil ruidos, al igual que en la selva o los
grandes bosques. La complejidad que requiere la sociedad humana
se expresa mediante sincronías y polirritmias. Los intentos
humanos por poner orden en el complejo sistema sonoro del
mundo podrían ser un intento de magia, una explicación ancestral al
origen de la música.
Los sistemas de medida de la duración en contextos musicales se
remontan a la antigüedad griega, pues siempre ha sido un elemento
fundamental para caracterizar y organizar la música. La notación
musical actual asigna a las distintas duraciones de los sonidos unos
signos llamados figuras, cuyos trazos y nombres son muy
conocidos: redonda, blanca, negra, corchea, etc. En física el tiempo
se mide en horas, minutos, segundos, pero este sistema, aunque
exacto, no es el utilizado aun en la actualidad por los músicos, que
prefieren el metrónomo, el pulso y el paso, sistemas vinculados a
movimientos corporales visibles y perceptibles por uno mismo y
por los demás.
La medida de la duración en música requiere de unos sonidos
identificables y repetitivos, de un ritmo parecido al de un reloj, al
que llamaremos pulso, pulsación o tempo, resultante de un sonido
que enfatiza la intensidad. En general, el tempo de una obra guarda
estrecha relación con la emoción que pretende expresar. En general,
los tempos lentos (más lentos que el ritmo cardiorrespiratorio)
expresan calma, contención, represión, fatiga, vejez... Los tempos
medios (parecidos al ritmo cardiorrespiratorio, unos 90 m.m. de
promedio) muestran dignidad, amabilidad, suavidad, madurez,
sentimentalismo... Los tempos rápidos expresan alegría, excitación,
ilusión, nerviosismo, juventud, actividad, infancia... Si nos fijamos
bien, existe una ley de similitud respecto al tempo musical y al
corporal: tendemos a coordinarnos con el sonido que escuchamos.
A lo largo de una obra el tempo no es regular, sino que puede
oscilar en gran medida. A veces no llegamos a percibir pulsos
regulares o bien los sonidos se alargan extremadamente
(calderones). Ese tiempo no mesurable puede ser continuo o bien
fluctuante, dar sensación de eternidad, de inmensidad, de Dios, de
naturaleza, sin huella humana. Normalmente la pulsación puede
seguirse, a pesar de que los cambios de tempo pueden ser súbitos o
bien progresivos. Los primeros implican una ruptura repentina con
la expresión anterior; los segundos excitan o calman
progresivamente nuestra actividad (se denominan accelerando, y
ritardando o rallentando, respectivamente) y son un recurso
afectivo muy eficaz.
Hasta el siglo XVII no aparecen referencias explícitas a la
velocidad o el tempo musical. Hasta ese momento, el tempo de una
pieza dependía del contexto y el uso de dicha música: danzas altas
o bajas, proporciones entre compases y danzas, salas resonantes o
secas, habilidad de los instrumentistas, etc. La velocidad de
ejecución ha sido a veces un elemento de persuasión de los
auditorios y una forma de destacar a aquellos músicos más
virtuosos. Los indicadores de tempo son unas palabras que,
puestas al inicio de cada fragmento musical, indican la velocidad de
la unidad de tiempo para toda la obra. Como el italiano era en aquel
entonces la lingua franca en la música, dichas palabras se tomaron
de este idioma: vivace, presto, allegro, moderato, andante, largo,
adagio... Como vemos, están referidas a movimientos corporales y
también a estados de ánimo que caracterizan a una determinada
activación corporal y muestra de afecto, derivada de la expresión
vocal emotiva (que prolonga las vocales exageradamente).
Posteriormente, M aelzel, un relojero, inventó y comercializó en
1808 el metrónomo, que permite un ajuste preciso a fracciones de
minuto: 60, 72, 120, etcétera m.m. (batidos por minuto). El
metrónomo mide desde los 40 hasta los 208 pulsos por minuto.
La duración mínima identificable por el oído humano está en
torno a los 5 ms. Si el sonido dura menos de 1 décima de segundo
se pierde la sensación tonal (se oye algo parecido a un clic); así
pues, los sonidos de una obra musical están sujetos a unas leyes
físicas y biológicas que condicionan la escritura compositiva.
También hemos de tomar en consideración las implicaciones
derivadas de la ejecución instrumental convencional; así, tenemos
que un violín o una flauta pueden emitir sonidos de corta duración
enlazados melódicamente, mientras que una tuba o un contrabajo
tienen muchas más dificultades de ejecución y de sonoridad en
forma de notas cortas y rápidas.
La relación del tempo musical con el de las imágenes puede ser
de coincidencia o de falta de ella, lo cual claramente tiene efectos
expresivos y emocionales respecto al público. Con frecuencia la
música enlaza escenas y, por lo tanto, sus frases musicales son
independientes del ritmo de las imágenes. De este modo se infunde
sensación de coherencia y se homogeneiza la narración, evitando la
ruptura narrativa.

› El timbre

El timbre es la característica del sonido más apreciada, además de la


más difícil de analizar y de designar. Hasta que no hemos sido
capaces de visualizar las ondas sonoras, no hemos podido apreciar
que éstas tienen unas formas caprichosas que constituyen
precisamente la característica que las distingue entre sí, es decir, su
timbre. Gracias a la electrónica y a los avances en acústica e
informática, hoy día es posible jugar con los timbres y modificarlos
a voluntad, de manera parecida a como se hacen los retoques de
fotografía y a las imágenes por ordenador. No obstante, en la
antigüedad, la fabricación artesanal de instrumentos musicales
provocaba distinciones tímbricas notables que daban a los
fabricantes fama universal; los Stradivari serían un claro ejemplo.
Los cantantes continúan siendo apreciados, entre otras cosas, por
el timbre inconfundible de su voz, y los grupos de música moderna
buscan en los estudios de grabación un «sonido» que como grupo
les caracterice.
A pesar del interés que ha suscitado a lo largo de los tiempos, la
definición de timbre no fue necesaria hasta el siglo XVII, pues
muchas de las obras escritas hasta entonces no adjudicaban las
partes a instrumentos específicos sino que podían ser
intercambiables según las circunstancias. A medida que cada estilo
musical destacó algunos instrumentos frente a otros, se hizo
necesaria la especificación de cuáles se preferían.
La caracterización de los timbres suele hacerse mediante
palabras del lenguaje corriente que designan características visuales,
táctiles, gustativas, etc., que por algún motivo coincidimos en
aceptar. La más aceptada es el color, dado que el término alemán
para designar el timbre es Klangfarbe, que literalmente significa
«color sonoro o del sonido». Normalmente estos adjetivos
combinan la descripción del sonido con un cierto matiz evaluativo
que permite una cierta gradación (más que dicotomías de opuestos):
así hablamos de voz «aterciopelada» o sonido «claro», «rugoso» o
«denso», sin poder en realidad asignar estos adjetivos de forma
eficaz y precisa. Este uso de metáforas y analogías es una de las
bazas preferidas de comentaristas, periodistas, pedagogos y
directores musicales. Poder encontrar palabras para definir aquello
«invisible» es una capacidad misteriosa y mágica que otorga un
poder de seducción ante el público.
La solución en realidad no es nada mágica. Se trata de que la
forma de la onda tiene estas características debido a que el sonido
nunca es puro ni simple, sino que se trata de la suma de muchos
pequeños sonidos combinados, los formantes, los cuales suenan a
la vez que el sonido principal (el que percibimos como «tono»).
Dichos formantes tienen frecuencias e intensidades distintas entre
sí, por lo que resulta una tarea laboriosa llegar a identificarlos
completamente. La producción electrónica de sonido intenta imitar
los timbres de la realidad, a la vez que crea nuevas sonoridades
inexistentes en la naturaleza pero que expresan sensaciones nuevas:
el new age y la música electrónica utilizan profusamente dichos
recursos compositivos. Para su caracterización se proponen tres
dimensiones perceptivas: brillantez (distribución de la energía
espectral), flujo espectral y presencia de transitorios agudos en el
ataque.
La armonicidad de un timbre se debe a la mayor o menor
coincidencia de los formantes con la serie armónica del sonido. Si
los parciales son armónicos sólo hasta los 1.700 Hz hablamos de
un timbre «sucio»; si lo son hasta los 3.300 Hz decimos que el
timbre es «basto»; si lo son más allá de los 3.300 Hz, entonces
denominamos al timbre «transparente».
La modificación de un timbre puede efectuarse mediante la
supresión de gamas de frecuencias a través de filtros; por ejemplo,
una voz escuchada por teléfono modifica su timbre, pues el altavoz
sólo emite sonidos entre 300 y 3.000 Hz. Los formantes superiores
a estas cifras no se oyen y, por lo tanto, se suprimen. La definición
auditiva conseguida de esta forma es un sonido «chato». Algo
parecido ocurre con los ecualizadores que tienen algunos equipos
de música: permiten aumentar los graves o los agudos y
distorsionar ligeramente las voces o los instrumentos a voluntad. Si
aumentamos los graves, el sonido se oscurece; si quitamos los
agudos y los graves, se achata; si incrementamos los agudos es más
brillante y se entiende mejor el texto (por ejemplo, en inglés).
El tamaño y la calidad de los micros y altavoces suponen un
condicionante. Los formantes se refuerzan según el espacio físico
donde se propaguen: si las paredes de la sala son duras entonces
resuenan los agudos; si son blandas, se apagan los agudos y el
sonido resultante es «mate». Los espacios con mucha resonancia no
favorecen la distinción de timbres.
La definición auditiva de un sonido es mayor cuanto más amplia
sea la gama de frecuencias que lo compongan. En general podemos
hablar de:

• Baja definición: como el auricular de teléfono (de 300 a 3.000


Hz).
• Definición media: al estilo de las grandes radios domésticas de
la década de 1950 (de 160 a 6.300 Hz)
• Alta definición, alta fidelidad (HD/ HF): como el oído humano
(de 20 a 20.000 Hz)

En el estudio del timbre es esencial el ataque o inicio del sonido.


Suelen considerarse tres tipos:
ATAQUE Características Ejemplo
Tambor percutido por baqueta de
Inicio rápido En
madera. Un ataque duro, con algo
Duro 0,01 s puede
de ruido, otorga naturalidad y
escucharse
credibilidad
Inicio progresivo
Tarda más de Instrumentos de viento Tambor
Blando
0,05 s en percutido por baqueta de fieltro
alcanzar 50 dB
Variaciones de
M últiple Violín
intensidad

En cada cultura y momento histórico han predominado unos


timbres sobre otros. Así, hay sonidos que caracterizan un país (las
castañuelas o la guitarra, España) o una cultura (gong, Lejano
Oriente) o una comunidad (campanas, cristiandad). Los conjuntos
musicales suelen agrupar timbres similares o contrastantes según
las necesidades expresivas del género musical que practican.
Asimismo, la Navidad, la infancia, el rock, o las naves espaciales
sugieren a los compositores determinadas analogías y selecciones
tímbricas que han alcanzado categoría de símbolo. Las preferencias
tímbricas guardan relación con la edad, la educación, la procedencia
cultural, la lengua propia, y los aprendizajes y las atribuciones
personales de significado.
Desde el siglo XVIII, cuando la música instrumental ganó cada
vez más fuerza en el mundo occidental, muchas han sido las
atribuciones expresivas a los timbres instrumentales. Los
audiovisuales siguen tomando como base las costumbres de los
compositores románticos y de la música programática,
ampliamente aceptada por el gran público. En un primer momento,
los audiovisuales utilizaron el piano como instrumento, además del
órgano Wurlitzer para el resto de efectos secundarios (campanas,
pitos...). A modo de ejemplo y sin pretender ser dogmáticos
podemos sugerir las siguientes relaciones:

• Cuerda/arco: melodía, emotividad, colectividad...


• Contrabajo: lúgubre (Bernstein, 2009).
• Arpa: transparencia, claridad, agua, magia...
• Guitarra: calidez, emotividad, intimidad, folklore español y
orientalizante.
• Piano: dominio, autoridad, versatilidad, seguridad,
clasicismo...
• Órgano: grandiosidad y solemnidad (Avison, 1752).
• Clave: movimientos vivos y adornados (Avison, 1752).
• Viento (madera): emociones básicas, personajes.
– Oboe: dulzura y majestuosidad (Dart, 2002), cantabile
(Avison, 1752)
– Flauta: dulce, pálido, sonido etéreo (Bernstein, 2009),
melancólico (Avison, 1752).
– Fagot: payaso y lúgubre (Bernstein, 2009).
• Viento (metal): triunfal, energía, majestuosidad, brillantez,
guerra...
– Trompeta: decisión y valor (Avison, 1752), nobleza (Dart,
2002), brillante (Bernstein, 2009).
– Trompa: alegría (Avison, 1752).
• Percusión: ritmo, acción, movimiento, etnicidad, lejanía,
hostilidad, primitivismo, instintos...
– Gong: en contextos que tienen que ver con acontecimientos
solemnes (Alcaraz, 2010).
– Tambor: nos remite al latido del corazón, el primer sonido
musical (Siankope y Villa, 2004).
• Voz: calidez, proximidad, comunicación, personaje...

La voz es el instrumento privilegiado de la comunicación y en


nuestro caso merece una atención preferente, por lo que le hemos
dedicado un capítulo aparte en esta obra.

› El ruido y los efectos sonoros

La palabra ruido proviene del latín rudus, que significa «sordo»;


por lo tanto, alguien que necesita que se le hable a gritos, una
dificultad en la comunicación. El ruido se relaciona desde su
concepción semántica con una intención estética negativa,
distorsionadora, entorpecedora, insana, molesta... La contaminación
acústica estudia las repercusiones psicofísicas de la exposición al
ruido, tales como: insomnio, interrupción del sueño, malestar,
sordera, dolor, dificultades en la comunicación y a la hora de
concentrarse, disminución de la atención, ansiedad, estrés,
agresividad, etc. En este sentido, la Agencia Europea del M edio
Ambiente (Directiva europea 2002/49/CE) considera tolerables los
niveles de 55-65 dB en áreas urbanas, reduciendo aquellos que
sobrepasen los 75 dB y diferenciando unos 10 dB entre el día y la
noche. En nuestro país tenemos normativas al respecto: Ley
37/2003; RD 1413/2005; RD 1367/2007; RD 1371/2007; y
concretamente en Cataluña, la Llei 16/2002 y el Decret 176/2009.
Acústicamente hablando, el ruido es un sonido complejo,
desordenado, irregular, sin altura determinada en muchas ocasiones
y no apto para la música, aunque la historia de la estética musical
ha ido desplazando las fronteras de lo que se considera sonido apto
y no apto para la música. M uchos instrumentos musicales han
pasado de ser meros objetos sonoros a formar parte de la orquesta,
debido a una ampliación de nuestra aceptabilidad en términos
acústicos.
En la música, a nivel expresivo y simbólico, los paisajes sonoros
conformados por ruidos han caracterizado en ocasiones al caos, en
contraposición al orden que infunde la música. El siglo XX ha sido
el gran protagonista a la hora de incluir ruidos en la música culta. En
las décadas de 1940 y 1950, la «música concreta» empezó a utilizar
grabaciones de ruidos cotidianos con fines artísticos y, desde
entonces, la convivencia de éstos con los sonidos musicales ha sido
creciente y fructífera en todos los sentidos. La música electrónica
parte a veces de ruidos del entorno que modifica posteriormente
para crear así nuevos espacios sonoros.
En los audiovisuales, la utilización de ruidos suele tener una
función claramente descriptiva y realista de los ambientes tratados.
M ediante su uso se infunde presencia, se proporciona al público
credibilidad de que lo que está viendo es real y encaja con la
memoria acústica que se tiene de ese contexto. Debido a que las
grabaciones en estudio no tienen sonidos de fondo, éstos deben
añadirse, incluso en forma de un ambiente suave. La eliminación de
los ruidos que conforman un paisaje sonoro constituye también un
elemento intencionadamente expresivo para realzar otros
contenidos del audiovisual (texto, emociones, música, imágenes...).
En algunos casos la selección de ruidos es especialmente cruenta
(documentales de guerras o de enfermedades); en otras, el aumento
de la intensidad de algunos ruidos aumenta su eficacia (por ejemplo,
en los anuncios de bebidas con gas). El máximo exponente de los
escenarios sonoros se da en la ciencia ficción, pues cuando la
imaginación y la técnica se dan la mano, los resultados resultan
espectaculares...
Actualmente existen muchos archivos de sonidos para crear los
efectos sonoros necesarios para ambientar una escena. Suelen
recibir el nombre de foleys en homenaje a Jack Foley, el primer
especialista en buscar efectos de sonido para una escena en el
Hollywood de la década de 1940. A su vez, estos efectos se
manipulan para dar más énfasis a la escena y a la expresión.

› El silencio

El término silencio deriva del latín silere, que significa «callar»; en


su origen, no designa la ausencia de sonido, sino la deliberada
intención de acallar los sonidos mediante la actuación humana. El
silencio no es natural, ni tampoco lo encontramos de forma
espontánea en las sociedades humanas. En la naturaleza el silencio
es inquietante, señala algún peligro. En los ambientes sociales el
silencio expresa inhibición, falta de comunicación, aislamiento,
control emocional (por ejemplo, cuando se hace un minuto de
silencio en honor de alguien fallecido), y puede conducir a la
depresión por falta de estímulos sonoros (como sucede en el caso
de algunas órdenes religiosas que hacen voto de silencio y viven,
además, en entornos extremadamente silenciosos). El Dr. Tomatis
realizó algunas investigaciones con estos colectivos y llegó a la
conclusión de que sus depresiones estaban motivadas por una
excesiva falta de estímulos cerebrales procedentes del ámbito
sonoro.
Por otra parte, técnicamente el silencio no existe, pues ni
siquiera aislados en una cámara anecoica (Rodríguez Bravo, 1998)
somos capaces de aislar las sensaciones acústicas. Cuando
hablamos de silencio, en realidad nos referimos a la sensación de la
ausencia de sonido, al llamado efecto silencio; para obtenerlo hace
falta un espacio de unos tres segundos sin sonido o cuando la
intensidad sonora baja de improviso de forma notoria.
Respecto al uso del silencio en los audiovisuales, proponemos
diversas funciones:

• Para preparar una sorpresa o intriga en la narración (los


géneros fantásticos y de terror abusan de este efecto),
aumentando la expectativa.
• Como pausa o separador de dos escenas, con objeto de crear
un contraste escénico (por ejemplo, en algunos anuncios).
• Para potenciar otros contenidos del audiovisual,
especialmente los visuales (por ejemplo, la famosa escena de
Marnie, la ladrona, de Alfred Hitchcock).
• Para concienciar de la contaminación sonora de las ciudades
(por ejemplo, los conciertos silenciosos de la Banda
M unicipal de Barcelona, o la pieza de John Cage 4’ 33’’).
• Para potenciar la angustia de los personajes o una larga espera
en una situación, proporcionando la sensación de que el
tiempo tarda más en pasar.
• Para expresar lo desconocido: la muerte, el vacío...
• Para dar sensación de retardar las imágenes, el tempo visual.

En sus inicios, el cine no utilizó sonidos fijos y organizados


hasta 1914, sino que éstos eran fruto del azar, del entorno, de las
máquinas y bobinas, del público, etc.

› El ritmo

Las combinaciones de sonidos con diferentes duraciones provocan


el efecto llamado ritmo. Este palabra proviene de la raíz sreu,
«fluir», y desde la antigua Grecia se ha relacionado con un
movimiento regular y repetitivo, al igual que la rima poética.
No todas las músicas tienen ritmo en un sentido estricto, pues a
veces es imposible determinar una estructura de duraciones
sonoras; en este caso la música toma un aspecto caótico y
desordenado. Ejemplos de ritmo fluctuante serían el canto
gregoriano, los calderones y los ragas que empiezan sobre un
calderón. En todos ellos encontramos la expresión de un cierto
inicio de eternidad, mientras que el principio de actividad y
humanidad lo hallaríamos en la música con un ritmo medido. Éste
permite la fluidez y la expresión natural vinculadas al movimiento
corporal. Las músicas destinadas a la danza suelen caracterizarse
por un ritmo constante y peculiar que las distingue. M uchas veces
este cometido está asignado a los instrumentos de percusión,
aunque las melodías también puedan compartir tales características.
Los ritmos característicos provienen de tradiciones musicales
que los han elaborado, instaurado y tomado como propios, tanto en
tiempos presentes como a lo largo de la historia. Por tanto, la
identificación de ritmos peculiares será uno de los elementos de
mayor arraigo cultural de una obra y especialmente de un
audiovisual. La banda sonora, como ambientación sonora de una
cultura, territorio o momento histórico, se verá sustentada mediante
el uso de ritmos propios y adecuados al contexto. Los ritmos de
una música a veces presentan patrones («diseños» o «células»),
agrupamientos característicos que pueden repetirse muchas veces a
lo largo de una pieza, por ejemplo en los siguientes géneros: samba,
habanera, sardana, swing, chachachá, tango, rock, rumba, etc., entre
los más conocidos. Asimismo, algunas melodías célebres permiten
ser reconocidas mediante la ejecución de su ritmo (sin necesidad de
participación melódica). Dicha técnica también es un recurso
expresivo importante en algunos audiovisuales.

Algunos ritmos característicos derivados de danzas populares


Nombre Procedencia Compás
Vals Centroeuropa 3/4 o 6/8
M azurca Polonia 3/4
Sardana Cataluña 2/4
Swing Estados Unidos 2/4
Chachachá Centroamérica 4/4
Tango Argentina 4/4
Samba Brasil 2/4
Habanera Cuba/España 2/4
Zortzico Euskadi 5/8
Pasodoble España 2/4

Respecto a la coincidencia del ritmo de las imágenes con el del


sonido, es un recurso menos empleado de lo que podría pensarse:
aunque es cierto que otorga fluidez al visionado, también origina
monotonía y previsibilidad. Así pues, muchos documentos
audiovisuales rompen esta sincronía para dar mayor continuidad y
aumentar las expectativas del público.
› La métrica: el compás

La métrica es la combinación de ritmos regulares y acentos; tiene su


origen en el movimiento y en el habla (en los «metros» de la
poesía). Por regla general, el primer tiempo de un compás (unidad
métrica que se repite a lo largo de una pieza, indicada con un
quebrado) es más fuerte que el resto. Hay compases «simples»
(cada tiempo puede subdividirse en mitades), «compuestos»
(subdivisibles en tercios) e irregulares (amalgamas, que representan
un porcentaje mínimo).

Para Aristóteles, en la Retórica, algunos de estos pies estarían


dotados de significado: así, el yámbico (V -) sería la vida en acción;
el troqueo (- V) sería apropiado para la danza, y el dactílico (- V V)
para lo heroico.
La sensación de compás permite la producción de movimientos
repetitivos y cíclicos. M uchos de los bailes y danzas populares
utilizan los compases de dos tiempos por su analogía con la
simetría del cuerpo: el péndulo, la forma de andar, los movimientos
de brazos... El compás ternario, en cambio, puede simbolizar lo
inusual, la excepción, lo artificial, el valor específico, lo emotivo...

› La melodía

La melodía es un elemento fundamental en una obra musical, pues


nos permite recordarla, repetirla, cantarla... La repetición melódica
permite fijar en la memoria este elemento tan característico de una
obra, por lo que los compositores hacen un uso preferente de este
recurso. Ya Rousseau analizó las relaciones de la melodía con el
habla y con la música tradicional. La melodía está formada por
combinaciones de sonidos según sus alturas (notas) con un ritmo
determinado, las cuales generan una línea que puede estructurarse
como una frase, con subfrases, períodos, etc. M uchas frases
melódicas suelen durar una respiración, es decir, entre 3 y 5 s, y en
ellas encontramos un acento principal y quizá algunos secundarios.
La frase es un elemento con mucha personalidad que los
compositores cuidan en extremo para que sus obras alcancen la
fama. La melodía posee una especial dialéctica con su
acompañamiento, en la línea de lo que en la Gestalt viene a llamarse
figura/fondo (o campo). Normalmente el diseño de la partitura para
un film se desarrolla en torno a una serie de temas, que suelen ser
melódicos, y a la recurrencia de motivos identificables.
El lenguaje musical guarda íntima relación con el verbal y su
«melodía»; los distintos sentidos de las oraciones (afirmativa,
interrogativa...) se transmiten de alguna manera a las melodías. El
código simbólico funciona de modo parecido. En general podemos
hablar de intervalos ascendentes en las melodías, cuando se
pretende expresar abertura, energía, expresión emocional y
expansión (como el caso de los himnos heroicos), y descendentes si
se persigue la calma, la interiorización, la represión de energía o la
condensación (Cooke, 1959). El diseño melódico sigue la tendencia
y la costumbre del habla, y relaciona la emocionalidad con el
esfuerzo vocal (Fonady y M agdics, 1972): así, en Occidente, por lo
general, los finales conclusivos bajan hasta la tónica, mientras que
los suspensivos ascienden. De igual modo, las frases asertivas, en
las que se proclama una idea, suelen tener forma de arco, que se
eleva con la tensión y luego desciende hacia la relajación, mientras
que las preguntas suelen formar un arco al revés, con un final
ascendente. En la música vocal existió una cierta tradición durante
los siglos XV al XVIII de representar los textos mediante líneas
melódicas ascendentes o descendentes según su significado
(Harman y M ellers, 1962). También la descripción sonora de
movimientos en las películas de animación infantil utiliza este
recurso (glissandos descendentes en toboganes, ascendentes en
ovnis que se elevan) o, en palabras de Brazil et al. (1980), en busca
del suspense (final que baja y sube repentinamente) o la empatía
(bajar al final, ir de lo desconocido a lo conocido).
La organización de las notas de una melodía sigue un patrón
marcado por una tradición estética determinada. Así, tenemos
melodías tonales, modales, dodecafónicas, microtonales, atonales,
etc. según provengan de estas prácticas musicales. En el análisis
melódico, podemos tomar en consideración el inicio y el final de
cada frase, y asignarles los distintos calificativos al uso: final
masculino o femenino (según coincida o no el ictus final con la
última nota); inicio tético, anacrúsico o acéfalo (según empiece con
el primer ictus, antes o después).
En los códigos simbólicos occidentales, los tratados de estética
musical han asignado al llamado modo mayor la expresión del
esplendor, la gracia, la infancia, el estímulo, la extroversión...
mientras que al modo menor le corresponderían la tristeza, la
intimidad y la pasividad. El uso de músicas con otras
organizaciones melódicas ha venido a ampliar y actualizar dichos
códigos, que durante siglos han constituido uno de los puntales
expresivos de la música occidental. Las estructuras tonales
centradas en torno a un eje tonal suelen relacionarse con el orden,
mientras que el atonalismo podría expresar suspense (Fraile, 2009).
El ámbito melódico está condicionado por las costumbres
culturales, aunque, de modo general, Brazil et al. (1980) proponen
que la amplitud melódica se relaciona con la sorpresa, la ansiedad,
la excitación, la ira o los grandes sentimientos, mientras que un
ámbito estrecho expresa miseria, aburrimiento, modestia, cansancio
o miedo. El uso emocional de la música en el cine se alimenta de
tales consideraciones.
Algunas músicas escénicas han elaborado códigos para
caracterizar personajes. Tal es el caso de Wagner y sus famosos
leitmotiv o melodías que acompañaban a cada personaje, escena o
estado de ánimo. Sirven para referirse o recordar un personaje, a
modo de una voz en off. Asimismo la inclusión en un audiovisual de
melodías conocidas permite un elemento de mayor identificación
del público con la escena o los personajes (por ejemplo, la
presencia o el recuerdo del animal en Tiburón mediante su
leitmotiv).
Dentro del estudio de la melodía, debemos considerar la
articulación, eso es, la forma de enlazarse cada uno de los sonidos
de una frase, ya sea mediante continuidad o separaciones. El primer
caso (legato) expresa relajación, sensualidad y conectividad,
mientras que el segundo (stacatto) señalaría energía, fuerza,
vivacidad o disyuntiva.

› La armonía

Es el arte de combinar los sonidos de forma simultánea. Se ocupa


de cómo suenan los acordes (notas que suenan a la vez): si nos
parecen bellos, los denominamos consonantes y si no, disonantes.
Las leyes de la armonía se fundamentan en la acústica, pero han
estado influidas por las modas musicales de cada época y lugar.
La consonancia se origina por la superposición de sonidos que
comparten muchos formantes de sus series armónicas respectivas.
Así pues, tenemos que los intervalos de octava, unísonos, quinta y
cuarta (por ejemplo, respecto a la nota do serían: otro do, sol y fa)
son los sonidos que comparten mayor número de formantes. A
continuación tenemos la tercera y sexta (respecto a do serían mi y
la), y en el extremo opuesto tendríamos la segunda y séptima
(respecto a do, serían re y si). A grandes rasgos éste sería el modo
de caracterizar la simultaneidad sonora.
Las consonancias infunden sensación de equilibrio, reposo,
alegría y bienestar, mientras que las disonancias nos preocupan,
inquietan, infunden tensión o deseo. Dichos elementos
compositivos han sido utilizados ampliamente por los
compositores como códigos emocionales del discurso musical,
aunque el siglo XX se ha caracterizado por la ruptura de los
estándares buscando una mayor flexibilidad tonal y armónica. La
«música contemporánea» supera dichas categorías y acostumbra al
oído humano a convivir con las que anteriormente se consideraban
como disonancias, las cuales expresan disconformidad,
disentimiento, crisis, revolución... La música para cine las utiliza
con una frecuencia mucho mayor que la música de concierto; el
público acepta mucho mejor su inclusión debido a una justificación
escénica emocional en los audiovisuales.
Además, entre las consonancias podemos hablar de algunos
tipos de acordes muy utilizados: los mayores (designan el modo
mayor y suenan «alegres»), los menores (muy presentes en el
modo menor, suenan «tristes»), los de séptima (añaden una
sensación de cambio, de proceso, de algo inacabado que necesita
una resolución), los disminuidos y los aumentados (de similar
función a los anteriores)...
De igual modo, podemos entender que a lo largo de una melodía
se pueden generar cambios armónicos más o menos rápidos, así
como provocar una cierta quietud o monotonía (el caso de los
llamados pedales o bordones), con acompañamientos efectuados
con una sola nota, a menudo grave. Algunos instrumentos
tradicionales provocan este acompañamiento de forma automática,
como la gaita.
También en algunos lugares privilegiados de la melodía (como
los finales de frase), la armonía suele favorecer la comprensión de la
idea melódica mediante las cadencias, unas secuencias de acordes
que sugieren un final completo o incompleto. Distinguimos entre
las conclusivas (auténtica V-I, plagal IV-I) y las suspensivas (la
semicadencia V, y la rota V-VI). La creación de expectativas en el
espectador puede provocarse mediante la consecución tonal
armónica y la cadencia.

› La forma musical

La forma musical se refiere a la estructura que podemos apreciar en


una obra y se relaciona con sus intenciones expresivas o estéticas.
La comprensión musical es un entendimiento consciente o
inconsciente de estructuras, cuyas partes están vinculadas entre sí
mediante algún tipo de lógica. En el estudio formal de la música,
solemos distinguir entre melodía o «tema» principal, y su
acompañamiento. Solemos asignar letras (A, B, y sus
modificaciones A’, B’, etc.), para designar los principales temas o
bloques musicales distinguibles que aparecen en una obra, a fin de
poder identificarlos más adelante.
La estructura puede aparecer de diversas formas en este
contexto: los autores suelen reutilizar los materiales a lo largo de
una composición, mediante técnicas comunes a otras artes: la
repetición (A, A, A), la imitación o semejanza (A, A’, A’’), el
contraste (A, B, C), el desarrollo o variación, la improvisación, la
combinación, la inversión, la reducción, la sustitución, la
expansión... La repetición permite fijar en la memoria los elementos
más característicos y valiosos de una obra, por lo que los
compositores hacen un uso preferente de este recurso, aunque para
mantener el interés sea importante evitar las repeticiones idénticas,
especialmente en lo referente a la interpretación. Un ejemplo de ello
serían los temas con variaciones, como los grounds, pasacaglias y
ostinatos, bases armónico-rítmicas sobre las cuales se construye la
melodía principal y que sirven de base al desarrollo narrativo.
M uchas formas musicales célebres, con estructuras
diferenciadas, han dado nombre a obras muy conocidas. Entre ellas
cabe señalar la sonata, la cantata, la fuga, la sinfonía, el concierto, el
canon, la canción estrófica, el virelai, el Lied, el rondó, la suite... En
algunos casos es el contraste lo que cuenta (como en la suite), en
otros el desarrollo (como en la sinfonía), la improvisación (como el
jazz), la repetición (el canon), la imitación (la fuga), etc. El rondó,
por ejemplo, puede servir para reiterar una idea o un leitmotiv
(como la banda sonora de Indiana Jones, según Radigales, 2007). El
Lied suele plantear una frase A, una repetición alterada A’ que crea
tensión expectante y una respuesta B, tan larga como las dos
anteriores unidas.
El contraste es uno de los métodos de elaboración de melodías
más importante en algunas formas célebres, como la sonata o la
sinfonía. Normalmente un tema A (calificado como «masculino»)
presenta una melodía amplia, con saltos ascendentes, ritmo
marcado, articulación separada, enérgico, activo y ejecutado con
intervención de metales y percusión. Por el contrario, el llamado
tema B («femenino») suele ser descendente, de menor ámbito
melódico e intensidad, con cadencias suspensivas, legato,
introspectivo, delicado, ejecutado con cuerdas.
Si seguimos la estructura narrativa clásica (Aristóteles) tenemos
un planteamiento (hasta el 25%), un desarrollo (desde el 25 hasta el
75%), y un desenlace aproximadamente en el punto 75%, con 2
puntos de giro en 25% y 75%. M uchas obras musicales para cine
mantienen esta estructura narrativa, aunque, en general, la
estructura temporal de las mismas no permite a la música
desarrollarse con independencia mediante repeticiones y contrastes,
sino que es subsidiaria de la narración y las imágenes.

› El género musical
Otro de los elementos de la música es el género musical, que se
refiere al tipo de obra en función de su uso o de la utilidad para que
ha sido concebida. De este modo, una composición debe adaptar
determinados parámetros (duración, cambios, partes, estructura...)
a un concepto extramusical, ya sea un film, un ballet, una escena
teatral, una danza... El género vincula una firme relación entre el
objetivo que debe cumplir la música y los medios de composición
adecuados a tal fin.
Encontramos obras «puras», destinadas a un género, sin
cambios, mientras que son frecuentes las adaptaciones
intergenéricas de músicas preexistentes con otra utilidad: de música
sinfónica a música de baile o de cine, de música profana a religiosa,
de música popular a culta o viceversa, etc.
Sin ánimo de ser exhaustivos proponemos un tipo de
clasificación de obras musicales según su género. Para ello debemos
considerar distintos parámetros:

• Por el tipo de público a que va destinada: música culta /


popular.
• Por el número de instrumentos: música de cámara / sinfónica.
• Por el número de voces: música monódica / polifónica.
• Por el uso de instrumentos electrónicos: música acústica /
electrónica/ electroacústica
• Por el tipo de grupo instrumental: música vocal / instrumental
/ mixta.
• Por el tema: música religiosa / profana
• Por su uso: música militar, escénica (ópera, ballet...), de baile,
de cine, de relajación, de trabajo, videoclip...

En concreto nos interesa la música para audiovisuales, que


puede ser original o provenir de otros géneros. Las principales
funciones que se asignan a esta música serían:

• Organizar la narración y sus partes.


• Dar continuidad a las escenas.
• Provocar sincronía o falta de ella para aprovechar su mayor
impacto sonoro y humor.
• Decorar con elementos que no se ven (sonidos off, lo que
Chion llama supercampo).
• Identificación con un grupo social, generacional, cultural...
• Reactiva, emocional, buscando la participación afectiva en el
film (veáse el capítulo sobre las emociones).

› El estilo musical

Es una característica de la música que engloba cualidades del sonido


y de la música con un fin identificador y caracterizador de una
época o un grupo social. El estilo musical será un elemento clave
para asignar un público potencial a un film.
En cada época predominan unas formas musicales, unos
géneros, unos instrumentos y grupos instrumentales, unos ritmos
característicos... Por tanto, el conocimiento del estilo obligará a un
análisis pormenorizado de los atributos de una música y su
asignación a un contexto social e histórico. Para ello deberemos
conocer sobradamente las características y atribuciones de cada
época y territorio, así como las versiones históricas, sus
transformaciones y los principales intérpretes. Conocer los estilos
musicales del pasado permitirá una ambientación sonora adecuada
para crear audiovisuales de documentales históricos, películas
situadas en el pasado, usos locales de determinados sonidos y
músicas, aceptación por parte del público oyente de determinados
estilos, etc. Su conocimiento es básico en las biografías
cinematográficas o biopics. En general, cada época histórica ha
preferido un estilo musical propio, aunque otros anteriores hayan
convivido con los más experimentales y novedosos.
Para clasificar los estilos musicales, debemos acudir a la
musicología, tanto en su rama histórica como en su visión
etnomusicológica. Los términos utilizados por los expertos guardan
relación con las taxonomías más corrientes de la historia del arte,
aunque con algunas excepciones y aclaraciones: Renacimiento,
clasicismo, barroco, romanticismo, nacionalismo, impresionismo,
expresionismo, pop... Otros términos guardan relación sólo con la
historia de la música, como Ars Antiqua, Ars Nova, aleatoriedad,
atonalismo, música concreta, jazz, rock, música electrónica,
dodecafonismo, etc.
Las clases sociales dominantes han determinado qué estilo de
música es el adecuado para las actuaciones, la educación, la
composición, etc., manteniendo unos estereotipos, frente a otros
que son arrinconados o abandonados. Hoy día coexisten muchos
estilos musicales, pues el mercado de la música permite cierta
difusión de cada uno de ellos en función de targets específicos. La
globalización, contrariamente a lo que pueda suponerse, puede
llegar a ser un factor de protección de las minorías, las cuales
pueden expandir sus modos de expresión más allá de sus fronteras
culturales. No obstante, la música de cine es la música culta de
nuestra época y, en cierto sentido, es capaz de acercar al gran
público a la música clásica y al patrimonio musical de la
humanidad.

Bibliografía

ALCARAZ, María José / P ÉREZ C ARREÑO, Francisca (2010). Significado,


emoción y valor. Ensayos sobre filosofía de la música. Madrid, Machado
Libros.
B ERNSTEIN, Leonard (2009). El maestro invita a un concierto. Madrid: Siruela.
B ORDWELL, David (1997). El cine clásico de Hollywood: estilo
cinematográfico y modo de producción hasta 1960. Barcelona, Paidós.
B RAZIL, David / C OULTHARD, Malcolm / JOHNS, Catherine (1980). Discourse
Intonation and Language Teaching. Londres, Longman.
C HION, Michel (1997). La música en el cine. Barcelona, Paidós.
— (1999). El sonido. Barcelona, Paidós.
C OLÓN, Carlos / INFANTE, Fernando / LOMBARDO, Manuel (1997). Historia y
teoría de la música en el cine. Presencias afectivas. Sevilla: Alfar.
C OOKE, Deryck (1959). The language of music. Oxford, Oxford University
Press.
DART, Thurston (2002). La interpretación de la música. Madrid: Machado
Libros.
F ERRI , Fabrizio (2003). « Efectos de tempo y modo sobre el contenido
emocional de la música» . En: Fórum de recerca. Universitat Jaume I.
Disponible en: http://www.uji.es/bin/publ/edicions/jfi9/psi/5.pdf.
F ONAGY, Ivan / MAGDICS, Klara (1972). « Emotional patterns in intonation and
music» . En B OLINGER, Dwight (ed.). Intonation. Harmondsworth,
Penguin.
F RAILE, Teresa (2009). La creación musical en el cine español contemporáneo.
Salamanca, Publicaciones de la Universidad de Salamanca (tesis doctoral).
GARCÍA JIMÉNEZ, J. (1996). Narrativa audiovisual. Madrid, Cátedra.
GUSTEMS, Josep (2005). « Escuchar los anuncios: una aproximación al uso de la
música y del sonido en la publicidad televisiva» . Eufonía, Didáctica de la
música, núm. 34, pp. 91-100.
— / González, O. (2010). « La música y el sonido en la programación infantil de
Televisió de Catalunya» . En: P ORTA, Amparo (ed.). ¿Qué escuchan los
niños en la televisión?. Castelló de la Plana, Edicions Universitat Jaume I,
pp. 110-133.
HARMAN, Alec / MELLERS, Wilfrid (1962). Man and his Music. Londres,
Barnie and Jenkins.
LEEUWEN, Theo van. (1999). Speech, music, sound. Londres, McMillan.
LLUÍS F ALCÓ, Josep (1997). « L’anàlisi de la música cinematogràfica com a
proposta didàctica» . Butlletí del Col·legi Oficial de Doctors i Llicenciats,
núm. 99, pp. 23-25.
R ADIGALES, Jaume (2007). La música en el cinema. Barcelona, UOC.
R ODRÍGUEZ B RAVO, Ángel (1998). La dimensión sonora del lenguaje
audiovisual. Barcelona, Paidós.
S EDEÑO, Ana María (2004). « Recorrido histórico por las relaciones entre
música e imagen: el videoclip musical» . Música y Educación, núm. 58, pp.
67-83.
S IANKOPE, Joseph / VILLA, Olga (2004). Música e interculturalidad. Madrid,
Catarata.
T ÉLLEZ, Enrique (1996). « La composición musical al servicio de la imagen
cinematográfica» .
Eufonía, didáctica de la música, núm. 4, pp. 47-58.
VV. AA. (2010). Sons i Sorolls. Barcelona, Ajuntament de Barcelona.
/ Elementos expresivos y comunicativos
de la voz en los audiovisuales

Josep Gustems Carnicer, Universidad de Barcelona


Caterina Calderón Garrido, Universidad de Barcelona

› La voz, un instrumento musical privilegiado

Entre los elementos sonoros de un audiovisual debemos considerar


quizá la voz como el más importante, tanto por su capacidad
comunicativa como por su versatilidad como instrumento musical,
lo que la ha situado en un lugar principal durante muchos períodos
de la historia de la música. Así pues, una primera distinción
planteará diferencias entre la voz cantada y la hablada, aun cuando
ambas comparan muchos de los elementos musicales que hemos
apreciado a lo largo de los anteriores capítulos.
Según la programación neurolingüística (PNL; O’Connor y
Seymour, 1995), se ha conseguido cuantificar, dentro de la
comunicación oral entre personas, el peso de cada elemento en la
eficacia y la expresión: se calcula que las cualidades de la voz
hablada alcanzan el 38%, mientras que sólo un 7% se atribuye al
contenido de las palabras y un 55% a elementos corporales no
sonoros (postura, respiración, piel...). Así pues, hemos de tener en
cuenta estos datos a la hora de formar profesionales de la
comunicación oral, ya sean maestros, pedagogos, educadores,
locutores, presentadores, periodistas, etc., pues en su formación
profesional no suelen existir contenidos específicos de mejora y
cuidado de su voz, y en cambio, ésta será uno de los pilares básicos
sobre los que su trabajo y presencia se sustentarán.
Si nos adentramos en las cualidades de una voz, hemos de
considerar en primer lugar las lingüísticas y expresivas, que se
refieren a rasgos dialectales, nivel de lenguaje, riqueza léxica, estado
de ánimo, edad, salud, intención, personajes, estereotipos de oficios
en cada momento y el número de voces (lo que da sensación de
solidaridad). Pero también debemos tener en cuenta las
características musicales de la voz y considerar la intensidad, los
acentos, la potencia, la altura o tesituras, la tensión, lo extremo de
la tesitura, los cambios de intensidad, el ritmo del habla (el tempo
estable y sus cambios), las variaciones micromelódicas
emocionales, el timbre general que describe una voz, etc.

› La voz, un retrato del alma

En general no estamos a gusto con nuestra voz, no siempre


consideramos que sea bonita y cuando la escuchamos grabada nos
sorprende. Sin embargo, no sucede lo mismo con la voz del resto de
las personas que nos rodean. ¿A qué se debe esto?, ¿por qué nos
cuesta reconocer y aceptar nuestra voz? Justo ahí empieza la
paradoja: lo que aceptamos y reconocemos como propio no es lo
que nos define ante los demás: nuestra voz es muy distinta oída
desde dentro de nuestro cuerpo que desde fuera, debido a que los
demás sólo escuchan el sonido que les llega al oído, mientras que
nosotros tenemos una doble audición: la externa y la interna, a
través de la cabeza y la trompa de Eustaquio.
Tendemos a identificarnos y preferir las voces de otros que se
parecen, complementan o completan la nuestra. A veces buscamos
lo que nos une a esa persona y, en cambio, en ocasiones tan sólo lo
que nos diferencia y querríamos incorporar a nosotros, esa máscara
vocal. La coincidencia o no con nuestra entonación, intensidad o
ritmo hace que las voces de dos personas sean más o menos
compatibles y coincidentes, y eso se puede extrapolar a la relación
entre dichas personas.

› En busca de un modelo de análisis vocal

El modelo PSICOVOX (Calderón, 2011) pretende facilitar la


comprensión de las características psicológicas y de los usos
comunicativos de los personajes a través del análisis sonoro de las
voces habladas o cantadas presentes en los productos
audiovisuales. Para ello se plantea un examen exhaustivo tanto de
sus características acústicas (desde los parámetros más simples
hasta los más sutiles) como de sus aspectos expresivos y
comunicativos.
El M odelo PSICOVOX plantea distintas fases a lo largo de su
implantación:

1. Fase descriptiva: análisis de las características acústicas básicas


de cada voz:
a) Altura: tesitura, uso del falsete, flexibilidad tonal, inflexiones,
entonación, musicalidad, sentido melódico, voces extremas,
vibrato, etc.
b) Timbre: nasalización, ataque duro o rasposo, tensión; voz
gutural (no impostada, con aire), impostada (de cabeza,
redonda), engolada, opaca, de un actor conocido,
desconocida, etc.
c) Duración: tempo, cambios de tempo, ritmo regular, pausas,
acentos y prolongaciones, eco, fiato largo, pocas
respiraciones, etc. d) Intensidad: energía, potencia, grito,
afonía, disfonía, cambios de intensidad, vibrato, trémolo,
número de voces, etc.

2. Fase intencional: propuesta de sentidos e intenciones a partir de


los elementos anteriormente descritos. Análisis de las
capacidades comunicativas, expresivas y los rasgos de
personalidad asociados, según los siguientes elementos:
a) Altura: habitual o no en una cultura o grupo étnico,
atribuciones de edad, fragilidad, sexualidad, sensualidad,
personaje, estatus, actividad, energía, relajación, seguridad,
autoridad, emocionabilidad, ambigüedad sexual,
inexpresividad, impotencia, fingimiento, empatía, monotonía,
oficio, dinamismo, inocencia, protagonismo, virilidad,
rivalidad, solemnidad, rigidez, estado de ánimo o emociones,
dialecto, origen, nivel cultural, intenciones comunicativas
(aseveración, negación, interrogación, exclamación), énfasis,
voces extrahumanas (frialdad, técnica, extraterrestres, Dios,
ángeles, monstruos, espíritus...), sorpresa, ansiedad,
aburrimiento, modestia, cansancio, miedo, etc.
b) Timbre: impostación excesiva, dignidad, caricatura, humor,
ridículo, protección, otras razas, queja, pena, llanto,
inhibición, represión, cortesía, esfuerzo, proximidad,
naturalidad, improvisación, disponibilidad, enfermedad,
ruidos, fricción, tensión, agresividad, excitación, angustia,
naturalidad, vulnerabilidad, compasión, informalidad,
susurro, intimidad, sensualidad, erotismo, belleza, armonía,
sonoridad, alegría, salud, seguridad, formalidad, tradición,
clasicismo, egocentrismo, discreción, inseguridad,
identificación, memoria histórica de otros productos
audiovisuales a los que remite, valor añadido por ser una voz
conocida, inocencia, realismo, etc.
c) Duración: identificación de edad, salud, género, clase social,
inseguridad, llamar la atención, sorpresa, monotonía, burla,
insistencia, reiteración, dignidad, ignorancia, énfasis,
solemnidad, soledad, grandiosidad, poder, etc.
d) Intensidad: presencia, edad, actitud, salud, clase social,
estatus, estado de ánimo, proximidad o distancia, susurro,
secretismo, confianza, exclamación-grito, impotencia/dolor,
dominio, distancia íntima/personal/pública, cansancio,
enfermedad, mala salud, marginación, cambios de actitud,
llamar la atención, sorpresa, locura, miedo, dudas, énfasis,
multiplicidad (voces diferentesdiversidad, o bien uno mismo
hace las otras voces-narcisismo), esfuerzo, adaptación,
soledad/ comunidad, etc.

3. Fase de reducción fenomenológica: se destacan las coincidencias


intencionales en forma de aglutinantes o «nudos» semióticos
(memes), a partir de la descripción y el relato intencional (fases
1 y 2).

4. Fase evaluadora: puesta en común de las conclusiones sonoras


junto con las visuales y narrativas; coincidencias y contrastes,
ampliaciones y complementos de significado; diseño de los
personajes y personalidades a partir de los elementos sonoros
analizados; redacción de informes.

Ficha de análisis sonoro de la voz para los audiovisuales


Bibliografía

B RAZIL, David / C OULTHARD, Malcolm / JOHNS, Catherine (1980). Discourse


Intonation and Language Teaching. Londres, Longman.
C ALDERÓN, Caterina (2011). Modelo Psicovox. Barcelona, edición propia. N.º
Registro: 02/2011/235.
C ANTERO, Francisco José (2004). « Comunicació i veu» . Articles de Didàctica
de la Llengua i la Literatura, núm. 32, pp. 8-24.
C RYSTAL, David (1970). « Prosodic and paralinguistic correlates of social
categories» . En: ARDENER, Edwin (ed.) Social Anthropology and
Language. Londres, Tavistock Press.
DELATTRE, Pierre (1972). « The distinctive function of intonation» . En:
B OLINGER, Dwight (ed.). Intonation. Harmondsworth, Penguin.
F RANCISCO, Virginia (2008). Identificación automática del contenido afectivo
de un texto y su papel en la presentación de información. Madrid,
Universidad Complutense (tesis doctoral).
IRIONDO, Ignacui (2008). Producción de un corpus oral y modelado prosódico
para la síntesis del habla expresiva. Barcelona, Universitat Ramon Llull
(tesis doctoral).
LEEUWEN, Theo van (1999). Speech, music, sound. Londres, McMillan.
LOMAX, Alan (1968). Folk Song Style and Culture. New Brunswick,
Transaction Books.
MC C ONNELL-GINET, Sally (1977). Intonation in a Man’s World. Signs, núm.
3, pp. 541-559.
O’C ONNOR, Joseph / S EYMOUR, John (1995). Introducción al PNL. Barcelona,
Urano.
/ Los recursos auditivos del cine y el
audiovisual

Jaume Duran Castells, Universidad de Barcelona

› La alianza de la imagen y el sonido

La vista se dirige al hombre exterior, y el oído, al hombre


interior.

RICHARD WAGNER

En 1927 se produjo el cambio más importante en el mundo del cine,


el primer gran audiovisual de la historia, con la incorporación del
sonido. Habitualmente se denomina al período anterior a esta fecha
como cine mudo o silente, pero realmente nunca lo fue. Casi
siempre había habido un piano o un comentador a pie de pantalla o,
en las grandes ocasiones, una buena orquesta.
Ahora bien, a finales de la década de 1920, y aunque ya se
habían producido algunas experimentaciones a principios de este
decenio y existía un gran interés desde los orígenes del cine, surgió
el Vitaphone, el primer sistema eficaz de sonido sincronizado,
registrado en grandes discos que estaban armonizados con la
imagen. Un poco más tarde, a principios de la década de 1930, este
sistema fue sustituido por el M ovietone, que incorporaba la banda
sonora en el propio fotograma.

The Jazz Singer (1927).

The Jazz Singer (El cantor de jazz, 1927), de Alan Crosland,


producido por la Warner Bros., fue el primer film hablado. Este
clásico del género musical fue considerado por algunos como un
simple disco Vitaphone que recogía canciones de la estrella del film,
Al Jolson, simplemente ampliada con imágenes; el papel de éste
hubiera tenido que interpretarlo George Jessel, quien finalmente lo
rechazó al no poder cobrar dos sueldos, el de cantante y el de actor.
No obstante, no se trataba de la primera película con este sistema:
anteriormente ya se había estrenado Don Juan (1926), también de
Alan Crosland, con el sistema Vitaphone, aunque el film no tenía
diálogos. Y el primer film cien por cien hablado fue Lights of New
York (Luces de Nueva York, 1928), de Bryan Foy.
En dos años, la mayoría de las compañías se pasaron al sistema
sonoro, y la unión entre la Warner Bros. y la Western Electric,
subsidiaria de la Telephone and Telegraph (AT&T), fue una de las
más importantes para mejorar la reproducción sincronizada de un
film y un disco.
Ahora bien, algunos directores no reaccionaron de manera
positiva ante el cine sonoro. Es el caso del gran Charles Chaplin,
quien no introdujo ningún fragmento hablado —sólo una canción
elaborada a partir de fragmentos de diversos idiomas e invenciones
— en sus películas hasta Modern Times (Tiempos modernos,
1936), y que no hizo su primer film plenamente hablado hasta The
Great Dictator (El gran dictador, 1940). La célebre actriz
canadiense del cine mudo M ary Pickford, cofundadora con
Chaplin, Douglas Fairbanks y David Wark Griffith de la United
Artists, llegó a afirmar que el cine hubiera tenido que ser primero
sonoro y después silente. Singin’ in the Rain (Cantando bajo la
lluvia, 1954), de Stanley Donen, es un buen film para observar los
problemas de la llegada del sonoro al cine.

Radio Day s (1987).


Trois couleurs: blue (1993).

En cualquier caso, la alianza entre la imagen y el sonido ha sido,


y es, fundamental en el mundo audiovisual, e incluso la capacidad
de construir imágenes a partir de los sonidos y viceversa ha sido, y
es, extraordinaria. Y, en concreto, el cine ha reflejado esto
brillantemente. Por ejemplo, en Radio Days (Días de radio, 1987),
de Woody Allen, resulta interesante ver cómo, en una secuencia, el
tío del protagonista se interesa por la carrera de un jugador de
béisbol narrada por un locutor radiofónico que hace creíble aquello
que no lo puede ser de ninguna de las maneras.
Y dicha alianza entre la imagen y el sonido puede llegar a un
tratamiento claramente locuaz en un film como Trois couleurs: blue
(Tres colores: azul, 1993), de Krzysztof Kieslowski, donde en una
escena vemos a la protagonista, Julie (Juliette Binoche), que acaba
de perder a su marido e hija en un accidente, cómo toca las notas de
una partitura con un piano: se nos muestra el seguimiento de ésta y
oímos la música resultante, pese a algunos intervalos de silencio.
Actualmente, en el cine raramente percibimos momentos de
silencio. Siempre hay, pues, algún elemento sonoro, ya que el
espectador no acepta el silencio con facilidad, y, posiblemente,
nunca lo ha hecho. Aun en momentos en que una determinada
escena apela a esta situación, siempre se acaba manteniendo al
menos un tímido ruido, y esto cuando no se comete algún error de
partida, como en el caso de Titanic (1997), de James Cameron,
donde, quizá para romper el silencio, justo después del
hundimiento del barco se añade eco a las voces de los
supervivientes en pleno mar abierto...
Aun así, la mayoría de los comportamientos anormales entre la
imagen y el sonido cuestan mucho de percibir. De hecho, el mundo
audiovisual ha creado sonidos que no se corresponden exactamente
con la realidad. Por consiguiente, se produce una importante
influencia del sonido sobre la imagen, aunque es verdad que su
estudio empezó relativamente tarde: los primeros escritos serios y
profundos sobre la relación entre el sonido y la imagen aparecieron
en la década de 1970, sobre todo en la revista francesa Cahiers du
Cinéma, y no fue hasta la década de 1990 cuando aparecieron
algunos interesantes estudios al respecto, como los llevados a cabo
por M ichel Chion. Actualmente, existe una gran preocupación por
el sonido.
Algunas influencias importantes del sonido sobre la imagen se
encuentran, por ejemplo, en un film como E.T. (1982), de Steven
Spielberg, con música de John Williams: el montaje aparentemente
tiene mucho dinamismo y todo parece pasar muy rápido, con
planos de un segundo o de dos como mucho, pero esto se debe a la
banda sonora, porque, por lo general, dichos planos acostumbran a
tener el doble o el triple del tiempo mencionado.

E.T. (1982).

En Sneakers (Los fisgones, 1992), de Phil Alden Robinson,


dicha influencia se presenta en la narración: en una secuencia,
M arty (Robert Redford) intenta saber por dónde ha pasado y
adónde lo han llevado atendiendo a los sonidos que ha oído
mientras iba encerrado en el maletero de un coche; finalmente,
consigue reconstruir el camino, no sin alguna contradicción, y
gracias también a la ayuda de su compañero ciego Whistler (David
Strathairn).
M uchas veces, además, el sonido se utiliza para encabalgar dos
planos o secuencias que a nivel visual son muy distintas, lo que se
conoce con el nombre de overlapping. Es decir, por ejemplo,
durante un cambio de plano a nivel visual, todavía seguimos
oyendo el sonido perteneciente al plano anterior (overlapping a
posteriori), o antes de que se produzca el cambio ya oímos el
sonido perteneciente al plano siguiente (overlapping a priori). En
Once Upon a Time in America (Érase una vez en América, 1984),
de Sergio Leone, se pone de manifiesto un overlapping
terriblemente largo con el sonido de un teléfono.
Finalmente, el sonido o la música de una escena o secuencia
puede también conllevar lecturas dobles o más profundas. Esto
sucede, por ejemplo, en Apocalypse Now (1979), de Francis Ford
Coppola, donde durante el momento en que los helicópteros
estadounidenses disparan sobre la población vietnamita oímos
música perteneciente al fragmento de la cabalgata de Die Walküre
(Las valquirias), de Richard Wagner, lo que viene a expresar que el
comportamiento del ejército de Estados Unidos en Vietnam es tan
reprobable como el de los nazis durante la Segunda Guerra
M undial. Dicho fragmento fue utilizado por Joseph Goebbels, el
ministro de Propaganda de Adolf Hitler, para unos documentales
sobre la Luftwaffe, la fuerza aérea. Igualmente, la selección
responde al galope de las valquirias encima de los caballos con alas
de la obra operística, que bien podrían ser los helicópteros.
Además, la música, con este sentido y efecto, ya había sido tratada
en filmes como The Birth of a Nation (El nacimiento de una nación,
1915), de David Wark Griffith, u Otto e mezzo (Fellini Ocho y
medio, 1963), de Federico Fellini.

› El sonido en la escena audiovisual: lo real frente a lo


audiovisual

De los sentidos, el oído es el más espiritual.

SOREN KIERKEGAARD

El sonido supera el marco del espacio donde se desarrolla la acción.


Es decir, nos da una situación espacial infinitamente superior a la
del marco: por ejemplo, podemos tener una pareja que se da un
beso en primer plano pero oír las voces que se encuentran mucho
más allá, en la profundidad de campo. No obstante, la imagen actúa
también como un gran imán que atrae el sonido: por ejemplo,
ubicamos la voz de izquierda a derecha de un personaje que se
mueve en esta dirección en el cuadro, pero esto normalmente no
sucede así.
El sonido en la escena audiovisual puede darse:

• En tiempo y espacio diegético; que a su vez puede ser:


– Sincrónico (in): por ejemplo, en relación con la música de un
piano que toca un personaje, cuando el instrumento está en
el campo, dentro de los cuatro segmentos del cuadro de la
imagen, y lo oímos.
– En fuera de campo (off): por ejemplo, igualmente en relación
con la música de un piano que toca un personaje, cuando el
instrumento, como indica la expresión, no está en el campo,
sino fuera de éste, pero lo oímos y sabemos que se
encuentra ahí, en la escena.
– Interior: por ejemplo, cuando escuchamos sólo el
pensamiento de un personaje que está en el campo, sin que
éste hable.
• En tiempo y espacio extradiegético; esto es, el sonido en un
espacio no correspondiente: por ejemplo, la voz narradora o la
música en el cine y, antes de la llegada del cine sonoro, la
orquesta a pie de pantalla.

Entre ambos casos, se pueden dar situaciones donde el sonido


circule libremente y transgreda todas las normas. Es decir, en una
escena o secuencia determinada puede costar saber cuál es la fuente
exacta del sonido en cuestión; se trata del sonido on the air, el que
está en el aire. Tomemos como ejemplo, una vez más, Apocalypse
Now: al inicio del film, el capitán Willard (M artin Sheen) reposa en
una cama y, mediante su recuerdo, el bullicio de la ciudad de Saigón
es sustituido por el del ataque de los helicópteros lanzando napalm
en una zona frondosa de Vietnam. De entre todos los sonidos que
se oyen, y aunque también se escucha la canción The End de The
Doors, destaca el de unas aspas de las cuales dudamos si
pertenecen a dichos helicópteros, a un ventilador de techo que hay
en la habitación o hasta a un helicóptero que finalmente oímos
sobrevolar por encima del lugar donde descansa el personaje.

A pocaly pse Now (1979).

A veces también sucede que un sonido que creíamos que tenía


una naturaleza determinada resulta que pertenecía a otra o incluso
cambia a una tercera. En Eyes Wide Shut (1999), de Stanley
Kubrick, observamos que la canción que acompaña a los títulos de
crédito iniciales y a las primeras imágenes de la obra cambia de una
situación extradiegética a otra diegética sincrónica, ya que Bill (Tom
Cruise) la acaba apagando del equipo de música que se encuentra en
su habitación. En otros filmes, como en Un condamné à mort s’est
échappé (Un condenado a muerte se ha escapado, 1956), de
Robert Bresson, existe un verdadero trabajo de cambio de una
situación a otra que produce un importante avance en la
dramaturgia de la propuesta.
Otro aspecto importante que considerar tiene que ver con la
manera en que nos llega el sonido desde un punto de vista técnico.
Des de la década de 1970, Walter M urch o George Lucas, por
ejemplo, trabajaron con diversos avances. Hasta aquel momento,
prácticamente se podría decir que la proyección de un film en una
sala de exhibición había tenido un altavoz mono, de un canal, junto
a la pantalla (generalmente detrás), o dos a los lados, o detrás, es
decir, el estéreo, de dos canales. M ás tarde, al sistema Dolby, que
mejoraba la calidad del sonido básicamente reduciendo el ruido, se
le sumaron otros sistemas de mejora como el THX, y los sistemas
de sonido envolvente estuvieron al orden del día. En cualquier caso,
la evolución del sonido ha sido tardía, y lenta, respecto a la de la
imagen, aunque ciertos directores, como Fritz Lang o Alfred
Hitchcock, hubieran sido ya muy sensibles con el tema.
Por ejemplo, en M (El vampiro de Düsseldorf, 1931), de Fritz
Lang, la suite «En la gruta del rey de la montaña» de Peer Gynt de
Edvard Grieg es silbada por el asesino Hans Beckert (Peter Lorre),
un hecho que resulta clave para su captura final. O en Rear Window
(La ventana indiscreta, 1954), de Alfred Hitchcock, el sonido de
los flashes de la cámara de fotografía en el momento en que Lars
Thorwald (Raymond Burr) pretende asesinar a Jeff (James
Stewart) da un valor terriblemente dramático a la escena.
M (1931).

Finalmente, cabe ahondar en el hecho de que muchas veces


damos como válidos ciertos sonidos que nunca hemos oído: un
tanque de combate pasando por encima de un cuerpo, un cuello que
se desnuca... Se trata de convenciones, como quizá también lo sea el
sonido de los puñetazos en un western, los cuales tampoco suenan
como nos hacen creer. Las percepciones, como el aire que nos toca
o los olores que sentimos, se han de transmitir en el cine por lo
general también a través de la imagen. Pero en ocasiones, no
obstante, hasta puede llegar a haber una intención metafórica en su
uso, como en el film Duel (El diablo sobre ruedas, 1971), de Steven
Spielberg, donde si prestamos mucha atención, en el momento en
que el malévolo camión cae por el precipicio y se despeña, oímos
también los aullidos de una bestia antes de morir.

Duel (1971).

› La identidad de la música en el cine

La música es lo que el silencio nos deja oír.

VLADIMIR JANKÉLÉVITCH
La música es un sonido compuesto por la superposición y sucesión
de otros sonidos más elementales, las notas. Cada nota posee tres
propiedades: el tono, el timbre y la intensidad. La superposición de
notas define la armonía y la sucesión en el tiempo, el ritmo.
Igualmente, la música es un lenguaje artístico asignificante e
inexpresivo por sí solo, pero, paradójicamente, y pese a no
significar ni expresar nada por sí misma, actúa como mediadora de
las emociones y las voluntades expresivas del compositor. Cuando
la música, además, se relaciona con la imagen, estos valores
emotivos y expresivos acostumbran a adquirir suma importancia.
En Marie Antoinette (María Antonieta, 2006), de Sofia Coppola,
para reforzar el retrato de una mujer moderna y alejada de su
tiempo en la corte de Versalles de finales del siglo XVIII, la
directora escoge música de grupos contemporáneos como Siouxsie
& The Banshees, The Cure o The Strokes.
Marie A ntoniette (2006).

Sea como sea, y dejando al margen ciertos ejemplos tan


peculiares, la música, juntamente con la palabra —en forma de
comentario, de voces o de diálogos sincronizados—, los efectos
sonoros o ambientales, y, quizá también por su valor expresivo, el
silencio forman la llamada banda sonora de un film o programa
audiovisual.
Dicha banda sonora, en lo que a la música se refiere, se ha
llegado a utilizar en ocasiones, a partir de las partituras
encontradas, para restaurar el montaje de ciertos filmes, y a lo largo
de la historia del cine parece no entenderse la obra de un gran
director sin su músico de cabecera. Los binomios Federico Fellini-
Nino Rota, Alfred Hitchcock-Bernard Herrmann, Sergio Leone-
Ennio M orricone, George Lucas o Steven Spielberg-John Williams,
David Lynch-Angelo Badalamenti, o Joe Hisaishi-Hayao
M iyazaki, parecen inseparables. E ineludibles.
En el cine también se puede llegar a describir lo que pasa a
través de la imitación musical, lo que se conoce bajo el nombre de
mickeymousing. Su nombre viene de una música que puede llegar a
marcar el paso del dibujo animado de un ratón que, por ejemplo,
baja por unas escaleras. En The Informer (El delator, 1935), de
John Ford, una moneda cae al suelo y la música nos presenta su
recorrido.
Ante estos paradigmas, parece claro destacar que la música es
un trabajo que se elabora a posteriori del film, es decir, en
posproducción. Y, pese a que esto es así por lo general, en alguna
ocasión ha habido alguna excepción, como en Ascenseur pour
l’echafaud (Ascensor para el cadalso, 1957), de Louis M alle, con
música de M iles Davis, que prácticamente la compuso con su
grupo, improvisando y sin partitura, en el mismo momento de su
primer visionado.

A scenseur pour l’echafaud (1957).

Ahora bien, por lo general, los grandes compositores de música


de cine son, y han sido, cineastas, y, por lo tanto, son capaces de
proponer alternativas a las imágenes que se les presentan para
complementar o mejorar el guion.
Así, existen distintas tipologías para referirse a la música de un
film:
• En relación con el espectador, puede ser:
– Emocional, que transmite emoción: por ejemplo, la bonita
partitura de John Barry para Out of Africa (Memorias de
África, 1985), de Sydney Pollack.
– Intelectual, que transmite información: por ejemplo, en la
trilogía de The Lord of the Rings (El señor de los anillos,
2001-2003), de Peter Jackson, cuando Frodo (Elijah Wood)
piensa en el anillo no es necesario mostrarlo puesto que con
sólo la música ya somos conscientes de ello.
• En relación con su origen, puede ser:
– Preexistente: por ejemplo, en A Clockwork Orange (La
naranja mecánica, 1971), de Stanley Kubrick, la música de
Ludwig van Beethoven se justifica en las escenas de
violencia porque al protagonista le gusta este compositor.
– Original: por ejemplo, Yann Tiersen crea una banda sonora
específica para Le fabuleux destin d’Amélie Poulain (Amélie,
2001), de Jean-Pierre Jeunet.
• En relación con la forma de aplicación, puede ser:
– Diegética, donde los personajes la cantan o la escuchan y su
tiempo es finito; es decir, dura lo mismo que en la narración
y ocupa todo el espacio de la escena: por ejemplo, los
distintos pasajes que aluden a las canciones del álbum de
The Beatles de Yellow Submarine (1968), de George
Dunning.
– Incidental, o extradiegética: por ejemplo, el tema principal
de The Great Escape (La gran evasión, 1963), de John
Sturges, compuesto por Elmer Bernstein.
• En relación con la actitud, puede ser:
– Empática, que simpatiza con aquello que nos muestra la
escena; es decir, una escena y una música bonitas: por
ejemplo, toda la secuencia inicial de Breakfast at Tiffany’s
(Desayuno con diamantes, 1961), de Blake Edwards, con
Holly (Audrey Hepburn) paseando por la Quinta Avenida a
primera hora de la mañana, y con la canción Moon River,
compuesta por Johnny M ercer y Henry M ancini.
– Anempática, que contradice aquello que nos muestra la
escena: por ejemplo, en Murder on the Orient Express
(Asesinato en el Orient Express, 1974), de Sydney Lumet,
oímos un vals durante el arranque inicial del tren, en lugar de
otro tipo de música más acorde con lo que apunta el título
del film.
• En relación con la vinculación, puede ser:
– Integrada, donde la escena se explica por la música y
viceversa. Se trata de una relación bilateral; es decir, si un
personaje toca el saxo, oímos esta música.
– No integrada, donde apenas pasaría nada si la música no
estuviera en la escena.
• Y finalmente, en relación con el número, puede ser:
– Repetida, pues aparece más de una vez y a lo largo del film
su significado es el mismo.
– Variada, ya que no se repite y a lo largo del film su
significado es el mismo.
– Repercutida, pues se repite, aunque, durante el film, su
significado no es igual, sino que va cambiando. Por ejemplo,
en Rosemary’s Baby (La semilla del diablo, 1968), de
Roman Polanski, la canción de cuna que oímos al principio
es la misma que escuchamos al final, pero aquí su
significado ha cambiado, porque ahora sabemos que el bebé
es el hijo del diablo.

También existen distintos temas musicales en un film:

• Principal, que sería el tema central más poderoso y cuya


presencia ha de ser única; es decir, sólo puede haber uno de
este tipo.
• Central, que sirve para explicar alguna cosa, requiere que el
espectador lo entienda y su presencia es limitada: por
ejemplo, en un film sobre Jesucristo y los doce apóstoles no
pueden haber trece temas... Asimismo, existe también el
contratema; es decir, un tema opuesto al principal o a los
centrales: por ejemplo, en la saga de Star Wars (La guerra de
las galaxias, 1977-2005), de George Lucas, y a excepción del
primer film —esto es, el cuarto episodio—, podemos oír el
llamado The Imperial March, o tema de Darth Vader, como
contrapunto a otros temas asociados a las tropas rebeldes. La
lucha entre los personajes, pues, se traslada también a la
partitura.
• Secundario, que no requiere ninguna atención por parte del
espectador, pero cuya presencia es significativa.
• Y finalmente, el subtema, el motivo o el fragmento...

Con todo, y ya para terminar, resumir la historia de la música


cinematográfica sería una tarea ardua y difícil, pero es importante
destacar como mínimo algunas épocas, compañías o autores:

• En Estados Unidos: la Warner Bros. y el boom de la música en


los inicios del cine, con M ax Steiner y Erich W. Korngold a la
cabeza; el genio musical de Bernard Herrmann; Alfred
Newman y Hugo Friedhofer en la 20th Century Fox; los
autores centroeuropeos que hicieron carrera en Hollywood,
como Franz Waxman, Dimitri Tiomkin, M iklós Rózsa o
Bronislau Kaper; otros compositores como Victor Young,
David Raksin, Alex North o Elmer Bernstein; la aparición del
jazz en el cine; Henry M ancini y la renovación de la música de
la década de 1960; el retorno al clasicismo de la mano de John
Williams o Jerry Goldsmith; y autores de las últimas décadas
como Hans Zimmer, Howard Shore, Dave Grusin, Philip
Glass, Danny Elfman, Angelo Badalamenti...
• En Europa: los franceses M aurice Jaubert, M aurice Jarre,
Georges Delerue o Francis Lai; en Gran Bretaña, William
Alwyn, John Barry, Patrick Doyle o John Cale; los italianos
Nino Rota y Ennio M orricone; los españoles M anuel Parada,
Jesús Quintero, Carmelo Bernaola, Roque Baños, José Nieto o
Alberto Iglesias; en Grecia, Vangelis; en Bosnia-Herzegovina,
Goran Bregovic...
• En otras cinematografías: Lalo Schifrin, en Argentina; Ryuichi
Sakamoto o Joe Hisaishi, en Japón; Gabriel Yared, en el
Líbano...

Todos ellos elaboran una música original que acaba formando la


banda sonora de un film y que aglutina a su vez los créditos
iniciales o finales (los cuales, por cierto, han pasado de tener
aproximadamente una media de un minuto de duración antes de la
década de 1960 a más de ocho minutos en la actualidad). Es
evidente, no obstante, que la música preexistente o adaptada se
combina a menudo con la original. E igualmente, que para muchos
productores resulta a veces más fácil comprar los derechos de
ciertas canciones o partituras que encargar toda una propuesta a un
buen músico. El cine, quizás desgraciadamente, también es tiempo
y dinero.

Bibliografía

C HION, Michel (1993). La audiovisión. Introducción a un análisis conjunto de


la imagen y el sonido. Barcelona, Paidós.
— (1999). El sonido: música, cine, literatura... Barcelona, Paidós.
DURAN, Jaume / S ÁNCHEZ, Lydia (2008). Industrias de la comunicación
audiovisual. Barcelona, Publicacions de la Universitat de Barcelona.
LACK, Russell (1999). La música en el cine. Madrid, Cátedra.
LATINI , Giulio (2006). L’immagine sonora. Caratteri essenziali del suono
cinematografico. Roma, Artemide.
P ADROL, Joan (2006). Conversaciones con músicos de cine. Badajoz,
Diputación Provincial de Badajoz.
R ADIGALES, Jaume (2007). La música en el cinema. Barcelona, UOC.
/ Producción y posproducción sonora en
los audiovisuales

Francesc Llinares Heredia, Universidad de Barcelona

Desde la aparición de la primera película con sonido grabado en


1926, Don Juan, de Alan Crosland, o el primer largometraje sonoro
con voces sincronizadas en 1927, El cantor de jazz, también de
Alan Crosland, la industria audiovisual ha experimentado una
importante evolución. Si a esto añadimos la irrupción, en los
últimos años, de la tecnología digital se puede ver cómo se han
simplificado enormemente los procesos técnicos necesarios
relacionados con la producción y la edición de sonido para
audiovisuales.
A pesar de esta importante evolución tecnológica, la
metodología de trabajo no ha variado mucho, y pueden distinguirse
tres fases en la elaboración del sonido para un proyecto
audiovisual: preproducción, producción y posproducción.
› Preproducción

La fase de preproducción es muy importante, ya que implica una


cuidadosa planificación de lo que será todo el proceso de
producción audiovisual, en nuestro caso sonora, de manera que la
posproducción no se convierta en un proceso donde tengan que
subsanarse todos los errores que se han ido acumulando debido a
una planificación incorrecta o inexistente.
En esta fase se especificarán los diálogos, la música, los efectos
sonoros, los sonidos de ambiente y los silencios que han de
acompañar a la acción sin olvidar que el sonido en una producción
audiovisual puede ser visto bajo dos aspectos: el técnico y el
creativo. El primero estaría relacionado con la calidad de las
grabaciones y la edición del sonido y el segundo con el uso que se le
da a los diferentes elementos sonoros (diálogos, narración, música,
efectos sonoros, silencio, sonido ambiente, etc.) para crear una
trama sonora que se complemente con la imagen.
También es conveniente visitar los escenarios y localizaciones
donde se ha de realizar la grabación, de manera que, a partir del
propio entorno sonoro, se puedan valorar los elementos y
situaciones posibles para minimizar al máximo los problemas que
puedan surgir durante el rodaje.

› Producción
A partir de la planificación realizada en la etapa anterior se lleva a
cabo la fase de producción, que implica el rodaje del proyecto
audiovisual. Es importante que la grabación del sonido se lleve a
cabo de manera que sea posible editarlo y mezclarlo correctamente
en la fase de posproducción.
En esta fase del rodaje se realizan grabaciones sincronizadas de
los diálogos y el sonido ambiente simultáneamente a la imagen.
También se procede a la grabación de wild tracks (literalmente,
«pistas salvajes») que son registros de sonido ambiente, efectos o
diálogo que se graban de forma independiente de las imágenes.

›› Captación del sonido

Uno de los objetivos principales en la captación del sonido es


conseguir una buena grabación del diálogo de los actores, limpia y
sin ruidos, así como lograr, especialmente en las localizaciones, una
gran cantidad de sonido ambiente que permita recrear y, si
conviene, enriquecer el entorno sonoro durante la mezcla final.
A lo largo del rodaje, además de las grabaciones de voz y sonido
ambiente sincronizado con la imagen, es conveniente registrar
sonido ambiente independiente de la imagen, que después puede ser
útil en las sesiones de posproducción; estas grabaciones son las ya
citadas wild tracks.
Algunos de los motivos para grabar estos sonidos libres (wild
tracks) pueden ser:

• Que sólo se necesite el sonido, no la imagen; por ejemplo, la


grabación de un grito que se escucha fuera de cuadro.
• Que no ha sido posible obtener, en la misma toma, un buen
sonido e imagen.
• Que en una toma, difícil de repetir, se ha conseguido una
buena imagen, pero ha habido alguna alteración en el sonido.
• Para obtener sonidos de fondo (room tone) o ambiente que
serán útiles en la posproducción.

Para que la grabación de una wild track sea lo más parecida


posible al original y por tanto válida, no es conveniente dejar pasar
demasiado tiempo entre la filmación de una escena y la grabación de
la wild track de la misma, de manera que se puedan reproducir las
mismas condiciones.
En el proceso de grabación de sonido es importante tener en
cuenta una serie de factores:

• Que la grabación sea lo más fiel posible a la interpretación


original.
• Que la diferencia en la calidad del sonido dentro de la misma
escena, de toma a toma, sea mínima.
• Reducir al máximo todos los ruidos extraños a la grabación.
• Efectuar grabaciones adicionales de sonido ambiente o de
sonido de fondo (room tone).
• Grabar con la mínima reverberación posible, pues ésta se
puede añadir posteriormente pero no se puede eliminar.
• Evitar solapamientos de sonido en los diálogos.
El sonido se puede grabar por separado o en el mismo medio en
que se graba la imagen; en el segundo caso se evitarán problemas de
sincronización en la posproducción.
Los auriculares son muy importantes en el proceso de captación
y grabación del sonido, especialmente si esto se realiza fuera de
estudio. La respuesta de los auriculares ha de ser plana y de una
amplia gama de frecuencias, y es necesario que cubran toda la oreja
para aislar el oído del exterior lo máximo posible.

›› Grabación en estudio y en localizaciones

La grabación del sonido se puede realizar en un estudio, donde los


problemas que puedan surgir serán menores, pues se trata de un
espacio preparado para este cometido, o fuera del mismo, ya sea al
aire libre o en el interior de un local. El término localizaciones se
utiliza para indicar cualquier lugar fuera del entorno del estudio, ya
sea tanto interior como exterior.
Des Lyver (2000) enumera tres tipos distintos de localización
sobre los que basar la planificación necesaria:

1. Exteriores sin toma de corriente disponible (entrevistas en la


calle, escenas de campo, dentro de vehículos móviles).
2. Interiores con una potencia eléctrica limitada (entrevistas en
interiores, persecuciones por pasillos, ficción a pequeña escala).
3. Interiores con potencia eléctrica disponible (estudio para teatro,
conciertos, ficción a gran escala)
Según cual sea el tipo de localización habrá que elaborar una lista
del material necesario que utilizar (tipos de micrófonos, longitud de
los cables, jirafas o pértigas para los micrófonos, etc.). Algunas de
las decisiones se basarán en el conocimiento que se tenga sobre
cómo se comportan los sonidos en diferentes ámbitos (exteriores,
interiores, espacios con reverberación, etc.). También es
conveniente saber dónde se encuentran los puntos de toma de
corriente si está previsto llevar equipos que necesiten electricidad y
ésta no pueda ser suministrada por baterías.

Exteriores

Normalmente la grabación en exteriores entraña más dificultades, ya


que suele haber más ruido de fondo y de mayor intensidad que en
interiores: tráfico, gente y ambiente, en general. Debido a esto es
muy importante situar el micrófono lo más cerca posible de la
fuente sonora; así, la señal que captará de dicha fuente será más
fuerte que el resto y así se reducirá el ruido de fondo. En la fase de
posproducción y con la ayuda de las grabaciones que se han
realizado por separado de todos los sonidos de ambiente o de
fondo se procederá a buscar un equilibrio de toda la banda sonora,
de manera que el sonido nos muestre que se trata de un exterior sin
por ello perjudicar la calidad de audio ni la inteligibilidad del
diálogo.

Interiores
El hecho de que un interior esté delimitado por unas paredes y un
techo hace que el comportamiento del sonido sea distinto que en
exteriores.
Uno de los problemas más frecuentes de la grabación en
interiores se encuentra en el tiempo de reverberación, que es el
tiempo que tarda el sonido indirecto en decrecer hasta un nivel en el
cual ya no contribuye al sonido total.
La reverberación se puede controlar alterando el volumen del
espacio o cambiando los materiales absorbentes dentro de éste. La
situación ideal es que la reverberación sea mínima, ya que, como se
ha dicho anteriormente, siempre se puede añadir pero no reducir.

Microfonía

Las herramientas principales en la captación de sonido son los


micrófonos. Éstos transforman la energía producida por las ondas
sonoras en una señal eléctrica, de manera que se pueda manipular y
almacenar en algún soporte, ya sea en formato analógico o digital.
La función de un micrófono es captar lo más fielmente posible
todos los sonidos que se desea grabar. Por tanto, su buen uso
resulta de vital importancia porque, tal y como dice Torres
Alberich (2009), el micrófono es el primer responsable de la calidad
sonora.
Los usos más adecuados para un micrófono se deciden
considerando sus ventajas e inconvenientes y para esto es necesario
conocer sus características principales.
Existe una gran variedad de micrófonos que se clasifican en
función de unas determinadas características. Los tres rasgos
básicos que conviene valorar a la hora de escoger un micrófono son
su principio de funcionamiento, su respuesta polar y su
sensibilidad.
Si nos atenemos a su principio de funcionamiento se puede
hablar de micrófonos dinámicos y de condensador.
Los micrófonos dinámicos son robustos, resistentes a los
cambios de temperatura y a la humedad, y se pueden utilizar bajo
la lluvia, lo que los hace ideales para las grabaciones en exteriores.
Son bastante buenos a la hora de evitar ruidos y los cables no
producen demasiado ruido no deseado. Resultan apropiados para
adaptarlos a pértigas.
Los micrófonos de condensador no son especialmente
robustos y no resulta conveniente utilizarlos con altos niveles de
humedad y mucho menos que se mojen, por lo que, según las
condiciones atmosféricas, su uso en exteriores puede ser poco
adecuado. Tampoco es conveniente que sufran cambios de
temperatura. No están especialmente indicados para captar sonidos
muy intensos, ya que se saturan con facilidad y producen una
cierta distorsión. Tienen una mejor respuesta de frecuencia, aunque,
normalmente, son más ruidosos que los dinámicos. Su mayor
sensibilidad los hace adecuados para seguir escenas de acción pero
los cables son más sensibles al ruido.
En el ámbito del sonido profesional se suelen utilizar
micrófonos de baja impedancia (una magnitud que establece la
relación entre la tensión o voltaje y la intensidad de la corriente), ya
que generan menos ruido, son mucho menos sensibles a las
interferencias eléctricas y se pueden utilizar con cables de larga
longitud.
Otra de las características importantes de los micrófonos es su
direccionalidad: la sensibilidad de éstos varía según el ángulo
respecto al eje del que procede el sonido y nos permite controlar
los sonidos que queremos grabar y los que no.
Hay tres tipos básicos de micrófonos según su respuesta polar
o direccionalidad:
Los micrófonos omnidireccionales captan todos los sonidos
por igual, vengan de la dirección que sea. Son poco sensibles al
viento y al ruido que pueda generar su uso. El hecho de que tengan
la misma sensibilidad en todas las direcciones hace que no requieran
ser enfocados hacia la fuente. Este tipo de micrófono se utiliza para
captar sonido ambiental, sin importar su ángulo de procedencia.
Los micrófonos unidireccionales captan especialmente los
sonidos provenientes de la parte frontal y, en menor medida, los
laterales; en la parte posterior su sensibilidad es mínima. Estos
micrófonos se denominan cardioides, porque el esquema de su
respuesta direccional tiene forma de corazón. En ellos suele
producirse lo que se conoce como efecto de proximidad: cuando la
fuente se aproxima mucho al micrófono (3 o 4 cm), la respuesta de
la frecuencia cambia y aumenta la sensibilidad en las bajas
frecuencias. Son adecuados para grabaciones en entornos donde hay
un exceso de ruido ambiente no deseado. En este grupo también
podemos hablar de micrófonos supercardioides o hipercardiodes
según su direccionalidad sea mayor.
Los micrófonos bidireccionales captan sonidos que procedan
de la parte trasera o delantera del micrófono pero no de los lados.
Esto los hace útiles para minimizar la captación de una señal que
proceda de una zona lateral a la fuente sonora que se desea captar.
No tienen una buena respuesta a frecuencias muy bajas. En estos
micrófonos, de la misma manera que en los unidireccionales,
también se produce el efecto de proximidad.
Otros tipos de micrófonos utilizados habitualmente en las
grabaciones de sonido para audiovisuales son: el lavalier, de tamaño
muy pequeño y también llamado de corbata o de solapa, a menudo
es inalámbrico y suele ser omnidireccional; y el de cañón, un
micrófono unidireccional alargado y muy útil para captar una
fuente sonora específica, incluso en ambientes ruidosos. Suele ir
adaptado a una pértiga (también llamada jirafa), un tubo
telescópico diseñado para sostener en uno de sus extremos un
micrófono por encima de los intérpretes y que se mantiene fuera
del plano visual.

Grabadoras de sonido

La forma más simple de grabar sonido es haciéndolo en el mismo


medio que la imagen. Generalmente, los micrófonos internos de las
cámaras son omnidireccionales, lo que quiere decir que el sonido se
graba sin tener un objetivo concreto, junto con los ruidos extraños.
Para evitar captar los sonidos no deseados se puede incorporar a la
cámara un micrófono de cañón, muy utilizado en las producciones
audiovisuales realizadas en exteriores por su gran direccionalidad.
Existen formatos de vídeo con diversas pistas de audio
(DVCPRO, HDCAM , DVCAM ), pero hay que tener en cuenta
que, para muchas producciones audiovisuales, dos canales de audio
pueden ser suficientes.
También se pueden usar micrófonos independientes de la
cámara. Una de las opciones posibles es el micrófono con pértiga,
anteriormente mencionado, que se puede situar por encima del
plano visual. También existe la posibilidad de utilizar micrófonos
fijos, móviles, de escenario, suspendidos, de mano, lavalier, etc.,
según el tipo de proyecto audiovisual que se lleve a cabo: película,
documental, reportaje, videoclip, etc.
La grabación del sonido con independencia de la cámara hará
necesario el uso de grabadores con código de tiempo para la
posterior sincronización del sonido y la imagen en la fase de
posproducción. En cualquier caso, durante este proceso, ya sea en
grabadoras monopista o multipista, es importante monitorizar la
grabación o la mezcla, preferentemente a través de unos buenos
auriculares.
Además de grabarlo directamente en la cámara, el sonido se
puede almacenar en diferentes soportes. Los soportes digitales más
habituales son:

• El DAT (Acrónimo de Digital Audio Tape), un aparato que


graba la señal digital en una cinta magnética.
• El MiniDisc, un disco magneto-óptico de menor tamaño que
los CD convencionales que puede almacenar más de una hora
de sonido de calidad digital.
• El disco duro, un dispositivo que emplea un sistema de
grabación magnética para almacenar datos digitales.

› Posproducción

La posproducción de sonido es una de las últimas etapas en el


proceso de creación audiovisual en la que se da la forma definitiva a
los diversos materiales (efectos sonoros, diálogos, música) que
constituyen la banda sonora de una producción audiovisual.
La combinación, mezcla y masterización de los elementos
sonoros vendrá marcada por diversos factores como el tipo de
producción audiovisual o el soporte al que va destinada.
Esta etapa implica diversos procesos: grabación, edición,
procesado, mezclas y masterización.

›› Edición

La edición de sonido es el proceso a través del cual se transforman,


se integran y se unen los sonidos ya grabados convirtiendo en
definitivos los elementos sonoros que se combinan en una
producción audiovisual.
En la actualidad, la edición de sonido se suele realizar
digitalmente usando un software especializado, aunque no siempre
fue así. Desde la década de 1940 hasta la de 1990, momento en que
los ordenadores y los programas digitales revolucionaron la edición
de sonido, éste se editaba manipulando una cinta magnética. Este
proceso era complejo, ya que la cinta se había de cortar por donde
se considerara necesario para empalmarla posteriormente. Todo el
trabajo se realizaba de oído, sin ninguna ayuda visual.
La edición del sonido a partir del uso de soportes digitales recibe
el nombre de edición no lineal.

Edición no lineal

Los términos lineal y no lineal en relación con la edición se


empiezan a utilizar a final de la década de 1980, momento en que la
edición digital comienza a marcar la diferencia entre ambos
procedimientos.
En la edición lineal el proceso se debe realizar de manera
secuencial manipulando una o varias cintas, lo que implica que si
hay que borrar o insertar alguna escena será necesario seleccionarla
y reeditar todo el material posterior. En cambio, en la edición no
lineal, la digitalización de la imagen y el sonido y su
almacenamiento en discos duros permite insertar fragmentos
sonoros, eliminarlos y cambiar su posición en cualquier momento
de la edición, lo cual ofrece una amplia libertad de movimientos.
Otra ventaja que ofrece la edición digital es que tanto la imagen
como el sonido pueden alterarse, manipularse y probarse en una
«grabación virtual», lo que significa que el montador no está
grabando realmente sobre una cinta, sino que tan sólo está
elaborando una lista de decisiones de edición conocida como EDL
(del inglés Edit Decision List); que registra todos los cambios
realizados y sus respectivos códigos de tiempo. También se utiliza
el término edición no destructiva para referirse a este tipo de
edición digital, ya que los cambios que se produzcan no afectarán al
material grabado originalmente.
Para llevar a cabo estos procesos de edición sonora que en la
actualidad, tal y como hemos apuntado, suelen ser totalmente
digitales y no destructivos, a menudo se utiliza una estación de
trabajo de audio digital conocida como DAW (del inglés Digital
Audio Workstation), que consiste en un sistema controlado por
ordenador con el que se puede grabar, editar, procesar y reproducir
el sonido. Bajo este término podemos encontrar numerosos
sistemas con diferentes grados de sofisticación, que van desde un
nivel profesional hasta uno de aficionado.
Con pequeñas diferencias, la mayoría de las plataformas
digitales de edición de sonido funcionan de forma parecida. El
estándar a nivel profesional es el ProTools, aunque podemos
encontrar otros programas que ofrecen resultados óptimos como
Sound Track —vinculado al editor digital de vídeo Final Cut—,
Sound Forge, Nuendo, etc.
Actualmente, en la mayoría de los programas de edición de
audio se puede manipular el vídeo, lo cual ayuda enormemente en la
edición y sincronización del sonido con la imagen. Asimismo, los
programas de edición no lineal de vídeo también ofrecen poderosas
herramientas de edición de audio.
En el proceso de edición no lineal o digital, lo primero que se
debe hacer es seleccionar el material sonoro para escoger el que
funciona o descartar aquel que no, basándose en parámetros
relacionados con la calidad, la duración o los niveles de sonido. Si
disponemos de material sonoro en formato analógico se deberá
digitalizar para poderlo manipular y tratar.
Hay que tener en cuenta que, en la edición de sonido para un
proyecto audiovisual, a menudo se trabajará con diversas capas
sonoras: diálogo, tráfico exterior, sonidos interiores, música, etc.,
las cuales se han de encajar y sincronizar adecuadamente.
Para realizar una posproducción digital es necesario disponer en
formato digital de todos los elementos de la banda sonora, así como
de las imágenes que tenemos que sonorizar y de una serie de
programas de edición, procesado y mezcla.

Elementos de la banda sonora

La banda sonora de un audiovisual está integrada por diversos


elementos: la voz, ya sea en forma de diálogo, monólogo o voz en
off; los sonidos ambiente que contribuyen a la sensación de
realismo; los efectos especiales sonoros y la música.

Voz

En las producciones audiovisuales en las que interviene, el diálogo


es el elemento sonoro más importante de la misma, por lo que es
importante escucharlo mezclado con música o efectos sonoros para
poder realizar una evaluación correcta del mismo.
Doblaje

Cuando los diálogos capturados en la fase de producción no son lo


bastante aceptables, se han de efectuar algunas modificaciones en
ellos o se necesita recurrir a otro idioma, han de regrabarse en un
proceso llamado ADR (del inglés Automatic Dialog Replacement).
Este proceso consiste en que un actor visiona diversas veces el
fragmento que debe doblar mientras escucha la grabación original, a
modo de guía, por los auriculares. Una vez finalizado el ensayo, el
actor interpretará el texto de manera que coincida con el
movimiento de los labios que se ve en pantalla. La técnica ADR
también se conoce como looping, debido a que el fragmento que
hay que doblar se reproduce automáticamente en forma de bucle.
Un factor muy importante para una buena grabación ADR es la
elección del micrófono, pues no todos tienen la misma coloración o
carácter; es necesario saber exactamente qué micrófonos se
utilizaron en el escenario, de forma que se utilice el mismo modelo a
la hora de grabar el ADR.
En el doblaje o grabación ADR es importante estudiar los
movimientos de la boca humana cuando habla para conseguir que
cuando se cierre la boca no salga ninguna modulación extra. Los
errores de un doblaje incorrecto o mal ajustado se detectarán
principalmente en los sonidos labiales, especialmente en los
oclusivos, ya que la brevedad y precisión tanto del sonido como del
movimiento que lo produce dejan poco margen de error en su
percepción simultánea.
Grupo Walla

Normalmente, cuando los actores principales tienen diálogos en


escenas con mucha gente, los extras simulan estar hablando sin
emitir sonido alguno para que el diálogo principal se pueda grabar
lo más nítido posible. Posteriormente, en la fase de posproducción,
se grabarán los sonidos de la gente (una multitud en un disturbio,
un grupo de soldados en una batalla o gente hablando en un
restaurante) con un grupo de especialistas, a los que se les conoce
como grupo Walla o loop group. Parece ser que el término Walla
tiene su origen en los comienzos del cine sonoro, cuando grupos de
extras repetían una y otra vez esta palabra delante de un micrófono
para crear el efecto sonoro de una multitud.
Amyes (2005) sugiere que, para crear la sensación de multitud,
se pueden grabar dos pistas similares de rumores y duplicarlas,
apuntando que este ambiente se puede destacar creando la
sensación de profundidad espacial dentro de la escena.

Efectos de sonido

Otro de los componentes sonoros de un audiovisual está formado


por los efectos de sonido. Bajo este nombre se agrupan los sonidos
de una producción audiovisual que no pertenecen ni al diálogo, ni a
la voz en off, ni a la música, y que se añaden, normalmente, en el
proceso de posproducción con intención de enfatizar algún detalle
que el sonido ambiente no pueda ofrecer. Los efectos de sonido,
que alcanzarán una gran importancia con la aparición de la radio,
adquirirán cada vez más peso en cualquier tipo de producto
audiovisual.
Wyatt (2005) considera que, además de otras muchas funciones,
el principal objetivo de los efectos de sonido es crear un paisaje
sonoro que atraiga al espectador al interior de la «realidad» creada
por el director y fuera del entorno en el que se encuentra viendo la
película. Esta afirmación es igualmente válida para cualquier tipo de
producción audiovisual.
Algunas de las funciones de los efectos de sonido son:

• Crear una ilusión de realidad.


• Crear un efecto de continuidad.
• Crear una ilusión de profundidad espacial.
• Crear una ilusión de espacio.
• Subrayar acciones o narrar otras que no aparecen en pantalla.
• Solucionar problemas en la pista de diálogo.
• Ayudar en la creación de un ambiente.
• Proporcionar elementos dinámicos.

Según su función en un audiovisual, Herrera distingue entre:

• S onidos objetivos: aquellos que suenan a partir de la


aparición de la imagen del objeto que emite el sonido.
• S onidos subjetivos: aquellos que apoyan una situación
anímica o emocional de la trama o de los personajes sin que
necesariamente aparezca en imagen la fuente de sonido.
• S onidos descriptivos: aquellos que no representan ningún
objeto de los que aparecen en imagen, sino que son
abstracciones o idealizaciones de los sonidos supuestamente
originales.

Según Wyatt (2005) se puede hablar de tres tipos de efectos de


sonido:

• Efectos puntuales: aquellos individuales, normalmente


sincronizados y relacionados con una sola fuente (un avión,
una puerta, etc.).
• Efectos de ambiente/atmósfera: aquellos no sincronizados
que se añaden para crear una presencia o un ambiente en una
escena, con la finalidad de situarla en una localización
específica (las olas del mar, el tráfico de una ciudad, etc.)
• Efectos de sala o foley: aquellos sonidos grabados en estudio
directamente a partir del visionado de la imagen (movimientos,
pisadas y efectos específicos). Reciben este nombre en
homenaje a Jack Foley, creador de innovadoras técnicas en la
producción de efectos de sonido utilizados en el cine.

Los efectos de sala o Foley y los doblajes o grabaciones ADR se


deben realizar, en la medida de lo posible, en un entorno acústico
similar al de la escena original. Si esto no fuera posible, las
grabaciones han de tener una calidad que intente recrear la acústica
apropiada.
Herrera, por su parte, clasifica los diferentes efectos sonoros
ateniéndose a su relación con la imagen en:
• S onidos naturales: cuando el efecto sonoro es el propio
sonido del objeto que se oye. Es real, sin ornamentos, y más
propio de documentales y de reportajes. Por otra parte, en las
producciones de ficción, las expectativas del público hacen
que se tienda a sustituir los sonidos naturales por otros que no
lo son.
• S onidos característicos: cuando el efecto sonoro es una
imitación del sonido natural del objeto que se oye. Puede
reconocerse de qué se trata, pero no es el sonido original de la
fuente sonora. Habitualmente se realiza esta imitación o
deformación del sonido para intensificar el impacto sobre el
espectador.

Los sonidos característicos se pueden subdividir en imitativos,


si tienen propiedades físicas similares a las del sonido original, y en
interpretativos, que no poseen ningún parecido con el sonido
original.

Colecciones de efectos de sonido

Con la posibilidad de la grabación y la reproducción sonora surgió


la comercialización de las primeras colecciones de efectos, y las
grandes industrias y productoras de Hollywood crearon bancos de
sonido para su comercialización.
Los efectos de sonido pueden ser pregrabados —clasificados en
colecciones o librerías de sonido—, registrados en un estudio o
directamente durante el rodaje —lo que permite manipularlos
después— o generados electrónicamente.
Las bibliotecas de sonidos ponen a nuestro alcance, de manera
sencilla, numerosos efectos, normalmente de excelente calidad y
que serían bastante difíciles de grabar por nosotros mismos.

M úsica

Tal y como se ha visto en anteriores capítulos, la música es una


importante herramienta en la producción audiovisual. Ésta se ha de
concebir pensando que también hay efectos sonoros y, sobre todo,
diálogo, el cual es normalmente la pista de sonido dominante. Por
eso Yewdal (2008) apunta que el compositor experimentado escribe
la música de manera que pueda expandirse, alargarse o envolverse
cuando no tiene que competir con las señales de diálogo. El
compositor también escribe música que complementa o aumenta el
diálogo de una forma colaborativa.
A menudo se denomina banda sonora a la grabación comercial
de la música de una película pero, tal y como se ha establecido
anteriormente, en realidad este término describe el conjunto de los
elementos sonoros de una película: diálogo, efectos sonoros y
música. M el Lewis (citado en Yewdall, 2008) propone un
paralelismo de estos elementos con las tres fuentes del
comportamiento humano de Platón: conocimiento, instinto y
emoción. El conocimiento, como el diálogo, ofrece información para
razonar; los efectos sonoros, como el instinto, son el impulso, y la
música funciona como la emoción.
Tal y como lo expresa Nieto (1996), la característica más
importante que diferencia la composición de música para bandas
sonoras de la de cualquier otro tipo de música es la necesidad de
crear una estructura que ha de integrarse en otra estructura
preexistente. La mayoría de las veces, la música se plantea como
una estructura completamente cerrada: no sólo porque en ella ya
están definidas la trama, las situaciones, los personajes y los
diálogos, sino porque también están determinadas las duraciones de
los planos y de las secuencias que describen la acción.
Al editar la música en relación con la imagen, es importante
tener en cuenta la estructura de la primera y intentar que los cortes
y las transformaciones que se produzcan en la edición tengan
sentido musical.
En su obra, Wyatt (2005) propone diversas formas de
perfeccionar el proceso de edición musical:

• Pensar más como un compositor que como un editor de


sonido.
• Realizar los cortes a partir de la estructura rítmica.
• Asegurarse de que los fundidos encadenados estén bien
ajustados.
• Tratar de hacer siempre una escena musical, aunque sea a
costa de que la música predomine sobre la imagen.
• M antener las frases de transición entre cambios de registro o
de tonalidad musical, cuando se realicen cortes.
• Omitir la introducción en la utilización de música diegética;
ésta sonará más natural y menos premeditada.
• Evitar que la música interfiera en la inteligibilidad del diálogo.
Sincronización

Los diferentes elementos que componen la banda sonora de un


audiovisual —música, efectos y diálogo— han de estar
sincronizados con la imagen. Para conseguir esta sincronía en el
ámbito de la edición lineal se han utilizado diversos métodos, como
la claqueta, que permite sincronizar el punto de imagen que
coincide con el cierre de la claqueta y el golpe de sonido de ésta en
ese mismo momento. Si nos encontramos en un entorno digital o no
lineal, se requiere un código electrónico estándar de sincronización,
llamado time code o código de tiempos.
El código más utilizado para sincronizar imagen y sonido es el
SM PTE (del inglés Society of M otion Pictures and Televisión
Engineering), una señal digital que contiene una referencia temporal
absoluta. Consta de ocho dígitos que representan horas, minutos,
segundos y fotogramas (00:00:00:00): los dos primeros dígitos van
de 0 a 23; los minutos y los segundos van de 00 a 59, igual que en
un reloj digital, y la cantidad de cuadros o fotogramas por segundo
depende del tipo de código de tiempo que se utilice.
Según el número de fotogramas, cuadros o frames por segundo
(fps) podemos encontrar diferentes variaciones del código SM PTE:

• 24 fps: utilizado en el cine.


• 25 fps: conocido como EBU (del inglés European Broadcast
Union) o SM PTE/EBU, utilizado, en Europa, en los sistemas
de vídeo PAL y SECAM .
• 29,97 fps: utilizado en el sistema de vídeo estadounidense
NTSC. Esta variante del código SM PTE, denominada drop
frame o con eliminación de cuadro, se sincroniza realmente a
30 fps, pero se eliminan los dos primeros fotogramas de cada
minuto, a excepción de los minutos 00, 10, 20, 30, 40 y 50.
Por ejemplo, después de 00:17:59:29 vendría 00:18:00:02;
pero después de 00:19:59:29 pasaríamos a 00:20:00:00.
• 30 fps: sistema estadounidense de vídeo en blanco y negro y
relegado a las aplicaciones de audio.

Para sonorizar un vídeo es importante disponer de una copia del


mismo con el código SM PTE y poder ver éste sobreimpresionado
en pantalla.
Por lo que se refiere a la percepción de sincronía, el adelanto del
sonido, a excepción de los diálogos, respecto a la imagen es más
difícil de percibir como asincrónico que su retraso. Si la falta de
sincronía entre una imagen y un sonido es de uno o dos fotogramas
de diferencia, ésta es indetectable por los seres humanos pero
puede producir efectos diferentes. Cuando se produce una
anticipación del sonido respecto a la imagen se denomina sincronía
dura; si se retarda el sonido, sincronía blanda.
Otro código utilizado a menudo cuando se trabaja con
dispositivos M IDI es el M TC (del inglés, M IDI Time Code) que
es la versión del código SM PTE al formato de datos M IDI.

M ezcla

Una vez procesadas todas las pistas de sonido, éstas se han de


combinar para conformar la banda sonora definitiva.
El proceso de mezcla variará dependiendo del tipo de
producción audiovisual a la que va destinada (documentales,
anuncios, largometrajes, teleseries, videoclips, multimedia), que
puede condicionar el sistema de sonido utilizado y el tipo de sala o
entorno donde se audiovisione, utilizando la denominación
propuesta por Chion (1990). Con frecuencia se realizan mezclas
previas de las diferentes pistas de sonido agrupándolas en los tres
bloques sonoros principales: diálogos, música y efectos sonoros.
Esto permite simplificar el trabajo agrupando elementos comunes y
reduciendo, de esta manera, el número de pistas con las que se ha
de trabajar. El número de pistas independientes que se han de
preparar de cada uno de estos bloques sonoros dependerá de la
complejidad de los elementos que haya que procesar.
La mezcla de sonido comporta tanto aspectos técnicos como
creativos. Además de ajustar correctamente el sonido con las
imágenes, algunos de los procesos técnicos habituales en la mezcla
son:

• Ecualización: para realzar o atenuar las diferentes frecuencias


de un sonido.
• Panoramización: para distribuir y localizar espacialmente las
diferentes fuentes sonoras.
• Reverberación: para conseguir una ligera permanencia del
sonido una vez que la fuente ha dejado de emitirlo.
• Compresión: para reducir el rango dinámico del sonido.
Es muy importante que la respuesta acústica del espacio o sala
donde se realice la mezcla sea plana, es decir, que prácticamente no
haya reverberación y se evite la tendencia a realzar o a atenuar
determinadas frecuencias.
Desde una perspectiva creativa, el conjunto de ruidos,
ambientes, efectos especiales, música y diálogos deben ser
combinados y mezclados de manera conveniente para su
inteligibilidad según su contenido dramático en cada momento de la
película. El sonido puede resaltar o no los cortes entre planos
afectando a la percepción del ritmo o influir en la continuidad de la
narración, entendiendo como tal la función que interrelaciona
espacial y temporalmente un plano con el siguiente y permite
asociar dos planos seguidos como consecutivos aunque estén
rodados en momentos y lugares distintos.
Para Tim Amyes (2005) las funciones de la mezcla son:

• Realzar las imágenes y subrayar los efectos visuales.


• Añadir perspectiva tridimensional.
• Ayudar a situar geográficamente las imágenes.
• Añadir impacto dramático.
• Añadir contraste mediante cambios de volumen.
• Producir un sonido inteligible y de fácil escucha en cualquier
entorno.

Coincidimos con Nieto (1996) en el hecho de que la efectividad


de cada uno de los componentes de la banda sonora de un
audiovisual estará en relación directa con su capacidad de
convivencia con los otros, especialmente con el diálogo, cuya
inteligibilidad, objetivo prioritario de la mezcla final, condicionará la
presencia de los demás.
En el caso de una producción cinematográfica, una vez acabadas
las mezclas se realiza una mezcla sin diálogos conocida como M &E
(música y efectos), pensada para la distribución de la película en el
extranjero. De hecho, se trata de una mezcla adicional en las que se
eliminan los diálogos manteniendo el resto de los elementos. Hay
que tener en cuenta que también desaparecerán los ruidos y el
sonidos ambiente que se grabaron en el momento del rodaje a la vez
que los diálogos, por lo que en la mezcla M &E se deberá añadir el
sonido que falte, ya sean ruidos o sonido ambiente a partir de
efectos de sala o wild tracks.
En el proceso de la mezcla final se deberá tener en cuenta el
medio al que va destinada y realizar una copia distinta para cada
uno de los diferentes medios donde se desee exhibir el proyecto
audiovisual: cine, televisión, multimedia... Hay que tener en cuenta
que cada medio posee unas características propias, como el soporte
de grabación, la velocidad de reproducción, el rango dinámico o el
número de canales. Si la mezcla se hace en estéreo, aunque se
utilicen dos canales independientes (izquierdo y derecho), la señal
de uno de ellos habitualmente está relacionada con la del otro, por
lo que si se graba lo mismo en ambos, los sonidos parecen provenir
del punto medio de los dos altavoces y puede decirse que se
distribuyen entre derecha, centro e izquierda.
Es conveniente situar en la parte central los sonidos
correspondientes a lo que aparece en la imagen y a la izquierda o a
la derecha aquellos que estén fuera de campo. Habitualmente, tanto
los diálogos como la voz en off se deberán situar centrados y
localizarlos levemente hacia el lado de donde provenga una voz
fuera de campo. Los sonidos de ambiente y la música, a no ser que
ésta sea diegética (es decir, que provenga de una fuente que aparece
en la imagen), se mezclarán en estéreo.
Respecto a los efectos sonoros, la localización de los mismos
será más variable teniendo en cuenta si son elementos que cruzan la
imagen de un lado a otro, efectos fuera de campo o subjetivos,
aunque la mayor parte de los que salen en la pantalla se situarán en
el centro.

Principios de sonido digital y MIDI

Podemos definir el sonido digital como la representación de una


señal sonora mediante números codificados en sistema binario. La
calidad del sonido digital depende directamente de dos variables: la
frecuencia de muestreo de la señal sonora y la cuantificación de la
misma.
El muestreo de una señal sonora consiste en la toma de muestras
de la señal analógica a intervalos regulares. La frecuencia de
muestreo se indica en Hz; por ejemplo, una de 48 kHz significa que
se toman 48.000 muestras por segundo. Para muestrear
correctamente una señal sonora, la frecuencia ha de ser superior al
doble de la señal original (teorema de Nyquist). Esto significa que si
se desea que una grabación digital alcance los 20 kHz (frecuencia
máxima capaz de ser detectada por el oído humano), la frecuencia
de muestreo deberá ser como mínimo de 40 kHz.
Respecto a la cuantificación, una vez que se haya muestreado la
señal debe expresarse el valor de cada muestra mediante el código
binario basado en dos cifras, el 0 y el 1. A cada una de ellas se le
llamará bit (acrónimo de dígito binario). Según el número de bits
utilizado, la precisión del muestreo será mayor o menor. Por
ejemplo, un número de 8 bits implica 256 valores posibles; un
número de 16 bits, ofrece una escala de 65.536 valores; si es de 20
bits pasan a ser 1.048.576 valores. Cuanto mayor sea la
profundidad de bits en una cuantificación, más parecida será la
señal digital al sonido analógico original y más amplio el rango
dinámico.
La cuantificación de los CD de audio es de 16 bits y la
frecuencia de muestreo de 44,1kHz; el estándar de cine y televisión
mantiene los 16 bits de cuantificación pero con un muestreo de 48
kHz. En algunos formatos de alta definición, la profundidad de bits
o cuantificación puede llegar a ser de 20 bits.

Formatos de audio digital

Los diferentes sistemas de edición de sonido manejan formatos


propios y reconocen los más comunes:

• AIFF: formato habitual de M acintosh. No ofrece código de


tiempos.
• WAV: archivo de audio de M icrosoft propio de PC. No ofrece
código de tiempos.
• SDII (Sound Designer II): creado por Digidesign, que a su vez
también desarrolla el programa ProTools. Ofrece código de
tiempos.
• BWAV (Broadcast Wave Film): archivo WAV mejorado,
compatible con M ac y PC.

Un cambio de formato, por lo general, no debe afectar a la


calidad del sonido (siempre que se mantenga la resolución y la
frecuencia de muestreo), sino que sólo se modifica la cantidad y el
tipo de información que se almacene en la cabecera. De ahí que, con
un cambio de formato, el tamaño del archivo no se altere en exceso.
Los archivos de audio pueden comprimirse para facilitar su
distribución, por ejemplo los M P3. La compresión reduce el
tamaño del archivo y permite una transferencia más rápida, pero
esto también acarrea una pérdida de calidad que, coincidiendo con
Wyatt (2005), en algunas circunstancias puede resultar inaceptable.
En muchas aplicaciones profesionales el audio se transfiere sin
comprimir.

MIDI

El M IDI (acrónimo del inglés M usical Instruments Digital


Interface) es un sistema estándar de comunicación de información
musical entre aparatos electrónicos y que permite interconectar
ordenadores, sintetizadores, secuenciadores, controladores y otros
dispositivos musicales electrónicos. Con el fin de hacer posible esta
comunicación, el M IDI describe dos cosas al mismo tiempo:

• Un método para codificar la música basado en cifras


numéricas que se transmiten una detrás de otra.
• Un sistema de conexiones físicas entre los aparatos:
cables, conectores, tensiones eléctricas, frecuencias...

Es importante tener presente que el M IDI no transmite sonidos,


sino datos que se pueden interpretar en función de la programación
del dispositivo que los recibe, es decir, transfiere sólo información
sobre cómo se ha de reproducir una determinada pieza musical.
Sería el equivalente informático de la partitura, el rodillo de una
pianola o el tambor de agujas de una caja de música: contiene toda
la información necesaria para interpretar una pieza musical, pero si
la queremos convertir en sonidos necesitaremos un buen
instrumento y un músico o un mecanismo capaz de interpretarla.

Bibliografía

ALTEN, Stanley R. (2008). El sonido en los medios audiovisuales. Andoaín,


Escuela de Cine y Vídeo.
C EBRIÁN HERREROS, Mariano (1994). Información radiofónica. Madrid,
Síntesis.
HERRERA B OYER, Perfecto (2001). Postproducción de sonido. Disponible en:
www.dtic.upf.edu/~perfe/cursos/postaudio.html.
JORDÁ P UIG, Sergi (1997). Audio digital y MIDI. Madrid: Ediciones Anaya
Multimedia. Disponible en: www.ccapitalia.net/reso/articulos/audiodigital/.
LYVER, Des (2000). Principios básicos del sonido para vídeo. Barcelona,
Gedisa.
MCC ORMICK, Tim / R UMSEY, Francis (2008). Sonido y grabación.
Introducción a las técnicas sonoras . Barcelona, Omega.
NIETO, José (1996). Música para la imagen. La influencia secreta. Madrid,
Publicaciones y Ediciones SGAE.
T ORRES ALBERICH, Pascual (2009). Micrófonos: Mirando el sonido. Castellón
de la Plana, Publicacions Universitat Jaume I.
W YATT, Hilary / AMYES, Tim (2005). Postproducción de audio para TV y
Cine. Andoaín, Escuela de Cine y Vídeo.
YEWDALL, David Lewis (2008). Uso práctico del sonido en el cine . Andoaín,
Escuela de Cine y Vídeo.
/ El sonido como recurso expresivo en
los audiovisuales

Francesc Llinares Heredia, Universidad de Barcelona

El sonido en el audiovisual no se debe considerar únicamente desde


el ámbito técnico, sino que también hay que tener en cuenta las
posibilidades expresivas como partes integrantes de la narratividad
del audiovisual.
A menudo hay discrepancias sobre cuál de los dos sentidos, la
vista o el oído, es más importante. Ambos lo son, y cada uno de
ellos cumple unas funciones específicas y complementarias. Tal y
como afirma Rodríguez Bravo (1998), el conocimiento sobre la
percepción y la narración visual ha avanzado mucho más
rápidamente que el existente sobre la narración sonora, pero no por
ello ésta es menos importante.
Chion (1993) subraya la importancia del sonido en relación con
la imagen destacando el valor añadido que representa sobre ella, y el
cual define como el valor expresivo e informativo con el que un
sonido enriquece una imagen dada. Chion concede al valor añadido
un carácter de reciprocidad: «si el sonido hace ver la imagen de
modo diferente a lo que esta imagen muestra sin él, la imagen, por
su parte, hace oír el sonido de modo distinto a como éste resonaría
en la oscuridad». Sin embargo, Rodríguez Bravo (1998) afirma que
la capacidad expresiva del sonido en un audiovisual va más allá del
valor añadido tal y como lo expresa Chion, y considera que el
sonido, más que enriquecer la imagen actuando de manera
subordinada a ésta, modifica la percepción global del receptor. Por
lo tanto, sonido e imagen se complementan en función de la
tendencia natural a la coherencia perceptiva, ya que nuestros
sentidos tienden a interactuar de manera global para producir una
percepción coherente del entorno que nos rodea.
El cineasta Francis Ford Coppola ha afirmado que «el sonido es
el mejor amigo del director, porque influye en el público de forma
secreta». Por su parte Nieto (1996), que subtitula su obra a partir
de la idea que expresa Coppola, destaca que la selección auditiva es
menos consciente que la visual, ya que está en función de
elementos que no dependen de nuestra voluntad. Este menor
control sobre la percepción auditiva que sobre la visual otorga al
sonido un gran poder expresivo, mayor si cabe que el de la imagen.
Sea como fuere, el ámbito de la producción audiovisual implica
la fusión entre vista y oído, y no se debe olvidar que vivimos en un
mundo donde las imágenes y los sonidos se superponen, se
mezclan, interactúan y colisionan entre sí.

› El sonido como parte intrínseca del audiovisual


El espectador percibe las obras audiovisuales simultáneamente a
través de los sentidos de la vista y el oído, experimentando diversas
sensaciones. En el caso del relato audiovisual, el espectador,
además, ha de comprender y ser capaz de organizar y estructurar el
espacio, el tiempo, los hechos y las ideas de manera conveniente
para poder interpretar el mensaje audiovisual contenido en la obra.
El sonido juega un papel fundamental en este proceso.
Es importante destacar la profundidad emocional, la
dimensionalidad y la presencia que transmiten los sonidos al
fundirse con las imágenes. Para conseguir esta simbiosis expresiva
en la elaboración de un audiovisual la utilización del sonido se ha de
plantear desde el inicio del guion.
A partir de su experiencia, Labrada (2009) plantea que si en el
guion original no aparece el sonido como parte de la narración,
estaremos ante una historia que descansa básicamente en elementos
visuales y será filmada y montada de esta manera, por lo que
resultará muy difícil tratar de incorporar el sonido como recurso
expresivo, ya que éste no forma parte de la historia. Además,
puntualiza que cada historia debe tener un sonido propio, del
mismo modo que posee su argumento, sus imágenes, sus
personajes, etc.
Por lo tanto, para que el sonido pueda desplegar todo su poder
expresivo y su efectividad narrativa como integrante de un
audiovisual es importante que forme parte de su relato y que se
aplique un tratamiento sonoro ya desde el guion. Difícilmente se
puede conseguir el mismo resultado si se trata el sonido en la etapa
final de posproducción, después de haber editado la imagen.
Labrada (2009) considera que vale la pena hacer un esfuerzo y
pensar en cómo suena una historia, en lo que escuchan los
personajes y en cómo el sonido influye en su acción y en sus
emociones, tal y como sucede en la vida misma.

› Aportaciones del sonido a los audiovisuales

Partiendo de la importancia del sonido dentro de la narración


audiovisual y del hecho que va mucho más allá de un mero
acompañamiento de la imagen se pueden tratar algunas de las
aportaciones del sonido a los audiovisuales.
El sonido puede atraer la atención del espectador dirigiéndola a
un punto concreto de la imagen. Puede anticipar, clarificar,
contradecir o crear ambigüedad sobre cualquier hecho que muestre
la imagen. Sirve para aumentar la sensación de realidad de una
imagen, transmite información y ayuda a crear ambientes
desempeñando una función figurativa, semántica y evocativa,
respectivamente.
En un audiovisual, se entiende el sonido como tal, a la
interacción de los tres elementos que conforman una banda sonora:
efectos sonoros, música y voz, añadiendo a éstos las posibilidades
expresivas del silencio (el cual no necesariamente ha de ser
absoluto, sino que se define por contraste). El sonido puede
desempeñar diversas funciones:
• Función descriptiva: imita el sonido que en la realidad
debería existir en el lugar que aparece en la imagen o al
describir un lugar determinado o un entorno geográfico.
• Función expresiva: adquiere un importante valor
comunicativo, y es capaz de sugerir o de generar sensaciones.
Por ejemplo:
– M odificando una sensación a partir del uso del principio de
sincronía: impacta más un sonido repentino e inesperado
que una imagen imprevista.
– Sugiriendo un estado de ánimo o evocando un sentimiento.
– Representando una identidad o leitmotiv: un efecto sonoro
puede asociarse a personajes, situaciones dramáticas,
sucesos, etc., de manera que la aparición del mismo sirva
para presentar, acompañar, anticipar, evocar o sustituir a
éstos.
– Definiendo un personaje.
• Función narrativa: juega un importante papel en el proceso
narrativo del relato y en la consecución de su estructura. Por
ejemplo:
– Centrando la atención y dirigiéndola a un punto concreto de
la imagen.
– M arcando el ritmo. Según Nieto (1996), no sólo afectará a
la percepción de éste, sino que también, al poner de relieve
algunos elementos, puede modificar sensiblemente, si no el
contenido, sí el valor expresivo de la secuencia.
– Identificando causa-efecto: un sonido reconocido por el
receptor puede representar una imagen aunque no aparezca
en la pantalla.
– Organizando narrativamente el flujo audiovisual: el sonido
se utiliza para dar mayor o menor continuidad narrativa a
los materiales visuales.
– Contribuyendo al reconocimiento de los espacios sonoros
permitiendo la reconstrucción de éstos y la ubicación del
espectador en el espacio de la narración.
• Función ornamental: realza una escena determinada.
• Función simbólica: adquiere, más allá de las apariencias
realistas, un valor más amplio y profundo. Por ejemplo,
utilizándose de forma metafórica.
• Función de ambientación: forma parte, supuestamente real,
de la escena visualizada. Por ejemplo: – Determinando un
escenario geográfico: efectos de sonido característicos de
entornos concretos.
– Determinando un entorno cultural o social: determinados
sonidos se pueden relacionar con entornos culturales y
sociales específicos.
– Creando atmósferas y ambientes.
– Determinando un período histórico: algunos efectos
sonoros pueden remitirnos a épocas concretas.
– Determinando unas condiciones climáticas concretas: el
sonido de lluvia o de viento hará que el espectador visualice
esa situación climática, aunque no aparezcan en pantalla.
– Transmitiendo sensaciones espaciales: percepción de
distancia y direccionalidad, identificación de formas y
volúmenes.
• Función dramática: intensifica la acción dramática en una
escena. Por ejemplo: – Ayudando a intensificar o atenuar la
tensión que pueda producir una acción determinada.
– Realzando un hecho, clarificando su carácter o abundando
en su definición concreta.
• Función gramatical: organiza narrativamente el relato.
– Generando continuidad o discontinuidad espaciotemporal.
– Unificando o separando los planos o las secuencias que
configuran la narrativa audiovisual.

Un sonido puede desempeñar diversas de estas funciones de


manera simultánea.

›› Recursos narrativos del sonido

Cuando el sonido añade a la escena algo más de lo que se ve, está


cumpliendo una función narrativa. Algunos de los recursos
narrativos del sonido son:

• Fuera de campo: la imagen de una escena está definida por el


espacio y por el sonido; así, una acción, aunque se desarrolle
fuera de pantalla, puede narrarse por el sonido, de manera que
el espectador «visualiza» en su imaginación dicha acción.
• Voz en «off»: se trata de una voz que se escucha en el
transcurso de una escena pero que no pertenece
sincrónicamente a ningún personaje que esté hablando en
pantalla.
• S onidos «on the air»: Chion (1993) los define como
presentes en una escena, pero supuestamente retransmitidos
eléctricamente por radio, teléfono, amplificación, etc.; por lo
tanto, escapan a las leyes mecánicas «naturales» de
propagación del sonido. M ediante este recurso, normalmente
fuera de campo, se pueden aportar datos significativos a la
narración audiovisual.
• «Leitmotiv»: consiste en una melodía o una secuencia sonora
que se asocia a un personaje, un lugar o una idea, de manera
que su simple audición los evoque, aunque no aparezcan en
pantalla.
• S onido interno: que corresponde a un personaje, ya sea
fisiológico (respiración, latidos del corazón, etc.) o mental
(pensamientos, recuerdos, etc.).

›› Transiciones sonoras

Las transiciones o enlaces, tanto visuales como sonoros, ayudan a


articular y dar ritmo al relato. Por lo que respecta a las transiciones
sonoras encontramos:

• Corte: esta transición, que tiene su correlación con la imagen,


implica la aparición de una imagen o un sonido
inmediatamente después de que los anteriores desaparezcan;
es decir, se trata de la sustitución brusca de un sonido por
otro. Es la transición más utilizada y elemental.
• Fundido: también tiene su correlación con la imagen y
consiste en la sustitución de un sonido por otro
superponiendo momentáneamente el que aparece sobre el
anterior, que se desvanece. Este recurso transitivo es útil para
pequeños cambios en el tiempo, la localización o la acción.
• Anticipación sonora: este recurso enlaza dos secuencias
anticipando el sonido de la segunda a la primera y reforzando,
de esta manera, el flujo narrativo. Esta anticipación-
desincronización genera expectación ante el cambio de
secuencia.
• Enmascaramiento: este recurso, que también se utiliza con
la imagen, consiste en que un efecto sonoro se superpone a
una transición, ya sea por corte o por fundido, e impide la
escucha del punto donde se produce.

›› Expresión y procesado de sonido

Las posibilidades narrativas y expresivas del sonido no sólo


dependen de éste en sí, sino también de la forma en que está
procesado.
Nieto (1996) considera que la forma más simple, y quizá
también la más usada, de manipular un sonido para darle un
contenido dramático es alterar su intensidad sonora normal para su
percepción como un elemento que forma parte de la narración.
›› Espacialización sonora

La capacidad sensorial del oído humano en la percepción espacial


permite que, a través del sonido, se puedan construir espacios
generando, de manera simultánea en el tiempo, sensaciones de
dirección y profundidad. Esta sensación espacial, que determina un
espacio sonoro, permite reconocer las distancias entre las fuentes
sonoras y el receptor, la dirección de la que provienen los sonidos y
la identificación del volumen espacial donde se encuentra la fuente
sonora. De hecho, la radio ha utilizado profusamente el sonido
como recurso para generar auditivamente sensaciones espaciales.
La diferencia de intensidad se puede relacionar con la mayor o
menor distancia a la que se encuentra una fuente sonora; la
panoramización (la situación más o menos lateral, a izquierda y
derecha, del sonido en un sistema estéreo) de una fuente sonora se
puede asociar a la sensación de direccionalidad, y el volumen
espacial viene dado por la manipulación del sonido, aplicando al
mismo una mayor o menor reverberación. El volumen es
directamente proporcional a la reverberación; por lo tanto, cuanto
mayor es el primero, también lo es el segundo.
El efecto de profundidad sonora, que se puede generar a partir
de la manipulación de las intensidades, crea en la imagen plana la
sensación de espacialidad acentuada por el sonido.
El tratamiento de cada objeto sonoro con una intensidad
diferente permite situarlos en diferentes lugares del espacio sonoro;
al moverlos modificamos, de esta manera, la sensación de
perspectiva sonora.
Para Rodríguez Bravo (1998), la clave narrativa fundamental de
la creación de espacios sonoros es el punto de audición, definido
como el punto de referencia espacial a partir del cual se construye
toda perspectiva sonora.
Otro recurso dramático importante, definido anteriormente, en
el tratamiento del espacio sonoro es la utilización de sonidos fuera
de campo, ya que éstos son capaces de generar en el espectador
auténticas imágenes, en ocasiones tan fuertes y claras como las de
origen visual.

›› El plano sonoro

Este concepto, que tiene su origen en el de plano visual, se


relaciona con la idea de la distancia aparente del sonido respecto al
oyente. Como se ha dicho anteriormente, a partir de la
manipulación de la intensidad se puede reproducir acústicamente la
sensación de distancia, pero, aunque el parámetro dominante en la
sensación de distancia sea la intensidad, la modulación de ésta
siempre va acompañada de otro tipo de variaciones sonoras; el
conjunto de éstas determinan la citada sensación de distancia.
Cebrián Herreros (1994) puntualiza que es la presencia sonora
(es decir, la distancia entre la fuente sonora y el micrófono) la que
hace referencia al plano sonoro o plano de profundidad sonora, tal
y como él lo denomina, y no la intensidad, que se refiere a la fuerza
o debilidad de los sonidos. Rodríguez Bravo (1998) propone, para
evitar confusiones y teniendo en cuenta que son dos técnicas
distintas de realización, que se denomine distancia a la separación
entre la fuente sonora y el micrófono y plano sonoro a la
manipulación de la intensidad que normalmente se realiza en la fase
de posproducción.
Teniendo en cuenta la distancia de la fuente sonora respecto al
oyente se pueden distinguir diversos planos de presencia sonora:

• Primerísimo primer plano: también llamado plano íntimo, en él


la fuente sonora está situada junto al oyente. Sirve para
expresar intimidad entre los personajes; se trata de un plano
muy subjetivo.
• Primer plano: indica una distancia próxima al oyente y entre
los distintos objetos sonoros que se expresan en el plano.
• Plano de fondo: plano sonoro generado por diversos sonidos
que suenan lejanos respecto a otros situados en primer
término. Produce sensación de profundidad.
• Plano general o lejano: marca la distancia más alejada del
primer plano. En algunos casos sería el destinado al ambiente
sonoro.

Con la irrupción de los sistemas de sonido envolvente se puede


hablar del tipo de plano sonoro que algunos teóricos han
denominado como superplano, el cual abarca los sonidos
procedentes de los 360º del espacio donde se desarrolla la acción.
La utilización de los planos sonoros no siempre responde a
criterios físicos de distancia entre objetos, sino que también pueden
emplearse para expresar tensión emocional, discrepancias,
diferencias, etc. En estos casos se podría hablar de planos de
intención.

›› Función estructural del plano de sonido ambiente

Como ya se ha dicho anteriormente, el sonido es un importante


elemento en la organización narrativa unificando o separando
estructuralmente las secuencias visuales. Un ejemplo de ello lo
tenemos en la función estructural que puede desempeñar un plano
de sonido ambiente, que puede permanecer en el mismo punto de
audición sin que se produzcan variaciones significativas o saltos
temporales. A diferencia de los planos visuales en constante cambio
(plano, contraplano, etc.), el de sonido ambiente, que no sufre
modificaciones a no ser que se produzca un cambio de lugar o de
tiempo, permite mantener una unidad de tiempo y de lugar
organizando estructuralmente todo lo que transcurre en la escena,
además de cumplir una función de ambientación o decorado propia
de este tipo de plano sonoro.
Esta función estructural del plano de sonido ambiente posibilita
unificar planos visuales de un mismo lugar y tiempo, separarlos en
sitios o momentos diferentes, o indicar el lugar donde transcurre la
acción, diferenciando interior y exterior.
La posible permanencia de un elemento de un plano sonoro en el
plano siguiente (efecto de encabalgamiento u overlapping) lo
convierte en un elemento de enlace que genera una sensación de
unidad entre los planos visuales, aunque éstos sean completamente
distintos.
Por el contrario, una posible ausencia de planos de sonido
ambiente puede dificultar la percepción de cambio de lugar y
tiempo y el reconocimiento de los diferentes lugares (calle,
despacho, bar, etc.) en los que se desarrolla la acción.

› La voz y el lenguaje

En cualquier narración audiovisual, el contenido semántico del


discurso lingüístico es uno de los instrumentos expresivos
fundamentales y su importancia aumenta cuando una secuencia está
construida con formas sonoras incompletas. Hay que tener
presente que la expresión acústica tiene un peso importante en la
capacidad expresiva del lenguaje audiovisual.
No hay que olvidar la importancia del potencial emotivo y
sugestivo de la voz en la relación que pueda haber entre las
características psicológicas de los personajes, su tono y su manera
de hablar. Labrada (2009), para quien el oído sin la imagen se vuelve
implacable a la hora de valorar estas sensaciones, opina que estas
consideraciones sobre las voces y los personajes cobran su máxima
importancia en medios no visuales como la radio.

› Sincronismo

Podemos definirlo como la alineación del sonido y la imagen de


forma que el primero parezca proceder directamente de alguna
acción producida en la segunda.
Cuando se percibe una coincidencia precisa en el tiempo entre
un estímulo sonoro y uno visual se produce una fusión perceptiva
audiovisual que los relaciona como provenientes de una misma
fuente.
Tanto Chion (1993) como Rodríguez Bravo (1998) establecen
diferentes grados de sincronía, aunque el segundo los vincula a
efectos narrativos o perceptivos:

• Sincronía unificadora: cuando es permanente y muy precisa.


Ambos fenómenos se perciben como provenientes de la
misma fuente.
• Sincronía estética: cuando es extensa en el tiempo pero con un
margen de precisión escaso al tomar puntos concretos de
referencia. Ambos fenómenos se perciben ambos provenientes
de fuentes distintas.
• Sincronía casual: cuando es puntual, esporádica e
imprevisible. Ambos fenómenos se perciben como totalmente
independientes.

Un recurso expresivo habitual es el desfase temporal de la


sincronía, ya sea la posibilidad de adelantar el sonido con respecto
a la imagen (sincronía dura) o de retrasarlo el sonido con respecto a
la imagen (sincronía blanda). En el primer caso potenciará el efecto
que produciría la percepción simultanea y en el segundo contribuirá
a suavizarlo o a anularlo en cierta medida.
Exceptuando los diálogos, el adelanto del sonido respecto a la
imagen es más difícil de percibir como asincrónico que su retraso.
› Memoria y asociaciones sonoras

Adame (1989) afirma que generalmente la memoria auditiva, a pesar


de que retiene menos información, es más imaginativa que la visual.
M uchos de nosotros tenemos una actitud más perceptiva y
discriminativa hacia lo que vemos que hacia lo que escuchamos.
Para Labrada (2009) la memoria sonora juega un papel
importante en la percepción de lo audiovisual apuntando que
existen básicamente tres tipos de asociaciones o códigos sonoros:

• Códigos naturales: sonidos asociados, para la mayoría de los


espectadores, a un determinado suceso real, como un trueno,
la lluvia, la bocina de un coche, etc.
• Códigos del cine: aquellos que el cine ha ido creando a lo largo
de su historia y que no coinciden, necesariamente, con la
realidad: golpes en las peleas, disparos...
• Códigos de la película: sonidos que se constituyen en códigos
sonoros de la narración audiovisual repitiéndose a lo largo del
relato hasta que funcionan por sí solos.

Bibliografía

ADAME GODDARD, Lourdes (1989). Guionismo. México D. F., Diana.


ALTEN, Stanley R. (2008). El sonido en los medios audiovisuales. Andoaín,
Escuela de Cine y Vídeo.
C EBRIÁN HERREROS, Mariano (1994). Información radiofónica. Madrid,
Síntesis.
C HION, Michel (1993). La audiovisión. Barcelona, Paidós.
LABRADA, Jerónimo (2009). El sentido del sonido: la expresión sonora en el
medio audiovisual. Barcelona, Alba.
NIETO, José (1996). Música para la imagen. La influencia secreta. Madrid,
Publicaciones y Ediciones SGAE.
R ODRÍGUEZ B RAVO, Ángel. (1998). La dimensión sonora del lenguaje
audiovisual. Barcelona, Paidós.
S CHAEFFER, Pierre (1988). Tratado de los objetos musicales. Madrid, Alianza.
/ La música en los medios: usos y
características

M ònica Barberá González, Universidad de Barcelona

La música es uno de los elementos que mejor ayudan a dar sentido


a una narración y más aún si ésta implica imágenes. Pero dejando a
un lado las generalidades que le son intrínsecas podemos distinguir
ciertas diferencias según el medio de comunicación del que se trate,
el género o el formato al que pertenezca; así, no tendrá la misma
función ni trato una música pensada para un anuncio que un tema
compuesto para un videojuego. Veamos cuáles son las
particularidades de los usos musicales en determinados medios y
géneros.

› Televisión y radio

La música aparece en muchos ámbitos dentro de la televisión. Dado


que las funciones de la música en el cine y en la imagen en general
ya se tratan en otros capítulos vamos a centrarnos en las
peculiaridades de este medio. Los géneros televisivos, a diferencia
de lo que sucede en el cine, tienen una estructura diferenciada en
bloques; así como una película tiene una continuidad y puede ser
consumida de un tirón, los programas televisivos se presentan
fragmentados: ya sea para ir a publicidad, separar secciones, la
presentación o el final. Por lo tanto, la música en la televisión tiene
principalmente una función gramatical, pues se utiliza para marcar
pausas, presentar contenidos y organizarlos.
Los elementos narrativos más comunes son los siguientes:

• La sintonía es un fragmento musical que aparece al inicio y al


final del programa o en las diferentes pausas.
• La cortina es un fragmento musical que sirve de signo de
puntuación para determinar un cambio de secuencia.
Acostumbra a empezar con un fade in en la primera secuencia
y terminar en un fade out en la siguiente con la que enlaza. En
las teleseries suele marcar cambios de ubicación.
• La ráfaga es un fragmento más breve que la cortina que se usa
para separar bloques temáticos, y que acostumbra a empezar
y terminar con un corte. Por ejemplo, suele usarse en el paso
de una sección a otra de un informativo o telediario.
• El golpe musical es una entrada súbita de un fragmento
musical que da gran efectismo y fuerza a la imagen. Como en
el videoclip, se usa en un momento determinado de manera
que un cambio de plano, un zoom rápido, una frase o cualquier
otro detalle queda claramente destacado. Resulta más eficaz
después de un silencio prolongado. De modo semejante a la
televisión, el papel principal de la música dentro de la radio
también se encuentra en la función estructural. En este medio
existen los mismos elementos narrativos que en la televisión,
pero debe tenerse en cuenta que, al no haber imagen, el sonido
toma una dimensión mucho más relevante. Así, por ejemplo,
habrá que tomar especial atención a los silencios: tres
segundos de silencio en la radio generan mucha más inquietud
o tensión que en la televisión.

› Publicidad

La publicidad ha acompañado siempre a todos los medios de


comunicación. Si nos centramos en aquellos que incluyen sonido
podemos hablar de televisión, radio e internet.
La música que acompaña a la publicidad tiene un claro objetivo:
vender. Dado que la media de un anuncio es de 20 segundos todo
debe ser muy conciso y directo. Generalmente se busca que la
música refuerce el mensaje implícito en el texto (sobre todo en la
radio) y en la imagen (en el caso de los medios visuales); así, se
viste el producto para que sea más atractivo.
Al igual que en otros géneros, puede tratarse de música
instrumental o vocal. La primera va encaminada a crear un ambiente
que cuadre con la imagen (o en el caso de la radio, con el producto
que se anuncia) y que lleve al espectador a sentirse inmerso en el
conjunto, una música de tipo descriptivo; en general, no difiere
mucho de la música cinematográfica, que también busca esa
implicación emocional. La segunda tiene dos posibles vertientes:
puede tratarse de una canción ya existente que conecte con un
segmento concreto de la población al que se dirige (target). Por
ejemplo, éste sería el caso de un anuncio de una revista o perfume
juvenil, donde sería adecuado jugar con una canción pop-rock de
moda como «gancho» para captar la atención del público joven.
También puede darse el caso de que se opte por crear una canción
exclusiva para el anuncio. En este caso la letra es crucial: deberá
sintetizar una idea clara y directa a modo de eslogan. Así, lo más
eficaz es que la letra sea fácil de recordar, el mensaje corto y la
música pegadiza. Hace treinta o cuarenta años la canción rimada era
un recurso muy utilizado, primero en la radio y luego en la
televisión. Hoy día ha pasado bastante de moda, pero en su
momento cosechó grandes éxitos como la canción del Cola Cao
(radio), la del bolígrafo Bic o la de las muñecas de Famosa
(televisión). Algunos eslóganes cantados han triunfado y perdurado
a lo largo de años: por ejemplo, ¿quién no recuerda la cantinela de
«Sensación de vivir» de Coca-Cola? O el no tan popular pero
también famoso «I’m lovin’ it» de M cDonald’s? Incluso si oímos
las versiones instrumentales de dichos eslóganes somos capaces de
reconocerlos y asociarlos a tales productos. Otros ejemplos de
alcance nacional serían: «Un poco de pasta basta, Gior» o «El lobo,
qué gran turrón» o el todavía actual «Wipp Express». Y en el
ámbito cinematográfico el famoso «M oooovierecord» que suena en
las salas antes del inicio de la película.
En la radio, la modalidad más corriente es el fondo musical que
acompaña en segundo término a la locución publicitaria (lo que
comúnmente se conoce como cuña). En este caso, dado que no hay
imagen del producto, es bueno tener en cuenta que el género
musical debe reflejar las características fundamentales de lo
anunciado: elegante, humorístico, exótico, infantil, seductor, etc.
Los espots publicitarios suelen resolverse con algún efecto
musical corto y percusivo que subraya la imagen, si la hay, en sus
momentos álgidos. A veces no se cuidan de manera suficiente los
finales y se deja el tema musical a medias al terminar el anuncio; la
interrupción de una melodía sin coincidir con un final de frase o
cadencia produce un mal efecto, pues no se establece una relación
sincrónica entre ambos planos (visual y sonoro) o simplemente no
existe una correspondencia entre el final de anuncio y el de la
música (este tipo de errores suelen ocurrir cuando el montador no
tiene sentido musical o el director no es sensible a ello).

› Videoclip

Ya hemos visto que la función gramatical o narrativa se produce


cuando la música se sincroniza estratégicamente con la edición de
los planos y no se limita a ser una música de fondo, sino que
interfiere en la estructura narrativa visual, ayuda a dar mayor
sentido al guion, ubica la acción, o introduce o cierra la narración.
Un ejemplo muy claro de esta función estructural llevada al máximo
exponente la podemos encontrar en los montajes de videoclips: un
formato televisivo donde la música marca claramente los cambios
de plano y las transiciones, y va estrechamente ligada a la edición o
montaje visual. Aquí empezaremos a hablar de un concepto clave:
la sincronía.
Según el tipo de producción audiovisual o de escena que
tengamos delante podemos encontrar diferentes grados de sincronía
de la música respecto la imagen. Así, en el caso de los videoclips,
los golpes musicales coinciden con cambios de plano u otros
efectos de edición. Por ejemplo un fade out de la imagen puede ir
acompañada de uno musical. Es muy habitual que los cambios de
plano se hagan siguiendo el tempo o beat de la música en cuestión;
éstos se acompañan rítmicamente y los compases se sincronizan
con los cortes del montaje cuando se desarrollan isocrónicamente y
en un tiempo muy breve. La música, además, no sólo marca la
posterior edición, sino que también condiciona las coreografías —si
las hay— de los personajes que protagonicen los videoclips. De
hecho, éste es uno de los pocos casos en que la música existe antes
que la imagen y ésta se encuentra totalmente supeditada a aquélla.
Aun así, cabe comentar que el videoclip ha llevado a crear
auténticas obras visuales que a veces han llegado a superar a la
música de la que dependían o le han añadido un valor sustancial. La
cadena internacional M TV ha sido la gran difusora de videoclips en
los que no se puede determinar quién es más responsable del buen
resultado, si el director del vídeo o los autores originales de las
canciones. Hay grupos y cantantes como M ichael Jackson o
M adonna sobre cuya obra se duda si es mejor interpretarla a partir
de su música o de sus vídeos, con sus fabulosos montajes visuales.

› Film musical

Aquí, la imagen será tratada en función de la música cada vez que


haya una canción. Así, podemos observar cómo los personajes se
mueven al son de la música, los planos cambian también en función
de ésta y el ritmo en general de la estructura fílmica se muestra
supeditado a ella. En otro tipo de filmes, la música sigue a la imagen
pero en este caso ocurre todo lo contrario. Encontramos múltiples
ejemplos en la historia de Hollywood: muchos musicales conocidos
fueron llevados brillantemente al cine, con actores como Fred
Astaire y Gene Kelly. Películas como Cabaret, A Chorus Line, El
fantasma de la ópera (The Phantom of the Opera), Sonrisas y
lágrimas (The Sound of Music) o Chicago están basadas en obras
de teatro musicales.
También encontramos sincronía de forma bien marcada en
escenas de acción, donde la música refuerza ciertos momentos para
que tengan más impacto: así, podemos oír un plato de batería justo
en el momento en que un coche choca; o, en una escena de intriga,
puede sonar una nota aguda y repentina en las cuerdas justo cuando
aparece el rostro del villano, etc.
Un caso extremo de concordancia entre música e imagen es el
denominado mickeymousing, que se da en los dibujos animados: se
trata de la meticulosa descripción sonora de los movimientos del
personaje, un recurso heredado del cine de animación iniciado por
Disney: por ejemplo, en «El concertista desconcertado», todos los
movimientos de Tom y Jerry sincronizan a la perfección con la
Rapsodia húngara n.º 2 de Liszt.
Cuando la música no es preexistente sino original, el compositor
deberá tener en cuenta todos los momentos álgidos o importantes
de la imagen y anotarlos para traducirlos en golpes musicales en la
partitura. Según José Nieto (2003), esos puntos, llamados
parciales, se anotan en minutos, segundos y fotogramas o frames
para luego traducirlos a tiempos musicales dentro del compás (en
lenguaje audiovisual se conoce este código de tiempo como TC, del
vocablo inglés Time Code).
Puede haber una escena donde, cada vez que tengamos un
cambio de plano, alternemos entre un tema A y uno B; en este caso
estaríamos hablando de un ritmo de montaje relativamente rápido.
Otros tipos de escenas no requieren esta precisión sincrónica.
Así, ante un paisaje bucólico, la música puede estar de fondo
acompañando las imágenes o reflejando el estado de ánimo de un
personaje, por ejemplo, pero sin necesidad de marcar puntos
concretos de la imagen.

› Videojuego

El medio del videojuego tiene una particularidad que no tiene


ningún otro: la interacción directa con el consumidor; es decir, que
al estar la narración abierta su devenir depende del jugador. Cada
pantalla o nivel que tenga delante durará más o menos en función
del tiempo que tarde en superarla. Esto obliga a tratar el audio de
un modo muy distinto que en otros productos lineales como una
película o un espot publicitario (los cuales están cerrados y son
finitos). El papel que toman en general la música y el audio en un
juego es muy relevante. De modo semejante al cine, la música y los
efectos en los videojuegos pueden generar todo tipo de emociones,
orientar al jugador y generar en él una sensación muy real. La gran
diferencia con el audio de la gran pantalla se debe a la música
interactiva: según cuáles sean las decisiones del jugador, ésta irá
variando e integrándose en el juego. Así, si el personaje principal
está en un espacio abierto y en un momento dado entra en una
cueva, mansión u otro lugar, la música se transformará dando lugar a
un nuevo ambiente, aunque sin cortes ni brusquedades. Para ello se
requieren piezas musicales que puedan relacionarse fácilmente entre
sí, y que estén programadas de manera que el cambio sea acorde.
De este modo se tendrá en cuenta que estén en la misma tonalidad
y, según cómo, que mantengan un tempo y un estilo semejantes.
Otro ejemplo puede ser el paso de un nivel o pantalla X al nivel
final con el monstruo o jefe (conocido en inglés como boss) que el
jugador debe derrotar. Al desplazarse por el nivel anterior, el juego
ofrece una música que recrea cierto ambiente y sitúa al jugador en
un lugar específico. A medida que el jugador se aproxima al boss
final la música juega con la emoción: la tensión aumenta, y el
entorno se vuelve más oscuro y pesado. A nivel instrumental se
pueden ir agregando elementos, o bien esa música puede ir
transformándose en otra composición. Podría, por ejemplo,
comenzar con cierta percusión, premonitoria de que algo sucederá;
luego se irían añadiendo colchones de cuerdas y metales para dar
ese toque bélico y, finalmente, podría terminar en un tutti orquestal
lleno de fuerza, perfecto para ambientar una batalla.
En los inicios del videojuego este nivel de interacción no era
posible. En las bandas sonoras se han conseguido grados de
sincronía muy reales gracias al iM USE (acrónimo del inglés
Interactive M usic Streaming Engine), un sistema desarrollado por la
productora LucasArts, que permite que una misma melodía o
composición vaya mutando según el lugar donde el jugador se esté
internando, sin que se produzcan cortes. Un ejemplo de ello es el
juego pionero Monkey Island; partiendo de una base musical, las
melodías e instrumentos van variando según el lugar de la pantalla
donde se encuentre el jugador.
Esta misma tecnología permite jugar también con los efectos de
sonido y la voz de un modo mucho más real que en los inicios del
videojuego. Así, por ejemplo, en cada aparición de un personaje se
puede asociar una frase, como si hablara dirigiéndose al jugador, o
un ruido concreto. Imaginemos que aparece un monstruo que nos
ataca: sin sonido no tendría el mismo impacto que si se programa
un rugido para que suene cada vez que abra las fauces. Si en vez de
ruido o voz se trata de música lograremos crear un leit motiv, como
en el cine (por ejemplo, el tema de Harry Lime en El tercer
hombre).
Otra diferencia importante que comporta su carácter no lineal es
la presencia de loops o bucles: como la duración de cada nivel es
variable, la música creada para ese nivel deberá estar montada de
modo que al terminar vuelva a comenzar hasta que el jugador pierda
o pase al siguiente nivel. Si ese enlace está bien creado y editado
será casi imperceptible para el jugador. En este aspecto hay que
tener en cuenta que cuanto más corto sea el loop, más cansino será
para el que lo escucha, con lo cual es recomendable que al menos
dure un minuto, aunque esa decisión debe tomarse a partir del
tiempo estimado de cada pantalla y juego, según su dificultad.
Aparte de las pantallas de duración indeterminada existen otras
que, como en el cine, están cerradas; se trata por ejemplo de las
pantallas de presentación y final de juego: en ellas el jugador no
decide, sino que simplemente observa, como si de una película se
tratara, por lo que a esas secuencias se las llama cinemáticas. En
todos estos casos suelen necesitarse los conocimientos de un
músico que asista al editor/ montador de vídeo para cuadrar ambas
doctrinas con mayor rigurosidad. Un buen montador otorga a los
cambios de plano un ritmo adecuado y natural según la necesidad
de cada escena. A menudo se valora que el propio montador de
vídeo tenga conocimientos musicales; de este modo, el sentido
rítmico, el tempo y otras cualidades musicales se verán reflejados
muy probablemente en el resultado final del montaje.

› Webs, móviles y demás gadgets tecnológicos

›› La era del almacenaje masivo


La velocidad a la que avanza la tecnología en nuestros días se refleja
en el tratamiento y almacenaje del audio en un doble aspecto que
cabe destacar aquí: la cantidad frente a la calidad.
Hace no muchos años hablábamos de «kas» (Kb), y luego de
«megas» (M b), para referirnos a unidades de información digital;
ahora ya es habitual hablar de gigas y teras. Dejando a un lado los
ya casi «viejos» CD y DVD, han ido apareciendo gran diversidad
de aparatos, cada vez de tamaño más pequeño y de mayor
capacidad: memorias USB, móviles, pads o tabletas, reproductores
de mp3 y ordenadores portátiles. La búsqueda del almacenaje
masivo ha ido pareja al desarrollo de formatos comprimidos, tanto
de audio como de vídeo. En el caso de la música han triunfado el
mp3 y el M IDI (aunque existan otros); hay que distinguir que el
primero sigue siendo audio, mientras que el segundo es un código
digital de unos y ceros que transmite información sobre un sonido
(frecuencia, duración y a veces timbre) pero que no contiene audio.
El formato mp3 permite reducir entre diez y veinte veces las
necesidades de almacenamiento de un archivo musical sin que haya
una gran pérdida en la calidad de reproducción de dicho archivo; de
todos modos, esto depende del grado de compresión que se le
aplique: generalmente se parte de un audio original al que se le
recortan frecuencias agudas. Si el recorte va de los 18.000 a 20.000
Hz, por ejemplo, estaremos ahorrando espacio y nuestro oído no
percibirá cambio alguno, pues se trata de frecuencias cercanas al
límite humano audible. Ahora bien, cuando se trata de recortes
mayores sí hay una pérdida sensible en la calidad. Por ello, en
medios como la televisión, y en el audio profesional en general, no
se admite este formato como adecuado para su difusión. En cambio,
su consumo doméstico está extendido.
En el caso del M IDI las posibilidades son enormes: al tratarse
de un código digital ocupa muy poco espacio, generalmente
kilobytes. Eso facilita enormemente su transporte y almacenaje
pero además abre la oportunidad de sonar diferente cada vez. Esa
información de unos y ceros requerirá pasar por algún módulo de
sonido para poder oír el archivo. Así, según el sonido que se le
otorgue a cada uno de los canales (los cuales pueden contener
muchísimos para cada instrumento requerido), el resultado final
puede llegar a ser muy diverso; en este caso dependerá de la calidad
de muestreo de las librerías de sonidos utilizadas.

›› Internet y las páginas web

En este apartado se hablará de la revolución que ha supuesto


internet en todos los ámbitos y, cómo no, también en el de la
música. La gran red llegó para transformar las convenciones de una
generación. El mundo de la industria discográfica está modificando
sus formas de producción y distribución; las nuevas redes y
tecnologías digitales, dados sus reducidos costes de
almacenamiento, distribución y comercialización y la mayor
extensión geográfica a la que dan acceso, han dado lugar a nuevos
mercados musicales digitales. Es cierto que actualmente un artista
puede producir y distribuir su obra musical sin la mediación de una
discográfica y obtener directamente ganancias dados los bajos
costes de producción. También los medios tradicionales como la
radio, la televisión o la prensa se han visto transformados: ver y oír
contenidos a la carta es hoy uno de los puntos fuertes sobre los que
se ha empezado a apostar.
Con la banda ancha, los archivos de música comenzaron a
circular en internet en una escala nunca antes pensada. Las
posibilidades de consumo son casi infinitas: ya sea a través de
tecnología streaming (como en el caso de YouTube, M ySpace o
Last.fm), que permite la escucha directa de un archivo colgado en
un espacio virtual de la red, como a través de redes de usuarios peer
to peer o red entre iguales (como Kaaza, eM ule o LimeWare, que
consisten en compartir e intercambiar archivos entre particulares, o
buscadores, como Google), los internautas del mundo entero
pueden publicar, descargar e intercambiar entre sí archivos
musicales.
El alcance de la música a la carta es hoy inmenso; los programas
radiofónicos en los que el oyente puede solicitar tal o cual tema han
quedado ya desfasados y, aunque siguen existiendo, su existencia
no tiene mucho sentido dadas las enormes posibilidades que ofrece
la web. YouTube, por ejemplo, nos permite ver y escuchar casi
todo lo que queramos. Esa oferta desmedida y «desmediada» hace
más compleja y amplia que nunca la selección de un contenido.
Este intrincado mundo de las webs ha dado lugar, entre muchos,
a dos grandes dilemas en lo que se refiere a la música: el de la
piratería y el de la privacidad. No entraremos en detalle en algo que
ocuparía un libro entero dedicado al debate social, pero sí nos
gustaría destacar algún rasgo de ellos. Por un lado, internet ha
permitido el pay per view («pagar para ver»), o en este caso
escuchar, al gusto del consumidor. No hace falta ya comprar un CD
o vinilo entero cuando nos gustan sólo uno o dos temas de él, una
posibilidad que da una salida al castigado mercado del disco y
resulta más barata al usuario. Pero, por otro lado, la libre
circulación de archivos hace que por cada uno que compra un tema
en la red o en una tienda física sean miles los que lo comparten y
descargan en internet sin coste alguno, con el problema legal que
eso conlleva.
El otro dilema es el de la intimidad: el nivel de control del
usuario al que se está llegando roza los límites de lo ético y, según
su uso, puede ser positivo o negativo. Hay páginas como Spotify
que permiten definir un perfil de usuario: existen mecanismos en la
red capaces de analizar qué tipo o estilo de música nos gusta a
partir de nuestras selecciones y sugerirnos luego música
anticipándose a nuestra búsqueda. Así, la interacción que permite
internet empieza a cuestionar nuestra libertad de circulación por
ella y la publicidad está haciendo un gran uso de esta arma. M uy a
menudo, si buscamos un tema musical en YouTube nos vemos
obligados a ver un anuncio previo.

›› Los móviles

Dejando a un lado el gran almacenaje de música en formato mp3


que permiten los móviles de última generación, veamos los rasgos
que caracterizan la música de los teléfonos móviles. Para empezar,
el tono de una llamada tiene que ser un fragmento corto. Es cierto
que sigue existiendo el clásico «riiing» para aquellos más
nostálgicos o acostumbrados a dicho timbres; pero, en general, ese
ruido típico de los teléfonos fijos ha sido sustituido por canciones
y temas conocidos. Para ello casi siempre se toma el estribillo o una
parte de él, pues tiene que ser un fragmento que dure sólo unos
segundos. M iles de temas quedan mutilados mediante esta
operación, que produce los conocidos «politonos»; muchos de ellos
se pueden descargar de la gran red, ya sea en formato mp3 o M IDI:
volviendo a este último, me gustaría destacar que al usuario se le
permite tomar esos temas secuenciados y cambiar la
instrumentación a su gusto si dispone de las herramientas
necesarias. Si no, dependiendo de las posibilidades del terminal y el
banco de sonidos de que disponga, sonará de un modo u otro. Eso
sí, los temas serán instrumentales, pues el M IDI no permite su
transformación en voz real, pues todos los instrumentos son
virtuales.

Bibliografía

B ELTRÁN, Rafael (2005). La ambientación musical en radio y televisión.


Selección, montaje y sonorización. Madrid, Instituto RTVE.
C ALVI , Juan C. « La industria de la música, las nuevas tecnologías digitales e
Internet. Algunas transformaciones y salto en la concentración» . Disponible
en: www.ehu.es/ojs/index.php/Zer/article/download/3726/3356.
MARTÍN MALDONADO, Alejandro. « La invención de un género: los vídeos
musicales» . Disponible en: www.ochoymedio.info/review/191/La-invención-
de-un-género:-los-videos-musicales.
NIETO, José (2003). Música para la imagen: la influencia secreta. Madrid,
Iberautor Promociones Culturales.
VARSAVSKY, Martín. « La historia de la música por internet y la piratería» .
Disponible en: http://spanish.martinvarsavsky.net/tecnologaa-e-internet/la-
historia-de-la-masica-por-internet-y-la-pirateraa.html.

Anda mungkin juga menyukai