Anda di halaman 1dari 215

MÚSICA, NARRACIÓN Y

MEDIOS AUDIOVISUALES

MANUEL GÉRTRUDIX BARRIO

 
 

A los que fueron,

a los que son y

a los que serán


 

MÚSICA,  NARRACIÓN  Y  MEDIOS  AUDIOVISUALES  


 

 
MADRID  
2002
ÍNDICE GENERAL
ÍNDICE GENERAL

INTRODUCCIÓN

CAPÍTULO I. ACERCA DE LA MÚSICA.


1.1. LA MÚSICA.
1.1.1. ATISBANDO UN ORIGEN.
1.1.2. LOS UNIVERSALES MUSICALES.
1.1.3. FUNCIONES DE LA MÚSICA.
1.2. NATURALEZA DE LA MÚSICA.
1.2.1. LA REFLEXIÓN COMUNICATIVA.
1.2.2. LA REFLEXIÓN CIENTÍFICA.
1.2.3. LA REFLEXIÓN ARTÍSTICA.
1.3. EN BUSCA DE UNA DEFINICIÓN.
CAPÍTULO II. EL SONIDO CODIFICADO: LA MÚSICA COMO LENGUAJE.
2.1. LA COMUNICACIÓN COMO OBJETO DE ESTUDIO.
2.1.1. CONCEPTO DE COMUNICACIÓN.
2.1.2. DISCIPLINAS CIENTÍFICAS.
2.2. SEMIÓTICAS NO LINGÜÍSTICAS: LA MÚSICA.
2.2.1. ANÁLISIS SEMIÓTICO DE LA MÚSICA.
2.2.1.1. La música como sistema semiótico.
2.2.1.2. Valor semántico del signo musical.
2.2.1.3. Los niveles de análisis.
2.2.1.4. Funciones del signo musical.
2.2.1.5. Propiedades del signo musical.
2.2.1.6. La escucha musical
2.2.2. LOS PROCESOS DE CODIFICACIÓN
2.2.3. MÚSICA Y CÓDIGO
2.2.4. LOS REFERENTES MUSICALES
2.2.5. LA MÚSICA COMO REPRESENTACIÓN
2.3. FACTORES DE LA COMUNICACIÓN MUSICAL.
2.3.1. EL DESTINADOR.
2.3.2. EL DESTINATARIO.
2.3.3. EL CÓDIGO.
2.3.4. EL MENSAJE.
2.3.5. EL CANAL.
2.3.6. LA SITUACIÓN.
2.3.7. EL OBSERVADOR.
CAPÍTULO III. FUNDAMENTO CIENTÍFICO DEL SONIDO.
3.1. SONIDO, SILENCIO Y RUIDO.
3.1.1. DISCIPLINAS CIENTÍFICAS.
3.1.2. SISTEMAS DE ANÁLISIS DEL SONIDO.
3.1.3. EL SONIDO.
3.1.3.1. Definiciones.
3.1.3.2. Las ondas sonoras.
3.1.3.3. Transmisión y velocidad del sonido.
3.1.3.4. Reflexión, resonancia, eco y reverberación.
3.1.3.5. Sonidos puros/sonidos compuestos.
3.1.4. EL RUIDO.
3.1.5. EL SILENCIO.
3.2. PARÁMETROS DEL SONIDO.
3.2.1. ALTURA O TONO.
3.2.1.1. Magnitudes de altura.
3.2.2. INTENSIDAD.
3.2.2.1. Magnitudes de intensidad.
3.2.3. TIMBRE.
3.2.3.1. Armónicos.
3.2.3.2. Magnitudes del timbre.
3.2.4. DURACIÓN.
3.2.5. OTROS PARÁMETROS SONOROS.
3.3. ELEMENTOS Y RUDIMENTOS SONOROS
CAPÍTULO IV. LA INFORMÁTICA Y LA ELECTRÓNICA AL SERVICIO DE LA
MÚSICA.
4.1. ELEMENTOS DE TRABAJO.
4.1.1. PROTOCOLOS DE COMUNICACIÓN.
4.1.1.1. La norma MIDI.
4.1.1.2. Códigos de sincronía
4.1.2. EQUIPOS.
4.1.2.1. Ordenadores personales.
4.1.2.2. Instrumentos electrófonos.
4.1.2.3. Sintetizadores.
4.1.2.4. Técnicas de síntesis.
4.1.2.5. Controladores, interfaces y otros dispositivos.
4.1.3. SOFTWARE MUSICAL.
4.1.3.1. Programas especializados.
4.1.3.1.1. Secuenciadores.
4.1.3.1.2. Editores de partituras.
4.1.3.1.3. Editores, gestores de datos y librerías de sonidos.
4.1.3.1.4. Producción audio/vídeo.
4.1.3.2. Programas didácticos y juegos educativos.
4.2. APLICACIONES DE LA INFORMÁTICA Y LA ELECTRÓNICA MUSICAL.
4.2.1. INTERPRETACIÓN.
4.2.2. COMPOSICIÓN.
4.2.3. AUDICIÓN.
4.2.4. DIDÁCTICA Y EDUCACIÓN.
CAPÍTULO V. EVOLUCIÓN DE LAS TÉCNICAS DE GRABACIÓN Y
REPRODUCCIÓN DEL SONIDO.
5.1. REGISTRO Y REPRODUCCIÓN SONORA.
5.2. COMPONENTES DE LA CADENA: NOCIONES BÁSICAS.
5.2.1. CADENA DE GRABACIÓN.
6.2.1.1. Micrófonos.
6.2.1.2. Consolas.
6.2.1.3. Unidades de tratamiento.
5.2.2. CADENA DE REPRODUCCIÓN.
6.2.2.1. Reproductores.
6.2.2.2. Amplificadores de potencia.
6.2.2.3. Altavoces.
5.3. EVOLUCIÓN HISTÓRICA.
5.3.1. LA GRABACIÓN ANALÓGICA.
6.3.1.1. Antecedentes.
6.3.1.2. Sistema mecánico o acústico.
6.3.1.3. Sistema eléctrico.
6.3.1.4. Sistema magnético.
6.3.1.5. Sistema óptico cinematográfico.
5.3.2. LA GRABACIÓN DIGITAL.
6.3.2.1. Sistemas magnéticos.
6.3.2.2. Grabación a disco.
6.3.2.3. Unidades de almacenamiento.
CAPÍTULO VI. LA MÚSICA Y LOS MEDIOS DE DIFUSIÓN: SEMBLANZA
HISTÓRICA.
6.1. APROXIMACIÓN TEÓRICA.
6.1.1. CONCEPTOS.
6.1.2. CLASIFICACIÓN DE LOS MEDIOS DE COMUNICACIÓN.
6.2. MEDIOS DE DIFUSIÓN Y MÚSICA A TRAVÉS DEL TIEMPO.
6.2.1. ANTECEDENTES: MEDIOS PRETECNOLÓGICOS.
6.2.2. LA PRENSA.
8.2.2.1. La impresión musical.
6.2.3. LA RADIO.
8.2.3.1. El fenómeno radiofónico.
8.2.3.2. Función de la música en la radio.
8.2.3.3. Radio y música a través del tiempo.
6.2.4. LA TELEVISIÓN.
8.2.4.1. El fenómeno televisivo.
8.2.4.2. Función de la música en la televisión.
8.2.4.3. Televisión y música a través del tiempo.
6.2.5. LA MÚSICA EN LA CONVERGENCIA DE MEDIOS.
8.2.5.1. El fenómeno multimedia.
8.2.5.2. Multimedia y música.
8.2.5.3. Internet y música.
6.3. MEDIOS DE DIFUSIÓN Y CREACIÓN MUSICAL.
CAPÍTULO VII. LA MÚSICA EN LA NARRACIÓN AUDIOVISUAL
7.1. LA REFLEXIÓN TEÓRICA ENTORNO A LA MÚSICA CINEMATOGRÁFICA
7.2. PRINCIPIOS
7.2.1. NATURALEZA DE LA IMAGEN SECUENCIAL EN MOVIMIENTO
7.2.2. ISEM: DEFINICIÓN
7.2.3. NIVELES DE ANÁLISIS: INTERPRETACIÓN FÓNICA
7.2.4. PROCESO DE CODIFICACIÓN EN LA DIALÉCTICA IMAGEN-SONIDO
7.2.5. FOCALIZACIÓN DE LA FUENTE SONORA
7.3. LA MÚSICA EN LA OBRA DE ARTE TOTAL
7.3.1. EL AUDIOVISUAL COMO SÍNTESIS
7.3.2. VALOR DE LA MÚSICA EN EL TEXTO AUDIOVISUAL
7.3.3. MÚSICA E IMAGEN: ANCLAJE Y RELEVO
7.3.4. FUNCIONES DEL SIGNO MUSICAL
7.3.5. CONCEPCIONES DE LA MÚSICA
7.3.6. FORMAS PRESENCIALES
7.4. CARACTERÍSTICAS DE LA MÚSICA CINEMATOGRÁFICA
7.4.1. EL COMPOSITOR Y SU PÚBLICO: ORIGINALIDAD VS COMUNICACIÓN
7.4.2. LA CUESTIÓN DE LA ORIGINALIDAD EN EL ÁMBITO DE LA MULTIPLICIDAD ESTÉTICA.
7.4.3. INDEPENDENCIA DISCURSIVA Y ESTRUCTURAL
7.4.4. MÚSICA DIEGÉTICA VS MÚSICA EXTRADIEGÉTICA
7.5. FUNCIONALIDAD NARRATIVA DE LA MÚSICA
7.5.1. RESPECTO A LOS PERSONAJES
7.5.2. RESPECTO A LA ACCIÓN NARRATIVA
7.5.3. RESPECTO AL TIEMPO
7.5.4. RESPECTO AL ESPACIO NARRATIVO
7.6. MÚSICA, CINE Y CREATIVIDAD
7.6.1. ASPECTOS NEUROFISIOLÓGICOS DE LA ACTIVIDAD MUSICAL
7.6.2. LA CREATIVIDAD MUSICAL
7.6.3. EL ÁMBITO DE LA MÚSICA CINEMATOGRÁFICA
7.6.4. EL PROCESO DE CREACIÓN MUSICAL
CAPÍTULO VIII. LA MÚSICA QUE NOS RODEA: EL FENÓMENO MUSICAL EN
NUESTRO TIEMPO.
8.1. ASPECTOS ECONÓMICOS.
8.1.1. LA INDUSTRIALIZACIÓN DE LA CREACIÓN-PRODUCCIÓN.
8.1.2. LA INDUSTRIA FONOGRÁFICA.
8.1.3. DISTRIBUCIÓN Y COMERCIALIZACIÓN.
8.2. ASPECTOS SOCIOLÓGICOS.
8.2.1. BASES DEL MODELO.
8.2.2. GÉNESIS: EL REGISTRO SONORO.
8.2.3. CARACTERÍSTICAS DEL MODELO.
8.2.4. PRODUCTOS MUSICALES AL ALCANCE DE TODOS.
8.3. ASPECTOS CULTURALES.
8.3.1. LAS INDUSTRIAS CULTURALES.
8.3.2. LA OBRA DE ARTE EN LA INDUSTRIA CULTURAL.
8.3.3. LA MÚSICA COMO INDUSTRIA CULTURAL.
8.4. ASPECTOS ECOLÓGICOS.
8.4.1. CONTAMINACIÓN ACÚSTICA.
8.4.1.1. El ruido.
8.4.1.2. Clasificación del ruido.
8.4.1.3. Fuentes del ruido.
8.4.2. EFECTOS NOCIVOS SOBRE EL HOMBRE.
8.4.2.1. Efectos fisiológicos.
8.4.2.2. Efectos psíquicos.
8.4.2.3. Efectos sociológicos.
8.4.3. MEDIDAS CORRECTORAS DEL RUIDO.
BIBLIOGRAFÍA
1. OBRAS DE REFERENCIA O CONSULTA
2. TRATADOS Y MANUALES
3. TEXTOS
INTRODUCCIÓN
El  solo  intento  de  sacar  al  sol  vuestra  
propia  tiniebla  es  ya  plausible  
(A. Machado)  

 
Música, narración y medios audiovisuales realiza una reflexión sobre la presencia,
sentido y valor de la Música en el ámbito de los medios de comunicación, a partir del
estudio de sus fundamentos artísticos, científicos, y comunicativos. Es, en el fondo,
un deambular que se aproxima, con prudencia y rigor, a un importante número de
aspectos y conocimientos vinculados con el fenómeno discursivo de la Música.
Alejada de toda exhaustividad, la pretensión que ha motivado su elaboración
es especialmente sincrética. Dar cabida a un interminable e incomprensivo estudio
sobre la multitud de cuestiones técnicas y formales de la música transciende, como
era de esperar, los objetivos y pretensiones de este libro.
Por un lado, se establecen, desde el ámbito sociológico algunas de las
implicaciones sociales, políticas y económicas de la música, desde las condiciones de
su producción, sus fundamentos económicos y funcionalidad social.
Por otro, se realiza una teorización sobre aquellos aspectos que, en cuanto
música aplicada, interesa conocer para comprender mejor la presencia de la música
en el relato audiovisual. Así, se investiga la funcionalidad, estado y disposición de la
música en el marco productivo de los medios audiovisuales.
Consecuentemente, bajo el pretexto de precisar las pautas que reflejen una
propuesta de análisis musical, esta aproximación teórica circunda estos aspectos
prioritarios de su reflexión actual:
• Una aproximación a la naturaleza y definición estética del fenómeno musical.
• El análisis del valor comunicativo del signo musical.
• La valoración de las posibilidades de las nuevas tecnologías de la información
y la comunicación aplicadas a la Música, a partir del estudio de su
fundamento físico y sonoro.
• Un apunte de carácter técnico sobre las herramientas aportadas por las
nuevas tecnologías al proceso de creación musical.

9
• El estudio de la vinculación de la música con los medios de difusión masivos
y su incidencia en los procesos creativos.
• Una propesctiva de la implicación narrativa de la Música en la configuración
de los relatos audiovisuales, y
• Una aproximación a las actuales circunstancias sociológicas de consumo y uso
musical.
Explotar la potencial capacidad expresiva de la dimensión sonora del lenguaje
audiovisual implica la necesidad de un conocimiento y reflexión sistemática
sobre uno de sus elementos, habitualmente, más soterrados: la Música. En este
sentido, la diversidad de enfoques y planteamientos abordados en Música,
narración y medios audiovisuales convierte este texto en una referencia tanto en el
ámbito de las familias profesionales vinculadas con la Imagen y el Sonido (Ciclos
formativos de Grado Medio y Superior), como en el de las Licenciaturas de
Comunicación audiovisual y Publicidad.

10
CAPÍTULO I. ACERCA DE LA MÚSICA.
El fenómeno musical representa un sistema complejo. A lo largo de los
tiempos ha sido objeto de estudio de investigadores, objeto de reflexión de los
profesionales, y objeto de uso de las sociedades.
Cada una de esas entidades ha elaborado teorías, más o menos formales,
encaminadas a la definición de la música, de su origen, su por qué, y su esencia.
Unas han cimentado su dimensión científica, otras han definido su carácter artístico,
y, en general, todas, de una u otra manera, han determinado su magnitud
comunicativa.

1.1. LA MÚSICA.

1.1.1. Atisbando un origen.


Las teorías respecto al origen del hecho musical son muy diversas y varían en
función de la sociedad que las establece. En ocasiones explican las razones por las
que el ser humano desarrolló la música pero no el cómo apareció. No obstante,
parece que sólo el estudio de los universales musicales puede ofrecer información
verídica sobre el mismo.
De forma concreta se puede establecer una clasificación de teorías que sitúan
el origen musical en entidades diversas, cada una desde una justificación distinta:
• Emocionales. Sonorización de gritos, quejas, etc. (Stumpf)
• Lingüísticas. La necesidad de aumentar la eficacia de la comunicación vocal
en distancias largas provocó la necesidad de emitir tonos elevados. Por
imitación, esto daría paso a “fenómenos paramusicales como las señales por
medio de los tambores”, etc. (Stumpf, Sachs, Herder)
• Funcionales. El uso de la música y su asociación con la danza y los
movimientos corporales favorecería el trabajo rítmico haciéndolo más eficaz
(Buecher)
• Imitativas. Representación de los sonidos de animales, de los ruidos de la

11
naturaleza, etc. (Darwin)
• Mágicas. La música aparece como un instrumento necesario para la
comunicación con los seres supernaturales (Nadel)
• Ontogenéticas. Balbuceos de los bebés.

La localización, dentro de los códigos culturales de lectura, de una tonada o


fórmula musical primigenia que surja como primer motivo musical, de una canción
original —en su acepción de origen— (Gadner), es extremadamente complicada. No
así el descubrir «procesos comunes que gobiernen toda la actividad simbólica
temprana». Es decir, aunque es prácticamente imposible encontrar el producto
cultural originario sí es factible acercarse al reconocimiento de los procesos y
procedimientos que le dieron origen. Sobre este punto, no obstante, no hay, ni
mucho menos, un acuerdo definitivo. Su controversia se puede pincelar a través de
dos grandes corrientes de pensamiento enfrentadas:
• Universalistas. La que parte de las teorías de Leonard Bernstein, apoyado en la
Lingüística de Chomsky, que considera probada la existencia de una canción
básica resultado del «conjunto de predisposiciones humanas genéticas y de las
leyes físicas que gobiernan la armonía musical», y continúa con la teoría del
etnomusicólogo Bruno Nettl que incide en que existen un conjunto de cánticos
básicos universales de los que derivan las diversas melodías del mundo.
• Relativistas culturales. Postulan que las canciones iniciales del niño reflejan las
prácticas melódicas, armónicas y rítmicas de cada cultura particular porque
«ningún individuo crece en un vacío acústico».

1.1.2. Los universales musicales.


A lo largo de los dos últimos siglos las distintas corrientes etnomusicológicas
y antropológicas han asumido de forma antagónica el conocimiento de los
universales musicales:
1) Como tesis: la música como lenguaje universal (s. XIX y teorías desde 1960); y
2) Como antítesis: todas las músicas no son iguales y, por tanto, no se puede
afirmar la universalidad de la música (1920/1960)
Los universales musicales hacen referencia, en términos teóricos, a lo que

12
todos los humanos hacen con su música. Siguiendo los procedimientos de la
antropología y la lingüística Chomskyana se establece la existencia de una estructura
subyacente y profunda, en todas las culturas y sociedades, que es la capacidad y
habilidad musical. El fundamento de este argumento es doble:
• Los mitos transculturales y las costumbres relacionadas con las
necesidades básicas son comunes y similares.
• La estructura y el funcionamiento del cerebro humano son iguales.

1.1.3. Funciones de la música.


La música, por su carácter expresivo y comunicativo, tiene una dimensión de
utilidad, planteada históricamente, como residencia en sí misma, sin necesidad de
buscar ese valor absoluto o relacionado de uso fuera de ella.
No obstante, y aunque no todo es extrapolable entre esta y otros sistemas
simbólicos —por «la variedad de modos de expresión de la música [...] y la
posibilidad de generar incontables formas expresivas sin ninguna referencia a
significados externos» (Gardner)—, lo cierto es que el pensamiento mágico primero,
y algunas corrientes de pensamiento contemporáneas después, le han atribuido
siempre incontables y variadas utilidades: curación, invocación, expresividad, etc.,
reconociendo una constante de utilización histórica: modos griegos, modos
eclesiásticos, teoría degli affetti en el prebarroco, mística de tonalidades en el sistema
armónico-tonal-funcional, efectos psicológicos de los románticos, invocación
descriptiva de los nacionalistas, etc.
Este sentido funcional, que no se ha dado exclusivamente en la música
aplicada, sino que también se hace patente en la música de construcción pura, ha
establecido ciertas categorías de utilidad como meta texto que se reflejan en una
clasificación como la siguiente:
a) Función Mitológica. Ligada a un régimen litúrgico más o menos estricto, a
una especulación de naturaleza matemática, o a un simbolismo
instrumentalizado. Típico de las culturas de la Antigua Mesopotamia,
Egipto, etc.
b) Función Mito mágica. Es característica en las culturas de la India (Vedas),
China, Japón, Tibet, Asia sudoriental. Puede articularse como:

13
1. Asociaciones divinizantes (Ragas, Talas y Kharajas).
2. Principios poéticos (Yang y Yin).
3. Simbolismo trascendental (canto sintoísta: escala pentáfona,
Gamelan, pelog y la slendro).
c) Función Propedéutica. Poder y vocación educativa y pedagógica de la
Música. Modos y tropos. Ideal platónico y mímema aristotélico. Formación
de aptitudes: paidaía, katharsis y diagogé. Representativo de la Grecia
antigua, la Ilustración, Estéticas políticas del siglo XX, etc.
d) Función Litúrgica. Sistema de modos melódicos y rítmicos. Estructuración
del servicio religioso. Característico de las culturas judía, árabe, cristiana,
etc.
e) Función Estética. Expresión sensible de lo bello en el ámbito de la filosofía
del arte y la estética. Manifestación de la perfección y armonía del mundo.
Representativo del Renacimiento, Barroco, etc.
f) Función Orgánica. Constitución socializadora de la música como aparato
espacio/temporal, pero también valor como mercancía en el ámbito de la
reproductibilidad. Característico, especialmente, de la sociedad de masas
del siglo XX. Dos funciones distintas:
1. Económica.
2. Sociopolítica
g) Función Cultural. Asociada a las posibilidades discursivas y descriptivas
de la música como texto. De una u otra manera, distintivo de casi todas las
culturas. Presenta tres posibilidades distintas: Expresiva, Narrativa y
Espectacular.

1.2. NATURALEZA DE LA MÚSICA.


La Música nos comunica una imagen del mundo. No se trata tanto de una
interpretación como de una ideología global del mismo. Su mensaje es una atenta
respuesta de la naturaleza, dilatado en el ámbito de una relación temporal, que exige
un estar presente y continuo. Es, como afirma Stravinsky, potencia que se
perfecciona o traiciona al hacerse acción. Desde esa entidad comunicativa —
semiótica— se muestra doblemente: como ciencia y como arte, como manifestación y

14
alumbramiento, como número y como idea. Posee, a la postre, una doble identidad
navegando en dimensiones tangentes, pero contribuyendo a la creación de una
realidad artística cuya última voluntad es servir como medio de expresión y
comunicación, y por ello, de conocimiento.
Tal naturaleza ofrece a la música un sentido para la acción. No vive solo en la
especulación teórica. La aleación de ambas naturalezas le capacita para superar las
divergencias que, históricamente, arte y ciencia han establecido como formas de
interpretación y conocimiento de la realidad. Aunque el instante germinal de ambas
es común: la magia, su autonomía, respecto a esta, las diferencia notablemente en
función de la evolución de los periodos históricos.
Estas diferencias y particularidades son, según Henckmann y Lotter (1988):
ARTE CIENCIA
Representa indistintamente lo Representa la universalidad a
universal y lo típico a través de la través del concepto.
sensibilidad.
Es subjetivo, abierto y ambiguo. Es intersubjetiva y unívoca.
Unidad de contenido y forma. Contenido invariable frente a
la forma.
Finalidad: formación y Finalidad: dominación de la
autointerpretación del ser humano en naturaleza; disponibilidad técnica.
su entorno histórico.
Unicidad e insuperabilidad. Multiplicidad y
provisionalidad.
Tabla 1: Diferencias Arte-Ciencia.

1.2.1. La reflexión comunicativa.


Toda práctica musical, dice Gino Stefani, da lugar a procesos de
significación. Las percepciones artística y científica parten, inevitablemente, de
este precepto: que la música se realiza como un proceso de comunicación. Y ya
no solo porque, en el fondo, se pueda entender desde una perspectiva semiótica,
sino porque su propia esencia ontológica lo implica.
El análisis de la Música desde la perspectiva comunicativa se centra en

15
diferentes niveles:
1. Proceso de la escucha musical. Conocimiento de los mecanismos perceptivos.
Se centra en la figura del destinatario/oyente. Algunas teorías al respecto son:
a) Planos perceptivos (Ehrenzweig). La audición presupone la percepción del
mensaje musical. Se reconocen, a tenor de su profundidad, dos planos
diferenciados: la percepción superficial, que es articulante, gestáltica, y la
profunda, que se produce, de forma distorsionante y desarticulada, en los
estratos más profundos de la mente. A su vez, estas corresponden a dos
formas de entendimiento antagónicas: sincrética, que es una captación
comprensiva y precisa de un todo cuyos elementos son cambiables y
variantes, y analítica, cuya visión diferencia y fragmenta el objeto en las
partes que se compone. En la música hay una estructura profunda que
solo es perceptible con la percepción sincrética o inconsciente.
b) Niveles de escucha (Barthes). En el proceso auditivo hay que diferenciar
entre el oír, que es un fenómeno fisiológico, y el escuchar, propiamente
dicho, que es una acción psicológica inteligente de selección e implica,
consecuentemente, una intencionalidad que marca la dirección de su
actividad: a) hacia los índices; b) hacia el desciframiento de los signos; y c)
centrándose en el emisor, no en el contenido, es decir, en el significado
general.
c) Tipos de escucha (Schaeffer). Existen tres tipos de escucha diferenciados:
a) la escucha casual, que corresponde al oír y que remite al reconocimiento
de la causa sonora individual o la categoría genérica de esta; b) la escucha
semántica, que se relaciona con el escuchar y hace referencia a un código y
a un acto inteligente y diferencial de lectura; c) la escucha reducida, que
incorpora el acceso a los índices objetuales del sonido por sí mismo.
2. Semanticidad del signo musical. Partiendo de postulados semióticos indagan
sobre la capacidad de la música como sistema de comunicación.
1) Formalistas puros (Schopenhauer, Hanslick, Brelet). Argumentan el
convencionalismo significante de la música como símbolo no consumado
que carece de un significado explícito, y declaran su doble valor:
puramente fónico en lo fenoménico, y trascendente, universalista, en lo

16
nouménico.
• Contenidistas. Exponen que aunque desde una noción estrictamente
lingüística no sea posible hablar de la música como lenguaje lo que no es
cuestionable es su capacidad comunicativa y, por tanto, semiótica. A este
respecto, Eco afirma que la disposición musical «no configura referencias
semánticas, sino una suma dada de relaciones formales perceptibles entre
sus elementos». Además, son precisas dos condiciones para la univocidad
y claridad del mensaje musical: a) adhesión a una convención
probabilística, y b) cierta redundancia. Butor, por su parte, indica que «la
música permite y exige el desarrollo del lenguaje, pero jamás podrá ser
agotada por éste.
3. Representatividad del discurso musical. Análisis de la suficiencia del
discurso musical para referir entidades independientes y aportar una
interpretación de las cosas.
• Integracionismo (Butor). En cada sonido se encuentra la referencia a un
cúmulo de relaciones de dependencia o de homeomorfia constatables
entre diferentes niveles de la realidad.
• Proyectismo (Pousseur). Cada texto musical configura sus mensajes según
las intenciones y mecanismos señalizadores que utiliza; es decir, se
estructura en función de un proyecto definido. Pueden darse tres casos: a)
que forme parte de un espectáculo externo; b) que sustente un texto
independiente; o c) que sirva de testimonio explícito de una intención
ilustrativa o imitativa.

1.2.2. La reflexión científica.


El estrato científico del fenómeno musical es insoslayable. El principio
mismo de su identidad física, el plano de su reconocimiento acústico, descansa
sobre una base físico-científica. Incluso su lectura opera según una selección de
codificación de tipo natural, una adaptación de lectura psicofísica, pues lo
específicamente musical se atiene muy raras veces a convenciones puramente
arbitrarias.
Para ciertos autores, por ejemplo, las bases de la armonía tradicional, con

17
sus fuerzas de atracción y sus poderes expresivos, radican en mecanismos de
percepción imperativos, lo que no es impedimento para que la Cultura haya
remarcado constantemente esas potencialidades. Así, Fubini declara que «La
armonía […] representa, mejor que cualquier otro sistema la visión, elaborada
por el pensamiento científico moderno, de un mundo regido por leyes necesarias,
eternas, capaces de gobernar el mecanismo universal». En cualquier caso, lo
cierto es que esas virtualidades preexisten y que la Cultura, lejos de inventarlas,
lo que ha hecho ha sido descubrirlas para manifestarlas.
La reflexión científica sobre la música es casi tan antigua como esta. No
obstante, a la hora de realizar una revisión histórica, se asume como principio la
Grecia Clásica por ser, en esta, la cultura occidental donde se localizan y
conservan los primeros documentos.
Se puede establecer que, esencialmente, son tres los problemas que han
centrado tal reflexión:
• Fundamento matemático: relación con el número.
• Fundamento físico: acústica y psicoacústica.
• Fundamento pedagógico: visión educativa y propedéutica del fenómeno
musical (Damon, Platón, Aristóteles, Plotino, etc.).
Una revisión histórica nos ofrece el cuadro siguiente:

Época Corriente/Autor Contenido


s. VII Terpandro Invención de los nomos griegos: leyes
a.C. musicales
s.VI a.C Pitagorismo Pitágoras. Fundamento matemático de las relaciones
Laso de Hermione. sonoras: proporciones interválicas. El número
Píndaro. como esencia de todas las cosas. La Armonía.
s. IV— Platón Música como “sophía” —sabiduría—. Dos
V a.C. categorías musicales: a) Música para el oído, b)
Música para el alma.
s. IV Aristóxeno Época Introduce el Psicologismo en el estudio musical.
a.C. Helenística Análisis del proceso de percepción auditiva para el
conocimiento del juicio estético.
s.III a.C. Teofrasto. La armonía musical como problema científico.
s. II— Escuela peripatética Psicología de la Música y juicio estético.
III a.C. Ciencia de la Armonía.

18
s. IV San Agustín “De La Música como ciencia: racionalidad absoluta.
d.C. Música” Metafísica del número.
s. VI Boecio “De Tres categorías musicales: a) Música mundana:
Institutione Musica” ritmos cósmicos y fenómenos naturales; b) Música
humana: alma+cuerpo, tonos altos/bajos; c)
Música instrumentalis: arte sonoro.
s. VI y Casiodoro San La música es la ciencia de todas las ciencias.
VII Isidoro de Sevilla. Pitagorismo y religiosidad cristiana.
s.VII Alcuino. Esbozo de sistematización teórica de los ocho
Teóricos sucesores. modos litúrgicos. Se incluye a la Música en el
Quadrivium, junto a la Geometría, la Aritmética y
la Astronomía.
s. VIII y Teóricos del Belleza de tipo matemático—musical. Principio
IX Renacimiento pitagórico—platónico. Fundamento filosófico—
carolingio cosmogónico: sistemas de escalas, teorías
Aureliano de Réomé armónicas, teorías rítmicas, etc.
s. X Monje Hucbaldo/Odon Trasfondo pedagógico, didáctico y práctico por
de Cluny encima del eclecticismo teórico. Fundamento
“Musica Enchiriadis” racional a la belleza sensible de la música: el
número.
s. Guido de Arezzo Escala y nombre de las notas.
s. XIII Teóricos: Engelberto Nacimiento de la polifonía. Desarrollo del
de Admont, Franco de contrapunto.
Colonia, etc.
s. XIV Ars Nova. Johanes Teoría hedonista de la música. Nuevas técnicas:
de Muris, Jacobo de música mensural, problemas rítmicos de la música
Lieja. polifónica, nuevos acordes…
s. XV Johanes Tinctoris Primer diccionario de términos musicales —fines
pedagógicos—. Teoría de los efectos: contraria al
número y a la visión cosmológica.
s. XV Ramos de Pareja Fundamento de la concepción armónica:
proporciones matemáticas de los modos mayor y
menor
s. XVI Zarlino Unión de teoría y praxis. Justificación racional de
los usos armónicos. Clave laica y humanística.
s. XVI Francisco Salinas Recoge la división tripartita de Boecio: a) Música
para los sentidos; b) Música para la inteligencia;
c) Música para ambos. La Música proviene y es
juzgada por la razón.
s. XVII Neopitagorismo. Marín Concepto de ciencia como habilidad, como
Mersenne. destreza artística. Nuevas investigaciones que
relacionan música y matemáticas.

19
s. XVII Racionalismos: Fundamentación matemática de la Música, tanto
y XVIII Descartes. Rameau. en los aspectos formales como puramente
Leibniz. estéticos.
s. XVIII Romanticismo. La música como lenguaje privilegiado. La
Wackenroder. Hegel. expresión de sentimientos.
s. XIX Positivismo y La investigación de lo bello desde las ciencias
formalismo. Hanslick. naturales. Actitud analítica.
s. XIX y Teorías matemáticas: Definición, desde la misma teoría matemática, de
XX Euler, Busoni… la estructura numérica de la Música.
s. XX Racionalización de las La Estética es una rama de las Matemáticas.
artes: Schillinger. Método científico de producción musical: sistemas
de producción mecanicistas.
Tabla 2: El pensamiento científico-musical en el tiempo.

1.2.3. La reflexión artística.


Respecto al resto de las artes, la música se diferencia, en orden de
importancia, por los siguientes factores:
• Organización discursiva. Por su naturaleza, y por los elementos
que la conforman, la música se produce en el tiempo. Este aspecto
ha sido uno de los grandes condicionantes de su historicidad, y
diferencia a la música de las otras artes por cuanto establece
procesos de comunicación específicos en los que la memoria
auditiva, de carácter temporal y relacional, jerarquiza y conforma
los eventos sonoros. Se trata de un discurso de naturaleza
secuencial.
• Ejecución. La necesidad de realizar/representar la música en
potencia —la partitura es un modelo fijado por escrito— para
convertirla en acto, supone un ejercicio de interpretación, una cierta
operación hermenéutica que atribuye y modula el “sentido” y/o
“significado” atribuido originalmente por el destinador —
compositor—. Aunque las artes representativas —teatro, textos
audiovisuales, etc.— presentan también esta característica, el modo
de incidir en cada una de ellas es bien distinto con respecto a la
música. Ha de considerarse, por otra parte, que en las obras que se
valen de la computación de forma no azarosa, la ejecución pierde

20
este carácter hermenéutico pues el compositor controla, en
principio, la totalidad del resultado sonoro final.
• Historicidad. Es el arte más primitivo pero es el que goza de una
historia más corta. Si bien sus orígenes se remontan al principio
mismo del ser humano, su conserva cultural se ajusta, en la
representación escrita, a poco más de un milenio y, en el registro
sonoro, a poco más de un siglo.

La reflexión de la música como arte parte de un principio básico que es


el interrogante sobre la Naturaleza del arte. A partir de este, aparecen
preceptos como los siguientes:
1. Como fenómeno artístico, va más allá de la propia experiencia
sensitiva para trasmitir contenidos de la propia experiencia vital
humana.
2. Como el resto de las artes, intensifica determinadas cualidades
de la condición humana,
3. La unicidad de cada obra es uno de los ejes metodológicos más
importantes pero a la par más comprometidos.
Estos planteamientos han dado origen a numerosas teorías y
definiciones artísticas sobre la música que presentan un catálogo de
características comunes emparentadas con el resto de las artes:
1. Actividad distintiva de la Humanidad (Hegel).
2. Dotación de belleza a lo ordinario (Herskovits).
3. Implica cierta destreza y habilidad.
4. Su objetivo no es el conocimiento sino un resultado, algo
concreto, tangible.
5. Ese resultado tiene una forma descriptible. Su naturaleza es
objetual y se vale de una sustancia plástica —modelable y
modelizable—.
6. Como todo objeto artístico supone una provocación; sólo
alcanza su posición en virtud del acto pragmático de
interpretación. Se constituye en objeto mediante la

21
autoreferencialidad al lenguaje sobre el que se asienta
(Sanmartín).
Tales teorías, independientemente del factor temporal, remiten a
postulados ideológicos concretos y, por ello, son susceptibles de ser
catalogadas según la disposición principal por la que se orientan. Se habla así,
de definiciones de carácter metafísico, formalista, psicológico, pragmático y
plural. Como se verá, no existen categorías puras. En primer lugar, porque a
pesar de la tendencia fundamental cada definición puede integrar conceptos
adyacentes de otras, y, en segundo, porque, en ocasiones, definiciones que
tienen un fondo artístico introducen elementos científicos o comunicativos.

1.3. EN BUSCA DE UNA DEFINICIÓN.


Compendiar el fenómeno musical a través de una definición que
resulte eficiente es realmente complicado y, posiblemente, utópico. A lo largo
de la historia han sido numerosos los eruditos y estudiosos, tanto tratadistas
como profesionales, que se han aplicado en la tarea de anotar una explicación
efectiva de este y, aún hoy, cuesta identificar alguna que responda
meridianamente a ese propósito.
Debe pensarse, además, que la gran mayoría de las definiciones y
reflexiones musicales se han realizado dentro del ámbito occidental. Si resulta
tan complicado elaborar una definición eficaz en un contexto cultural
determinado, imaginemos lo que supone si en tal definición se pretende
compilar toda la variedad musical que ofrecen las distintas y heterogéneas
sociedades que existen en el mundo.
En principio, los problemas que impiden realizar una definición
definitiva de lo que es la Música son:
• Dificultad para determinar si un sonido es o no es música.
• El concepto de música no es universal. Lo musical no es asumido de
igual forma en distintas culturas. Incluso dentro de una misma cultura,
lo musical puede variar en función de la variable contexto. Además, no
existe en todas las sociedades un término que lo asuma como

22
fenómeno global.
• Incapacidad para establecer relaciones semióticas aculturales.
La elaboración de las definiciones se produce, habitualmente, mediante
tres tipos de fuente:
• De autoridad. Definiciones de expertos, obras de referencia y consulta,
etc.
• Pragmáticas. Valoración por parte de la comunidad de usuarios.
• De observación. Análisis de la realidad de uso por parte de los
miembros de la sociedad.
Aunque las definiciones que se estudian son las referidas por fuentes
de autoridad o fuentes de observación, resultan también interesantes, desde el
punto de vista Etnomusical, las que realizan los ciudadanos. Para estos, lo
importante no es definir la música, catalogarla, sino comprender las
características y las condiciones de lectura. Cuando se aplican en realizar
definiciones informales estas son, en determinados aspectos, contradictorias
de las realizadas por los expertos, si bien, coinciden con estos en cuestiones
fundamentales: el carácter agradable, expresivo, artístico y científico de la
música.
Los conceptos científicos tendentes a buscar la esencia de aquello que la
música representa han dado un compendio de definiciones que responden a
conceptos genéricos complementarios. Se puede, así, hablar de una tipología
de definiciones que asume tres criterios básicos:
• La dimensión de la definición determina la importancia social y
temporal del fenómeno musical.
• Independientemente del principio, todas elevan el valor de la
música por encima de su pura entidad sonora. Cuando menos,
establecen una capacidad estructural, discursiva, etc.
• El análisis de la música desde una perspectiva comunicacional.
De todas ellas, actualmente son las concepciones formalistas,
pragmáticas y plurales las que, cada una en su ámbito, poseen mayor arraigo
y peso en la reflexión estética y científica contemporánea. Especialmente las

23
dos últimas por cuanto sintetizan la dialéctica subjetivismo/ objetivismo.
Las descripciones de la música desde el ámbito metafísico parten de
un apriorismo teórico en el que la música es entendida como herramienta de
expresión de voluntades supraindividuales, como universalidad de lo
sublime, y, como tal, su función, superior a la del resto de las artes, trasciende
lo artístico en pro de lo ético. El íntimo poder de sugestión de la música la
convierte en el instrumento más eficaz para poner el alma en contacto con la
realidad última, con la unidad esencial del universo. Son, consecuentemente,
definiciones que se fundamentan en el carácter introspectivo de la música, y
en su capacidad para alcanzar lo sublime del Ser.
Platón, en la República, inaugura esta corriente que es continuada,
posteriormente, por los filósofos del idealismo alemán, la filosofía hegeliana,
los teóricos del romanticismo alemán —Herder, Novalis, Schlegel, etc.—,
Schopenhauer, Wagner, Adler y Schoenberg, entre otros.
Desde la perspectiva formalista se produce una explicación
fenoménica que atiende a los postulados materiales y técnicos, y computa el
valor autónomo de la música a partir de un formalismo autosuficiente,
declarado en su dimensión científica.
Reinhard Schulz, por ejemplo, la entiende como la «conformación
artística en el tiempo de lo audible (no semántico) con el elemento de fondo
del tono o ruido». Dicha conformación se actualiza a través de la conjunción
melódica, armónica, rítmica, etc., de sus parámetros constitutivos: altura,
duración, timbre, etc. Como fenómeno es esencialmente especulativo en todas
sus orientaciones pues supone una voluntad que, situada en un plano
abstracto, tiene apetencia por dar forma a una materia concreta cuyos
elementos indisociables son el sonido y el tiempo. El material musical
comprende tanto el elemento material de la música, como el ente de
resistencia que otorga existencia objetiva en el espacio y/o en el tiempo a las
operaciones creativas.
Son típicas de ciclos clasicistas y aparecen, desde San Agustín, en el
siglo IV d.C., en las teorías de San Isidoro de Sevilla —siglo VI—, Alfonso X el
Sabio y Ramón Llull —siglo XIII—, Hanslick —siglo XIX—, y Stravinsky —

24
siglo XX—.
En las definiciones de carácter psicológico, la música aparece bien
como vehículo expresivo de las emociones y los sentimientos internos y
estados de ánimo del artista, bien como abstracción inteligente y simbólica de
la realidad, o como principio de placer —teorías hedonistas—.
Estas definiciones son fruto, en su formulación más literal, de la
individualización moderna del artista como creador. Aún así, se encuentran
precedentes en Platón, Aristóteles, Casiodoro, y, fundamentalmente,
Descartes que reconoce en la música al lenguaje del conocimiento indefinido
de las pasiones. La psicología cartesiana dará paso, en el siglo XVIII, a la
teoría racionalista de los “afectos” o Affektenlebre, el patetismo barroco de
Mattheson, el hedonismo de Rousseau y Burney, el psicologismo cognitivo de
Combarieu o Schloezer, el mentalismo de Mursell, y el sentimentalismo de
Rienmann.
Entendida desde su vertiente pragmática, la antropología musical, la
Etnomusicología y la Sociología musical centran sus intenciones definitorias y
axiológicas en el carácter pragmático de utilización y organización musical.
Estas disciplinas trabajan sobre lo que consideran el problema fundamental
para definir la Música: establecer y justificarla como cuerpo de sonidos
audibles y recordables.
Estas definiciones amplían el horizonte de los elementos puramente
musicales —sonido— para incluir los ámbitos de los conceptos y de los
comportamientos. Los conceptos hacen referencia a la forma en que las
personas consideran la música, es decir, el valor que otorgan a sus usos,
funciones y poderes, y los comportamientos al conjunto de las situaciones y
actos que conforman la actividad musical.
En último término, aparecen un conjunto de teorías que asumen la
comprensión del fenómeno musical desde una perspectiva global y plural.
Estas definiciones, cuyo rastro aparece desde las Armónicas de Aristógeno de
Tarento —s. IV a.C.—, amalgaman el aspecto formal, la afectividad y el
carácter científico de la música, ofreciendo una visión heterogénea y dinámica
del fenómeno musical. Se incluyen en este punto aquellas definiciones que

25
integran los aspectos pragmáticos, socio—económicos y contextuales de la
actividad musical.

26
CAPÍTULO II. EL SONIDO CODIFICADO: LA

MÚSICA COMO LENGUAJE.


El conocimiento de los procesos musicales de comunicación está
estrechamente ligado a la teoría de la información, al estudio de los modelos
informativos matemáticos, a la lingüística y, sobretodo, a la Semiótica.
Como sistema semiótico no lingüístico, la música se estructura y
configura para generar significados expresivos mediante la puesta en escena
de una cadena comunicativa. Este circuito se establece entre el
compositor/intérprete, que asume la función de destinador, y el receptor u
oyente, cuyo posición es el de destinatario. Entre medias, aparecen los
conceptos de código, mensaje, canal, situación y observador.
Realizaremos, seguidamente, un análisis de la naturaleza semiótica de
la música desde una perspectiva interdisciplinar para acceder,
continuadamente, al estudio de los factores que intervienen en los procesos de
comunicación musical.

2.1. LA COMUNICACIÓN COMO OBJETO DE ESTUDIO.

2.1.1. Concepto de comunicación.


Se entiende por comunicación la acción o efecto por la cual se hace
partícipe a otro de lo que uno tiene. Es decir, el acto mediante el cual se
produce una transferencia de sentido, un intercambio de mensajes entre los
individuos.
Por mensajes se entiende los actos por medio de los cuales se dice, se
cuenta, se pregunta, se responde, se instruye, se expresa, etc. En rigor,
corresponde a una secuencia de señales organizada conforme a las reglas de
un código y presupone, consecuentemente, operaciones de codificación y
descodificación.

27
2.1.2. Disciplinas científicas.
La Comunicación social es una ciencia que estudia la capacidad que
poseen algunos seres vivos para relacionarse con otros seres vivos
intercambiando información. Se trata, por tanto, de una reflexión científica
sobre la comunicación. Aunque, como tal, es un objeto material, interesa como
objeto formal de estudio de la semiótica musical.
Los términos Semiótica y Semiología, sin abarcar exactamente lo
mismo, definen la aplicación de la teoría del lenguaje y sus usos a los distintos
conjuntos significantes. Es decir, son disciplinas científicas cuyo dominio del
saber es el estudio general de los sistemas de signos.
La semiótica musical se clasifica dentro de las semióticas no—
lingüísticas y, por ello, es estudiada a partir de la generalización de los
procedimientos, metalenguaje y métodos de la teoría semiótica narrativa y
textual.
La semiótica musical estudia diferentes aspectos bajo perspectivas
diversas:
• Semántica. Abstrae los agentes para analizar sólo las expresiones y sus
referentes. Es decir, estudia las relaciones expresión/expresado.
• Sintaxis. Abstrae a los agentes y a los referentes y sólo se analizan las
relaciones entre las expresiones. Es decir, el estudio textual.
• Pragmática. Hace referencia explícita a los agentes o a los usuarios del
lenguaje musical, sin referirse, necesariamente, a los referentes.
El prestigio de la Teoría de la información en el planteamiento de
modelos de análisis comunicativos se remonta a la década de los años 50. El
influjo de ésta sobre la lingüística se fundamenta en una aportación de tipo
mecanicista —emisor y receptor son instancias vacías—, no exenta de cierta
simplificación de la estructura comunicativa —siempre, desde la perspectiva
semiótica—.
La información es entendida como todo elemento susceptible de ser
expresado con ayuda de un código. El esquema de la información comprende:
un emisor —fuente—, un canal, un mensaje, y un receptor. La emisión de lo

28
transmitido supone un proceso de encodificación; la recepción de lo
transmitido, un proceso de decodificación.

2.2. SEMIÓTICAS NO LINGÜÍSTICAS: LA MÚSICA.


La cuestión de la semanticidad de la música representa uno de los
problemas fundamentales de la reflexión musical, tanto en el terreno
musicológico como el propiamente filosófico. La capacidad de la música para
referir y referenciar reivindica la necesidad de razonar entorno al hecho de su
competencia semiótica y lingüística.
La aparente irresolubilidad de esta duda, su misma nominación, se
encuentra en la intención de buscar una gramática, un vocabulario y una
sintaxis coincidente y parangonable entre el lenguaje natural y la expresión
artística —sea esta del carácter que sea: musical, pictórica, poética, etc.—. Sin
embargo, parece que la expresión artística se genera a partir de unas
estructuras que, de denominarse lingüísticas, han de serlo desde su
especificidad, desde «la indeterminación, ambigüedad y profundidad
expresiva propias del arte» (Fubini). Consecuentemente, la comunicabilidad
de la música ha de asumirse desde postulados que pretendan la integración
de ambas tendencias.

2.2.1. Análisis semiótico de la música.


El análisis de la realidad estética y semiótica de la música no puede
limitarse a un único plano: el de las relaciones intersigno. Es preciso atender y
estudiar la triple relación que presentan todos los signos lingüísticos:
semántica, y sintáctica. Puesto que la expresividad de un signo ha de
asentarse en esa triple relación, el valor sintáctico de la música, de relación
técnica entre sus signos, aun siendo la condición esencial para conformarse
como discurso, no es suficiente. Es necesario que esa coordinación, sin remitir
necesariamente a un vocabulario definido, revele grandes contextos
significativos en los que, en el seno de una polisemia y polivalencia
significativa, sea posible el encuentro pragmático entre el autor, el texto y el
intérprete.

29
2.2.1.1. La música como sistema semiótico.
Para considerar a un conjunto de elementos como portador de
significación se deben dar tres condiciones:
• Finitud de sus signos.
• Poder incluirlos en un repertorio léxico.
• Determinación de las reglas que rigen su articulación, es decir, una
sintaxis.
La música como sistema cumple estas exigencias tan sólo en parte. La
finitud de sus signos se ajusta exclusivamente al ámbito de codificación de
cada estilo pues, en principio, el total sonoro es susceptible de formar parte de
su discurso. No obstante, la compilación estilística establece, por selección, la
configuración y regulación de un repertorio léxico según una normativa de
articulación —por ejemplo el sistema tonal-armónico clásico, los enunciados
formales, etc.—, a través de la cual los complejos sonoros pueden sugerir la
realidad sin un significante claro, sin figuración.
Es una realidad material que la música posee un poder evocador
genérico, no neto, de la memoria y la imaginación. A través de las estructuras
de ilustración, mediante la transferencia de cualidades del fenómeno real, se
generan unos cuadros simbólicos en los que, en palabras de Gryzik, las
estructuras de ilustración se producen como consecuencia de la transferencia
de ciertas cualidades acústicas del fenómeno real o del material sonoro que
compone el discurso musical. De esta forma, las unidades formales generadas
representan, cada una en su totalidad, una cierta característica simbólica.

2.2.1.2. Valor semántico del signo musical.


El hecho de que no haya correspondencia exacta entre el lenguaje
verbal y los lenguajes artísticos, es decir, la carencia de designatas, de relación
unívoca entre signo y referente, no excluye la capacidad comunicacional de
estos. Hay diferentes niveles de semanticidad que están fuera de lo conceptual
y que se alojan en lo expresivo de forma especialmente diversa.
Así pues, la semanticidad de la música no radicará en la capacidad de
ser catalogable, en la emergencia de lo discontinuo, sino en su disposición

30
contextual. Una competencia que emana más de las intencionalidades
sintáctica y pragmática que de la propia semántica, cuyo valor se afirma a
partir del texto, desde la pretensión creadora, no de sentido, sino de “elección
ética”, de búsqueda, continuación y ruptura de los mecanismos y
procedimientos tecnicolingüísticos musicales. Y es que, desde una rigurosa
noción lingüística, no sería posible hablar de la música en el sentido estricto
que impone el término lenguaje. A priori, existe una incapacidad ontológica
para establecer una lista cerrada y unívoca de signos. Esto imposibilita crear
un repertorio léxico, y si bien se pueden encontrar ciertas reglas que rigen su
articulación, se verá que siempre están sometidas a valores histórico-
culturales. O lo que es lo mismo, parafraseando a Eco, la disposición musical
«no configura referencias semánticas, sino una suma dada de relaciones
formales perceptibles entre sus elementos» (1990: 206).
Pero lo que no es cuestionable es su capacidad comunicativa. Aún
funcionando «fuera de la coincidencia exacta entre el signo y su referente,
ubicándose en el ámbito extraordinario de la descripción e invocación
múltiple», lo cierto es que sin ser un lenguaje opera como tal; su
comunicabilidad se desarrolla a través de procedimientos observables,
medibles y verificables. Una vez que las formas musicales, a través de la
repetición, se distinguen entre sí y son, por ello, agrupadas en clases con
propiedades comunes que las capacitan para relacionarse, llegan a convertirse
en estructuras lexicalizadas más o menos diferenciadas y susceptibles de
articulación.
El estudio semiótico de la música plantea, si acaso más que otras
semióticas no lingüísticas, el problema de la inferencia abusiva o falsa
inferencia. Esta transgresión epistemológica lleva, en muchos casos, a derivar
nociones del ser en sí, lo que existe, a partir de lo que logramos decir de ese
ser, lo que se estudia. Por ello, aún siendo explícita la necesidad de
comprender la música como expresión pseudo lingüística, es esencial señalar
la necesidad de extremar las precauciones a la hora de establecer analogías
lingüísticas entre la palabra y la música. Mientras la función del signo verbal
es designar y nombrar, la del signo musical es expresar. En la música se

31
produce una dualidad entre lo expresado y su sentido, entre el sonido y el
pensamiento que lo origina. En el mismo acto de seleccionar, unificar e
identificar se originan los significados, y aflora la pluralidad significativa de la
música. Precisamente, este carácter abstracto, diferidamente referenciable, del
signo musical le hace extremadamente vulnerable a todo tipo de
decodificaciones aberrantes.

2.2.1.3. Los niveles de análisis.


La comunicación musical se establece, como se ha visto, en función de
un sistema semiótico no lingüístico. Se configura como sistema porque,
independientemente de la permutabilidad de sus melemas, se estructura
como un conjunto de elementos que tienen una cierta conexión entre sí y cuya
relación es de solidaridad: el cambio de un componente presupone la
modificación de los demás.
El análisis de los componentes de la sustancia sonora requiere
mecanismos que ilustren sobre su multiciplicidad. Valiéndose de una analogía
con el sistema de estudio de la imagen, algunos investigadores han traslado
los tres niveles de interpretación icónica —como motivo, como historia y
como síntoma cultural— al campo de lo sonoro, siguiendo la propuesta de
Panofsky y de la escuela de Warburg:
• Nivel de lectura fónica. Valor de reconocimiento primario del
sonido atendiendo a la presencia del mismo en cuanto a tal y en referencia
a la fuente que lo provoca. Características identificativas de los motivos
musicales.
• Nivel de lectura fonográfica. Valor de significación del sonido en el
marco contextual en el que se produce. Aunque no se pueda hablar de una
semántica musical en sentido estricto (Nattiez), para su estudio, se puede
considerar el significado de la música desde tres aspectos distintos:
• como una descripción de significantes, en la que los elementos
constituyentes de lo musical aparecen, individualmente, como
eventos de valor, y, en conjunto, como unidades formantes de
una retícula discursiva;

32
• como lugar común de experiencias lectoras, expresadas a través
de la descripción de conexiones empírico-subjetivas;
• como verbalización referencial de los efectos que evoca dentro
de un determinado universo cultural.
• Nivel de lectura fonológica. Valor cultural y simbólico del sonido
respecto al marco sociocultural en el que actúa su dimensión pragmática.

2.2.1.4. Funciones del signo musical.


A pesar de que la comunicatividad del lenguaje musical se encuentra en
el entorno de la expresión más que en el de la significación, esto no impide
que la música pueda asumir, en el discurso narrativo, la triple función de todo
signo:
• Referencial: Se trata del desarrollo, por períodos, de una doble función
que hace presente la música en la historia: reconocimiento cognitivo del
sonido en una primera fase, y anclaje de sentido en una segunda posterior:
• Un referente primario que es siempre otro signo musical. Como
discurso endógeno, el desarrollo temporal de los signos acústicos es
percibido por el oído y la sensibilidad de forma análoga a como se
produce en el discurso lógico, es decir, mediante procedimientos de
yuxtaposición, combinación y oposición de las estructuras sonoras.
En el reconocimiento de los sonidos, en su ubicación temporal, o en
la recreación del espacio que ofrecen, ya se halla un primer nivel
significante. Las sucesiones sonoras remiten a sus propios
elementos como consecuencia de los procesos sumativos de
percepción temporal acústica.
• Un referente secundario que funciona fuera del contexto
específicamente musical. A través de las leyes de asociación, que
rigen la memoria auditiva, los signos musicales permiten
identificaciones cognitivas y activan funciones lingüísticas de
anclaje del sentido. Esta segunda significación faculta al signo
musical para las funciones mimética y diegética en el discurso
narrativo.

33
• Deíctica—conectora: La función deíctico—conectora señala la presencia de
la música en el discurso narrativo, es decir, marca la modelización de las
proposiciones narrativas. El signo musical cumple esta función cuando
anuncia y marca el punto de vista y la focalización del discurso narrativo
(función relais). Es una función pronominal, calificadora y relacional
respecto a las instancias de la enunciación: autor, lector, narrador,
narratario y personajes, así como respecto a sus delegados en el texto.
• Anafórica: El signo musical cumple una función estructurante, gestativa
de los textos. La disposición musical compromete y organiza la trama
narrativa al actuar como modelizador formal

2.2.1.5. Propiedades del signo musical.


La música participa de las propiedades de los discursos verbal e icónico:
• Orden: Se expresa a través de la articulación melódica y formal, y
engloba las relaciones sonoras, armónicas y rítmicas, tanto
secuenciales como simultáneas —amen del orden subyacente a los
procesos de crecimiento—.
• Duración: Emana de la naturaleza temporal del discurso musical y
le acerca, pues, a las estructuras de carácter narrativo y diegético, al
tiempo que le separa de lo descriptivo. Por fuerza, cuando la música
describe, explica y detalla en y para el tiempo. Si, por añadidura,
cumple esa función con cualquier otro elemento es como
consecuencia de integrarlo en ese devenir.
• Frecuencia: Entendida tanto como repetición que permite el
reconocimiento por reproducción motívica y formal, como
movimiento vibratorio en una unidad de tiempo, base sobre la que
descansa el fenómeno mismo del sonido, y, más concretamente, del
reconocimiento acústico de los sistemas armónico-melódicos.

2.2.1.6. La escucha musical


La audición presupone la percepción del mensaje musical y sirve para
evaluar la situación espacio-temporal, realizar el reconocimiento del territorio,

34
el fondo auditivo. Como en cualquier otra percepción, se pueden reconocer, a
tenor de su profundidad, dos planos diferenciados: la percepción superficial,
que es articulante, gestáltica, y la profunda, que se produce, de forma
distorsionante y desarticulada, en los estratos más profundos de la mente. A
su vez, estas corresponden a dos formas de entendimiento antagónicas:
sincrética, que es una captación comprensiva y precisa de un todo cuyos
elementos son cambiables y variantes, y analítica, cuya visión diferencia y
fragmenta el objeto en las partes que se compone.
Para Ehrenzweig (El orden oculto del arte) en la música, como en todas
las artes, hay una estructura profunda que solo es perceptible con la
percepción sincrética o inconsciente. Para alcanzar la percepción inteligente,
que presupone el sincretismo, es preciso abandonar «las jerarquías de las
estructuras estimulares» para tratar de captar el mensaje en su dimensión de
transmisor de conocimiento, de transportador de contenidos conceptuales o
expresivos. Como recuerda Barthes en El cuerpo de la música, en el proceso
auditivo hay que diferenciar entre el oír, que es un fenómeno fisiológico, y el
escuchar, propiamente dicho, que es una acción psicológica inteligente de
selección e implica, consecuentemente, una intencionalidad que marca la
dirección de su actividad:
• hacia los índices,
• hacia el desciframiento de los signos,
• centrándose en el emisor, no en el contenido, es decir, en el significado
general.
Desde esos criterios, Pierre Schaeffer, y después Michel Chion,
establecen, para el discurso audiovisual, tres tipos de escucha diferenciados.
La primera, la escucha casual, que corresponde al oír y que remite al
reconocimiento de la causa sonora individual o la categoría genérica de esta,
la segunda, la escucha semántica, que se relaciona con el escuchar y hace
referencia a un código y a un acto inteligente y diferencial de lectura, y la
tercera, la escucha reducida, que incorpora el acceso a los índices objetuales
del sonido por sí mismo.
Ahora bien, el mensaje musical no busca solo la capacidad intelectiva

35
de su receptor. Por encima de la conceptualidad inteligente, imprescindible,
persigue su sensualidad, sus sensaciones, su fantasía, de tal forma que la
estructura musical sea vehículo y parte del contenido que referencia.
La producción de sonoridades que son objeto del acto de la escucha
responden a cuatro posibilidades, según la intencionalidad o aleatoriedad de
su suceder:
• Intención explícitamente sonora. Son fundamentalmente emisiones
vocales o la puesta en vibración voluntaria de algún cuerpo apropiado. Su
emisión contiene mensaje.
• Acción intencionada pero sin vocación comunicativa: caminar, el ruido
de una puerta, etc.
• Acontecimientos puramente mecánicos. Pueden responder a
c.1. efectos de inercia: manifestación de la estructura funcional de un
objeto como, por ejemplo, una ventana que golpea por efecto del
aire.
c.2. presencia de ciertos fenómenos físicos como, por ejemplo, la
gravedad.
• Azarosos. Vinculados a movimientos puramente estadísticos que están
privados de coordinación estructural acabada y unificadora. Por ejemplo,
ruido de la lluvia que cae, del oleaje del mar, etc.
Hay que considerar que en la escucha de estas sonoridades hay
siempre presente, además, una polución sonora, un ruido atribuible al medio
que dificulta su correcto desarrollo. Esto tiene una importancia capital en los
sistemas de reproducción técnica por cuanto los productos a los que sirven de
medio se valen de esta para definir, respecto al auditor, el territorio, el espacio
de la seguridad, para hacer de lo confuso e indiferente algo distinto y
pertinente; cumplir, en definitiva, una función de vigilante, de centinela
textual.

2.2.2. Los procesos de codificación


Un proceso de codificación consiste, según las definiciones de la
vigésimo primera edición del diccionario de la RAE, en la expresión de

36
caracteres según las normas de un código determinado, que reúne en su seno
un conjunto de reglas empleadas para la representación de datos; a saber, un
sistema de signos y normas que permite comprender un mensaje bajo un
consenso establecido, explícita o tácitamente, entre sus usuarios. Su valor se
manifiesta en la percepción como interpretación de la sensación según
elementos referenciales. La sensación, que en principio es igual para todos los
integrantes de una colectividad, pues supone, exclusivamente, la impresión
producida por los objetos en los sentidos, es compilada en un catálogo
referenciable de entidades significantes, cuya legitimidad es compartida por
cada una de las individualidades. Aunque tan sólo la pura impresión como
impacto, pues la sensación, si ha de pasar necesariamente por un sistema
perceptivo, cual sea, posee ya una mediación específica fruto de las
diferencias interpersonales del propio sistema. Sin embargo, la suficiencia
comunicativa, informacional, y de novedad de la comunicación descansa, por
mor de su esencialidad, en la capacidad de sorpresa, y ahí es que las
representaciones arquetípicas venden el significado a la nada. Cuando una
forma de hacer es tan redundante que ya su significación nada dice, el valor
comunicativo o expresivo que pudiera tener en origen pasa a convertirse en
una matriz y como tal, su valor pasa a ser, prioritariamente, relacional. Por
ello, la importancia de los sistemas de comunicación estética radica en la
conjugación de ambos componentes: regularidad codificable, y sorpresa,
novedad creativa.
La significación como uso es un elemento fundamental para
comprender el funcionamiento de los códigos. En las culturas musicales, la
sedimentación que produce la erosión de los usos es el conformante de las
hormas significantes. El hombre tiene la libertad de seleccionar sus
herramientas, los instrumentos con los que cambiar la dimensión de su paisaje
sonoro, pero se hace esclavo de las formas que él mismo crea. En el más
remoto y puro de sus estados, cada individualidad aparece como una virgen
planicie formada de materiales de muy diversa naturaleza —razón esta, que
previene una sintomatología tácita—. La acción de la sociedad, como agente
externo erosionante, crea, con provechos dispares, atendiendo a las

37
características del sujeto, unos caprichosos cauces que van a ser los canales
que encaucen sus ideas. Esas huellas, que aún no son los códigos —pues si así
fuese habría tantos códigos como sujetos— originan un abstracto acuerdo, a
partir de las imaginarias similitudes de toda la colectividad, que determinan
el nacimiento del Código.

2.2.3. Música y código


Si bien no es posible encontrar un único, exclusivo y dogmático eje en
torno al cual se apoye toda la actividad significante de la música, sí se puede
establecer que, independientemente de los resultados, la comunicación solo
puede ser efectiva desde el establecimiento de un consenso social. Para
Henckmann y Lotter (1988: 159), «el concepto de connotación indica que el
proceso de “desciframiento” de un mensaje no es una cuestión individual. El
sujeto receptor es siempre un ser social mediado por las circunstancias
sociales». Una expresión popular de decodificación que en cierta medida debe
estar asociada y vinculada a ciertos valores trascendentes. Pero para que este
sea viable es necesario que se den unas condiciones mínimas en el
establecimiento de un sistema de comunicación —objeto y fin del código—. Es
decir, que se constituya una cadena completa en la que, además del emisor, el
medio, el código consensuado, y el mensaje, haya un receptor. No es posible
la información sin receptor: «las noticias, datos, señales de la realidad se hacen
más significativos, se convierten en información cuando encuentran un
receptor adecuado» (Marina, 1993: 44). Bajo esta perspectiva del problema, el
concepto de receptor tiene una doble lectura. Es obvio, evidente y lógico que
sin auditor no hay escucha —como principio acústico, no hay música sin
oyente—, pero puede ser que, aún habiendo receptor de forma física, si este
no está capacitado, no dispone de los medios o conocimientos necesarios, es
decir, desconoce el código establecido por el emisor para recibir el mensaje —
y aquí es donde recibe todo su significado lo de "receptor adecuado"—,
tampoco se produce información. En este sentido, Eco (1990) significa que son
precisas dos condiciones para la univocidad y claridad del mensaje musical:
• Adhesión a una convención probabilística: relaciones orgánicas de

38
contexto.
• Cierta redundancia, que remite a la necesidad del oído de buscar el
camino más sencillo de acuerdo con un «índice de racionalidad»
basado en los objetivos y en las convenciones lingüísticas asimiladas
(o.p. 208).

2.2.4. Los referentes musicales


En el mensaje lingüístico, los gráficos que representan las letras son
signos que tienen una conexión arbitraria con su referente. En este caso, una
determinada emisión vocal tiene un referente natural fónico, no conceptual.
De la unión de varios gráficos, que son estímulos luminosos para la visión, de
su sintaxis y morfología, surgen ciertas agrupaciones que tienen un doble
referente: fónico y conceptual; se trata ya de un sonido que a la vez expresa un
concepto. La unión de varios permite la formación de frases, oraciones, etc.,
de las que se pueden encontrar tres referentes: fónico, conceptual y conceptual
relacional —fruto de los significados que nacen y los anclajes que se producen
entre las diferentes palabras—. La suma de frases da origen a capítulos, etc., y
en último extremo a textos u obras, que poseen cuatro referentes: fónico,
conceptual, conceptual relacional y sintético —centro ideológico del texto—.
En el mensaje musical ocurre, ciertamente, algo parecido, pero
solamente parecido. Los diferentes sonidos, múltiples y casi infinitos, no han
sido acotados, como los gráficos lingüísticos, en un repertorio definido y
ultimado. Aunque históricamente el repertorio de sonidos se ha visto
reducido por las posibilidades de generar instrumentalmente su gama de
frecuencias —desde la voz humana a los instrumentos actuales más
sofisticados—, en rigor, solo vendría limitado por los límites de audibilidad
humana —16 a 20 Hz para el más grave, 20 Khz. para el más agudo—,
entendiendo con ello por música sólo aquello que es sensible acústicamente. El
mensaje musical tiene en primer lugar un referente sónico (fónico + origen o
fuente + localización). La unión de los sonidos musicales, a pesar de lo que
pueda parecer, siempre responde culturalmente a una “gramática” definida,
bien de forma explícita —teorizada— o implícita —natural—. De tal forma,

39
muy a pesar de la aleatoriedad que pudiera, y que de hecho se da, esa
“gramática” condiciona unas formas de hacer, unos hábitos relacionales que,
en cierta medida, se van “codificando” con el uso, dando paso a unos
referentes relacionales, que, de forma remota, articulan ciertos contextos
significantes abiertos. En este sentido, nuevamente, solo el conocimiento del
código permite la decodificación de los mensajes en toda su extensión. Sin
embargo, a diferencia del lenguaje oral, en la música permanecen aspectos
que coadyuvan a la formación de esos mensajes relacionales, pero que
funcionan de forma relativamente independiente. Estos aspectos, vendrían
explicitados por el valor universalista de la música, que sin ser absolutamente
confirmable ni cierto, permite que ante ciertos elementos como el ritmo se
responda con fruición, independientemente del conocimiento del código.
Evidentemente, no en la misma medida que aquellos que lo dominan en su
totalidad, pues siempre se pierde una parte que es la relación entre este
componente y los demás, pero sí de forma sintética —centro emocional de la
representación—.

2.2.5. La música como representación


Los sonidos, lejos de ser entidades independientes, desgajadas del resto
de la realidad, aportan una interpretación de las cosas. En cada sonido se
encuentra la referencia a un cúmulo de relaciones de dependencia o de
homeomorfia constatables entre diferentes niveles de la realidad:
Por ser el sonido advertencia y signo desde el origen, cualquier
concepción de lo real que lo integre anula forzosamente toda diferencia
absoluta entre naturaleza y lenguaje, es decir, entre materia y
pensamiento; así pues, todo es susceptible, digno de ser interpretado;
nada queda ya libre de la luz y de la inteligencia. Por esto, yo declaro
que la música es un arte realista que, incluso en sus formas más
elevadas, más aparentemente despegadas de todo, nos muestra algo
sobre el mundo, que la gramática musical es una gramática de lo real,
que los cantos transforman la vida. (Michel Butor, La Musique art
realisé, Cit. en Pousseur, 1984: 9).

40
Ahora bien, la respuesta a cuáles son aquellas propiedades que le
permiten a la música representar o evocar un campo de lo real, lleva,
indefectiblemente, desde las imitaciones cuasi literales a las analogías
relativamente metafóricas. Se trata de instaurar relaciones análogas, cada vez
con mayor claridad y de una forma gradual, en medio de un contexto
diferente: preservar la capacidad de la sorpresa a través de una sabia
administración de los elementos extraños al sistema lingüístico imperante.
Según Pousseur (1984), cada texto musical configura sus mensajes
según las intenciones y mecanismos señalizadores que utiliza. Pueden darse
tres casos: que forme parte de un espectáculo externo, que sustente un texto
independiente, o que sirva de testimonio explícito de una intención ilustrativa
o imitativa. En cualquiera de esos niveles se pueden encontrar obras
paradigmáticas. Pero no se ha de olvidar que la ósmosis de los textos, la
reconversión de estos a través de la hipertextualidad, permite transportarlos
de unos niveles a otros. Es muy difícil, por tanto, que ni tan siquiera en las
obras especialmente ajustadas al método, ajenas a cualquier concesión
ilustrativa, no se pueda rastrear la huella de ciertas estructuras precisas y
prácticas acerca de la acción y los agentes que la han producido. Además toda
música, por pura y autónoma que se pretenda, siempre surge de un escenario
psicoteatral donde el compositor proyecta las alegorías de su destino. Este
estigma determina y condiciona desde su génesis, sus potencialidades.
Queda evidenciado, por tanto, que la Música, independientemente de
sus contenidos intrínsecos —campo de impresiones, emociones y expresiones
oníricas y psíquicas cuya traducción parece reservada al lenguaje musical—,
tiene la capacidad de representar otras muchas realidades a las que aglutina,
otros contenidos extrínsecos —referidos a realidades exteriores a la música—.
Es un epicentro entorno al cual se atomizan todo un universo de virtualidades
comunicativas representadas por medio de la totalidad de las experiencias
estéticas. Estas realidades tipológicas se articulan de forma circular en función
del referente:
• Relación de hipertextualidad. Música que describe a otras músicas.
• Relación onomatopéyica. Música que describe fenómenos sonoros no

41
musicales —lingüísticos, vocales, humanos, intencionales, etc.—.
• Relación descriptiva. Música que describe movimientos no necesaria ni
esencialmente sonoros —rotaciones astrales, variaciones de luz— o de
los que omite su sonoridad —discurrir del agua de un río—.

(Fig. 1 Música y representación)

• Relación sinestésica. Música que describe realidades sensibles inalte-


rables —colores, olores—.
• 5.Relación psicológica. Música que describe estados psicológicos
interiorizados ligados a una afectividad sin imágenes.
• Relación narrativa. Música que se articula como discurso, interna o
externamente.
• Relación conceptual. Música que representa nociones despersonifica-
das e irreductibles al campo de lo sensorial —Justicia, Fe—.
• Relación autónoma. Música que se representa por sí misma.
Este último tipo cierra el círculo regresando al origen, estableciendo,
así, la circularidad y recursividad del procedimiento.

2.3. FACTORES DE LA COMUNICACIÓN MUSICAL.


Un proceso de comunicación musical tradicional parte de un
emisor/destinador —el compositor— que establece un esquema abstracto —
la partitura— en función de un código musical concreto —estilo, forma,
lenguaje…—, y que, a través de un canal o medio determinado —concierto,
grabación, etc.—, es producido por un programa de ejecución global —
pseudoemisor técnico o humano— que es percibido y decodificado por un
receptor/destinatario competente.
El estudio de los factores de la comunicación musical parte de la
tipología elaborada por Jakobson y ampliada por Greimas y Courtes. Existen
dos tipos de elementos diferenciados:
• Actores o agentes. Cualquier ser vivo que interactúa con otro u
otros seres vivos, de su misma especie o especies diferentes,
recurriendo a la información. Cada actor ocupa una posición

42
distinta y mutable en cada momento de la comunicación. Son ego y
alter. El actor se sirve de una materia que modifica y realiza un
trabajo expresivo (modificación=expresión). El actor modula la
actividad energética de la sustancia expresiva en función de la
fuente para obtener señales. El trabajo expresivo de ego se compensa
con el trabajo perceptivo de alter.
• Mecanismos y sistemas. Son aquellos todos elementos de los que se
valen los actores o agentes de la comunicación para establecer
procesos de comunicación. Comprende el código de uso, el canal, el
medio,

(Fig. 2 Factores de la comunicación audiovisual)

2.3.1. El destinador.
El destinador musical —en la teoría de la información, el emisor— es,
en el proceso de comunicación musical, la instancia —persona, aparato— que
origina el mensaje, y corresponde a la figura normativa del creador musical.
Opuesto al receptor, se considera que desarrolla el rol de destinador todo
aquel actante de la comunicación —sujeto o medio individual o
institucional— que recibe, en algunos casos procesa y transmite, la música
según unos criterios de selección característicos.
La figura del destinador está representada tanto por el compositor
como por el intérprete que aparece como figura de intermediación en el
sistema comunicativo. En la época actual, el registro de la música incorpora
otra figura de intermediación: el ingeniero de sonido. Todos ellos asumen la
función de comunicadores, pues, cada uno en su medida, es realizador de los
enunciados.
La actividad del destinador se ve condicionada por determinados
factores. La capacidad técnica, el conocimiento del código, la actitud personal,
la posición sociocultural, o la habilidad determinan las posibilidades de jugar
con el campo de dispersión que permiten los signos musicales, sin que se
diluya su naturaleza reconocible.

43
En la mayor parte de los procesos comunicativos musicales, el
compositor se vale de la notación musical para reflejar sus enunciados. Este
ejercicio de codificación del pensamiento musical es una práctica lenta,
descompasada de la rapidez e inmediatez del pensamiento que invita e
impele al compositor a construir su música. Tal disonancia obliga a este a
trabajar sobre un doble pensamiento: el sonido que alberga su mente, lleno de
expresiones y capacidades, y el signo que, bajo la lentitud e inexactitud del
proceso de codificación, deja escapar la esencia misma de esa expresividad.
Ese esquema abstracto de realización, que es la partitura, es luego
traducido por un programa de ejecución global —compuesto de tantos
subprogramas parciales como intérpretes haya— y reproducido en una
conjunción sincrónica. Cada intérprete asume el rol de co—destinador, pues el
ejercicio de representación acumula, en la obra, las operaciones técnicas,
estéticas y psicológicas que cada uno de ellos tamiza en su doble y simultánea
operación de decodificación.
Este acto de intermediación, que supone la puesta en acto del
enunciado musical, es explicado por A.Moles de forma especialmente
descriptiva: «Para la ejecución de una pieza, de una sinfonía, por ejemplo,
Mozart dejó una partitura, un esquema abstracto, traducido por un programa
de ejecución global que será descompuesto en programas parciales de
realización sincronizada por una serie de artistas (los ejecutantes), que
trabajan en una cadena secuencial sobre máquinas de hacer notas (los
instrumentos), cuya cadencia es debidamente controlada por un
contramaestre (el directo de orquesta). Cada aparato, cada instrumento, posee
tolerancias de fabricación bastante amplias. Hay muchos modos distintos de
tocar un do en el clarinete sin que deje en absoluto de ser un do3 reconocible
como tal. Cada ejecutante, más o menos controlado por el director de
orquesta, hará uso a su manera (dentro de ciertos límites) de ese campo de
libertad que se le ofrece en cuanto a la duración, la fuerza y el timbre exactos
del sonido».

44
2.3.2. El destinatario.
El destinatario musical —en la teoría de la información, el receptor—
es, en el proceso de comunicación musical, la instancia en que se recibe el
mensaje, y corresponde a la figura normativa del contemplador musical
competente. Opuesto al emisor, se considera que desarrolla el rol de receptor
todo aquel actante de la comunicación —sujeto o medio individual o
institucional— que recibe, en algunos casos procesa y transmite, la música
según unos criterios de selección característicos.
El destinatario musical es un sujeto dotado de una competencia,
entendida esta como competencia de comunicación; es decir, el grado de
conocimiento implícito o explícito que posee de las reglas psicológicas,
culturales, sociales y técnicas, presupuestas para la comunicación musical, del
código sobre el que se establecen los enunciados musicales.
El destinatario no es, necesariamente, un sujeto pasivo en el acto
comunicativo musical. Aunque nunca lo ha sido, en los modelos
comunicativos actuales, la interactividad en tiempo real —o medianamente
diferida— de los medios y canales permite que la cantidad y calidad de la
información de retorno —feddback— sea numerosa. Esta consiste en la
capacidad del destinatario para transmitir al destinador sus necesidades y
deseos para alcanzar el goce estético.
Moles afirma que el placer estético se produce por medio de una
multiplicidad de efectos del mensaje sobre el individuo. Entre estos efectos
hay dos que son especialmente trascendentes:
• El reconocimiento formal: evocación explícita, concreta e inmediata
de las formas ya conocidas y dominadas. Este placer formal está
estrechamente relacionado con la teoría de la forma y alude a la
capacidad del oyente para discriminar los elementos constructivos y
estructurales de las obras musicales. En la Estética de la información
se conoce a esta función como placer semántico, pues se vincula al
conocimiento de los signos y al dominio de sus reglas sintácticas y
pragmáticas.

45
• El conocimiento sensual: enlace con un mecanismo irracional,
connotativo, mediante el cual el hombre “percibe, pero no concibe,
todo un haz de variaciones del mensaje que, sin cambiar su
expresión explicitable, modifican la manera como es recibido”.
Mientras el placer formal hace referencia directa a la denotación del
mensaje, a lo presente de forma explícita, el placer sensual se refiere a lo
sugerido, lo connotado, a aquellas fluctuaciones —campo de dispersión en el
lenguaje de Barthes— que sufren los signos sin que pierdan su naturaleza
reconocible.
La profundidad de lectura del oyente está, por tanto, estrechamente
relacionada con su conocimiento del código en ambos casos. No obstante, del
propio código más en el placer formal, y de la interrelación con otro u otros
sistemas semióticos en el caso del placer sensual pues, como perceptor, posee
la capacidad de apreciar el mensaje de muchas formas y maneras: en
complejidad, en normalización —modelización de los estereotipos—, en su
grado de información/redundancia, etc.

2.3.3. El código.
Aunque el término código parte de la teoría de la información, su uso
se ha generalizado, a través de la lingüística, al estudio de los sistemas
semióticos. Según Mitry, un código es, conforme a un consenso social, «la
atribución arbitraria, impuesta y obligatoria de una función práctica en un
sistema de signos dados».
Cada cultura establece un determinado “lenguaje” musical
fundamentado en una codificación más o menos estricta. Se genera, así:
• un inventario de símbolos arbitrariamente seleccionados —aunque
tal elección disponga de justificaciones naturalistas, trascendentes,
etc.—: alturas, duraciones, timbres…;
• un conjunto de reglas de composición: eludir determinados
intervalos, las relaciones acórdicas, el sistema formal o la retórica
barroca en la tradición tonal de la música occidental, pero también
las reglas seriales, el sistema chino de los 12 lü, o los ritmos modales

46
Indios; y
• una lexicalización de los signos, que genera, de forma paralela, un
pseudodiccionario abierto y continuamente mutable de estos, pero,
sobretodo, de relaciones intersignos —relaciones de orden
sintáctico—.

2.3.4. El mensaje.
El mensaje aparece como enunciado, es decir, tanto como un hecho y
porción de tiempo de la producción de un contenido de comunicación
(enunciar), como una manifestación de un contenido comunicativo (lo
enunciado). Cualquier mensaje sólo puede ser expresado globalmente como
una arquitectura informativa sujeta a reglas de optimación de complejidad en
cada uno de sus niveles. En estos niveles, pertenecientes a una complicada
jerarquía, se desarrollan procesos de comunicación y percepción más o menos
redundantes, más o menos inteligibles.
Aunque el mensaje musical consiste en el conocimiento que éste
transmite, en el contenido sonoro que envía, aparece también como mediador
de sentimientos y sensaciones, como expresión de lo inefable, como
ampliación del horizonte de experiencias o como revelación de ámbitos de
realidad desconocidos —por nuevos o por ser observados desde perspectivas
inéditas—.
De los cuatro tipos de estructura que puede tener el mensaje de la obra
de arte (directa, codificada/interpretativa, didáctica y apelativa), el musical se
vale, fundamentalmente, de las dos primeras, si bien, en sus intersecciones
con otro tipo de mensajes, puede contribuir a la transmisión de los restantes
tipos.
Como el resto de mensajes artísticos, posee una doble naturaleza.
Aunque se presenta ante el destinatario como una unidad en la actualización
concreta de cada interrelación —gracias a los procesos de integración
cerebral—, detenta una parte semántica y otra estética —cada una con un
elevado número de niveles de signos y supersignos—, que son recibidas de
forma diferenciada. La parte estética no se dirige exclusivamente a la

47
intelectualidad de los destinadores; busca la sensualidad, la sensación y la
fantasía.
El mensaje se origina con la realización de la obra. Sólo cuando esta se
produce como señal comunicativa se puede hablar de mensaje; la partitura es
un proyecto de realización, no la realización misma. Por tanto, el mensaje será
la obra sonante como sensación.
El análisis de la arquitectura de las obras reporta una generalización de
los mecanismos comunicativos; ofrece datos sobre la cantidad de novedad del
mensaje con respecto al ámbito de codificación cultural y a la competencia —
bagaje sociocultural— de cada individuo en el seno de un contexto
comunicativo concreto. Puesto que el mensaje musical viene condicionado por
las intermediaciones que sufre y las circunstancias de emisión, el
conocimiento de este pasa por el análisis contextual. Este análisis se hace más
complicado en aquellos casos en los que el mensaje musical aparece
configurado en el seno de textos complejos en los que conforma el sentido en
unidades transesenciales: música en los textos audiovisuales, en las obras
representativas, etc. En estos casos, la multiplicidad de los mensajes les hace
infinitamente más diversos, pues se dirigen, simultáneamente, a varios
sentidos del receptor.

2.3.5. El canal.
La teoría de la información designa al canal como el soporte material o
sensorial que sirve para la transmisión de los mensajes. Es el portador y
mediador natural y técnico para los signos y sistemas de signos
comunicativos.
Las clasificaciones semióticas en función del canal de comunicación
establecen su taxonomía a partir de los ordenes sensoriales en los que se
fundamenta el significante. De forma útil, se habla así, de semióticas textuales,
semiótica del espacio, semiótica de la imagen, semióticas musicales, etc.
Resulta más complicado la explicación del canal comunicativo en función de
los ordenes sensoriales en aquellos casos en los que la música participa en
conjuntos significantes vastos como el cine, el teatro, etc., en los que la

48
imbricación de lenguajes diferentes con el objetivo de producir significaciones
globales, hacen poco operativa esta separación.
En la semiótica musical, el canal tiene una naturaleza diversa. Los
soportes materiales están representados de forma distinta en función de la
cultura musical que se estudie. Por ejemplo, si bien en el marco de la música
occidental clásico—tonal la encodificación se materializa a través,
esencialmente, de una notación gráfica establecida en una partitura, en
algunos de lo estilos y géneros musicales del siglo XX el registro sonoro sirve
como soporte material exclusivo.
Cuando el canal es instrumentalizado técnicamente, y actúa de forma
medial entre destinador y destinatario, es denominado medio. Todo medio
técnico de la comunicación tiene una naturaleza instrumental. La clasificación
de los medios técnicos musicales que actúan como canales de la comunicación
atiende a dos criterios: el dispositivo técnico y el ámbito espacio—temporal en
el que intervienen.
• Dispositivo técnico. Alude al sistema tecnológico sobre el que
descansa el funcionamiento del soporte y puede clasificarse: a) en
función de los modos de tratamiento y permanencia de los mensajes
—instantáneo/conserva, único/copias múltiples—; b) según el
procedimiento técnico —grabación/reproducción, transmisión,
impresión, etc.—; o c) según el resultado y/o estado de la señal —
partitura, registro sonoro, emisión sonora, etc.—.
• Ámbito espacio—temporal. Atiende a las circunstancias espaciales
y temporales en las que se activa la funcionalidad del canal. Puede
tratarse de audiciones, conciertos, improvisaciones, grabaciones, etc.

2.3.6. La situación.
Aunque no se trata de términos sinónimos, situación y contexto hacen
referencia al conjunto de elementos que preceden y/o acompañan al texto. En
el lenguaje musical interesa el conocimiento del contexto extralingüístico o
situacional en tanto en cuanto aporta datos en el proceso de interpretación
semántica.

49
El estudio de la situación comunicativa informa sobre ciertos elementos
pertinentes, susceptibles de determinar las relaciones entre los actantes de la
comunicación, así como la forma de los discursos que estos producen.
En el lenguaje musical el término situación hace referencia al marco de
producción concreto que caracteriza cada una de las realizaciones sonoras. Es
decir, las propiedades y caracteres de ciertas configuraciones —espaciales,
temporales, técnicas, relacionales, etc.— que tienen por objeto la objetivación
de las posiciones que ocupan los sujetos en el marco comunicativo, así como
las condiciones de producción discursivas.

2.3.7. El observador.
En la teoría semántica el observador es definido como un sujeto
cognoscitivo delegado por el enunciador cuya función en el discurso—
enunciado es la intermediación e interpretación sobre los otros actantes y
programas narrativos que son distintos de él mismo.
Su presencia se actualiza de varias maneras. Una de ellas es cuando el
hacer cognoscitivo del observador puede ser reconocido por el sujeto
observado. Un caso de este tipo, en el discurso musical, es cuando, por
ejemplo, en una «danza folklórica, instalada en la escena como espectáculo,
deja de ser una comunicación participativa del actante colectivo y se
transforma en un hacer—ver dirigido al observador—público».

50
CAPÍTULO III. FUNDAMENTO CIENTÍFICO DEL

SONIDO.
El sonido es la materia prima, la sustancia, de la que se vale la música
para conformarse como realización artística. Es por ello que resulta
imprescindible conocer cuáles son sus características esenciales, así como la
entidad y relaciones de sus parámetros configuradores.
En el presente capítulo se realiza una aproximación fenomenológica al
sonido mediante procedimientos dialécticos. Se justifica el sonido a partir de
su contradicción, el silencio, y se analiza desde la perspectiva de las dos
disciplinas científicas que lo toman como objeto material: la acústica y la
psicoacústica. Se examina, por otra parte, una de sus posibilidades
particulares y específicas: el ruido.

3.1. SONIDO, SILENCIO Y RUIDO.


La relación sonido/silencio es de naturaleza antonómica. El sonido no
cobra sentido sino desde el silencio, y este, en términos objetivos, se justifica
desde la ausencia de sonido.
La naturaleza, el mundo en el que se desenvuelve el ser humano, los
elementos con los que interactúa, son potencialmente sonoros; el mismo
movimiento de los átomos provoca una energía de carácter ondulatorio que,
dentro de unos márgenes concretos, es susceptible de ser percibida de forma
sonora.
La amplitud de estos márgenes dice mucho sobre la extraordinaria
capacidad que posee el ser humano para discriminar analíticamente una
amplia gama de vibraciones simples o compuestas:
• Rango de frecuencias. Entre 17 y 20.000 ciclos por segundo
(Hercios).
• Rango de intensidades. Entre 0 y 120 decibelios.

51
3.1.1. Disciplinas científicas.
Habida cuenta que el sonido es tanto el fenómeno físico como las
sensaciones que este provoca, puede ser estudiado desde esa doble
perspectiva:
• Física. Puede ser de dos tipos: física absoluta, o física relativa.
• Psicofísica.
Ambas disposiciones dan origen a dos disciplinas científicas que tienen
por objeto material el estudio del sonido, pero cuyo objeto formal asume el
fenómeno sonoro desde ángulos diferenciados. Estas disciplinas son:
• Acústica. Ciencia que analiza el mundo sonoro para tratar de
aislar el sonido y estudiar sus propiedades físicas.
• Psicoacústica. Ciencia que estudia la respuesta psicológica ante
el estímulo sonoro.
A pesar de esta división, la comprensión global del sonido debe
realizarse integrando las competencias de ambas disciplinas, pues solo así se
pueden contextualizar las contradicciones sistemáticas que aparecen entre las
mediciones acústicas de las formas sonoras —campo de la acústica— y la
percepción que tienen los seres humanos de esas formas sonoras —campo de
la psicoacústica—.

3.1.2. Sistemas de análisis del sonido.


El estudio analítico del sonido precisa de la captura temporal de este
mediante sistemas de representación gráfica a través de los cuales se observan
sus características. Básicamente, existen dos medios de representación:
1. En el dominio del tiempo. Se representa gráficamente por
medio de un eje vertical para la amplitud y un eje horizontal
para el tiempo.
(Fig. 3 Representación en el dominio del tiempo)

2. En el dominio de la frecuencia. Representación mediante líneas


espectrales. Se realiza situando la frecuencia en el eje horizontal
y la amplitud en el vertical.

52
(Fig. 4 Representación en el dominio de la frecuencia)

El origen de los estudios analíticos de las formas sonoras compuestas


se sitúa en los realizados por Hermann von Helmholtz en el siglo XIX. Los
resonadores de Helmholtz —esferas huecas de vidrio con dos cuellos tubulares
cortos y abiertos— permiten obtener una idea bastante aproximada de cuales
son las distintas frecuencias que componen un sonido complejo determinado.
Posteriormente, la doble transcodificación del sonido —de señal
acústica a electrónica por medio del micrófono, y de señal eléctrica a visual,
como dibujo en forma de onda— ha dado origen al osciloscopio, que utiliza, de
forma simplificada, el sistema de visualización de la televisión. Este sistema
permite un tratamiento matemático del sonido por medio de la herramienta
matemática denominada Transformada de Fourier.
La informatización de este sistema de análisis —con las ventajas
inherentes a la mismo: rapidez de cálculo, toma de muestras…— y el
descubrimiento en 1965 del algoritmo FFT, o Transformada Rápida de Fourier,
ha permitido desarrollar métodos gráficos de análisis acústico
extremadamente complejos y útiles. Estos son:
1. Oscilograma. Es la representación gráfica en forma de onda
de todas las variaciones eléctricas que genera un micrófono al
ser estimulado por cierto sonido durante un tiempo concreto.
Tales variaciones son representadas en un eje de coordenadas;
en el vertical se refleja la amplitud, y en el horizontal el tiempo.
Es especialmente eficaz para trabajar sobre la dimensión
temporal.
(Fig. 5 Oscilograma)
2. Sonograma. Es una representación gráfica del sonido que
traduce el aumento de intensidad del sonido —amplitud de la
vibración— mediante la mayor/menor oscuridad y grosor de las
líneas de representación de un número amplio de las ondas
simples que conforman un sonido compuesto. Es el sistema de
representación que ofrece mayor cantidad de información

53
simultánea, pues ofrece datos sobre los tres parámetros sonoros:
intensidad (grado de oscuridad de las líneas), frecuencia (eje
vertical), y tiempo (eje horizontal).
(Fig. 6 Sonograma)
3. Espectograma. Se trata de una representación gráfica
instantánea de un sonido; es decir, es un corte transversal de un
suceso sonoro que prescinde —por tanto, aísla— el plano de
sucesión temporal. Consecuentemente, informa
exhaustivamente sobre la composición frecuencial (eje
horizontal) y de intensidad (eje vertical) de un sonido en un
punto temporal concreto.
(Fig. 7 Espectograma)

3.1.3. El sonido.
Dada la doble identidad del sonido, es habitual hablar de onda sonora
cuando se hace referencia al sonido físico, y de sensación sonora cuando se
hace lo propio con el sonido percibido por el oído.

3.1.3.1. Definiciones.
Desde la perspectiva física —acústica—, el sonido es definido como:
• Una alteración de la presión, desplazamiento, velocidad de las
partículas que se propaga en un medio elástico, o la superposición
de tales alteraciones al propagarse.
• El sonido sinusoidal es una onda sonora cuya presión sonora
instantánea es una función sinusoidal del tiempo. Viene
determinado por dos características:
a. Frecuencia. Número de vibraciones por segundo
(ciclos/segundo); se mide en Hercios (Hz).
b. Amplitud. Define la intensidad del sonido y se mide en
unidades de presión sonora.
Desde la perspectiva psicofísica —psicoacústica—, el sonido es
entendido como un puente entre la acústica y la percepción:

54
• El sonido, referido al observador humano, es la sensación auditiva
que es producida por el sonido físico.
• Una sucesión de sobrepresiones y depresiones que llegan al oído.
Esta sucesión de estados genera una energía sonora que es la
energía mecánica (energía potencial+energía cinética) de las
vibraciones del aire que el oído interpreta como un sonido
• El resultado de percibir auditivamente variaciones oscilantes de
algún cuerpo físico, habitualmente, a través del aire (Rodríguez
Bravo: 1998). Por tanto, el sonido será siempre la vibración de un
objeto físico dentro de la gama de frecuencias y amplitudes que es
capaz de percibir el oído humano.
• La sonoridad es un atributo de la sensación auditiva, según la cual
los sonidos se pueden ordenar en una escala que se extiende desde
los más débiles hasta los más fuertes. El estímulo de la sonoridad es
principalmente la presión sonora, pero influyen también la
frecuencia y la forma de onda.

3.1.3.2. Las ondas sonoras.


Una onda es una vibración que, originada en un lugar —foco, fuente—
se transmite por el espacio de punto a punto, y cada uno repite el movimiento
del anterior con cierto retraso. La onda no transporta materia, pero sí energía.
Las ondas sonoras son aquellas ondas producidas por un cuerpo
sonoro cuya frecuencia e intensidad se encuentra dentro de los umbrales de
audición humanos. Poseen las siguientes características:
1. Forma. Pueden ser periódicas o no periódicas, y transversales o
longitudinales.
2. Velocidad. La velocidad de las ondas depende de dos factores:
a) la inercia o masa del medio de propagación, y b) la tensión—
presión del material puesto en vibración, es decir, su elasticidad.
3. Reflexión. Retorno de una onda cuando llega al final del medio
por el que se propaga.
4. Longitud de onda. Distancia entre dos crestas o dos valles, o dos

55
puntos consecutivos en el mismo estado de vibración.
5. Difracción. Tendencia de una onda a bordear los obstáculos que
encuentra en el medio de propagación.
6. Refracción. Cambio de velocidad y dirección de una onda
debido a las variaciones del medio por el que se propaga.
7. Efecto Doppler. No se trata de una característica en sí misma,
sino de una variación de la frecuencia escuchada de un sonido
debida al movimiento de la fuente, del observador o de ambos.

3.1.3.3. Transmisión y velocidad del sonido.


Para la transmisión del sonido es necesario que entre el cuerpo sonoro
y el oído exista una serie ininterrumpida de porciones de materia elástica.
Aunque es indiferente el estado físico de dicha materia o medio, el hábitat
natural del sonido es el aire.
El mecanismo de propagación del sonido es el siguiente: el cuerpo
sonoro, debido a su movimiento vibratorio, origina ondas en el aire que rodea
capaces de impresionar el sentido del oído al alcanzarle, produciendo la
sensación sonora.
El desplazamiento espacial de la energía sonora requiere un lapso de
tiempo. Este tiempo depende, fundamentalmente, del estado físico del medio
de transmisión. En el caso del aire, a 0º C. y en aire seco, la velocidad media es
de 330,6 metros por segundo. Los factores que afectan a esa velocidad son
todos aquellos que modifican el estado atmosférico del aire —temperatura,
humedad, etc.—.
La velocidad del sonido en los sólidos es mucho mayor. Como
muestra, obsérvese estos otros medios:

Medio Velocidad Medio Velocidad


Agua 1.441 Hierro 5.130
Aire 330’6 Ladrillos 3.652
Aluminio 5.104 Madera 4.670
Cobre 3.560 Níquel 4.973
Corcho 500 Plata 2.610
Hidrógeno 1.269´5 Vidrio 5.000

56
Tabla 3: Velocidad del sonido en diferentes medios transmisores.

3.1.3.4. Reflexión, resonancia, eco y reverberación.


La reflexión es el fenómeno que se produce cuando, al propagarse
las ondas sonoras, encuentran una superficie elástica y se reflejan. En ese
momento, todos los puntos de la superficie encontrados por el movimiento
ondulatorio se convierten en otros tantos centros de vibración, emisores de
un sistema de ondas llamadas de retroceso.
La resonancia es el proceso acusado de absorción de una onda que
experimenta un receptor cuya frecuencia propia coincide con la del
movimiento ondulatorio que se expande por el medio. Cuando esto
ocurre, se dice que emisor y receptor están en resonancia.
El eco es la repetición de un sonido emitido una sola vez. Se
produce por la reflexión de las ondas sonoras sobre un obstáculo
suficientemente alejado del centro de la vibración como para que no se
confunda el sonido emitido con el reflejado.
La reverberación se basa en el mismo principio del eco con una
diferencia notable, la distancia de reflexión es suficientemente pequeña
como para que se confunda, en la audición, el sonido directo y el reflejado.

3.1.3.5. Sonidos puros/sonidos compuestos.


Los sonidos puros son poco habituales fuera de los estudios de
audio o de los laboratorios de sonido, y son aquellos que cumplen las
características siguientes:
1. Están constituidos por una sola frecuencia.
2. La sensación auditiva que producen es muy pobre, simple y
poco agradable.
3. Son generados por la vibración de cuerpos muy
homogéneos.
Son ejemplos de sonidos puros el producido por un diapasón o los
pitidos electrónicos.
Los sonidos compuestos son los habituales en el universo sonoro y
poseen estas características:

57
• Están formados por dos o más frecuencias.
• No existe una sensación auditiva concreta debido a la amplia
gama de posibilidades que pueden ofrecer.
• Son generados por la vibración de cuerpos heterogéneos en
masa, forma, densidad, etc.
• Tal heterogeneidad provoca que un cuerpo físico pueda
responder de forma distinta frente a estímulos distintos, es decir,
que suene de forma completamente diferente en función del
lugar en el que se les golpee —lo que explica, por ejemplo, las
variaciones sonoras en los instrumentos musicales—.
• Los sonidos compuestos son descomponibles —
consecuentemente, analizables— como series de frecuencias
simples o sonidos puros cuya suma lineal da como resultado los
sonidos compuestos originales.

3.1.4. El ruido.
En términos acústicos se trata de cualquier sonido no deseado y,
por extensión, toda perturbación espúrea dentro de una banda útil de
frecuencias.
Desde la perspectiva de la recepción, ruido es todo sonido
indeseado. El ruido está en todas partes. Y no se trata sólo del ruido
externo; los mismos sistemas nervioso y circulatorio producen un
determinado ruido que es posible escuchar dentro de una cámara
anecoica.
El ruido es un sonido que tiene intensidad y duración pero que
carece, al menos de forma evidente, de tono y timbre. Estas son algunas de
sus características:
• Las vibraciones son aperiódicas.
• La sucesión de tonos parciales es inarmónica.
• Esta sucesión es de tal densidad que produce un continuo de
tonos parciales. En consecuencia, no se puede definir la altura de

58
un ruido sino de forma vaga e imprecisa, pues la sobrepresencia
de ciertos ámbitos de formantes impide el reconocimiento de
tonos concretos.
Existen algunos tipos de ruido característicos por su formación y/o
su utilidad:
• Ruido blanco, o ruido gaussiano. Es un ruido específico
generado por fuentes aleatorias cuya característica esencial es
que ocupa, de forma uniforme, la totalidad del espectro audible.
• Estampido. Es un impulso oscilatorio aperiódico y breve.
• Sonoridades sucias. Entes acústicos cuya naturaleza les sitúa a
caballo entre el sonido y el ruido. Se trata de aquellos sonidos
que mezclan frecuencias armónicas con frecuencias que no
establecen ese tipo de relación proporcional con la frecuencia
fundamental. Son sonoridades algo desagradables que producen
un efecto de suciedad sonora o de sonido ruidoso.
El que un cuerpo sonoro produzca sonidos de altura definida o
ruidos —sonidos inarmónicos— está en función de que el resonador de
dicho cuerpo seleccione un sonido formado por armónicos o no. Existen,
no obstante, cuerpos sonoros que, aún produciendo ruidos, se puede
reconocer en ellos una sensación tonal en el sonido que producen. Ello es
debido a que, a pesar de no producir armónicos, alguna de sus frecuencias
se impone claramente sobre las demás.

3.1.5. El silencio.
El silencio supone la carencia de alteraciones de presión, y del
movimiento y desplazamiento de partículas que las provoca. O lo que es lo
mismo, el grado cero de los parámetros sonoros.
En función del nivel de perceptividad, se puede establecer una
división básica:
1. Silencio absoluto —objetivo—. Corresponde a los valores
inferiores a 0 dB —el umbral de audición—. A partir de este
punto de presión sonora se encuentra el silencio físico. Es,

59
por ello, un concepto medible pero no experimentable por el
ser humano.
2. Silencio relativo —subjetivo—. Hace referencia al índice
relacional de presión sonora que, contextualmente, define un
nivel de intensidad sonora considerado como silencioso por
el oyente.
Si bien en el ámbito físico el silencio supone la abstracción de todos
los parámetros que configuran el sonido, en el musical el silencio se
configura a partir de una dimensión sonora: la duración. Este silencio de
carácter relativo se justifica a partir de la triple naturaleza del signo
musical.

3.2. PARÁMETROS DEL SONIDO.


Los parámetros del sonido son los factores que integran y producen
el fenómeno sonoro.
Existen dos tipos de parámetros:
• Subjetivos. Son aquellos que definen las sensaciones de la
escucha.
• Objetivos. Son mensurables físicamente.
Existe una correspondencia directa entre los parámetros subjetivos
y los objetivos. Esta correspondencia es, en principio, paritaria, si bien
parece que cada atributo subjetivo depende, en mayor o menor grado, de
todos los objetivos.

Subjetivos Objetivos
Tono o altura Frecuencia
Sonoridad o Intensidad Presión (variación de presión)
Timbre Espectro (envolvente)
Duración Tiempo
Tabla 4: Correspondencia entre parámetros subjetivos y objetivos.

Estos dan origen a los componentes musicales que son los


elementos sonoros que conforman, por combinación, las estructuras

60
musicales, los textos sonoros. Estos elementos son:
1. Armonía. Combinación simultánea de varios sonidos de
diversa altura. Se rige por las leyes de la tonalidad y la
consonancia.
2. Melodía. Combinación sucesiva de los sonidos atendiendo a
su altura, y en función de unas estructuras jerárquicas
denominadas escalas. Se fundamenta en las leyes de la
tonalidad y selección interválica.
3. Timbre. Distribución característica de los armónicos de un
sonido que da origen a la variedad de registros
instrumentales. Se guía por la selección de los armónicos
naturales.
4. Ritmo. Combinación de las duraciones, pulsos e intensidades
de los sonidos. Se rige por las leyes de la periodicidad .

3.2.1. Altura o tono.


El tono o altura de un sonido es la cualidad por la cual este parece
agudo o grave. Aunque es directamente proporcional a la frecuencia (a
mayor altura, mayor frecuencia), ambos no son términos sinónimos, ya
que mientras la frecuencia es una propiedad física indisociable de todo
aquello que, como el sonido, vibra u oscila, la altura es una cualidad
subjetiva que se percibe sólo en algunos sonidos.
Por ello, como magnitud psicofísica, la altura es un atributo de la
sensación auditiva según la cual los sonidos se pueden ordenar en una
escala que se extiende desde los más bajos hasta los más altos, como en
una escala musical. Aunque el estímulo de la altura sonora es
fundamentalmente la frecuencia del sonido sinusoidal, también influyen
en esta la presión sonora y la forma de la onda.
Los sonidos compuestos consonantes —es decir, aquellos que por
las características de su composición son percibidos como sonidos
únicos— provocan sensaciones de altura tonal concreta,
independientemente de la complejidad de la forma sonora. Ello es debido

61
al fenómeno de la periodicidad. Para que se pueda reconocer la altura en
un sonido es necesario que sea periódico, es decir, que su frecuencia de
oscilación no varíe, o varíe poco, dentro de un determinado período de
tiempo.
Esta consonancia, o sensación total unitaria, se asienta en el
principio de organización de frecuencias en función de una fundamental.
De todas las frecuencias que componen el sonido complejo, la más grave
—fundamental en el vocabulario musical, pitch en el técnico— posee un
valor perceptivo tan relevante que sirve de pauta organizativa para el
resto de frecuencias que componen el sonido —armónicos—.
En términos prácticos, se diferencia entre altura tonal y croma o
color de nota.
• Altura tonal. Cualidad genérica de una nota con independencia
de la octava en la que se halle situada.
• Croma. Cualidad específica de una nota en virtud de la posición
que ocupa dentro de una octava concreta.

3.2.1.1. Magnitudes de altura.


Las magnitudes y unidades de medida con las que se establece la
altura o tono de los sonidos son:
• Altura. La unidad de medida con la que se mide la altura o tono
de un sonido es el mel. Por definición, un sonido sinusoidal con
una frecuencia de 1.000 hercios y un nivel de presión sonora de
40 db, produce una sensación de altura de 1.000 meles.
• Frecuencia de una onda sonora. Es la velocidad con la que oscila
esta. Se mide en hercios (Hz).
• Nivel auditivo. Sensibilidad del oído en función de la altura del
sonido. La graduación es subjetiva y es una comparación con un
sonido de referencia de frecuencia igual a 1 KHz, cuyo nivel de
presión acústica proporciona una base de comparación. Se trata,
por tanto, de una magnitud que afecta a varios parámetros
sonoros de forma simultánea. Se mide en fonos.

62
• Umbrales de altura o tono:
• Límite de audición mínimo. Frecuencia más baja que puede
percibir el oído (16-20 Hz. Por debajo de estos valores, se
denominan infrasonidos).
• Límite de audición máximo. Frecuencia más alta que puede
percibir el oído (20 KHz. Por encima de estos valores, se
denominan ultrasonidos).
• Umbral diferencial de tono. Menor diferencia relativa de
frecuencia que puede percibir un oído normal entre dos
sonidos de igual intensidad acústica. Se denomina, también,
sensibilidad diferencial de frecuencia.

3.2.2. Intensidad.
Desde la perspectiva física, la intensidad sonora medida en una
dirección determinada y en un punto, es el valor medio de la energía
sonora que atraviesa la unidad de área perpendicular a la dirección
determinada en el punto considerado. A saber, la energía sonora que
atraviesa la unidad de área (1 m2) en un segundo.
La intensidad depende del cuadrado de la amplitud de las
oscilaciones, o la diferencia entre las presiones máxima y mínima que la
onda puede alcanzar. Esto viene definido por la llamada ley cuadrática
inversa que determina el modo en que disminuye la potencia por unidad
de superficie (intensidad) de un frente de onda, conforme este se aleja de
la fuente: la intensidad disminuye de manera inversamente proporcional
al cuadrado de la distancia a la fuente.
La intensidad sonora es directamente proporcional a la amplitud de
la onda sonora. La amplitud es el grado de compresión y descompresión
del aire, como resultado del movimiento vibratorio, y es la característica
que define el nivel sonoro percibido por el oído.
Desde el punto de vista psicofísico la percepción de la intensidad
sonora es un fenómeno auditivo muy complejo, mucho más que el de la
altura. En este punto, conviene recordar la sorprendente sensibilidad del

63
oído desde el punto de vista de energía sonora: el sonido más potente tiene
una presión un millón de veces superior al más débil que pueda ser
escuchado. Tales diferencias obligan a trabajar con sistemas de medida y
unidades que resulten, fuera del ámbito físico, operativas. Por ello, la
intensidad se mide en una escala logarítmica, la de los decibelios (db), que
determina un nivel diferencial de intensidad entre dos amplitudes:
• 0 dB en el origen, que corresponde al umbral de audición.
• 130 dB en el límite, que corresponde con el umbral del dolor.
Mientras la potencia acústica evoluciona de forma lineal —
respuesta física—, el oído humano lo hace de forma logarítmica —
respuesta humana—. Fernández de la Gándara representa, así, las escalas
de intensidad en función de la actividad receptiva del oído:

Sensación Intensidad I/I0 Nivel de int.


Umbral del dolor 100 1012 120
fff 10—2 1010 100
fortissimo 10—3 109 90
forte 10—4 108 80
mezzo—forte 10—5 107 70
piano 10—6 106 60
pianissimo 10—7 105 50
ppp 10—8 104 40
Umbral de sensación I0 100=1 0
Tabla 5: Escalas de intensidad sonora.

3.2.2.1. Magnitudes de intensidad.


Las magnitudes y unidades de medida con las que se establece la
intensidad de los sonidos son:
• Potencia acústica de una fuente sonora. Indica la energía
acústica que es capaz de emitir en la unidad de tiempo, es decir,
la energía suministrada por segundo. Se mide en vatios (W).
• Intensidad sonora. Cantidad de energía, por unidad de tiempo,
que pasa a través de una unidad de superficie perpendicular a la
dirección de propagación del sonido. Se mide en vatios por

64
metro cuadrado (W/m2).
• Sonoridad. Indica la sensación subjetiva, y sus variaciones, que
ofrece en el ser humano la intensidad sonora. La unidad de
sonoridad es el son. Un sonido sinusoidal con una frecuencia de
1.000 Hz y un nivel de sonoridad de 40 db tiene un nivel de
sonoridad de un son.
• Nivel sonoro en un punto de un campo sonoro. Es la lectura en
decibelios (db) de un instrumento de medida de niveles sonoros,
construido y calibrado según los parámetros definidos por la
American Standard Association.
• Nivel de intensidad sonora. Medido en decibelios, es 10 veces el
logaritmo en base 10 de la relación de intensidad de este sonido
a la intensidad de referencia.
• Nivel de sonoridad. Es el valor numérico en fonos que un
observador patrón estima ser de igual sonoridad que una escala
contrastada medida en decibelios. Las curvas isofónicas o de
igual sonoridad son aquellas que muestran los valores de
presión y frecuencia necesarios para producir una sensación de
sonoridad determinada en el observador patrón.
• Rango sonoro. Es una medida en decibelios que determina la
diferencia entre los valores mínimo y máximo que un sistema es
capaz de producir.
• Resistencia acústica. Resistencia a la conducción del sonido en
un cuerpo. Es igual al producto de la densidad del cuerpo por la
velocidad del sonido en el mismo.
• Umbrales de intensidad:
o Umbral de audición. Nivel de presión acústica más
bajo que puede percibir normalmente un oído.
o Umbral de audición intolerable. Nivel de presión
acústica más elevado que puede percibir el oído
humano sin que la sensación producida sea dolorosa.

65
o Umbral diferencial de intensidad. Menor diferencia
relativa de intensidad acústica que un oído normal
puede percibir entre dos sonidos de igual frecuencia.
Se denomina, asimismo, sensibilidad diferencial de
intensidad.

3.2.3. Timbre.
Es la cualidad más compleja del sonido y es la que permite
diferenciar entre dos sonidos iguales en sonoridad, tono y duración, pero
de diversa procedencia.
El timbre depende del grado de complejidad del movimiento
vibratorio que origina el sonido. Técnicamente, supone que el movimiento
vibratorio está sujeto a la ley según la cual varía la elongación de la onda,
en función del tiempo, en el intervalo de un período.
Cuando un cuerpo vibra lo hace de forma compleja —son
excepcionales los cuerpos que lo hacen siguiendo las leyes del movimiento
armónico simple—. A través del teorema de Fourier se puede
descomponer ese movimiento ondulatorio complejo en los sonidos puros
que provienen de los movimientos armónicos simples componentes. De
esta manera se puede observar que es el conjunto de las sensaciones
sonoras producidas por los movimientos armónicos simples, lo que
produce la sensación tímbrica respectiva a ese sonido.
Aunque viene determinado, fundamentalmente, por la proporción
variable entre el sonido fundamental y los armónicos, la importancia de
dicha proporción depende del tipo de sonido:
• Estabilizados. Son sonidos que no varían con el tiempo. El
timbre, que depende exclusivamente de la intensidad relativa de
los armónicos, atiende a ciertas normas:
o los tonos puros son suaves y apagados en frecuencias
bajas.
o los tonos con armónicos hasta el sexto son ricos pero
todavía suaves.

66
o los tonos con armónicos impares dan sonidos huecos
y, en ocasiones, nasales.
o los tonos con armónicos fuertes por encima del sexto
ofrecen sonidos ásperos y cortantes.
• Irregulares. Son sonidos que presentan efectos transitorios. Estos
efectos se producen en cada una de las fases del sonido: ataque,
caída, mantenimiento y resonancia. Su influencia, junto a la de la
forma de la envolvente —línea que une las crestas de las
vibraciones—, y a la de los formantes —resonancias propias del
instrumento— es decisiva en la percepción tímbrica.

3.2.3.1. Armónicos.
Cuando un cuerpo vibra produciendo varios sonidos, el más grave
es denominado fundamental y el resto se denominan parciales. Estos
parciales pueden ser:
• Parciales concordantes. Son semejantes a la serie armónica
derivada de la fundamental. Se les denomina armónicos.
• Parciales discordantes. No son semejantes a la serie armónica y,
por lo tanto, no son armónicos.
Consecuentemente, se llamarán armónicos, concomitantes o
alícuotas a aquellos sonidos compuestos cuyas frecuencias son múltiplos
de la frecuencia fundamental.
El número de armónicos —fenómeno físico-armónico— que
componen el timbre de un sonido esta en función de dos factores:
• Cuerpo sonoro que lo produce —procedencia—.
• Modo de excitación del cuerpo sonoro —modo de obtención del
sonido—.

3.2.3.2. Magnitudes del timbre.


Las sensaciones de timbre no son mensurables como las de altura y
de intensidad, pues la mayor o menor complejidad de un movimiento
vibratorio no constituye una magnitud para la cual pueda establecerse

67
unidad de medida ni escalas. No existen, por lo tanto, umbral ni cima para
las sensaciones del timbre.
El estudio del timbre se centra en la descomposición de un sonido
en sus frecuencias componentes y en sus intensidades relativas, es decir,
en el análisis espectral del sonido.

3.2.4. Duración.
La duración de un sonido es su longitud en el tiempo. La sensación
sonora de la duración depende directamente de la duración del
movimiento vibratorio que origina el sonido, aunque en algunos casos la
sensación persiste una vez ha cesado el estímulo —Vg. acúfonos—.
El parámetro de la duración afecta también a la percepción de la
altura. En determinados valores de duración, los sonidos más cortos
ofrecen percepciones más agudas que los largos.
La magnitud básica de la duración es el tiempo. La unidad de
medida es el segundo.
En la música, la organización en intervalos regulares de los sonidos
y los silencios da origen al ritmo. Esta organización de la duración en
valores rítmicos da lugar a unidades de medida específicas como el
compás, el pulso, el tempo, etc.

3.2.5. Otros parámetros sonoros.


El volumen es una sensación subjetiva que depende conjuntamente
de la frecuencia —altura— y la amplitud —intensidad—. La sensación es
la siguiente: a mayor amplitud, mayor volumen; a mayor frecuencia,
menor volumen.
La densidad de un sonido es la sensación que producen ciertos
sonidos de ser más compactos, de tener más cuerpo que otros. Esta
sensación depende de la frecuencia y aumenta con ella debido,
probablemente, a la mayor velocidad con que se suceden las vibraciones
en los sonidos agudos.

68
3.3. ELEMENTOS Y RUDIMENTOS SONOROS
La música, para conformarse artísticamente, precisa de la
conjunción de determinados componentes —altura, duración, color
sonoro, intensidad, etc.— que determinan, en sus combinaciones, los
rudimentos sobre los que se establece su expresividad. El trabajo de un
compositor presupone la disposición y finalidad de esas variables para
dotarlas de discursividad en el tiempo. Se vale para hacerlo de cuatro
elementos básicos: ritmo, melodía, armonía y timbre, que seleccionados y
combinados en su multiplicidad, asumen una vitalidad textual que les
engarza formalmente, completando el programa creativo de este.
El sentido del término sonido hace referencia a todos los aspectos
de selección tímbrica, instrumental —en cuanto a su coloración y en
cuanto a su número—, al ámbito de alturas que permiten, y los resultados
tímbricos que resultan de la fusión de diferentes timbres simples en
estructuras complejas. Es decir, todos aquellos parámetros que establecen
una relación directa entre la sonoridad como sustancia inconexa y su
selectividad en el marco de reflexión de un determinado sistema estético-
musical.
El aparato rítmico comprende todos los tipos de rítmicas, compases,
subdivisiones, tempos, dinámicas, agógicas, las disfunciones temporales,
las expresividades especiales, o la transpolación del ritmo a alguno de los
otros elementos, dentro de una regularidad de retorno temporal libre y
fluida, percibida como movimiento innato. Puesto que la música es un arte
crónico «de naturaleza dinámica» (Guillot Gimeno, 1988: 85) que supone la
organización del tiempo desde la dimensión sonora, para la ordenación
del movimiento de los sonidos hace falta un valor mensurable: el metro es
su elemento material, y el ritmo el formal. El metro cuantifica el número
de partes en que se divide la unidad musical, y el ritmo cómo se
agruparán estas partes iguales en un compás dado. La pulsación del metro
revela la presencia de la invención rítmica ya que hay una relación entre el
metro y el ritmo, tanto en el sentido de jerarquía como en el crononómico.

69
En cuanto a la melodía, sirve de organizador primario entorno a
ciertos cánones y construye el hilo conductor de la obra a partir de diseños
puramente melódicos. De esta manera, permite jugar con los elementos de
sucesión de alturas, recursos contrapuntísticos y con las múltiples
posibilidades que estos ofrecen: tema directo, inversión, retrogradación,
inversión de la retrogradación, estrechamiento temático, etc.
La armonía, como sistema dialéctico de la consonancia formal de una
heterogeneidad, permite todo tipo de recursos expresivos. Primero, la
asociación o no a una tonalidad o modalidad concreta, el uso de un
sistema atonal o de elaboraciones concretas de escalas por semitonos,
tonos o incluso, fuera del sistema temperado, microtonos. Luego, la
disposición textural de estos de forma monofónica, homofónica, polifónica
o heterofónica. Frente al resto de parámetros musicales, que son partícipes,
como elementos constructivos, en otras realidades extramusicales, el
armónico parece estar especialmente capacitado como portador de
significación pues se muestra en exclusividad dentro de la expresión
musical y posee una importante capacidad descriptiva. No obstante, como
queda apuntado en el Tratado de armonía de Schönberg, se trata, en
cualquier caso, de «uno de los medios más eficaces para lograr un buen
resultado en música», pero no el único. Ha de observarse, que con este
término no se debe entender únicamente «la ciencia de los acordes y de sus
enlaces» sino todo lo que concierne a la altura de los sonidos, pero
percibida no tanto como color o como distancia, sino como valor
específico, susceptible de combinarse en «términos de intervalos (grados y
tipo de parentesco) característicos y reconocibles (más o menos consonantes), en
términos de escalas, de acordes y de otras figuras tanto sucesivas, melódicas, como
simultáneas, polifónicas y puramente verticales (homofónicas)» (Pousseur: 1984).
Las propiedades armónicas están relacionadas con las facultades —
de frecuencia vibratoria, de ritmo microtemporal— que los diversos
intervalos musicales establecen entre los sonidos o notas, y con la
extraordinaria capacidad del aparato auditivo para captar estas
propiedades bajo una forma sintética y cualitativa. Tanto los grupos de

70
intervalos como las escalas, melodías, acordes o estructuras polifónicas,
constituyen, al ser proyectadas en el tiempo, figuras proporcionales, a la
vez geométricas y coloreadas. En virtud a su naturaleza matemática, las
estructuras armónicas mantienen una relación de principio con las
nociones esenciales de la realidad material —por ejemplo, con las
estructuras ondulatorias, atómicas o moleculares—.
Cada uno de estos elementos, cuya actuación independiente
configura la dimensión de su valor y alcance, se dispone simultáneamente
en una retícula de interacciones que conforma, para cada uno de ellos y
para su conjunto, una aportación al movimiento de la obra musical que
determina su asistencia formal. En definitiva, concreta cómo esos
elementos tipológicos marcan el crecimiento de la obra. Y es que la música
revela su contenido a través de la forma musical. Por ello, no existe una
distinción sonora evidente entre forma y contenido. Ambos se presentan
en una amalgama que se ofrece como configuración en el seno de
categorías estructurales. Categorías que surgen, como consecuencia de
abstracciones genéricas, a partir de la individualidad de cada obra
musical, que es específica en su singularidad pero que participa de ese
ente global que es la forma:
La configuración de una obra de arte musical, y por
ende su forma, es individual. Todas las manifestaciones
formales obedecen, en consecuencia, a la ley inmanente a la
obra, cumpliendo una función sólo válida en esa obra. El
objetivo de la teoría funcional de la forma es el de revelar
estas relaciones en el análisis de la obra de arte individual.
Sin embargo, para llegar a una terminología válida, se
requiere la abstracción de lo individual hacia lo general. Por
ello, la teoría esquemática de la forma establece modelos que
constituyen normas con las cuales puede medirse y
describirse la obra de arte individual con respecto a su
forma. (Michels, 1989: 107).
No obstante, frente al concepto tradicional de forma, que parece

71
referirse por lo visto, al menos históricamente, a un objeto cerrado, casi
arquitectónico, que define una serie de relaciones estructurales unívocas e
inmutables, el término crecimiento se refiere más a la suma del resto de
elementos conformantes del proceso musical. Hace referencia a dos
aspectos que parecen inexcusables en la música y que la forma, por sí sola,
no contempla. Por una parte, implica un «sentido de continuación
expansiva», o lo que es lo mismo, un proceso de evolución identificable y
abierto. Por otra, la «sensación paralela de ir logrando algo permanente»,
que viene a indicar el resultado mutable, mas reconocible, que va
ofreciendo la sedimentación temporal y memorizable de los
acontecimientos sonoros. Se justifica, así, que «la forma musical es la
memoria del movimiento» (LaRue, 1992: 88). Por ello, desde el plano
analítico, resulta convincente, sin perder de vista su carácter unitario,
estudiar el proceso de crecimiento desde las dos perspectivas que le
definen: la articulación estructural, es decir, la disposición relacional que
se establece entre los elementos que la conforman, y la huella, la imagen
que generan, en el oyente colectivo, esas sucesiones.

72
CAPÍTULO IV. LA INFORMÁTICA Y LA

ELECTRÓNICA AL SERVICIO DE LA MÚSICA.


La utilización de los medios electrónicos y el acaecimiento de la
edad informatizada ha supuesto una auténtica revolución en los sistemas
de producción, composición, interpretación, mediación y consumo
musical.
Las estructuras sociales y culturales se han visto sacudidas, por
completo, por las posibilidades dimanantes de las nuevas tecnologías. Tal
es así, que es difícil reconocer la auténtica dimensión del cambio que
supone dentro de los procesos creativos musicales.
La vasta capacidad de acceso, el control y la manipulación de la
información, los procedimientos de síntesis, los sistemas de grabación
digital, los recursos en red, o las posibilidades didácticas de los nuevos
soportes interactivos, han modificado, por completo, las técnicas de
representación virtual sonora, y han dibujado un inédito escenario para la
interpretación, la composición, la audición y la didáctica musical.
La característica dominante de las nuevas tecnologías es la ingente
cantidad de posibilidades que otorgan. Esa pluralidad ofrece, en el campo
musical, una gigantesca biblioteca de sonidos. La creación a través de
procedimientos de síntesis, la digitalización y el muestreo de las señales
sonoras —un mundo digital cada vez más rápido y con mayor capacidad
de almacenamiento—, ponen de manifiesto un horizonte plagado de
nuevos recursos y materiales a desarrollar.
El conocimiento musical ha explorado nuevos ámbitos y se ha visto
sacudido por la incorporación de una tecnología informática cada vez más
sofisticada. El músico contemporáneo —cada vez más, un músico
informatizado— se ha visto obligado a ampliar su perspectiva sobre el
fenómeno sonoro para convertirse en un creador multimedia. La llegada
del digital ha supuesto el verdadero salto cualitativo en todo este devenir.

73
Cierto es que la aparición de nuevos elementos que enriquecen y
amplían los medios y las posibilidades anteriores, y que permiten al
creador traspasar las fronteras estéticas de sus predecesores, es un
acontecer recurrente a lo largo de la historia de la música. De hecho, la
sucesiva incorporación de instrumentos acústicos a la orquesta tradicional,
desde las mismas voces humanas a cualquiera de las familias de
instrumentos —buscando siempre la máxima explotación de sus
posibilidades tímbricas y técnicas—, ha jerarquizado la evolución de los
lenguajes en una interinfluencia de la que no es sencillo diferenciar causa y
.
efecto Sin embargo, en el presente siglo, especialmente en su segunda
mitad, el advenimiento del ordenador y las múltiples posibilidades que
este aporta, ha evidenciado, hasta limites insospechados, la eclosión de
este fenómeno expansivo de búsqueda de nuevas metas sonoras.

4.1. ELEMENTOS DE TRABAJO.

4.1.1. Protocolos de comunicación.

4.1.1.1. La norma MIDI.


El sistema MIDI (Musical Instruments Digital Interface) es un
protocolo de comunicación diseñado a principios de los años ochenta
gracias al acuerdo de las principales compañías fabricantes de hardware y
software musical.
Este sistema permite el intercambio de información musical entre
todos aquellos dispositivos electrónicos que dispongan de un adaptador
estándar —sintetizadores, ordenadores, secuenciadores, etc.—, y
regulariza el tipo de mensajes de recepción, la modalidad de conexiones —
cables y conectores—, los canales y el modo de transmisión entre dichos
dispositivos. El grado de cumplimiento de la norma, para cada aparato,
queda reflejado en una lista de especificaciones.
Los mensajes MIDI —compuestos por bits agrupados en bytes— se
estructuran en secuencias de bytes de estado —reflejan una acción musical

74
específica: dar o soltar una nota, variación de intensidad, etc.— seguidas
de bytes de datos —aportan información complementaria: la nota tocada
es un G4, la variación de intensidad es de 40 o 68, etc.—.
Los mensajes pueden ser de dos tipos:
• De canal: responden a una dirección concreta —un canal MIDI
específico—, y pueden ser de voz y de modo.
o Entre los de voz se encuentran: nota activada —note
on, key velocity, runnig status—, postpulsación —
aftertouch— nota desactivada —note off—, alteración
de altura —pitch bend—, cambio de programa,
mensajes controladores —continuos, binarios—.
o Entre los de modo están: control local, all notes off,
modo de recepción —omni off, omni on, poly off, poly
on—.
• De sistema: están dirigidos al equipo receptor de forma global.
Pueden ser:
o Comunes: song position pointer —indicador de
situación en la secuencia—, song select —selección de
una secuencia en memoria—, tune request —
calibración de afinación—.
o Tiempo real: empezar, parar, continuar, reloj MIDI,
comprobación de conexión, restablecimiento de
sistema —system reset—.
o Exclusivos: trasmiten información particular de cada
equipo: estructura, gestión, ubicación de memorias,
etc.
La norma no se conserva, actualmente, en su disposición original.
La demanda impuesta por las crecientes necesidades de la industria ha
dado origen a diferentes ampliaciones del MIDI. Las más significativas,
por su trascendencia, son:
• Standard MIDI Files (SMF): declara un estándar de
almacenamiento de los datos en los sistemas informáticos.

75
• MIDI Sample Dump (MSD): regula el intercambio de muestras —
samples—.
• MIDI Time Code (MTC): sistema de sincronización.
• General MIDI (GM): especifica un estándar de sonidos para
todos los sintetizadores.
• MIDI Machine Control (MMC): regula los mensajes encargados
de la gestión y control de equipamientos externos de registro.
• MIDI Show Control (MSC): conjunto de normas para el control de
dispositivos luminosos, etc.
• MLAN: Sistema impulsado por la casa Yamaha y que parece va
a convertirse en el sustituto del MIDI. Supone un paso más allá
que este por cuanto no es sólo un protocolo musical. Permite la
comunicación entre todos los equipos SCSI y de audio además
de los dispositivos MIDI, a través de un único cable. Su
implantación producirá un avance radical en el futuro del
Multimedia.
Por entrar sólo en uno de sus ámbitos, el sistema de canales MIDI
—ver multitimbricidad— permite realizar operaciones de enorme
complejidad de una forma realmente sencilla. Por ejemplo, tocar sucesiva
o simultáneamente distintos instrumentos de un sintetizador , o de varios,
desde un único controlador, o tocar desde varios controladores uno o
varios sintetizadores simultánea o sucesivamente, o cualquier otra
combinación con tan solo estos elementos.

4.1.1.2. Códigos de sincronía


La utilidad de los códigos de sincronía radica en su capacidad para
acompasar el funcionamiento de varios mecanismos de
registro/reproducción, ya se trate de sistemas MIDI, magnetofones,
magnetoscopios, etc.
Cuando es preciso trabajar con más de uno, es imprescindible que
alguno de ellos ordene, de alguna manera, la secuencia de mensajes y
órdenes, tanto de forma simultánea como diacrónica, de tal forma que

76
todos respondan a la vez ante los diferentes mensajes que reciban. El
mecanismo desde el que es emitido el código de sincronía recibe el nombre
de maestro; el resto de los dispositivos, que atienden a las indicaciones de
este, son conocidos como esclavos.
En la actualidad, los posibles sistemas de sincronía se fundamentan
en tres métodos operativos distintos:
1) Reloj de pulso MIDI: Es el más elemental y se utiliza, principalmente,
para sincronizar mecanismos MIDI entre sí. Permite, exclusivamente,
generar una referencia temporal en compases y pulsos.
2) Reloj FSK: Permite la sincronía de dispositivos MIDI con sistemas de
grabación magnéticos. Se fundamenta en el registro inducido de un
tono de sincronía —variaciones frecuenciales— que codifica los pulsos
del reloj MIDI. El SmartFSK es un desarrollo evolucionado de este
sistema.
3) MTC (Midi Time Code) y SMPTE (Society of Motion Picture and Television
Engineers): Se trata de los sistemas de sincronía utilizados en el ámbito
profesional, tanto para audio como para vídeo. Todos los eventos
MIDI, así como los registros analógicos o digitales, están asociados a
una dirección SMPTE. El reloj SMPTE contiene información de las
horas, minutos, segundos y fotogramas. Hay diferentes posibilidades,
según la tasa de fotogramas de referencia: 30 fps, 29,97 fps —en ambos
casos, con dos modalidades, non—drop y drop frame—, 25 fps y 24 fps —
cine—.

4.1.2. Equipos.

4.1.2.1. Ordenadores personales.


Dentro del progreso de las computadoras, la aparición de los
ordenadores personales —cuarta generación: circuitos integrados, el
“chip” de silicio, etc.— ha permitido socializar el uso de estos e integrarlos
en casi todas las actividades humanas; de forma señalada, en el ámbito de
la creación. El desarrollo de la Informática —disciplina que estudia el

77
procesamiento automático de la información— ha dado en crear toda una
suerte de aplicaciones “domésticas” —de fácil manejo y bajo coste— que
han motivado conceptos tan turbadores como “cultura computacional” o
“inteligencia artificial”, que, en el fondo, anuncian un proceso de auténtica
revolución en las relaciones hombre—máquina y creador—creación.
Un ordenador es una máquina cuya función es el tratamiento de
información de forma rápida, eficaz y versátil. La información procesada
puede ser de cualquier naturaleza —gráfica, sonora, etc.— pues el
procedimiento fundamental para su tratamiento es una codificación
binaria, o sistema de numeración de base dos, que permite la
representación de cualquier número decimal.
Actualmente, se pueden encontrar en el mercado tres plataformas
distintas de ordenadores personales:
• IBM y compatibles,
• Macintosh de Apple, y
• Atari.
Todos ellos se componen de:
• Hardware: Sistemas y mecanismos físicos que conforman la estructura
del ordenador: unidades de entrada —teclado, ratón, micro…—,
unidades de salida —pantalla, impresora…—, memorias —RAM,
ROM, EPROM…—, microprocesador, puertos —de serie y paralelos—,
ranuras de expansión, buses —de datos, de direcciones…— y la placa
principal.
• Software: Programas y datos que controlan esos sistemas: de
aplicación, de sistema operativo, de entorno de trabajo.

4.1.2.2. Instrumentos electrófonos.


Los instrumentos eléctricos o electrófonos son aquellos que
producen el sonido por medio de resonadores de corriente eléctrica y lo
irradian a través de altavoces. Su nacimiento y desarrollo se ha producido
a lo largo del siglo XX y está ligado, en cuanto a su fuente, a la electricidad,
y en cuanto a su desarrollo, a la electrónica.

78
Atendiendo a los modos de producción del sonido, se clasifican en:
• Instrumentos de producción mecánica. Las variaciones
mecánicas se transforman en eléctricas a través de fonocaptores.
Según el principio de funcionamiento pueden ser de tres tipos:
o Inductivo o electromagnético: un oscilador magnético
de hierro induce a una bobina según la tensión de
paso.
o Capacitivo o electrostático: un condensador cambia su
capacidad en función del movimiento oscilatorio de
un electrodo, bien a través de procedimientos de baja
o alta tensión.
o Electroóptico: la incidencia variable de un haz de luz
en una célula fotoeléctrica provoca diferencias de
tensión eléctrica.
• Instrumentos de producción electrónica. Un generador, o una
serie de estos, produce, directamente, una oscilación eléctrica.
Según la construcción del generador pueden ser de tres tipos:
o Baja frecuencia: puede tratarse de generadores de
válvulas o de transistores. Un circuito oscilador varía
la tensión del circuito eléctrico principal.
o Alta frecuencia o zumbadores heterodinos: se
fundamenta en la frecuencia diferencial de dos
generadores.
o Corriente alterna: una corriente alterna genera una
frecuencia que es proporcional a la altura sonora.

4.1.2.3. Sintetizadores.
Se trata de los instrumentos de producción electrónica más
extendidos. Permiten, a través de osciladores y circuitos, tanto la imitación
de la sonoridad de los instrumentos tradicionales, como la generación de
sonidos específicos y propios de ellos.

79
Los primeros sintetizadores eran analógicos, es decir, el método que
empleaban para enviar las señales de mando a sus subsistemas era
mediante el control de tensión. Casi todos los sintetizadores actuales son
digitales, controlables a través del MIDI, y sus sonidos se extraen a partir
de bancos de muestras que sufren un proceso de modificación en
diferentes aspectos sonoros: altura, timbre, amplitud, envolvente, vibrato,
trémolo, glisando, mantenimiento, portamento, etc.
Los sintetizadores digitales trabajan a partir de valores numéricos,
representados de forma binaria, que expresan estados de
presencia/ausencia de corrientes y tensiones eléctricas. En este sentido,
funcionan como los sistemas informáticos; no en vano, tienen una
estructura tan compleja que no dejan de ser ordenadores especializados.
Pueden presentarse de varias maneras:
• Módulos de sonido: se trata de sintetizadores exentos. No
disponen de un controlador específico —teclado, etc.—.
• Sintetizador con teclado: el controlador y el sintetizador se
integran en un mismo bastidor.
• Sintetizadores en tarjeta: se encuentran incluidos en tarjetas de
expansión de ordenadores. El control de parámetros se realiza,
mediante un programa, a través de la pantalla del ordenador.
Un tipo específico e híbrido de sintetizador son los muestreadores
—samplers—, pues funcionan, en parte también, como un sistema
multipista. Su enorme utilidad radica en que permiten la toma de
muestras sonoras para su posterior elaboración: modificación de la altura,
de la dinámica, de la duración, elaboración de la forma de onda, unión de
muestras, creación de bucles, etc.
Entre las numerosas características de los sintetizadores, hay dos
que tiene especial importancia a la hora de trabajar con ellos:
1. Polifonía. El termino de polifonía, aplicado a los
sintetizadores, se asemeja, en esencia, al concepto original y
tradicional del término, es decir, a la simultaneidad
conjuntada de varios sonidos. De hecho, cuando se hace

80
referencia a la polifonía de un dispositivo de síntesis lo que
se expresa no es sino su capacidad para emitir, de forma
simultánea, una determinada cantidad de sonidos. De esta
forma, una de sus características definitorias será el número
de “voces” que emite a la vez: 8, 16, 32, 64, 128, etc.
2. Multitimbricidad. La multitimbricidad de un sintetizador se
refiere a su competencia para reproducir, simultáneamente,
un número determinado de timbres o instrumentos distintos.
Cada uno de esos timbres coincidentes —que en un sistema
MIDI recibirán los datos por un canal diferenciado— es
conocido como una parte. De esta manera, se habla de
sintetizadores a 8, 16 o 32 partes, lo que supone el número
total de timbres distintos que podrá emitir de forma
conjunta.

4.1.2.4. Técnicas de síntesis.


Como se ha visto, los instrumentos electrónicos son aquellos que
generan el sonido sin necesidad de que se produzcan vibraciones
mecánicas previas, es decir, a partir de generadores eléctricos
independientes.
No obstante, la forma de producir el sonido diferencia
notablemente unos sintetizadores de otros. Este sistema de generación del
espectro armónico de un timbre es lo que se conoce como proceso de
síntesis y, hasta la fecha, se realiza siguiendo dos procedimientos distintos:
a través de una cadena de producción —un sonido base es transformado
en varias etapas de síntesis—, o por medio de la agregación de sonidos
simples.
A partir de estos procedimientos, aparecen las distintas técnicas de
síntesis cuyas diferencias son: la procedencia de los sonidos básicos, y las
etapas de transformación de estos:
• Síntesis aditiva: se produce mediante la suma de ondas
sinusoidades diferenciadas en frecuencia y amplitud. Requiere

81
un control estricto en la construcción de la serie armónica y en el
análisis de las envolventes de cada sonido.
• Síntesis sustractiva: se produce mediante el filtrado de una
onda sonora compleja. Una serie de filtros de frecuencia (VCF,
HPF, etc.) modifican la onda compleja —cuadrada, diente de
sierra, o PCM— que genera el oscilador. Es el sistema más
utilizado tanto en la síntesis analógica como en la digital.
• Síntesis no lineal (síntesis de FM): a través de la interacción de
una pequeña cantidad de ondas sinusoidales se genera toda la
serie armónica.
• Síntesis por modelos físicos: simula la estructura y el
funcionamiento de los instrumentos reales. Es el sistema más
novedoso y sus resultados son excelentes.
• Resíntesis: Se realiza a partir del análisis de los componentes de
una señal previamente sintetizada.
• Síntesis híbrida: Se realiza mediante la conjunción de varios
métodos —muestras para los ataques, y síntesis para el
mantenimiento y la caída, etc.—.

4.1.2.5. Controladores, interfaces y otros dispositivos.


Un controlador MIDI es un dispositivo que se encarga de recoger y
traducir las acciones musicales de un intérprete al lenguaje numérico
MIDI. Para ello realiza varias acciones:
1. Recibe las acciones musicales del intérprete: pulsación de
teclas, golpeo de parches, soplo, etc.
2. Convierte esas acciones mecánicas en señales eléctricas
mediante un transductor.
3. Traduce las señales eléctricas a mensajes MIDI por razón de
un proceso de codificación numérica.
Los controladores pueden aparecer bajo cualquier forma —batutas
MIDI, guantes, etc.—. No obstante, lo usual es que respondan a la forma
de los instrumentos tradicionales —teclado, controlador de viento,

82
guitarra, percusión, etc.—, si bien desprovistos de su aparato resonador.
El transvase de información entre los equipos informáticos y los
instrumentos electrónicos se realiza a través de determinados mecanismos
que se agrupan bajo el genérico término de “hardware musical”. Estos
aparatos se pueden clasificar en:
1. Interfaces MIDI: Producen y trabajan con código de tiempo
MIDI. Pueden ser sencillos —su utilidad es exclusivamente
musical— o incorporar sincronismo SMPTE/EBU para
trabajar en sistemas de producción audio-vídeo.
2. Dispositivos para grabación de audio a disco duro: Se trata
de conversores analógico-digitales que transfieren la
información electromagnética a lenguaje máquina.
Además de estos, existen otros equipos que, destinados a otras
funciones, tienen una gran utilidad en entornos de trabajo musicales. Entre
estos hay que destacar los sistemas de lectura y/o grabación óptica y
magneto-óptica como el CD-ROM, el CD-R, el DVD, etc., que hacen
posible la transferencia en lectura y registro de grandes cantidades de
información. Por otra parte, algunos dispositivos realizan labores
específicas como es el reconocimiento de voz para implementar macros,
secuencias de tareas, etc.

4.1.3. Software musical.


Las aplicaciones musicales son, básicamente, de tres tipos:
• Programas especializados: tienen un uso profesional,
esencialmente en el ámbito de la composición y la
interpretación.
• Programas didácticos: destinados a procesos educativos.
• Programas interactivos: desarrollos de entretenimiento y
divulgación.

4.1.3.1. Programas especializados.

83
4.1.3.1.1. Secuenciadores.
La gran baza de los programas secuenciadores es su versatilidad. Su
constante desarrollo ofrece, cada día, nuevas posibilidades a los
compositores. Además de servir como un sistema virtual de grabación
multipista, tanto para MIDI como para audio, o como un notable editor de
partituras, le permite utilizar los sistemas de sincronismo, no sólo para
coordinar los diferentes instrumentos musicales, sino para trabajar
también bajo una sincronía absoluta entre música e imagen.
Atendiendo a su disposición física, los secuenciadores se presentan
de tres formas distintas:
• Incorporados a sintetizadores —sin teclado o con él
(workstation)—.
• Autónomos —en su propio chasis—.
• Como software para ordenadores.
Los de este último tipo son los más usados, tanto por su comodidad
como por la facilidad de control que permiten. De este tipo son Logic,
Cubase, Performer, Vision, Cakewalk Profesional, y un largo etcétera.
Cualquiera de ellos puede ser gobernado, a través de un adaptador o
interface MIDI, mediante controladores de distinto tipo: teclados —que
suelen ser los más usuales—, guitarras, instrumentos de viento, de
percusión, etc.
Actualmente muchos de estos programas, en su versión profesional,
son, además, auténticos gestores globales de datos MIDI. Soportan la
administración de audio digital, la elaboración de partituras, la
composición interactiva, la programación MIDI, o la gestión y elaboración
de datos para sintetizadores.
Más modestos son los secuenciadores para iniciados y para el
entorno amateur. Disponen de las funciones MIDI básicas. Están en este
grupo: MusicShop, DeluxeMusic, Metro, Winjamer Pro y Studio for windows.

4.1.3.1.2. Editores de partituras.


Aunque casi todos los secuenciadores incorporan funciones de

84
edición de partituras, existen algunos programas especializados que se
dedican de forma concreta a esas funciones, y que, por sus características y
prestaciones, resultan más útiles para algunas aplicaciones profesionales.
Entre estas opciones adicionales se encuentran:
• Creación de grafías contemporáneas y personalizadas.
• Control sobre la definición de parámetros.
• Transferencia de ficheros a través de formatos de imagen —EPS,
PICT, TIFF, JPEG—.
• Definición e interpretación de parámetros MIDI excepcionales,
etc.
Entre las aplicaciones profesionales destacan Finale, Encore, Sibelius
y entre las amateur, Laser Music Processor, Music Time y Mosaic.

4.1.3.1.3. Editores, gestores de datos y librerías de sonidos.


Los gestores y elaboradores de datos para sintetizadores, como
GenPatch, Voyetra, y Galaxy Plus Editors, entre otros, o los gestores MIDI
como MIDI Quest, Max, son programas que permiten el intercambio de
datos, la elaboración y gestión de toda la información y parámetros de los
sintetizadores desde el ordenador. Se tiene así control directo sobre los
parámetros DCO, DCF, DCA, panorámico, sección de efectos, atenuación,
modulación, etc. Proporcionan la posibilidad de manipular las formas de
ondas en sus diferentes fases —ataque, mantenimiento, caída y escape—
en un entorno informático, tanto para muestras sintetizadas como para
muestras de audio.
La ventaja de estos es que, a través de la pantalla del ordenador, se
puede trabajar de forma más fácil e intuitiva en la localización y
generación de los sonidos sintetizados, en cualquiera de los sintetizadores
que hay en el mercado. Igualmente, es posible acceder, fácilmente y con un
gasto mínimo, a enormes bancos de sonidos disponibles en librerías
universales.
Los editores-librería de muestras de audio ofrecen diferentes
opciones, en parte semejantes a los anteriores: edición de las muestras,

85
visualización del espectro armónico, transferencia entre distintas marcas,
grabación digital, recreación al infinito de cualquier sonido registrado, etc.

4.1.3.1.4. Producción audio/vídeo.


La rápida evolución del mercado audiovisual ha provocado un
aumento importante en el número de producciones que se realizan. Este
crecimiento de la demanda ha supuesto también una progresión en la
producción y uso del software musical que permite, a bajo coste, disponer
de bandas sonoras de cierta calidad. En este sentido, uno de los retos más
urgentes para la industria ha sido el hallazgo de un sistema de sincronía
que liberase al compositor de su mecánica y que, al tiempo, permitiese un
ajuste de extrema precisión en el montaje de las secuencias musicales. La
aparición del SMPTE/EBU ha resuelto satisfactoriamente este problema.
Aunque en un principio fueron los programas de producción
audio/vídeo quienes trabajaron bajo este código de sincronía, lo cierto es
que, hoy por hoy, la mayoría del software y hardware musical profesional lo
hace. Este tipo de programas permiten asignar y situar música o efectos a
puntos concretos de una secuencia de imágenes, modificar tiempos,
compases y velocidades, introducir marcas y puntos de localización en
tiempo real, y todo ello con una precisión de fotograma.

4.1.3.2. Programas didácticos y juegos educativos.


El número de aplicaciones didácticas de carácter musical que ven la
luz, bien en formato de CD—ROM o CD—XA interactivo, bien en formato
secuencial, es extraordinario. Estas aplicaciones abarcan campos
educativos en casi todos los ámbitos de conocimiento musical, si bien, por
lo pronto, salvo sorprendentes excepciones, se circunscriben a niveles de
aprendizaje elementales o divulgativos.
Los programas pueden ser de diferentes tipos:
• Educación auditiva, como Play it by Ear, Práctica Música, o Claire,
que sirven tanto para mejorar el reconocimiento e identificación
de alturas y notas, como el de los intervalos, acordes y escalas.

86
• Enseñanza de solfeo, lectura musical y teoría de la música, a
través de ejercicios mnemotécnicos, de coordinación entre
ejecución y lectura, de memorización/improvisación de
secuencias, etc. Ejemplos de este tipo son Euterpe, Hear Master,
The musical world of prodesor piccollo o Allie’s Playhouse.
• Composición interactiva, como Band—in a Box, Jam session,
Power Chords o MiBAC JAZZ, que permiten generar secuencias
completas mediante el uso de patrones rítmico—melódicos o
estructuras armónicas preestablecidas sobre las que desarrollan
el resto de parámetros musicales,
• Análisis musical, mediante el acceso a bancos de ficheros MIDI
de todos los estilos y épocas que permiten la reproducción
selectiva de instrumentos o familias, el acceso sucesivo a los
diferentes elementos constitutivos de la obra —sonido, armonía,
melodía, ritmo y crecimiento—, etc.
• Ayuda a la interpretación o a la resolución de problemas y
dificultades técnicas, a través de ejercicios de dificultad
progresiva, o por medio del acompañamiento virtual de un
conjunto instrumental de variada composición. Entre estos se
encuentran Noteplay y Soloist.
Los juegos didácticos son programas interactivos que asemejan su
interfaz gráfica a la de los juegos lúdicos de ordenador o de consola. El
planteamiento del programa está muy ligado al nivel al que se dirige, y al
tipo de jugador interactivo que busca. En función de esta característica
pueden ser:
• De itinerario. Tienen carácter enciclopédico. Realizan un
recorrido secuencial, variable o aleatorio por un determinado
contenido o cruce de estos: instrumentos, épocas, compositores,
estilos…. Un ejemplo es Los instrumentos musicales.
• De elaboración/estrategia. Presentan objetivos o fines a lograr
durante la “partida”: reconocimiento, localización, construcción

87
o grabación de una pieza, etc. Por ejemplo, Ya soy compositor.

4.2. APLICACIONES DE LA INFORMÁTICA Y LA

ELECTRÓNICA MUSICAL.
Como venimos señalando, la incorporación de la nuevas
tecnologías de la información y la comunicación en el ámbito musical han
manifestado un cambio evolutivo e incesante en muchos de los procesos y
productos relacionados con el fenómeno musical. Las posibilidades que
ofrecen en el campo de la interpretación, de la composición, de la didáctica
y la educación, o de la audición son numerosísimas.

4.2.1. Interpretación.
La progresiva incorporación —vertiginosa en los últimos tiempos—
de instrumentos y dispositivos electrónicos ha sido uno de los supuestos
sobre los que se han fundamentado algunas de las corrientes estéticas del
siglo XX. Esto, que es evidente en la música popular, no lo es menos en el
campo de la música “culta”.
Junto a la incorporación definitiva e integradora de los
instrumentos de percusión, una de las grandes innovaciones de las
formaciones instrumentales orquestales y camerísticas del siglo XX es el
aditamento de los electrófonos y de elementos de interpretación mediada
como la cinta ferromagnética, las secuencias digitales, etc. Estos últimos
han introducido cambios significativos en los roles de producción,
interpretación y ejecución:
• Aparece un nuevo componente en la realización sonora que
es la realización previa, en su esencia, de la parte del
discurso sonoro que les corresponde en el conjunto.
• Se diluye la frontera entre intérprete e ingeniero de sonido.
El técnico de sonido asume, en algunos casos, el papel de
ejecutante de estos instrumentos.
• Aparición de nuevos tipos de creadores /intérpretes —Vg.

88
los DJ´s— que gestionan sus textos a partir de la
deconstrucción/reconstrucción de obras y elementos
previos.
• Consecuentemente, problemática del derecho de autor —por
ejemplo el Hip-hop, con el valor de la autoría como
mercancía de cambio y venta en la sociedad postindustrial—.
• Integración de las actividades compositiva e interpretativa.
En este sentido, las investigaciones realizadas entorno al
concepto de los hiperinstrumentos se encaminan hacia la
integración global de las actividades musicales creativas, a
través de una estética de expresión plurisensorial. Estas
investigaciones —desarrollos de Tod Machover (Hipercello,
hiperviolín), la radiobatuta de Max Mathews (procedimiento
de control gestual de un sistema técnico avanzado de
procesamiento musical), el Lightning de Don Buchla (se trata
de un mecanismo que transforma el movimiento de las
manos del ejecutante en información MIDI, a través de un
transmisor de infrarrojos), o la línea de investigación de los
técnicos del IRCAM— se concentran en generar
instrumentos que permitan recoger, de manera casi
ilimitada, las capacidades expresivas del intérprete,
transformando en música parámetros físicos que hasta ahora
se hallaban fuera del alcance sensorial de esta sustancia
expresiva.
• Nace el instrumento de transferencia de la voz: el micrófono.
Estimación de su valor como herramienta. Aparición de una
técnica microfónica para los cantantes —fundamentalmente
en la música popular—.
• La grabación saca a la música, y a sus oyentes, de la tiranía
de la escritura, de la notación gráfica. El registro duradero
otorga la contingencia de guardar elementos musicales
irrepetibles, que nacen y mueren con cada interpretación,

89
como, por ejemplo, las improvisaciones, ciertas expresiones
que pertenecen a la interpretación y no tanto a la
composición, etc. Es decir, revela, aún más, el carácter
creador del intérprete. De esta manera la música sale
virtualmente de los dominios de la representación para
quedar asimilada a otras artes de lectura inmediata como la
pintura o la escultura.
Entre las aplicaciones que tiene la informática y la electrónica en el
campo de la interpretación se puede hacer una primera distinción:
• Aportaciones que realiza a la interpretación como acto final
de mediación/realización de la obra, y
• Aportaciones que hace respecto a la interpretación como
aprendizaje —lo que está estrechamente relacionado con sus
aplicaciones didácticas—.
Una segunda diferenciación declara su valor en:
• Interpretación en directo.
• La interpretación en grabación.
Tanto en unos casos como en otros, su utilidad se manifiesta de los
siguientes modos:
• Utilización de instrumentos electrónicos y eléctricos.
• Realizar grabaciones de las ejecuciones como sistema de
control de las mismas, etc.
• Registro mediado y diferido en las grabaciones multipistas.
• Interpretaciones “ralentizadas”.
• Posibilidad de estudiar con un acompañamiento
instrumental sin la necesidad de la presencia de otros
intérpretes.
• Practicar y repentizar un estudio ajustando la interpretación
a las necesidades y posibilidades técnicas de cada momento.
• Aprovechamiento de las posibilidades del MIDI:
o Separación entre interpretación y generación del

90
sonido.
o Politimbricidad a partir de cualquier instrumento,
o Utilización de correctores técnicos a tiempo real o
diferido —cuantizaciones, nivelación de intensidades,
expresiones irregulares…—,
o Uso del arco estéreo y control sobre la imagen espacial
de este,
o Programación de las acciones del intérprete sobre el
sonido: control de características interpretativas desde
acciones distintas.
o Interacción multimedia —imagen fija, vídeo,
animación, texto, audio, MIDI, etc, — con
instrumentos y dispositivos virtuales.

4.2.2. Composición.
Las posibilidades expresivas directamente relacionadas con la
aparición de la electrónica y la informática han provocado una auténtica
revolución en los mecanismos de elaboración musical. El compositor
actual no puede eludir el peso y la importancia de las nuevas tecnologías
como instrumentos esenciales de la creatividad. Las novedades técnicas,
unidas a la aplicación del pensamiento científico para la formulación y
estructuración de ideas musicales, constituyen para el compositor
contemporáneo no sólo una alternativa, sino una realidad inevitable.
Pero estas tecnologías no solo depositan en manos del compositor
un dilatado vademécum de posibilidades, sino que, en cierta medida, ponen
en tela de juicio el concepto mismo de creación. Es por ello que, frente a la
emoción e interés que despiertan, no es menos la extrema cautela que se
mantiene ante los fenómenos sonoros que su uso puede originar.
Estos nuevos medios han cambiado el espectro de la composición
en múltiples aspectos. Sus posibilidades se pueden concretar en la
siguiente enumeración:
• Multiplicidad de timbres, dinámicas, registros, etc., vetados a

91
los recursos de los instrumentos tradicionales, y que ahora se
pueden generar a través de los sintetizadores y los
muestreadores. Utilización de vastas paletas de colores.
• Transformación "ilimitada" del sonido.
• Pluralidad en el uso de los temperamentos.
• Posibilidad de componer cualquier tipo de obra y oírla
simultáneamente, sin otra limitación en número de
instrumentos, timbres, etc. que las propias del sistema con el
que se trabaje.
• Impresión de partituras con calidad profesional de imprenta.
• Servicios musicales y creación por Red.
• Entornos de trabajos especialmente cómodos y sencillos:
• Tradicionales: partitura.
• Intuitivos: lista de teclado, matrices, hipereditores, etc.
• Numéricos —listas de edición, transformadores, editores
lógicos, etc—.
• Utilización del espacio como parámetro sonoro. Generación
de espacios integrales e interactivos gracias a los
procesadores de señal.
• Reinterpretación de la mediación y función interpretativa.
“Precisión cibernética”.
• Socialización de los sistemas de creación Multimedia.
• Uso de los recursos de los instrumentos informáticos:
unidades de gran almacenamiento —DVD—.

4.2.3. Audición.
El alcance de la informática y la electrónica en el terreno de la
audición ha producido notables cambios de carácter social y técnico en el
consumo de la música a lo largo de este siglo:
• Mejorar los sistemas de registro y reproducción, socializando,
con ello, la presencia de la música a gran escala, para un público

92
mayoritario.
• Pluralizar el consumo musical a través de su ubicua
omnipresencia en los Medios de comunicación de masas: radio,
televisión, transmisiones por satélite, redes —Internet—, etc.
• Diluir el límite entre el creador y el oyente. El Home studio se
manifiesta como taller de experimentación no profesional.
• Crear una nueva cultura de la audición. La constante mejora en
la calidad de los soportes y métodos de grabación ha dado
origen a una calidad de escucha “perfecta”, ilusoria en muchos
casos. La técnica de grabación —motivado, en buena parte, por
los trabajos de los músicos del rock, el pop, etc.— no tiende a
representar la escucha en directo, sino que subvierte ese papel
del directo para crear un nuevo espacio sonoro donde se
generan estructuras musicales que son impracticables desde la
inmediatez del directo.
La aparición de procesadores de señal, como los sistemas Dolby,
AC-3 Digital, o Musicam 5.1., ha ampliado el concepto de HIFI para dar
paso a una nueva concepción de la experiencia auditiva que incluye
avances significativos en recreación de espacios virtuales o sonido 3D
generado mediante programas “inteligentes”.
Las investigaciones que se vienen desarrollando trabajan sobre la
generación de “huellas auditivas” —HRTF’s— que son procesadas y
modificadas por sistemas de gran potencia, como el Convolvotron o el
Virtual Audio Processing System, para crear verdaderos efectos sonoros
tridimensionales. La plasticidad de estos sistemas permite la selección
discriminativa sensorial conocida como “efecto cocktail party” y que
permite extraer, mediante la atención, un plano sonoro de entre un
conjunto combinado de estos —esto es especialmente difícil en un sistema
estereofónico e imposible en uno monofónico—.
En el dominio puramente musical, estos efectos permiten
desplazamientos por entornos auditivos en los que, por ejemplo, el espacio
corresponde a una sala de conciertos por la que es posible acercarse a cada

93
familia de la orquesta como si de un espacio real se tratase, pues la
sensación sonora es equivalente a esta. En otra esfera, como es la
evaluación acústica de proyectos arquitectónicos de salas de conciertos, a
través de la generación virtual del espacio de la sala, es posible
desplazarse por ella para comprobar cómo varían las condiciones acústicas
en función de la situación, del aforo de la sala, de las formaciones
ejecutantes, etc.

4.2.4. Didáctica y Educación.


La presencia del ordenador en la educación y la didáctica está
modificando, lenta pero progresivamente, los modelos y dinámicas
educativas, así como las relaciones de aprendizaje/conocimiento entre
docentes y discentes.
Sus utilidades abarcan desde la ayuda al profesor, a su servicio
como sistema de autoaprendizaje —fundamentalmente en programas
destinados a adultos—. Entre esas dos posibilidades se abre un extenso
abanico que incluye:
• Competencia para diseñar una enseñanza individualizada
que atienda a la diversidad de cada alumno/a en función de
sus necesidades.
• Presentación de modelos atractivos de enseñanza que se
fundamenten en la interactividad.
• Proposición de tareas, ejercicios y creaciones en función del
grado de consecución de objetivos.
• Sistemas de control dinámico del progreso en el proceso de
aprendizaje a través de métodos de autoevaluación del
alumno/a.
Por su parte, la rápida evolución de la comunicación por red
permite, en el ámbito educativo:
• Realizar transmisiones de datos a través de módem entre
entidades educativas, centros o estudios de trabajo que se

94
encuentran a grandes distancias.
• Creación de bases de datos de contenidos variados: gestión
de ficheros MIDI —a través de los Standards MIDI Files
(SMF)—, gestión de ficheros audio —en formatos MPEG2 y
MPEG3—, administración de librerías, informaciones lecto-
escritas, ficheros multimedia, etc.
• Mantener foros abiertos de debate e intercambio de
información directa o mediada a través de Chats, etc.
• Recibir e impartir clases virtuales desde lugares
geográficamente distantes.
Los programas destinados a la educación están diseñados para
niveles muy diferentes que tratan de cubrir las distintas etapas educativas.
No obstante, los más numerosos son programas de iniciación basados en
tareas reiterativas y en procedimientos de repetición de modelos, y
atienden, como es lógico, contenidos muy generales. En algunos casos, su
presentación se asemeja notablemente a la dinámica de los vídeojuegos.
En estrecho contacto con la didáctica, aparece el campo del
entretenimiento formativo. En este campo, la informática ha dado origen,
por ejemplo, a:
• Vídeos musicales interactivos, a través de los cuales, como si de
cualquier otro juego se tratase, el “jugador interactivo” se convierte
en el intérprete virtual de su música preferida. A través de estas
simulaciones, se desarrollan destrezas o se recorren contenidos de
probado valor pedagógico.
• Proyectos de realidad virtual. Entre los ejemplos más notables cabe
destacar los que viene desarrollando, entre otros, Thomas Dolby en
colaboración con Eric Gullichsen y la fundación IDEA. Por ejemplo,
el programa The Virtual String Cuartet, permite, mediante el uso de
gafas y guantes de datos, introducirse en un entorno virtual de
sonido tridimensional interactivo en el que se asiste a la
interpretación digitalizada de una conocida pieza clásica, y cuya

95
situación puede ser alterada o modificada —solicitar otra
interpretación, hacer que improvisen los músicos, etc.— a gusto del
espectador de forma sencilla, rápida y sorprendente.

96
CAPÍTULO V. EVOLUCIÓN DE LAS TÉCNICAS
DE GRABACIÓN Y REPRODUCCIÓN DEL

SONIDO.
A pesar del breve periodo que cubre la historia de los
procedimientos y técnicas de registro y reproducción del sonido, su
capacidad para contribuir decisivamente en la transformación de los
hábitos y costumbres de la sociedad en tantos ámbitos —entretenimiento,
cultura, educación, economía, etc.— hace imprescindible su conocimiento
evolutivo.
Desde que a finales del siglo XIX se diesen los pasos definitivos
para registrar permanentemente los sonidos, y con ellos la música, la
técnica ha generado novedades de forma continua, en una línea que ha
pretendido la mejora en las condiciones de audibilidad, legibilidad y
fidelidad de los registros grabados y reproducidos.
Tales mejoras se han definido a través de los diferentes sistemas de
registro, que contemplan la evolución del sonido monofónico al
estereofónico y, posteriormente, al multicanal, así como del sonido
analógico al digital.
En los epígrafes siguientes se aborda, en primer lugar, el
conocimiento básico de los elementos de las cadenas de grabación y
reproducción sonora. A continuación, se realiza un recorrido histórico por
cada uno de los principales sistemas desarrollados, contextualizando el
nacimiento y características novedosas de cada uno de ellos.

5.1. REGISTRO Y REPRODUCCIÓN SONORA.


La Electroacústica engloba todas aquellas técnicas que posibilitan la
conservación y reproducción de los sonidos en un tiempo y espacio
distintos de los originales. Esencialmente, estas técnicas son:

97
• Técnicas de grabación del sonido: grabación de las
vibraciones acústicas. El registro sonoro supone la
cristalización y conservación de una entidad sonora, de
forma material, en un soporte, de duración limitada, que
actúa como memoria.
• Técnicas de lectura o reproducción: reproducen las ondas
registradas previamente. El posterior acceso a esa memoria
permite recuperar y reproducir el sonido registrado con un
índice de fidelidad, a la forma sonora original, considerado
como aceptable.
Los elementos tecnológicos que componen la cadena de
grabación/reproducción son numerosos y variados en función del sistema
de registro o lectura. No obstante, se mantienen las posiciones de
funcionalidad en el seno de la serie. Un tipo básico puede verse
representado en el siguiente esquema:
(Fig. 8 Cadena de grabación/reproducción)

A lo largo de su desarrollo, los mecanismos utilizados para el


registro sonoro han sido, básicamente, de tres tipos:
1. Procedimiento mecánico: una vibración de origen mecánico
traza un surco sobre un soporte maleable: fonógrafo.
2. Procedimiento eléctrico: las ondas de presión sonora son
convertidas en señales eléctricas. Estas producen variaciones
de imantación en una cinta magnética: magnetófono.
3. Procedimiento óptico: las ondas de presión sonora son
convertidas y registradas como variaciones de opacidad
luminosa en un soporte óptico: sonido en el cine, soportes
digitales ópticos, etc.

98
5.2. COMPONENTES DE LA CADENA: NOCIONES BÁSICAS.

5.2.1. Cadena de grabación.

6.2.1.1. Micrófonos.
Los micrófonos son transductores que transforman la energía
acústica en energía eléctrica. Se clasifican, fundamentalmente, bajo dos
criterios: el principio de funcionamiento, y la respuesta direccional, es
decir, la magnitud de salida en función del ángulo de incidencia del
micrófono con respecto al sonido.
Atendiendo al principio de funcionamiento se pueden catalogar
cuatro tipos:
• Dinámicos o de bobina móvil;
• De cinta;
• De carbón; y
• De condensador o de efecto capacitivo.
En función de su diagrama polar y de la respuesta direccional se
clasifican en:
• Omnidireccionales;
• Bidireccionales en forma de ocho;
• Cardiodes o unidireccionales;
• Hipercardioides;
• De respuesta selectiva.

6.2.1.2. Consolas.
Las consolas, mezcladores o mesas de mezcla son aparatos, más
o menos complejos, cuya función principal es recibir varias señales de
entrada, combinarlas, distribuirlas y ofrecer, en su salida, una única
señal —dos en estéreo— suma de las anteriores.
Además de esta función prioritaria pueden cumplir otras:
proporcionar alimentación fantasma para micrófonos de condensador,

99
controlar la imagen estéreo mediante los controles panorámicos, filtrar,
ecualizar y encaminar las señales, o regular el monitorado —escucha
selectiva de las fuentes de la señal para los técnicos, músicos, etc.—.
Independientemente de su complejidad, la estructura básica de
un mezclador se compone de una sección de entrada y otra de salida.
Las posibilidades, no obstante, pueden ser las siguientes:
• Sección de entrada, con número determinado de canales —
cuatro, ocho, dieciséis, etc.—;
• Sección de encaminamiento;
• Sección de dinámica;
• Sección de ecualización;
• Controles de mezcla, de canal y envíos auxiliares;
• Sección de controles generales; y
• Sección de salida.
Las consolas pueden, además, disponer de un sistema de
registro propio —como los portaestudios o los sistemas de gestión
directa a disco— o bien pueden enviar la señal a grabadores
independientes cuyas características son muy variables.

6.2.1.3. Unidades de tratamiento.


Las unidades de tratamiento o procesado de la señal son
dispositivos que permiten alterar y modificar creativamente las
condiciones de los sonidos registrados por medio de mecanismos
realmente complejos. Se clasifican dentro de cuatro categorías:
procesadores de espectro, de tiempo, de amplitud y de ruido.
Procesadores de espectro: Influyen en el balance espectral de una
señal. Son:
• Ecualizadores: Filtros activos cuya utilidad es la alteración de
la respuesta de frecuencia para mejorar el espectro de la
señal por ámbitos de frecuencia. En función del grado de
control que tienen sobre las zonas sobre las que actúan
pueden ser:

100
o Paramétricos: pueden modificar tanto el nivel, como la
frecuencia central y el ancho de banda.
o Semiparamétricos: no disponen de control sobre el
ancho de banda.
o De frecuencia fija: se conocen como ecualizadores
gráficos. Solo pueden actuar sobre la frecuencia
concreta de cada potenciómetro.
o Paragráficos: tiene los controles deslizantes de un
ecualizador gráfico pero con el grado de control de un
paramétrico.
• Filtros: Se trata de un tamiz que atenúa determinadas bandas
de frecuencia en rangos muy definidos en frecuencia y
amplitud. Pueden ser: pasaaltos, pasabajos, pasabanda y
filtros notch (filtros de corrección).
• Procesadores psicoacústicos (excitadores o enfatizadores aurales): A
través de un complejo proceso de síntesis armónica, añaden
señales de alta frecuencia a la original —algunos
procesadores incluyen también generadores de
subarmónicos para las bajas—. Su función es dar más
claridad y contundencia a la mezcla definitiva.
Procesadores de tiempo de señal: Controlan la relación temporal
de las señales. Son:
• Reverberación: Simulan el efecto natural de reflexión acústica
que se produce, de forma muy acusada, en algunos espacios
y recintos. Las unidades digitales más modernas permiten
ajustar el tipo de estancia, el predelay (tiempo que transcurre
desde que se emite el sonido hasta la primera reflexión), el
tiempo de reverberación y el sentido del efecto.
• Unidades de retardo: Unen a la señal original una o varias
copias de esta, que suenan ligeramente desplazadas en el
tiempo. Además del tiempo de retardo, se pueden configurar
varios efectos a través de la modulación —flanging, chorus,

101
etc.—, o de la retroalimentación —feedback—.
• Variador de tono: permite modificar el tono de una señal. Se
utiliza para corregir problemas de desafinación, cambiar la
longitud de una onda sin variar el tono o viceversa, etc.
Procesadores de amplitud: Afectan al margen dinámico de la señal:
• Compresores: Su función es “ajustar” la señal de entrada
dentro del margen dinámico disponible hasta el punto de
saturación, siendo especialmente importantes en los sistemas
de grabación digital.
• Limitadores: Tienen una relación de compresión muy alta que
limita la salida de intensidad a un nivel determinado.
• Expansores: Produce el efecto contrario del compresor.
Procesadores de ruido: Reducen el ruido asociado a la grabación y
su tratamiento:
• Puertas de ruido: Es un mecanismo reductor de un solo
extremo que limita el paso de la señal de entrada por debajo
del umbral estimado de ruido.
• Reductores de ruido: Se trata de aparatos conocidos como
compansores porque realizan una reducción de ruido de
doble extremo (compresión/expansión). Los más usuales son
el Dolby el dbx.
• Reductores DSP: Los procesadores de señal digital incluyen
sistemas de edición en disco duro que permiten un control y
reducción exhaustiva del ruido: eliminación de chasquidos,
ruidos labiales, ruidos sordos, etc.
• Reductores de sibilancia: Se trata de unos filtros específicos
para la voz humana cuya función es purgar controladamente
la banda de frecuencias de las consonantes s, f y z.
Otros dispositivos de efectos, menos usuales, son los Vocoders, los
distorsionadores y saturadores, los armonizadores o los moduladores en
anillo. En la actualidad es posible encontrar todos ellos reunidos en

102
unidades digitales multiefectos, que permiten encadenarlos en secuencias
complejas, o bien en los sistemas de grabación multipista a disco, por
medio de unidades de tratamiento interno —como plugins específicos de
software—.

5.2.2. Cadena de reproducción.

6.2.2.1. Reproductores.
Son todos aquellos dispositivos encargados de reproducir el sonido
previamente registrado en un soporte.
Los reproductores son la otra cara del grabador. Es habitual, en la
mayor parte de los sistemas de grabación, que primero se comercialicen
los reproductores y luego, una vez se abaratan los costes del sistema y de
los soportes, aparezcan máquinas que integren ambas funciones:
grabación y reproducción.
Los reproductores más modernos permiten controles avanzados
sobre la reproducción musical. Además de disponer de toda la
información sobre la duración, ubicación, nombre, etc. de las pistas,
permiten accesos selectivos a las mismas: programaciones personales,
relectura, localización de cortes, lectura aleatoria, etc.

6.2.2.2. Amplificadores de potencia.


Los amplificadores de potencia son dispositivos encargados de
amplificar tensión mediante la conversión de niveles de línea —menos de
un voltio— en tensiones de varias decenas de voltios, con corrientes de
salida de varios amperios. Es decir, transformar la intensidad de una señal
incrementando su volumen acústico.
Las características técnicas de un amplificador definen su calidad.
Estas son, entre otras:
• Sensibilidad: el voltaje de entrada que necesita para dar su
máxima potencia;
• Potencia de salida: el nivel máximo de potencia que puede

103
desarrollar;
• Respuesta en frecuencia: límites entre los que responde por
igual a todas las frecuencias;
• Distorsión: índice de rechazo de señales no originales;
• Relación señal/ruido: medida del voltaje de ruido residual; e
• Impedancia: resistencia al flujo de la corriente eléctrica.

6.2.2.3. Altavoces.
Un altavoz es un transductor que convierte energía eléctrica en
energía acústica mediante un diafragma que envía energía en su dirección
de vibración. El altavoz realiza el proceso contrario que un micrófono.
Atendiendo a su principio de funcionamiento pueden clasificarse
en:
• Dinámicos o de bobina móvil;
• Electroestáticos;
• De panel;
• De cinta.
La necesidad de que los altavoces reproduzcan toda la gama de
frecuencias hace preciso que estos se agrupen en sistemas completos. El
más corriente es el sistema de dos vías: un altavoz de graves/medios y
otro de alta frecuencia. No obstante, son numerosos también los sistemas
de tres vías que incorporan, al anterior, un altavoz de medios.
Las características de un altavoz son similares a las de las etapas de
potencia: impedancia, sensibilidad, distorsión, respuesta en frecuencia y
potencia nominal.
Los auriculares, conocidos también como “cascos”, son un par de
altavoces de reducidas dimensiones que se sujetan a los oídos mediante
una banda de plástico o de metal. Pueden ser mono, estéreo o conmutables
entre los dos formatos. Sus características y cualidades son similares —en
respuesta en frecuencia, sensibilidad, etc.— a cualquier otro altavoz.

104
5.3. EVOLUCIÓN HISTÓRICA.

5.3.1. La grabación analógica.

6.3.1.1. Antecedentes.
Desde mediados del siglo XVIII, comenzaron a aparecer aparatos
cuya intención era registrar las improvisaciones de los intérpretes. En 1747,
el clérigo inglés Creed refiere en un discurso, ante la Royal Society de
Londres, la posibilidad de crear un aparato que registrase las
improvisaciones de los organistas. Posteriormente, a principios del siglo
XIX, el mecánico Hohlfeld preludia el sistema de cilindros con una banda
móvil de papel y teclado; y en 1863, Fenby patenta su Fonógrafo
electromagnético, el cual, a pesar de su nombre, nada tendría que ver,
técnicamente, con el ulterior invento de Edison.
Los sistemas de grabación/reproducción, tal como los conocemos y
entendemos hoy en día, surgieron como consecuencia del interés de la
ciencia acústica por comprender y estudiar el fenómeno vibratorio. Por
esta razón, todos los inventos que, desde principios del siglo XIX dieron
origen a la época de la pregrabación, dirigieron sus esfuerzos al registro
del sonido pero no a su posterior reproducción. El principio de todos estos
sistemas era similar: una aguja, asida a una membrana que vibra
simpáticamente con los sonidos producidos ante ella, impresiona una
placa que se desplaza circularmente a una velocidad determinada.
Destacan, por su importancia en el desarrollo posterior de la técnica
de grabación, dos sistemas:
• El Phonautograph, patentado por el irlandés, afincado en Francia,
E.L.Scott en 1857. Contenía ya todos los elementos del gramófono
para el registro del sonido, pero carecía de la posibilidad de
reproducir lo grabado.
• El Paléophone, desarrollado en 1877 por el francés Charles Acros.
Introduce la idea de reversibilidad, es decir, la capacidad de

105
reproducir, de volver a tocar, los registros previos contenidos en los
discos o cilindros. El Paléophone de Acros es coetáneo de los
primeros desarrollos del Fonógrafo de Edison. El principio de
funcionamiento es muy similar en ambos, pues su verdadero
hallazgo es la competencia de reproducción.

6.3.1.2. Sistema mecánico o acústico.


Aunque ambos sistemas estaban ya desarrollados diez años antes,
la falta de comercialización impide que, hasta 1887, se pueda hablar con
propiedad del inicio de la historia del sonido grabado. En ese año, el
inventor estadounidense Thomas Alva Edison, que hasta entonces
consideraba su invento con la utilidad de un mero amanuense —una
máquina de dictar para las oficinas—, registra la patente perfeccionada del
Fonógrafo (la etimología del nombre corresponde a una formación por
composición de los términos griegos Phoné —voz— y graphein —escribir—
).
Su principio de funcionamiento es la transformación de las ondas
de presión sonoras en señales codificadas y registradas mecánicamente en
la superficie de un cilindro recubierto de papel de estaño. El sonido,
recogido a través de una bocina, produce un movimiento variable sobre un
buril que describe incisiones circulares, con variaciones de presión —
diferencia de ancho y de profundidad—, sobre el soporte de registro. El
proceso de reproducción invertía esta cadena. A idéntica velocidad de
rotación, una aguja recorría el surco acuñado previamente y transfería el
movimiento mecánico en ondas de presión acústica.
Este sistema planteaba algunos problemas:
• En primer lugar, los discos registrados no servían como
matrices o planchas para sacar ediciones múltiples de las
grabaciones, por lo tanto, cada registro era un original único.
• En segundo, la calidad del soporte era bastante limitada: en
el ancho de banda que permitía, en la relación señal/ruido
del soporte, etc.

106
Parte de este problema se va a ver parcialmente resuelto
rápidamente. El 1888, el americano de origen alemán Emile Berliner
patenta el gramófono, que introduce notables mejoras en el invento de
Edison y que permite mayor capacidad de almacenamiento:
• sustituye los cilindros por discos planos;
• la estampación de la aguja deja de producirse por medio de
un movimiento perpendicular, para realizarse mediante un
desplazamiento horizontal que forma impresiones laterales;
• introduce un nuevo soporte para los registros basado en un
compuesto de lacas;
• permite contar con una matriz desde la que se produce la
reduplicación masiva de las grabaciones. De esta manera,
comienzan a desarrollarse los sistemas de copiado masivo a
través de procesos de masterización y reduplicado mediante
procedimientos galvanoplásticos.
En un principio, la posibilidad de registrar de forma duradera el
sonido fue tomada con desdén y desconsideración, fundamentalmente por
aquellos que, a la larga, se verían más recompensados por su utilidad: los
músicos. Cuando menos, resultaba incomprensible, para todos, que un
trozo de hojalata o una membrana “sometidas mediante un sistema de
palanca a la vibración de una aguja que recorre las paredes laterales del
surco que tiene debajo, pudiera reproducir la infinita complejidad del
sonido orquestal”. Tuvo que producirse una cierta familiarización con el
oscilógrafo (instrumento que traduce la presión sonora instantánea del aire
en forma visual) para que se concibiese que toda señal sonora compleja
podía ser registrada gracias a que, en esencia, no dejaba de tratarse de una
variación de presión en un punto en función del tiempo.
Durante la grabación y la reproducción, en los sistemas mecánicos,
la revolución del disco se producía mediante una manivela que era
accionada por un operador. Posteriormente, fueron apareciendo otros
sistemas autónomos de arrastre como ciertos mecanismos de relojería o
motores eléctricos.

107
6.3.1.3. Sistema eléctrico.
El proceso de grabación eléctrica, fundamentado en los principios
de la transducción eléctrica, se inicia a partir de 1920 coincidiendo con los
primeros pasos de la radiodifusión. No obstante, no va a ser hasta 1926
cuando aparezca el primer disco que, de la mano nuevamente de Edison,
inicia el camino de uno de los grandes avances de este sistema. Sus
mejoras y capacidades son:
• Aumento de capacidad de registro combinando la estrechez de
los surcos con una baja velocidad de revolución sin que ello
suponga sacrificar una gama de frecuencias muy amplia.
• Introducción del micrófono en el sistema de grabación. La
conexión remota de este, a través de cables, con un grabador,
permitía: a) emplazar el micrófono cerca de la fuente sonora y el
grabador apartado de esta; b) mayor flexibilidad en la mezcla, al
poder equilibrar las salidas de los micrófonos antes de enviarlas
como una única señal hacia el cortador de disco.
La evolución de este tipo de grabación se va a asentar en los
siguientes avances:
• 1926: Disco de larga duración de Edison. Se estrecha el ancho de
los surcos (más de 400 por pulgada) y se aumenta las
revoluciones por minuto a 80.
• 1931: Hig Fidelity Electrola de la Victor Company. Aparece, por
vez primera, la velocidad de 33 1/3 r.p.m.
• En ese mismo año, Alan D. Blumlein patenta la grabación
estéreo sobre disco. Aunque técnicamente era posible ya la
grabación de dos canales de audio en un mismo surco, esta no se
desarrollará comercialmente hasta algunas décadas después.
• 1948: La Columbia Company saca un disco con una revolución
de 33 1/3 r.p.m., 300 surcos por pulgada y un grado de fidelidad
frecuencial notable.
• 1950—52: Decca, primero, y la Gramophone Company —

108
E.M.I.— después, presentan el disco LP con su correspondiente
sistema reproductor, lo que supondrá la progresiva desaparición
de los discos de 78.
• 1958: Aparición del Estéreo. Se trata de una técnica que permite
la transmisión del sonido que emplea dos o más canales
completos de transmisión con el propósito de crear en el oyente
la sensación de una perspectiva auditiva semejante a la situación
espacial original de donde procede el registro.
La utilización de las señales eléctricas —que siguen, básicamente, el
procedimiento telefónico— permitió abandonar los sistemas de registro
mecánico.
En la grabación eléctrica ya no se desplaza directamente la
membrana en conexión con la aguja mediante las ondas sonoras. En este
sistema, un micrófono recoge las ondas de presión, las transforma en
formas eléctricas y las vuelve a traducir en vibraciones mecánicas que, a
través de una cabeza grabadora (buril+electroimán), quedan inscritas
sobre una materia plástica.
El procedimiento de reproducción es el siguiente: la púa describe el
recorrido espiral inscrito en el disco e induce, mediante las vibraciones, un
Pick—up que contiene un electroimán. Este traduce las vibraciones y las
transmite en forma eléctrica a un amplificador —de válvulas o
transitores— que aumenta el nivel de la señal y la envía a un altavoz
encargado de realizar una doble transformación: las ondas eléctricas en
vibraciones mecánicas y, posteriormente, las mecánicas en acústicas.
En 1950 hace su aparición el microsurco o disco de larga duración
(LP). Este se asentaba en un novedoso proceso tecnológico que solventaba
gran parte de los problemas que tradicionalmente se habían asociado al
disco de 78 revoluciones. Como sistema incorporaba importantes
novedades:
• se modifica el soporte de registro (polivinilo),
• se reduce la velocidad de giro a 33 revoluciones,
• se comienza a estandarizar el uso del lector eléctrico,

109
• se aumenta la capacidad de registro a 25 minutos por cada
cara,
• reduce notablemente el ruido de arrastre,
• mejora la respuesta en frecuencia, etc.
Las mejoras técnicas aportadas por el LP permitieron el nacimiento
de las primeras grabaciones estéreo. No obstante, estas no se van a
popularizar hasta bien entrada la década de los sesenta cuando aparece el
primer grabador multipista. Estos grabadores permitían una novedosa
flexibilidad en el sistema de trabajo pues era posible, por vez primera,
registrar de forma separada varias fuentes.

6.3.1.4. Sistema magnético.


La posibilidad de registrar el sonido bajo la forma de variaciones de
imantación en superficies de acero o cintas magnéticas, bajo el
procedimiento de grabación eléctrica por medio de transductores
electromagnéticos, pertenecía a una investigación antigua —hay noticias
ya en 1898 que aluden a esta posibilidad—. Sin embargo, los problemas
técnicos usuales en los primeros pasos de cualquier desarrollo (tamaño
desmesurado, el elevado coste o su fragilidad) habían postergado la
aparición de un sistema magnético de registro que pudiese sacarse al
mercado con ciertas garantías de éxito.
El gran valedor de este sistema de registro fue la industria alemana
durante la Segunda Guerra Mundial. Aunque las bases del sistema estaban
ya presentes en los arcos del Telegraphone del danés Valdemar Poulsen —
mejorados, posteriormente, por el alemán Stille—, fue en la década de los
cuarenta cuando, después del conflicto armado, se popularizó y tuvo una
fulgurante distribución comercial gracias a la conjunción de dos hallazgos:
el desarrollo del magnetófono por Von Braunmühl, y la invención de la
cinta magnética, que en principio era un papel recubierto de polvo de óxido
de metal, pero que pronto vería el papel sustituido por plásticos que
evitaban el rápido deterioro del papel y ofrecían mayor facilidad de
manejo.

110
El fundamento del magnetófono parte de la ordenación —
imantación— de las moléculas magnéticas de la cinta o hilo cuando se la
hace pasar a esta, a una velocidad constante y definida, bajo una bobina
recorrida por una corriente registrada —un electroimán—. Para ello,
previamente, las moléculas de la cinta son sometidas a dos campos
magnetizantes: el de la señal útil y el de otra señal añadida de alta
frecuencia, de tal forma que dichas moléculas lleguen convenientemente al
estado de orientación magnética correspondiente a la señal útil.
Los primeros soportes de grabación magnética utilizados por los
magnetófonos fueron de bobina abierta. Estos magnetófonos, que podían
ser de uso estacionario —como el Saturn 824 o el Revox PR99— o
portátiles —como el Nagra IV/S—, registraban el sonido en diferentes
formatos de pista: mono, dos pistas, estéreo y multipista.
En 1963, Philips inventa y lanza al mercado el casete compacto. Este
soporte introducía algunas ventajas con respecto al sistema de bobina
abierta: la velocidad de arrastre era más lenta, con lo cual la cantidad de
cinta necesaria era mucho menor, lo que facilitaba su reducido tamaño —
el ancho de la cinta es de un octavo de pulgada—. El problema que
planteaba, en su inicio, era que, tales condiciones, ofrecían un pobre nivel
de respuesta. Por ello, los fabricantes de cintas y equipos tuvieron que
desarrollar notables mejoras, entre ellas la introducción de los sistemas
Dolby, para lograr mejorar ostensiblemente el nivel de calidad. Entre
tanto, la compañía Sony presentó en 1975 un formato que, basado en el
anterior, tenía unas dimensiones algo mayores, una cinta de un cuarto de
pulgada y ofrecía mejor calidad que este. Sin embargo, Elcaset, que así se
llamaba este formato, no cuajó en el mercado como consecuencia de la
implantación comercial y social que, para entonces, tenía ya el casete
compacto.

6.3.1.5. Sistema óptico cinematográfico.


Aunque casi desde el nacimiento del cine se habían realizado
intentos para lograr hacerlo sonoro, la dificultad de amplificarlo primero,

111
—resuelta en 1907 con la invención de la válvula amplificadora triodo por
Lee de Forest— , y la de sincronizarlo después, impidió que hasta 1926 no
se produjese la aparición del cine sonoro como tal. En ese año, la compañía
Warner Bros, acuciada por la quiebra, presentó tímidamente la primera
película que integraba sonido sincrónico: Don Juan. Sin embargo, va a ser
un año después cuando elaboran el filme que inicia la nueva era del arte
cinematográfico: El cantante de jazz. Por vez primera, además de aparecer
música sincrónica, ruidos y efectos sonoros, los intérpretes hablan.
La grabación de sonido óptico en cine se realiza mediante la
impresión de la película por parte de las vibraciones luminosas. Se puede
producir de dos maneras:
• Método transversal: con el revelado se obtiene una pista
sonora en forma de curva luminosa de amplitud variable.
• Método de la intensidad: con el revelado se obtiene una
pista sonora en forma de variación de intensidades de la
cinta.
El funcionamiento técnico del método transversal es el siguiente: la
corriente del sonido es transformada, en un oscilógrafo, en oscilaciones
mecánicas que ponen en vibración un pequeño espejo. Una luz de una
lámpara de excitación se concreta sobre el espejo mediante un diafragma
triangular. Los haces triangulares son reflejados por el espejo sobre una
lente convergente y pasan, a través de una ranura, con una intensidad
proporcional a la amplitud de las vibraciones del espejo, para impresionar
una película sensible a la luz —triacetato de celulosa—.
Las copias de las películas que han de ser exhibidas en los cines
llevan el sonido alojado en una o varias pistas estrechas —según el
sistema— situadas en uno de los laterales de la película, bien en el interior
o en el exterior de la perforación. En estas copias, el sonido puede ser de
registrado de dos formas distintas:
• Óptica: en primer lugar se graba el sonido en un negativo
óptico de sonido mediante un dispositivo de impresión
fotográfica sonora que modula la intensidad y la frecuencia

112
del sonido mediante un haz de luz. El procedimiento de
lectura se realiza del siguiente modo: un haz luminoso
recorre la banda sonora; en función de la opacidad de esta
llega mayor o menor intensidad a una célula fotoeléctrica
que convierte las variaciones de luz en impulsos eléctricos
que son amplificados y emitidos en forma de presión sonora
a través de los altavoces (Ej. 35 mm, Vistavisión, 8 mm, 16
mm).
• Magnética: el sonido es registrado magnéticamente
mediante unos aparatos específicos, una vez ha sido revelada
la copia. La lectura se produce de igual forma que en un
magnetófono (Ej. Cinemascope, Todd—AO, Cinerama…).

5.3.2. La grabación digital.


La tecnología digital permite convertir la señal de tensión analógica
en audio digital mediante una codificación numérico-binaria conocida
como A/D —analógico/digital—.
La gran ventaja de esta codificación es que permite trabajar y
modelar la señal a partir de secuencias constantes que no se ven afectadas,
en su esencia, en los transfer de copia —una generación es igual al
original—, o en los procesados. La consecuencia inmediata, frente a la
tecnología analógica, es que se consiguen niveles de calidad muy
superiores:
• Ausencia de ruidos como la diafonía, el lloro, o la distorsión
armónica.
• Imperturbabilidad de los sistemas y soportes de grabación.
• Mayores posibilidades de tratamiento y visualización.
• Ediciones no destructivas.
En la codificación de la señal analógica se producen dos procesos:
a) Muestreo: Se toma una serie de niveles de la amplitud de la señal
a intervalos regulares de tiempo.

113
b) Cuantificación: Se convierte la forma de onda, que es
infinitamente variable, en una serie de valores discretos.
Las posibilidades actuales de los equipos profesionales contemplan
sistemas de frecuencia de muestreo a 44.1., 48 y 96 Khz, con resoluciones
de 16, 20 y 24 bit, lo que en términos prácticos permite márgenes
dinámicos que oscilan entre los 84 dB y los 120 dB.
Los multipistas digitales registran esa numeración binaria de dos
maneras:
• mediante un sistema magnético;
• mediante un sistema óptico o magnetoóptico.

6.3.2.1. Sistemas magnéticos.


A principios de los años 70, la compañía japonesa Denon comenzó a
desarrollar un sistema de grabación en cinta magnética que permitiese el
registro de información digital. Como consecuencia del ancho de banda
que precisa esta, la investigación avanzó, en los años siguientes, sobre la
posibilidad de utilizar los sistemas de registro de vídeo (VTR) mediante
adaptadores de tipo PCM. De esta manera, a comienzos de los ochenta se
comenzaron a comercializar equipos domésticos como el PCM—F1 de
Sony, que daban un gran resultado a precios competitivos, lo que produjo
la rápida extensión del audio digital.
En su desarrollo, han coexistido dos mecanismos para la grabación
digital en cinta:
• Cabeza estacionaria. Utiliza una velocidad de cinta muy alta y
cabeza estacionaria. Suelen ser sistemas en carrete abierto, como
el DASH, los PCM, el Pro—Digi (1980), o el X—80. En el ámbito
doméstico, en 1992, Philips presentó el casete compacto digital
(DCC). Este sistema, compatible con el casete analógico y que
emplea técnicas de reducción de la tasa de bits, no ha tenido el
éxito esperado por sus desarrolladores.
• Cabeza rotatoria. Utiliza una velocidad lineal de cinta
relativamente baja y una cabeza rotatoria. Es el que, por costes y

114
facilidad de comercialización, ha tenido más éxito, si bien uno de
sus primeros problemas fue la dificultad de edición. La cabeza
puede describir dos movimientos: transversal, o helicoidal —que
es el más habitual porque requiere menos cantidad de cinta—.
Uno de los pioneros de este sistema fue el U-Matic. Se trata de una
cinta de grabación de vídeo que, con pequeños ajustes, ha sido el estándar
de masterización de CD’s durante muchos años. El formato más popular,
sin embargo, es el R—DAT que surgió a mediados de los ochenta fruto del
acuerdo entre numerosas empresas fabricantes, la mayor parte de ellas
japonesas. Este grabador estereofónico incorporó, en 1990, el estándar IEC
de códigos de tiempo, lo que facilitó enormemente la edición en este
soporte.
Otros formatos que utilizan este sistema son: A-DAM y DA-88, que
utilizan cintas de 8 mm; ADAT, que registra en cintas de S-VHS; el VP—
900 de JVC, que trabaja en formato NTSC; o el Nagra—D.

6.3.2.2. Grabación a disco.


El inicio de la relación entre sonido y ordenadores y,
consecuentemente, el comienzo de lo que sería después la grabación a
disco hay que situarlo en el año 1978 cuando aparece en el mercado el
primer ordenador doméstico, el Apple II/e, diseñado por Steve Wozniak.
Desde esa fecha hasta la actualidad, las posibilidades del ordenador como
grabador/reproductor sonoro se han visto incrementadas
inopinadamente.
El procedimiento de grabación a disco se fundamenta en las
inversiones de flujo magnético que realiza una cabeza de lectura/escritura,
situada en el extremo de un brazo, sobre un disco recubierto por una capa
magnética y en permanente rotación, con el que está a una distancia de
una fracción de milímetro.
Algunas de las características de este sistema son:
• Durabilidad del soporte. Al no existir roce entre la cabeza y
el disco no se produce desgaste en ninguna de las partes.

115
• Discontinuidad de la grabación. El acceso a los datos no es
secuencial, sino aleatorio. Como la información se graba en
anillos concéntricos discretos el acceso a cualquier dato es
inmediato. Como consecuencia de esto, es preciso el empleo
de una memoria RAM.
• Sobreescritura de los datos. No se produce la doble
imantación borrado/grabado de los sistemas de cinta.
Existen en el mercado tres tipos distintos de grabadores a disco:
1. Con Ordenador especializado: como el Akai DD-
1000, o el DR4d.
2. Bajo Sistemas integrados: como SoundLink,
Synclavier, etc.
3. En ordenadores personales con una capacidad de
procesamiento y almacenamiento muy altas, mediante
tarjetas de conversión A/D y D/A, y software
específico. Es el caso más común y en mayor
desarrollo. De este tipo son: Pro Tools, Audiomedia,
Sound Tools, Audiowerk, Digitrax, etc.

6.3.2.3. Unidades de almacenamiento.


Existen numerosas unidades de almacenamiento asociadas a
tecnologías de registro y reproducción cuyas diferencias fundamentales
residen en la capacidad de almacenamiento, la naturaleza del soporte, y
los distintos tipos de información que puede albergar —sonora, visual,
etc.—.
Aunque existen soportes magnéticos y magnetoópticos —utilizados
como unidades de almacenamiento masivo, los más populares son los
ópticos, cuyo fundamento es la grabación y lectura de información en
disco mediante un haz láser.
La historia del CD—ROM. se inicia, oficialmente, el año 1982
cuando las compañías Philips y Sony establecen las primeras normas de
fabricación de CDs, y en 1984 cuando se presenta como soporte de

116
almacenamiento de datos de forma paralela al lanzamiento de la primera
consola de videojuegos Nintendo. Este soporte, que puede almacenar
hasta 74 minutos de música o 650 MB de datos, soporta distintos tipos de
datos: CD (soporte musical de sólo lectura), CD—R (lectura y grabación),
CD—RW (lectura y regrabación), CD—I (soporte multimedia de sólo
lectura), KodaK Photo—CD (soporte digital fotográfico). El MiniDisc es un
disco de tamaño y sección menor, pero que se basa en el mismo principio
de funcionamiento.
El nacimiento del DVD se produce en 1995 fruto del acuerdo entre
los mayores fabricantes de aparatos electrónicos de consumo y las
productoras de entretenimiento y música (Toshiba, Pionner, Philips,
Hitachi, Poligram, Warner Bros, etc. Sistema de almacenamiento
compatible con el disco compacto que permite una gran capacidad de
almacenamiento con un ratio de transferencia de entre 11 y 22 Mbit/sg. Se
comercializa en cuatro versiones distintas: DVD 5 —una cara, una capa—
con 4,7 GB; DVD 10 —dos caras, una capa— con 9,4 GB; DVD 9 —una
cara, dos capas— con 8,5 GB; y DVD 17 —dos caras, dos capas— con 17
GB.
La siguiente tabla muestra, de forma esquemática, la aparición y
características fundamentales de los sistemas de registro sonoro.

AÑO FORMATO PATENTE SISTEMA ANLG/DG M/ST/MC


1857 Phonautograph E.L.Scott Antecedentes Analógico Mono
1877 Paléophone Ch. Acros Antecedentes Analógico Mono
1887 Fonógrafo T.A.Edison Mecánico Analógico Mono

1888 Gramófono E.Berliner Mecánico Analógico Mono


1920/26 D.larga duración T.A.Edison Eléctrico Analógico Mono
1926/27 Cine sonoro Warner Bros Óptico Analógico Mono
1931 Patente estéreo A.D.Blumlein Eléctrico Analógico Estéreo
1950/52 LP Decca Eléctrico Analógico Mono/Est
1958 Desarrollo estéreo EMI Eléctrico Analógico Estéreo
1960 Multipistas magn. Revox, etc. Magnético Analógico Multipista

117
1963 Casete compacto Philips Magnético Analógico Estéreo
1970 Magnético/digital Denon/Sony Magnético Digital Estéreo
1978 Apple II/e — HD S.Wozniak Magnético Digital Mono
1982/84 CD—ROM Philips/Sony Óptico Digital Estéreo
1984/90 DAT Acuerdo fabr. Magnético Digital Estéreo
1993 Mini Disc Sony… Óptico Digital Estéreo
1995 DVD Acuerdo fabr. Óptico Digital Multicana
Tabla 6: Sistemas de registro sonoro.

118
CAPÍTULO VI. LA MÚSICA Y LOS MEDIOS DE

DIFUSIÓN: SEMBLANZA HISTÓRICA.


Los medios de difusión son sistemas generados por el hombre con el objeto de
otorgar mayor capacidad de penetración social a sus mensajes.
Como no podía ser de otra manera, la Música, como sistema de
comunicación/expresión se ha servido de estos medios, a la vez que ha sido objeto
de ellos, para amplificar la dimensión de sus efectos.
Este capítulo recoge el estudio de las relaciones entre la música y cada uno de
los medios de difusión masiva. Tras un breve apunte sobre la naturaleza técnica y
estética del medio se realiza una aproximación histórica a dicha relación en cada uno
de ellos: desde la imprenta hasta los últimos sistemas de redes informáticas.

6.1. APROXIMACIÓN TEÓRICA.

6.1.1. Conceptos.
Se denomina medio al conjunto de elementos y circunstancias que
conforman el ámbito de transmisión en el seno de una estructura
comunicativa.
Por su parte, el término difusión hace referencia a la acción y al
efecto de difundir o difundirse. Es decir, de extender, divulgar, propagar o
propalar un mensaje.
Desde la perspectiva musical, las redes de difusión pueden ser:
• el conjunto de canales que ponen en comunicación la fuente
musical con quienes la escuchan —visión reducida—;
• el conjunto de canales que ponen en comunicación todos los
componentes de la estructura comunicativa musical [agentes,
contenidos e instrumentos] con la sociedad —visión
amplia—.

119
6.1.2. Clasificación de los medios de comunicación.
Los medios de comunicación se pueden clasificar atendiendo a tres
criterios de ordenación (Gutiérrez Espada):
1. La naturaleza técnica.
2. El ámbito comunicativo.
3. El lenguaje.
Según la naturaleza técnica se clasifican en:
(Fig. 9 Clasificación según la naturaleza técnica)
Según el ámbito comunicativo se clasifican en:
(Fig. 10 Clasificación según el ámbito comunicativo)

Los medios de edición son aquellos que reúnen a su público a


través de la comercialización de ejemplares siempre disponibles para
individuos aislados.
Los medios de transmisión son aquellos que realizan la acción de
comunicar mediante el traslado de una señal o mensaje dirigido tanto a un
destinatario particular como colectivo. Estos pueden ser:
• Medios de transmisión de punto a punto: el destinatario es
particular.
• Medios de transmisión de difusión: el destinatario es
colectivo.
Por tanto, en rigor, los medios de difusión son una subclase de los
medios de transmisión.
Según el lenguaje se clasifican en:
(Fig. 11 Clasificación según el lenguaje)

6.2. MEDIOS DE DIFUSIÓN Y MÚSICA A TRAVÉS DEL


TIEMPO.

6.2.1. Antecedentes: medios pretecnológicos.


Con anterioridad al nacimiento del papel y la imprenta la única
forma de conservar la música escrita era por medio de textos manuscritos.

120
En verdad, suponía la ocupación de un gran número de monjes
medievales que dedicaban sus trabajos a la copia e ilustración de
manuscritos.
Esta actividad artesanal se organizaba mediante un sistema
bastante complejo. Los monasterios solían disponer de grandes piezas —
scriptoria—, dedicadas al trabajo diario, en las que se realizaba la labor de
copiado por medio de una cadena de monjes-artesanos:
• Antiquarii: caligrafistas.
• Miniatores: encargados de reproducir y dibujar las
miniaturas.
• Rubricatores: encargados de realizar las iniciales.
El soporte material utilizado para realizar los códices era el
pergamino, cuyo precio era muy elevado. Para obtenerlo, se trabajaba una
piel de carnero hasta lograr que quedase prácticamente transparente.
Posteriormente se doblaba y de esta manera se conformaba el códice.

6.2.2. La prensa.

8.2.2.1. La impresión musical.


Desde que en 1425 diera inicio el arte de la impresión son varios los
sistemas que se han utilizado para la impresión musical. La siguiente lista
ofrece su evolución, con los alcances técnicos más relevantes:
• Grabado en madera. (1425). Se lacran las figuraciones
musicales sobre trozos de madera que sirven de matriz para
la impresión.
• Doble impresión. (± 1475). Se realiza una primera impresión
en rojo para el pentagrama y una segunda en negro para las
notas y los textos, como consecuencia de la dificultad de
obtener notas y pentagramas juntos en los tipos, Hasta que
Petrucci descubre la forma de hacer la doble impresión con
exactitud (1501) era acostumbrado imprimir las notas y luego
dibujar el pentagrama a mano o viceversa.

121
• Tipos móviles. (Haultain, 1525). Se agrupan tipos musicales
independientes. Cada uno de ellos lleva un pequeño
fragmento de pentagrama con la nota precisa; con su unión
se obtienen líneas musicales completas.
• Notas con barra (Ballard, 1640 - Moore, 1681). Por vez
primera, se incluyen tipos que unen las plicas de las notas.
• Grabado (a partir de 1600). La creciente complejidad de las
composiciones musicales obligó a abandonar el sistema de
los tipos móviles. En su lugar aparece la técnica del grabado.
Primero realizada a mano, luego mediante punzones sobre
hojas de metal a partir de las cuales se tiraban las ediciones.
• Litografía (Senefelder, 1796). Método de reproducción
gráfica, antecedente de la impresión en offset, que emplea
para la impresión una piedra pulimentada o una plancha de
cinc, que sirve de matriz, sobre la que se dibuja con tinta
grasosa. Es el procedimiento industrial más utilizado en la
impresión musical.
• Esterotipia (Breitkopf, 1750 — Novello, 1847).
Fundamentado en el sistema de impresión con tipos móviles
este sistema utiliza pequeñas porciones de notas y
pentagramas hechos de medida uniforme.
• Impresión electrónica. (± 1980). La edición de la partitura se
gestiona en un ordenador mediante un software específico —
Finale, Encore, Sibelius, etc.— y posteriormente se imprime
por medio de un periférico: la impresora. Esta puede ser, en
función de la calidad de impresión, de tres tipos: matricial,
chorro de tinta o láser. Como complementos se pueden
utilizar otras herramientas: escáneres, sistemas de
reconocimiento de caracteres (OCR), etc.

122
6.2.3. La radio.

8.2.3.1. El fenómeno radiofónico.


El fundamento del fenómeno radiofónico reside en una serie de
ondas de energía electromagnética que vibran a una determinada
velocidad. Según sea esta, variará su longitud. Esta última determina el
criterio de clasificación de las emisoras:
1. Cortas (SW): alcanzan miles de kilómetros. Emisiones
internacionales.
2. Medias (MW o AM): alcanzan entre cientos y algún millar de
kilómetros. Emisoras nacionales y regionales.
3. Largas (LW): alcanzan también cientos de kilómetros.
Emisoras nacionales.
4. Frecuencia modulada (FM): Utiliza frecuencias muy altas.
Emite en estéreo. Emisoras musicales.
El proceso de transmisión se produce del siguiente modo: en la
emisora de referencia, el sonido es recogido o disparado a través de
diferentes medios —micrófono (voz del locutor), Cd’s, conexiones
telefónicas, etc.—. La mezcla de todas las fuentes da origen a la señal a
transmitir. Un emisor “convierte” esa señal en una energía
electromagnética a través de un proceso de modulación de amplitud o de
frecuencia, y la envía a través del aire. En el lugar del destinatario —todos
ellos potenciales—, un receptor reconvierte esa señal aplicando el proceso
contrario al del emisor, es decir, decodifica la señal electromagnética para
convertirla en una señal acústica.

8.2.3.2. Función de la música en la radio.


La música en la radio tiene unos usos y funcionalidades definidas:
• Pragmático. Valor informativo. Característico de los eventos
registrados. Hay una intermediación técnica de la radio.
Considerando que la música altera los valores sustanciales
de la información, suele descartarse cada vez más de los

123
programas informativos de noticias como parte integrante de
los mismos. Sin embargo, mantiene una presencia
importante en aquellos programas que admiten un
tratamiento más libre. Suele estar presente incluso en
algunos bloques de “Diarios hablados” como en el deportivo
o en el del estado del tiempo con funciones distintas a las
informativas, pero de gran eficacia para el oyente (Cebrián).
• Funcional. Tiene una utilidad fijada en la cooperación
discursiva: insertos musicales, cooestructuración de los
programas, de sus partes, etc. Las características y
particularidades de cada elemento musical dentro del
discurso radiofónico, así como la funcionalidad que posee,
decide la entidad que mantiene a nivel estructural, tanto en
la dimensión de anclaje de sentido, como en los aspectos
puramente musicales. Por ello, dependiendo del destino de
su integración sintáctica, su morfología y los procesos de
generación, parten de fuentes muy distintas y en ocasiones,
ciertamente contradictorias.
• Social. La radio socializa y democratiza el fenómeno musical
al convertirse en una irreductible sala de conciertos.
• Mediático. Mediatiza sus productos: se crean géneros
específicos cuyo sentido social, económico y cultural parte de
las premisas de este medio.

8.2.3.3. Radio y música a través del tiempo.


Aunque no fue hasta 1888 cuando el físico alemán Heinrich Hertz
descubre las ondas radiofónicas, y en 1894 cuando Marconi comienza a
emitir ondas radiofónicas dentro de una habitación, lo cierto es que las
primeras “retransmisiones musicales radioeléctricas” datan de algunos
años antes. Primero, en 1881 C. Adler había emitido en estéreo, desde la
Ópera de París, a un par de auriculares colocados en una exhibición, y un
par de años después, se había realizado la emisión de un concierto desde

124
el Festival de Leeds, en Inglaterra, transmitiendo la música por teléfono.
No obstante, se trataba de puras pruebas experimentales. Tal es así
que no será hasta bien avanzada la segunda década del siglo XX cuando se
inicie verdaderamente la transmisión de música a través de la radio. La
primera serie de programas radiofónicos musicales se realizó en 1917
dentro de un programa vespertino de música y entrevistas, a cargo de la
Royal Engineers Wireless Training Center de Worcester,
A partir de este momento, el rápido avance tecnológico asociado a
la emisión/recepción de las ondas radiofónicas y la consolidación social
del medio darán origen a un vertiginoso desarrollo que tendrá
importantes repercusiones en el ámbito musical:
En 1920 se inaugura la primera radio comercial, la KDKA de
Pittsburgh cuya primera transmisión tendrá como contenido los resultados
de unas elecciones.
El 8 de enero del año 1923, se irradia, desde el Covent Garden, La
flauta mágica interpretada por la British National Opera Company, siendo esta
la primera ópera transmitida en el mundo.
Ante el éxito de las primeras emisoras, se inicia un rápido
crecimiento de estaciones que da inicio a la competencia comercial. En
1926 nace la NBC y en 1927 la BBC obtiene la primera licencia de emisión.
La incorporación de la publicidad modifica la fuente de ingresos de
las emisoras: la ganancia ya no está en la venta de los receptores sino en la
comercialización publicitaria. Comienza a utilizarse la música como fondo
para acompañar los mensajes publicitarios.
Las características estéticas de esta primera etapa se pueden resumir
en los siguientes puntos:
a) Nace una audiencia colectiva. Por vez primera, la música
tiene la capacidad de llegar, de forma simultánea, a múltiples
lugares y personas. La audiencia es, por lo pronto, un ente
anónimo.
b) Se crean unas condiciones de recepción especialmente
ventajosas: comodidad, intimidad, etc., que determinan la

125
irrupción de la sociedad de masas y, en el ámbito cultural, la
socialización de los mensajes musicales.
c) El comienzo de las emisiones periódicas da origen al
concepto de programación. Nace el discurso radiofónico
como secuencia temporal de programas. Consecuentemente,
aparecen los géneros radiofónicos y, entre ellos, los
programas musicales se constituirán, junto a los
informativos, como el eje vertebral de la parrilla radiofónica.
La importancia de la música es tal que, por ejemplo en
Inglaterra, supone el elemento básico de la programación:
por cada 1/4 de texto hablado hay 3/4 de música.
d) Cuando los avances técnicos lo permiten, la radio comienza a
salir del estudio radiofónico para acudir a la retransmisión
de eventos: conciertos, recitales, óperas, etc. Mientras, a los
estudios continúan acudiendo conjuntos instrumentales —
jazz en USA, y canción ligera en Europa—, y desde finales de
los años 20, empiezan a incorporarse las grandes orquestas,
tanto sinfónicas como de música ligera —Big Bands, etc.—.
La tipología de programas de la época refleja fidedignamente la
base sobre la que, en décadas sucesivas, se sustentará la evolución estética
del medio:
• Educativos. Finalidad didáctica. Ej.: University of the Air.
• Culturales-recreativos. Finalidad de entretenimiento
cultural. Basados en la retransmisión de óperas, conciertos
sinfónicos, espectáculos desde salas y teatros, etc.
• Conciertos: Desde 1928, programa semanal Music
Appreciation Hour. En 1937 nace la NBC Simphony
Orchestra dirigida por Arturo Toscanini que da origen
a las grandes orquestas sinfónicas radiofónicas.
• Óperas: Retransmisiones de la NBC todos los sábados
por la noche desde el Metropolitan Opera House.

126
• Entretenimiento. Presencia fundamental de la música en los
montajes sonoros de los programas dramáticos,
especialmente los seriales como el radioteatro La Guerra de los
mundos de O.Welles.
En un primer momento, se usó el gramófono como instrumento
para reproducir música. Posteriormente, se comienza a contratar a
instrumentistas para que toquen en vivo —toda la radio era, por entonces,
en directo ya que no había posibilidad de registrar nada—. La
incorporación de los instrumentistas va a permitir que se amplíe el
repertorio de obras —muy limitado en el gramófono—, tanto en número
de piezas como en estilos. A este respecto, Faus señala que la actuación del
pianista o de la cantante de los primeros momentos no hace otra cosa sino
sentar las bases de la “radio-espectáculo” que alcanzará su máximo
desarrollo, con posterioridad, en los años treinta a cuarenta.
Con el uso de la grabación eléctrica —mejor calidad de sonido y un
rango de intensidades más amplio—, desde 1925 se intensifica la relación
entre el sector discográfico y el radiofónico. Esta relación, en progresión
indefinida hasta el presente, convirtió a la radio en una fantástica vitrina de
los objetos sonoros, que va a ser fuente de controversias, necesidades e
intereses económicos, ideológicos y estéticos enfrentados. No en vano, el
desarrollo de muchos de los nuevos estilos musicales estará estrechamente
ligado a la evolución del medio radiofónico —Vg.. el jazz, el rock, etc.—.
En las décadas de los años 30 y 40 la música cubre casi el 40% del
tiempo de la programación. Durante este periodo se producirán dos
relevantes avances técnicos.
• La FM (frecuencia modulada). En 1932 Edwin Armstrong
inventa este procedimiento que posibilita, entre otras cosas,
una transmisión con menores interferencias radiofónicas. Sin
embargo, su uso no se estandarizará hasta casi veinte años
después.
• El magnetófono. Basado en el telegráfono de Poulson, pero
perfeccionado por K.Stille y K.Pfleuner, su aparición va a

127
revolucionar la radio pues aporta indudables ventajas a su
desarrollo:
o Técnicas. Aumenta la calidad del registro; reduce la
distorsión a valores casi insignificantes; atenúa el
ruido de fondo —respecto a los soportes anteriores—,
etc.
o Estéticas. Elude la imperiosa necesidad del directo;
posibilita el contar con un montaje fragmentado como
en el cinematógrafo.
La década de los cincuenta supone la propagación del uso de la
frecuencia modulada en Estados Unidos y Reino Unido. Este
procedimiento de transmisión supone una mejora considerable de las
condiciones de emisión-recepción, y el paso definitivo a la emisión
estereofónica, favoreciendo notablemente la difusión de la música al
incrementar el realismo y vivacidad de las emisiones.
La radio de finales de los cincuenta y principio de los sesenta va a
sufrir grandes cambios como consecuencia de dos fenómenos distintos. En
el ámbito técnico, la aparición del transistor, y en el social, la consolidación
de la televisión como medio de masas.
• Transistor. Su reducido tamaño permite la movilidad e
independencia de los receptores. Se descentraliza y
generaliza el acto de escucha porque ya es posible la escucha
individualizada y selectiva: nacimiento del autorradio. La
música se impone, junto a la noticia, como una de las
unidades programáticas básicas; en concreto, la de la radio
“oída” o compañía radiofónica.
• Televisión. Su consolidación tiene un efecto contradictorio
en la radio. Aunque la perjudica por la pérdida de
anunciantes, la favorecerá porque provoca su reforma:
reestructuración de programas hacia el sistema de “música,
noticias y retransmisiones deportivas”, e inauguración de un
nuevo ámbito de emisión/recepción: nacimiento de la radio

128
“local” [actuaciones de grupos locales, despertar de cierto
tradicionalismo musical, etc.].
En estos mismos años se inician las primeras pruebas
experimentales de radiodifusión por satélite. Por otra parte, toman
especial fuerza las organizaciones internacionales de radiodifusión como
la UER (Unión Europea de Radiodifusión) que comienza a difundir
programas y noticias para sus miembros. Son destacables, entre ellos, los
conciertos de música culta, las retransmisiones de óperas, festivales, etc..
La incidencia del fenómeno de las “radios libres” de los años
setenta en el ámbito musical queda reflejado en la difusión de la llamada
canción protesta. La aparición, a partir de mayo del 68, de grupos
culturales y políticos que no tenían cabida en el espectro social
convencional fomentó la proliferación de estas emisoras que,
musicalmente, rechazaban el sistema del Hit parade y la impersonalización
de la cultura industrial mediante canciones de marcado corte tradicionista
en la música y severas consignas en la letra.
Los años ochenta se van a caracterizar por la continua
reestructuración de las parrillas de programación que tienden, cada vez de
forma más acusada, a la especialización. España representa un caso
singular de convivencia. La audiencia se sectorializa y permite cuotas de
mercado independientes para las emisoras generalistas —magazines,
entretenimiento, documentación, etc.—, y las emisoras especializadas —
radiofórmulas: música ligera, clásica, jazz, flamenco, etc., informativas,
etc.—.
La década de los noventa marca un nuevo auge en la investigación
tecnológica al servicio de la radio, aunque lo cierto es que se trata ya de
investigaciones multi-medio:
• Aparece la radio digital que incorpora nuevas ventajas:
sintonía fina, búsqueda automática, memorización de
frecuencias, selectores de estilos musicales, etc.
• Aplicación de sistemas de escucha tridimensional en
entornos domésticos, autos, etc.

129
• Incorporación de la radio a Internet.
• Concentración/integración de los sistemas e,
inevitablemente, de los medios. Los sistemas multimedia de
acceso a la información globalizan el acceso a los medios de
difusión y a sus contenidos. Como es evidente, la música
sigue siendo uno de sus elementos básicos.

6.2.4. La televisión.

8.2.4.1. El fenómeno televisivo.


La televisión es un procedimiento de envío de imágenes —fijas o
móviles— por procedimientos eléctricos —cable o radio básicamente—
que llegan al espectador de forma muy rápida. Las imágenes llegan
instantáneamente y se desvanecen de manera igualmente rápida. No son
imágenes perdurables.
El fenómeno televisivo se basa en el llamado efecto fotoeléctrico por
el cual la incidencia de la luz provoca una emisión de electrones en ciertas
sustancias fotosensibles como el selenio, el potasio o el sodio. El número
de electrones emitidos por la sustancia es proporcional a la intensidad de
la luz incidente.

8.2.4.2. Función de la música en la televisión.


La presencia de la música en la programación televisiva abarca casi
la totalidad de los géneros televisivos. Ya sean programas educativos,
religiosos, de grupos específicos [infantiles, juveniles, etc.], deportivos,
informativos, divulgativos, dramáticos, de variedades, espacios
publicitarios, taurinos o institucionales, la música contribuye al discurso
televisivo bien porque forma parte inherente de lo retransmitido, bien
porque funciona como un elemento formal de construcción del mismo.
Existen, además, programas específicos en los que la música juega
un papel preponderante. Estos programas musicales se clasifican, según la
UER [Unión Europea de Radiodifusión], del modo siguiente:

130
H.1. Música Culta.
H.1.1. Ballet.
H.1.2. Lírica.
H.1.3. Clásica.
H.1.4. Jazz.
H.1.5. Folclore.
H.2. Música ligera. Jazz, Rock, New age, Dance, etc.
H.3. Vídeo Clips.
H.4. Otros programas musicales.
Desde la perspectiva semiótica, podemos reconocer ocho funciones
de la música en la televisión (D’Alessandro, Millerson):
1. Identificación inmediata de un programa (sintonía o cabecera
musical).
2. Identificación de un personaje (repetición de motivos,
acordes, etc.).
3. Provocación de un recuerdo (repetición de un pasaje, etc.).
4. Creación de una atmósfera dramática.
5. Efecto de cambio de plano.
6. Apostillar un diálogo.
7. Definir un ambiente.
8. Contrapunto de la imagen.

8.2.4.3. Televisión y música a través del tiempo.


La prehistoria de la televisión se remonta a la segunda mitad del
siglo XIX. Desde el descubrimiento de los efectos fotoeléctricos por parte
de Edmond Becquerel, allá por el año 1839, hasta el perfeccionamiento del
sistema de exploración mecánica de Baird (1922) —pasando por la
invención del disco de Nipkow, en la Nochebuena de 1883—, se sentaron
las bases tecnológicas esenciales del nuevo medio.
De hecho, en el año 1928 comenzaron las primeras emisiones
experimentales de la mano de la General Electric. Bajo el indicativo de
WGY, comenzó una transmisión regular de tres programas semanales y

131
ya, en ese mismo año, se realizó la primera transmisión al aire libre —un
discurso— y la primera representación teatral —El mensajero de la reina—.
El hecho de que estas primeras transmisiones fuesen mudas —el
cine en esas mismas fechas alcanzaba sus primeros logros sonoros—
motivó comentarios indiferentes de la prensa y poca aceptación por parte
del público.
No obstante, la apuesta decidida de algunas compañías, entre ellas
la BBC, y la incorporación de algunos nuevos avances técnicos impulsó de
forma definitiva a la televisión hacia el estrellato dentro de los medios de
comunicación de masas:
• Desarrollo de la exploración electrónica mediante la
incorporación de los rayos catódicos, con la consiguiente
mejora y fiabilidad en la recepción de las imágenes.
• Incorporación del sonido en las transmisiones.
• Estandarización de los sistemas de emisión: 525 líneas y 30
imágenes por segundo, en América, y 625 líneas y 25
imágenes por segundo en Europa.
Durante los años treinta, una vez asentado el principio básico de
funcionamiento, comenzaron a aparecer numerosas estaciones de
televisión tanto en Europa como en Estados Unidos, y se inició la
fabricación de equipos económicamente asequibles que hicieron posible la
creación de una incipiente audiencia.
Entre 1935 y 1945 se comienzan a realizar las primeras emisiones
regulares. Desde 1945 hasta los años sesenta se produce una etapa de
consolidación. Las características técnicas fundamentales de esta etapa
son:
• Paso de la mayoría de los países al sistema electrónico.
• Inicio de coberturas por cable —Alemania—.
• Consolidación e internacionalización de los sistemas de
difusión.
• Aparición de la televisión en color: sistemas NTSC en

132
Estados Unidos (1953), SECAM en Francia (1961), y PAL en
Alemania (1961).
• Nacimiento de los sistemas de conservación y reproducción
de las imágenes y el sonido: el magnetoscopio, de la Ampex
Corporation (1956).
En el plano social los datos más significativos son, por una parte la
falta de audiencia por la escasez de receptores, y, por otra, la lenta
evolución como consecuencia de la crisis económica.
En el expresivo, se producen las siguientes circunstancias:
• Paulatina aparición de la publicidad en el medio. El primer
anuncio comercial televisado se emitió en Estados Unidos en
junio 1941 y dio paso a la incorporación de la música al
medio publicitario audiovisual;
• La información y el espectáculo son los ejes programáticos de
las televisiones de postguerra.
• El medio carece aún de un estilo narrativo propio; es
dependiente de los modelos cinematográfico y radiofónico.
Se realizan sencillas actuaciones de grupos en los estudios
que, posteriormente, darán origen a los shows. Para llegar a
éstos se da un nuevo paso, pues aparece el play back, que
facilita nuevas aportaciones creativas.
• La aparición del color en la televisión igualó a la televisión
con el cine en uno de los aspectos en los que este basaba su
superioridad técnica. Desde 1954 la NBC comenzó a emitir
unos programas [bautizados con el nombre de
“Espectaculares”] que mostraban números musicales,
rodados en color, y con una duración de hora y media. Se
trataba del comienzo de la revista musical en televisión.
• En los años 50 las cadenas y televisiones nacionales inician la
producción de documentales para el medio. Se comienzan a
perfilar determinados modelos musicales en función del tipo

133
de documental —río, específicos o genéricos—.
Los años sesenta se caracterizan por tres hechos: el aumento de los
horarios de emisión, el seguimiento de los gustos de la audiencia, y el
impacto del directo.
• Aumento de horas de emisión. El principal problema
derivado de este hecho es la carencia de material para emitir.
En consecuencia, las cadenas de televisión empezaron la
realización propia de telefilmes y series. En este campo la
producción musical, al igual que el resto de elementos
creativos, se vio beneficiada por la necesidad de crear un
fondo de catálogo abundante de forma inmediata, y
perjudicada por la inminente comercialización y serialización
—bajos costes, plazos de entrega imposibles, etc.— a la que
condujo rápidamente el mercado. Los condicionantes
fundamentales para la música eran de dos órdenes: ajustarse
a duraciones muy breves —en función del formato, de la
trama, etc.—, y la rigidez en los métodos de producción —
elementos sonoros identificadores de la serie, de las marcas,
etc.—.
• Seguimiento de los gustos de la audiencia. Las fuertes
inversiones económicas pesan en la calidad de los
programas. La programación se centra en las variedades, los
dramáticos y los concursos. En todos ellos, la música sigue
los patrones desarrollados ya por la radio. A pesar de la falta
de calidad de los programas aumenta la audiencia como
consecuencia de su atractivo fundamental: es el espectáculo
en casa.
• Impacto del directo. El directo rompe las barreras espacio-
temporales que el cine había creado. Este supone la
transmisión por televisión en el mismo momento en que se
produce el hecho y desde el mismo lugar en que se
desarrolla, provocando la coincidencia de cuatro tiempos: el

134
del suceso, el de la elaboración narrativa, el de la difusión y
el de la recepción y lectura. La utilización del play back en los
musicales y los espectáculos de variedades da pie a los
“directos previsibles” que tienen mayor poder de atracción
porque se controla, previamente, su grado de
espectacularidad.
En el campo técnico, los años sesenta ven el desarrollo de un nuevo
avance humano sin precedentes: los primeros satélites artificiales
alrededor de la Tierra que serán el germen de la televisión vía satélite. En
1964, se inicia la instalación de una red de comunicaciones denominada
“Intelsat” que permite, técnicamente, la emisión/recepción de señales
audiovisuales a través de satélites geoestacionarios.
Por otra parte, las innovaciones introducidas en el VTR
(magnetoscopio) van a modificar algunos parámetros de la producción
televisiva:
• Aumenta significativamente el número de programas
diferidos o grabados. El directo disminuye lentamente y,
consecuentemente, la música en directo deja paso a la
grabada [un efecto similar había ocurrido años atrás con la
aparición del magnetófono en la radio].
• Aparecen nuevas posibilidades expresivas de montaje: la
repetición instantánea de imágenes, y el ralentizado —sin
sonido sincrónico—.
A mediados de los años setenta aparece un nuevo fenómeno
televisivo que va a provocar, entre otras cosas, un intenso debate sobre su
naturaleza publicitaria: el videoclip Las características fundamentales de
este son:
• Texto audiovisual generado a partir de un tema musical,
habitualmente de música ligera.
• Montaje rítmico, muy ágil y absolutamente libre.
• Debe conservar el ritmo y evitar toda lentitud visual.

135
• Poseer un visual hook (motivo visual) que le diferencie de los
demás y mantenga la atención del espectador.
El primer videoclip es 200 Motels, realizado por Frank Zappa en
1974. Le siguen, de inmediato, Bohemian Rapsody de los “Quenn”, Hot Less
de Rod Stewart, Fool to Cry de los “Rolling Stones”, Rush de los “Bee
Gees”, Diamond Dogs de David Bowie, etc.
En 1978 la BBC comienza a difundir videoclips en su programa Top
off the Pops y da paso al boom internacional de estos. En 1981 comienza a
emitir la primera cadena dedicada las 24 horas del día a la emisión en
estéreo y por satélite—cable de videoclips: la Musical Televisión (MTV) de
la Cadena Warner.
Desde mediados de los años 80 la televisión ha seguido un proceso
de evolución similar al de la radio. Por vez primera, este medio que fue el
motor de modificación del resto, siente la necesidad de adaptarse a los
nuevos tiempos de la información globalizada. Los rasgos más acusados
son:
• Descentralización. Desarrollo genérico de las emisoras
privadas. El aumento de las horas de emisión, la competencia
por la audiencia contribuyen a un mayor número de espacios
musicales, programas específicos, y, sobre todo, mayores
ingresos de las sociedades de gestión de derechos —nuevas
leyes de propiedad intelectual, etc.—.
• Generalización del espacio audiovisual.
Internacionalización de los productos y los públicos. La
globalización provoca un acusado colonialismo cultural:
pérdida de identidades culturales que contrasta con un
espíritu de recuperación folklórica, de regreso a las fuentes
musicales.
• Televisión digital vía satélite. La aportación fundamental
son los llamados canales temáticos. Poseen una
programación especializada en contenidos específicos para
un público concreto. Existen multitud de canales temáticos

136
musicales de los más diferentes estilos y tendencias. Un
subtipo evolucionado de estos son los canales interactivos
que permiten, a través de Internet, mantener un feddback real
con los espectadores.

6.2.5. La Música en la convergencia de medios.

8.2.5.1. El fenómeno multimedia.


El ciclo de la sociedad de la información ha sido superado. En su
lugar ha surgido un nuevo modelo social: la sociedad del conocimiento
“multimedia”. Se trata de aquella sociedad cuya capacidad para la
investigación y el desarrollo, su asimilación de la tecnología punta, y su
permisibilidad hacia el abaratamiento de los costes, hacen posible que los
ciudadanos consuman tecnología (Peña de San Antonio).
En el plano técnico, el concepto multimedia dispone de tres
acepciones:
1. Multimedia como integración de hardware. Hace referencia
a la capacidad de las plataformas domésticas para integrar
una gama amplia de periféricos, expandirse en sí mismas,
ampliar su potencia, o su espacio de almacenamiento.
2. Multimedia como integración de software. Hace alusión a la
compatibilidad total entre diferentes programas
informáticos: intercambio de ficheros y archivos, generación
de códigos ejecutables entre distintas plataformas, etc.
3. Multimedia como integración de medios. Hace referencia a
los esfuerzos de los medios de comunicación por integrar
servicios juntos a las plataformas informáticas: radio on-line a
través de Internet, vídeo bajo demanda, televisión en directo
a través de Internet, servicios de telecarga vía satélite, etc.

8.2.5.2. Multimedia y música.


El concepto de multimedia surge a mediados de los años setenta

137
desde las plataformas Apple Macintosh y Commodore AMIGA. Uno de los
conceptos técnicos sobre los que se fundamenta la multimedia es la
multitarea real. Esta posibilita trabajar al mismo tiempo con diversos
programas [disponer, por tanto, de un sistema operativo que pueda
ejecutar internamente más de un programa de software], intercambiar
ficheros entre ellos, saltar de uno a otro, etc.
El desarrollo musical en el ámbito multimedia parte de los primeros
intentos de incorporación del sonido al ordenador. El 1978, Steve Wozniak
diseña el primer ordenador doméstico —Apple II/e— que disponía de
sonidos, aún muy rudimentarios, para acompañar los videojuegos. A este
le siguieron otros equipos como el Commodore 64, el ZX—Spectrum o el
Amstrad CPC—464 que incorporaban el revolucionario sistema de sonido
de 8 bits. En estos ordenadores ya era posible, mediante códigos similares
a los de la programación convencional, generar la música, las bandas
sonoras y los efectos de sonido de los programas.
En 1990 aparecen en el mercado el primer compatible PC x86, el
Commodore Amiga y el Atari ST 520. El sonido estereofónico de 16 bits de
estos dos últimos abrió las puertas a una recreación sonora de altísima
calidad. Por razones comerciales, en tan sólo tres años PC acaparó el
mercado e incorporó una calidad sonora similar a la de las otras
plataformas. Mientras, en el campo profesional, los Macintosh de Apple se
convierten en el estándar.
A partir de 1994 comienzan a aparecer compañías como Creative
Labs, Adlib, Yamaha, etc., que inician el desarrollo de tarjetas de sonido de
altas prestaciones. Desde los 8 bits en sonido monoaural hasta los 24 bits
en estéreo, han surgido hasta la fecha numerosos avances tecnológicos —
sistemas surround, sonido espacial tridimensional, procesadores digitales
de señal, etc.— que han permitido trabajar en estudios domésticos con
calidad profesional. Todo ello ha contribuido a:
• Socialización de la creación musical.
• Diversificación de las audiencias musicales.
• Generación de redes de distribución alternativas.

138
• Independencia con respecto a los soportes tradicionales y,
consecuentemente, a los mecanismos de
edición/distribución.

8.2.5.3. Internet y música.


La irrupción de Internet en los mercados domésticos a mediados de
los años noventa ha supuesto una auténtica revolución en los sistemas de
acceso y procesado de la información. Los medios de comunicación de
masas —cine, radio, prensa, etc.—, pasado el temor que todo nuevo medio
provoca, se han subido al carro de Internet y hoy en día sería impensable
entenderlos sin la funcionalidad que la red de redes les otorga, tanto como
una gigantesca fuente de información, como un ámbito alternativo de
publicación y difusión: páginas web, Chats, correo electrónico, listas de
noticias, etc.
Aunque Internet no supone, por el momento, la absoluta
integración de medios [en el futuro está por llegar el cable y la fibra óptica
a todos los hogares], sí es posible acceder hoy en día, a través de la red, a
ediciones digitales de los periódicos, emisoras de radio on-line a tiempo
real, o cadenas de televisión.
Por lo que hace referencia a la música, Internet supone su presencia
y acceso masivo. De forma resumida, las posibilidades que ofrece son:
• Escuchar a través de las versiones electrónicas de los medios
tradicionales.
• Acceder a gigantescas bases de archivos MIDI.
• Crear, intercambiar o “bajarse” archivos digitales en
diferentes formatos: MOD, WAV, MP3, VQF, etc.
• Cargar los archivos musicales MP3 a reproductores
personales directamente desde el ordenador.

6.3. MEDIOS DE DIFUSIÓN Y CREACIÓN MUSICAL.


La exigencia de originalidad —creciente desde que desaparece en la
Edad Media el anonimato del artista— ha llegado a tal demanda en el

139
siglo XX que bajo esa desesperada búsqueda ha quedado tan sólo, en
muchos casos, un cierto efectismo amanerado de carácter individual que
es incapaz de crear tendencias estilísticas y que se confunde en la
fagocidad de la moda. Valga como ejemplo la sucesión de corrientes desde
el final de la Segunda Guerra Mundial: serialismo e indeterminación,
música textural, minimalismo, música étnica, música ambiental,
neotonalidad, etc., o la estética de consumo de la música popular actual.
En los últimos años se pueden contar más de cincuenta tendencias que
tienen la vida de una crisálida. Unas se comen a las otras: Ambient pop,
Handbag, Cyberpop, Underground, Flamenco-house, Hardhouse, etc.
En el contexto creativo actual, como recuerda Stokowsky, todo
sonido que posea significado para alguien —que permita una
comunicación interpersonal— puede ser música. En rigor, lo que significa
a los elementos de una sonoridad es su organización (Stravinsky). Cuando
dichos componentes, dentro de una determinada intención anímica se
ajustan a un modelo estricto y reconocible, están en disposición de
comunicar (J. Torres).
Esta dominante diversidad plantea una abierta perspectiva que
podría conducir a un individualismo desmedido. No obstante, en la
cultura del pluralismo cultural, como la ha llamado Morgan, se pueden
localizar, aún, dos grandes líneas o vertientes compositivas actuales: la
germánica y la latina. La primera supone la liberación de la disonancia
pero impone una sujección de tipo formal. La segunda, que realiza una
utilización espacial del tiempo musical, rechaza la repetición causa-efecto
germánica, volcándose en la repetición. En ella, el acorde, entendido como
amplificación acústica de una simple nota, es un material adireccional (Cfr.
Marlos Nobre, en Música y sociedad en los años 90, 1995: 31)
Aún así, el momento de creación actual solo deja tipificarse a costa
de ser esencialmente reduccionistas. La espoleada inquietud y agitación de
las distintas posturas estéticas, la interrelación de las novedades técnicas, y
el impulso de la presencia tecnológica, hacen del resultado sonoro una
disparidad que no se retiene en configuraciones estructurables. Una

140
discrepancia que hace honor a la individualidad inconformista de un
mundo mediático e insolidario.
La relación de la creación musical con el fenómeno de la
radiodifusión va más allá de las propias implicaciones y servidumbres que
las conectan. La correspondencia establecida entre ambas se remonta a las
primeras transmisiones radiofónicas. En su origen, la música ha tenido un
papel especialmente relevante, bien en interpretaciones en vivo,
grabaciones hechas en los estudios o provenientes de discos. En la otra
dirección, la radio —así como todos los fenómenos acústicos y físicos que
implica— ha servido de estimulo creativo y objeto de indagación de los
compositores contemporáneos.
La influencia del fenómeno radiofónico en la creatividad musical
nace, más en el plano ideológico que en el operativo, en la segunda década
del siglo XX, manifestándose a través del Maquinismo y el Ruidismo
propugnados por Luigi Russolo (El arte de los ruidos) y secundada, en
diferentes grados, por compositores como Honegger (Pacific 231) o Zador
(Sinfonía técnica). Por otra parte, la aplicación del “ruido” al campo de la
música suma adeptos progresivamente en técnicas tan dispares como los
clusters de Henry Cowell o el piano preparado de John Cage.
Sin embargo, va a ser en la segunda Postguerra cuando surjan
varias corrientes estéticas que, bajo un encubierto enfrentamiento y
disparidad creativa, encuentren un nuevo camino basado en la explotación
masiva de todo el espectro audible, a través de procedimientos
descubiertos por la radiodifusión y la grabación eléctrica:
• Música Concreta. Pierre Schaeffer (Concierto de los ruidos) y
Pierre Henry desde los estudios parisinos de Radio France
• Música Electroacústica o electrónica. Stockhausen (Canto de
los adolescentes). Radio Colonia (Alemania).
• Música aleatoria o estocástica. Xenakis (Estrategia). Reacción
frente al serialismo integral.
• Música para cinta. Centro de Música Electrónica de la
Universidad de Columbia-Princenton. V. Ussachevsky, O.

141
Luening y M. Babbit.
Desde ese momento hasta nuestros días, la evolución de este tipo de
investigación creativa ha sido paralela al desarrollo de la técnica
informática. Las sucesivas generaciones de ordenadores y la aparición de
diferentes técnicas de captura y tratamiento del sonido, han unificado los
objetivos de cada una de esas corrientes, al tiempo que se han vislumbrado
nuevos horizontes por descubrir.
Entre los ejemplos más curiosos y actuales destacan las propuestas
de Brian Eno. Este creador recoge, en cierta medida, la tradición de John
Cage. Su estética-filosofía se fundamenta en una preocupación por la
estructura formal de los fenómenos musicales, por el estudio de los efectos
psicofísicos del sonido en el cuerpo; de tal forma que se pueda llegar a
provocar los efectos a través de una inferencia causal. Junto a él, aparece el
fenómeno de la Multimedia interactiva, con trabajos sorprendentes como
el XPlora 1 de Peter Gabriel, o el No World Order de Todd Rundgren; y las
investigaciones en Sonido virtual -Sonido tridimensional interactivo-
realizadas por el IDEA a través de su programa The virtual String Quartet.

142
CAPÍTULO VII. LA MÚSICA EN LA

NARRACIÓN AUDIOVISUAL

7.1. LA REFLEXIÓN TEÓRICA ENTORNO A LA MÚSICA


CINEMATOGRÁFICA

Desde que en el bienio 1935-36 L. Sabaneev publicara su obra Music


and the Film —primer manual de composición musical para cine, en el que
realiza una defensa de una ilustración pasiva de la imagen conseguida
mediante el simbolismo del leitmotiv—, y Kurt London hiciera lo propio
con Film Music: A Summary of the Characteristic Features of Its History, han
sido numerosas y muy heterogéneas las investigaciones, documentos y
ensayos que se han acercado al fenómeno de la música en el cine.
Tras el bisoño trabajo de Pierre Poirier (1941), Hans Eisler y
Theodor Adorno (1944) escriben el que se convertirá, durante décadas, en
el libro de la música en el cine por antonomasia. El planteamiento más
novedoso de esta obra radica en la negación de los clichés como
herramientas para generar estados de ánimo, además de establecer, por
vez primera, la igualdad de potencialidades de los tres elementos de la
banda sonora: palabra, música y ruidos —argumento este del que después
Pierre Schaeffer será un abanderado famoso—. A continuación, Roger
Manvelle y John Humtley establecieron, desde una perspectiva algo
confusa, un funcionalismo musical atendiendo a criterios psicológicos,
estéticos y tecnológicos, que recogerá Georges Hacquard (1959)
admitiendo el valor autónomo de la música, y analizando la unión de esta
con el resto de elementos sonoros. Posteriormente, Henri Colpi (1963)
vendrá a señalar, evitando extraer generalizaciones o sistematizaciones,
que el funcionalismo está ligado a la acción dramática, si bien desde la
ruptura del dualismo entre poetizar la imagen o crear un discurso

143
contrapuntístico a ella.
Mientras, y de forma sucesiva, aparecen nuevos títulos y nuevos
autores que diversifican las propuestas anteriores, bien con tratamientos
monográficos o en el seno de trabajos teóricos más amplios. Es el caso de
Zofia Lissa, quien en su Estetyka Muzyki Filmowej parte de una
metodología basada en la búsqueda de los vínculos entre imagen y sonido,
para presentar una extensa taxonomía. En este planteamiento hay una
evidente dependencia sonora frente a la imagen. Dicha vinculación es
unilateral por cuanto, en la escenificación, la música adquiere el
significado contextualizándose en su referente icónico. Asimismo,
encontramos los casos de François Porcile (1969), Nöel Burch (1970), Earl
Hagen (1971) Mark Evans (1975), y Alain Lacombe y Claude Rocle (1979).
Sin embargo, es a partir de la década de los ochenta cuando el interés por
la reflexión teórica sobre la música en el cine, por el estudio de las
fórmulas narrativas del sonido cinematográfico, toma una nueva
dimensión que, en muchos casos, abandera un acusado antifuncionalismo,
y que parece coincidir con las nuevas posibilidades introducidas por el
sistema Dolby en la gestión del sonido. En esa línea, aparecen los trabajos
de Helga de la Motte-Haber y Hans Emons (1980) —de un encomiable
sistematismo—, Sergio Miceli (1982), Gryzik (1984) —que revisa las
aportaciones narrativas, el sincronismo y el valor del silencio tratando de
descubrir los principios de los artificios audiovisuales—, la compilación de
ensayos de Elisabeth Weis y John Belton (1985), el estupendo estudio de
Claudia Gorbman (1987), el de Fred Karlin y Rayburn Wrught (1990), la
aproximación histórica de Rondolino (1991), una nueva aportación de
Nöel Burch (1991), Roy M. Prendergast (1992), el sustancial ensayo de Rick
Altman (1992), y el de Fred Karlin (1994).
Este efecto alcanza también a España aunque de manera muy
dispar. Mientras Valls Gorina y Padrol (1990) teorizan desde los
postulados de la corriente funcionalista, Alejandro Pachón (1992) da vida
editorial a un trabajo de argumentos historicistas algo impreciso, y Colón
Perales (1993) inicia un interesante trabajo de gran rigor documental. Por

144
su parte, José Nieto (1996) asume un novedoso rol en la cinematografía
española y firma un valioso manual de notable valor didáctico y práctico.
No obstante, de forma genérica, la aportación más significativa, por
continuada y prolífica, es, sin duda alguna, la de Michel Chion. Tanto en
La voix au cinéma (1985), donde aborda el estudio de la voz en el cine como
elemento de representación y recupera para resignificarlo el concepto de lo
acusmático Shefferiano, en Le son au cinéma (1985), en el que estudia el papel
de la música y el sonido en la puesta en escena, en La toile trouée (1988),
donde asume el estudio del valor de la palabra cinematográfica, en La
audiovisión (1993), en el que plantea un nuevo referente analítico
comparado de imagen y sonido, o La música en el cine (1997), en el que
realiza una revisión entre historicista y estructural de la música en el cine;
acomete un análisis, sin parangón hasta la fecha, del sentido narrativo del
sonido en general, y de la música, en particular, en el cine.

7.2. PRINCIPIOS
Cada medio posee unas características estéticas y técnicas propias
para rellenar sus huecos narrativos. Sus exclusivas e indeterminadas
circunstancias, surgidas de la naturaleza peculiar de su sistema —
unbestimmtheiten—, imponen las capacidades expresivas y narrativas que
logra desempeñar en el espacio y el tiempo (Chatman, 1990: 31). Su
conjunto, unido a las relaciones externas en las que se producen, marca el
diseño de su dispositivo. En el ámbito sonoro, parafraseando a Aumont
(1992: 143), este hace referencia a la totalidad de determinaciones que
incluyen y afectan todo vínculo con los sonidos. Tales determinaciones,
que comprenden componentes sociales y generativos, abarcan
especialmente “los medios y técnicas de producción [...], su modo de
circulación y, eventualmente, de reproducción, los lugares en los que [...]
son accesibles, y los soportes que sirven» para difundirlos”.
A lo largo de la historia los sonidos musicales se han ido ciñendo,
con mayor o menor libertad, a formas preestablecidas que han marcado,
como un corsé identificativo, el acto y los resultados creativos. Las formas

145
clásicas y preclásicas, la estructura de la Fuga, o las mismas series
dodecafónicas, el serialismo integral, etc., han supuesto una especie de
justillo creativo “impuesto” al compositor muchísimo mayor que el que
pueda resultar de una determinada estructura cinematográfica. Si bien es
cierto que las distintas estéticas contemporáneas tratan de renunciar a ese
estigma a través de variados procedimientos, no lo es menos el hecho que,
fuera de toda discusión, siempre habrá un patrón de trabajo, un proyecto
artístico que module la obra. Poco importa, a este efecto, que dicho modelo
responda a valoraciones formales, armónicas, melódicas, rítmicas o
extramusicales. Cualquier obra que tenga como fin la comunicación ha de
regirse a través de un código, implícito o explícito, y por tanto ha de
manejar unas reglas que le sirvan de estructura y que diseñen la dirección
y el sentido de lectura.

7.2.1. Naturaleza de la Imagen Secuencial en


Movimiento
La naturaleza de la Imagen secuencial en movimiento posee un
orden múltiple. La diversidad de sus elementos constitutivos desprende
una heterogénea corporeidad que va mucho más allá de su propia
presencia textual. Como objeto estético, como ámbito de la cultura, como
expresión ideológica o como fundamentación especular y paradigmática
de la sociedad, se presenta a nuestros ojos como irrenunciable integración.
Aparece así porque, primariamente al deseo de una pragmática lectura
global, ha existido un germen de común creatividad, de creación grupal
que, por encima de los deseos y motivaciones individuales, troquela la
huella de un yo, etéreo y omnímodo, cuya manifiesta vocación es expresar.
En la constitución de esa naciente naturaleza, se impone una
sinergia centrípeta. Los elementos que la integran convergen en un nuevo
plano sustancial y quedan condicionados, formal y semióticamente. Es, en
cualquier caso, un circunstancia que se manifiesta en su reciprocidad. El
todo articula las partes, y la identidad de estas define el nuevo objeto

146
textual a través de una cierta disciplina en la elaboración de ese todo, que
implica, habitualmente, una jerarquía manifiesta tanto en la presencia
temporal de las sustancias, en su disposición y ámbito espacial, como en la
propia teleología del texto como mensaje.
Esas cláusulas que marcan el contrato audiovisual proponen a la
música, como sustancia expresiva, una adecuación de sus principios
generativos. No ya por lo que se refiere a sus propios elementos
constituyentes sino por lo que tiene que ver con el origen creador. La
actividad compositiva musical, sacada de su esfera autosuficiente, queda
tamizada por las exigencias de un referente externo a su discurso. Se pone
al servicio de una síntesis nacida de la unión de la imagen secuencial en
movimiento con un nuevo espacio sonoro narratológico, permitiendo la
aparición de unas estrategias y rutinas creativas que, si bien no han de ser
ni exclusivas ni únicas de esta tipología creativa, aparecen justificadas en
ese marco. Dichas estrategias responden a una Poética que, consciente o
no, vertebra los resultados de su acción, y que precisa, necesariamente, del
estudio de la banda sonora para comprender el fenómeno audiovisual en
su verdadera dimensión de conjunto significante. Cabe señalar que, en este
caso, el término Poética se toma en la acepción que remite a la habilidad y
ciencia de la producción, del hacer. Se desestima, por ello, la realización de
una Teoría Poética como tal.
La creación de textos musicales requiere capacidades en el sujeto
actorial que son comunes a cualquier otro tipo de creador; pero la
especificidad del lenguaje musical, de la sustancia expresiva sobre la que se
produce, impone la exigencia de ciertas habilidades divergentes que
quedan aún más mediatizadas como consecuencia de activarse en el
contexto de un mensaje complejo y polisustancial. No obstante, parece
probable que esa necesaria vinculación, esa predisposición narrativa del
compositor que queda ligada a los planteamientos diegéticos de una
superestructura, debe provocar, además, un replanteamiento técnico y
estético que se haga visible en la pertinencia de específicas fórmulas y
estrategias de elaboración.

147
La corporeidad integrativa propia del texto audiovisual resulta una
égida tras la cual, fuera del análisis e incluso en él, se esconde la aparente
evidencia de lo obvio. Asumimos con tal naturalidad la presencia de la
música en el texto audiovisual, navegamos por su fluido con tal
despreocupación, que en nada ha de extrañarnos no ser conscientes de su
artificialidad. Desde esta premisa, ¿cómo podemos llegar a preguntarnos
por el origen del artificio?, ¿por qué o quién está detrás de su existencia?.
Si ni tan siquiera nos sorprende o preocupa la necesidad de su estar,
difícilmente precisaremos conocer su principio.
Convertida en objeto de examen, la elaboración musical integrada
en el proceso audiovisual requiere la determinación de unos límites
epistemológicos precisos. La demarcación viene configurada por las
teorías científicas directamente implicadas en la construcción de los textos
audiovisuales. La Teoría de la creatividad dispone las bases para
comprender los parámetros que dan origen a toda actividad heurística: el
estudio de la personalidad creadora como agente activo, los procesos,
procedimientos y transformaciones que se verifican entre la
conceptualización de la idea y el resultado final de la misma, y los
productos efectivos en actos de creación. La Narrativa audiovisual en su
estudio de las funciones discursivas de la música dentro de los textos
audiovisuales, la Poética como arte de la composición textual y la Retórica
como arte del bien decir, de embellecer la expresión, aportan la
cimentación teórica de un corpus que ofrece una sistematización
catalogada de hechos, sucesos y parámetros creativos. La Teoría musical,
en especial la teoría formal y compositiva, brinda los instrumentos básicos
para el examen de los recursos sonoros y estéticos utilizados por el
compositor para crear. Por último, la tecnología sonora y la técnica de
grabación de audio aportan el conocimiento de las fórmulas y sistemas de
registro de una música que nace para ser grabada.

7.2.2. ISeM: definición


La imagen secuencial se compone de una serie sucesiva de

148
«imágenes aisladas que adquieren valor significativo en el conjunto de la
secuencia, [...] donde cada imagen adquiere su significación plena por su
ordenación» (Villafañe, 1985). Un caso específico de esta es la imagen
secuencial en movimiento (ISeM). Las taxonomías de la imagen que se han
formulado son numerosas. Atendiendo a la clasificación estructural de
Villafañe —tiene en cuenta las estructuras cualitativas de la imagen:
espacio y tiempo— la ISeM es una imagen móvil —según la dinámica
objetiva—, estereoscópica —según las dimensiones del soporte—,
secuencial —según la temporalidad—, y dinámica —según la
dinamicidad—. Según la clasificación de Gubern, es una imagen exógena,
pública, tecnográfica, móvil y secuencial.
Algunas de las características que la definen son:
1. Unidad de espacio temporal (equipotencialidad)
2. Espacio variable y cambiante; continuo y abierto.
3. Punto de vista y posición del espectador variables.
4. Reconstrucción del esquema temporal real.
5. Función primordialmente narrativa.
6. La percepción viene definida por la ilusión de movimiento.
7. Instantaneidad máxima en la percepción de las imágenes.
8. Las imágenes aisladas que conforman la secuencia no son
unidades mínimas de significación.
9. La lectura viene temporalizada por el emisor del relato.
10. El tiempo de lectura coincide con el del espectáculo.
11. Presenta dos niveles:
• formal, sucesión temporal de imágenes, y
• profundo, temporalización de lo representado.
Con la secuencialidad se trata de redimir «el esquema temporal de
la realidad» a través de «la representación icónica del tiempo». En la ISeM
el fotograma es una imagen aislada no perceptible, por lo que la unidad
mínima de significación es el plano. El cine, según Moles, como «arte y [...]
ciencia de crear una imagen en movimiento, de introducir el tiempo en el
espacio, de animar una imagen», hace uso de una imagen registrada,

149
múltiple, móvil y temporalizada. Es registrada porque se obtiene
mecánicamente con la presencia del referente real, múltiple porque es
reproducible en copias idénticas al original, móvil porque no es estática,
tiene una dinamicidad propia y reproductora del flujo temporal real
mediante la ilusión del movimiento, y temporalizada por cuanto el tiempo
de lectura coincide con el del espectáculo sin posibilidad de
temporalización secundaria en la lectura.
Según Mitry, un código es, conforme a un consenso social, «la
atribución arbitraria, impuesta y obligatoria de una función práctica en un
sistema de signos dados» (en La semiología en cuestión). Si bien algunos
autores (Eco) consideran que en la imagen secuencial no hay códigos
(estables ni obligatorios, por la inestabilidad del signo, lo cierto es que
para su materialización la ISeM utiliza diferentes tipos que son los que
proporcionan las reglas para generar signos:
• sonoros (fónico, musical y analógico),
• icónicos (imágenes fotográficas dinámicas),
• y gráfico-verbal (títulos, créditos, subtítulos, etc.).
Según Metz, estos códigos específicos del cine, están generados por
tres aspectos: la movilidad de la imagen, la organización interna del
encuadre, y la articulación de imagen y sonido.

7.2.3. Niveles de análisis: interpretación fónica


Para el análisis de la sustancia sonora se trasladan los tres niveles de
interpretación icónica —como motivo, como historia y como síntoma
cultural— al campo de lo sonoro, siguiendo la propuesta de Panofsky y de
la escuela de Warburg dentro del estudio analítico de la imagen:
a) Nivel de lectura fónica. Valor de reconocimiento primario del
sonido atendiendo a la presencia del mismo en cuanto a tal y en referencia
a la fuente que lo provoca. Características identificativas de los motivos
musicales.
b) Nivel de lectura fonográfica. Valor de significación del sonido
en el marco contextual en el que se produce. Aunque no se pueda hablar

150
de una «semántica musical» en sentido estricto (Nattiez), para su estudio,
se puede considerar el significado de la música desde tres aspectos
distintos:
b.1. como una «descripción de significantes», en la que los
elementos constituyentes de lo musical aparecen, individualmente,
como eventos de valor, y, en conjunto, como unidades formantes
de una retícula discursiva,
b.2. como lugar común de experiencias lectoras, expresadas a
través de «la descripción de conexiones empírico-subjetivas»,
b.3. como verbalización referencial de los efectos que evoca dentro
de un determinado universo cultural.
c) Nivel de lectura fonológica. Valor cultural y simbólico del
sonido respecto al marco sociocultural en el que actúa su dimensión
pragmática.

7.2.4. Proceso de codificación en la dialéctica Imagen-


Sonido
La correspondencia entre imagen y sonido es una relación dialéctica
que se establece siempre en términos disimétricos, pues mientras se
percibe un campo visual que, por lógica, ha de sonar total y
simultáneamente, tan solo se escucha una pequeña parte de esa
multiplicidad sonora. Ello alude a las condiciones de codificación técnica y
estética en la que se desenvuelven ambas sustancias expresivas. En esa
lógica, la correlación entre música e imagen se establece en torno a tres
niveles distintos (G. Fresnais):
1) Sincronismo. El sonido aporta una información complementaria
que ayuda a explicar la imagen. Cumple una función
pleonásmica.
2) Disociación. Provocada por la inserción del sonido off.
Importancia del fuera de campo por la evocación de un espacio
imaginario no mostrado. El sonido funciona como un

151
complemento de la imagen.
3) Privación. Música sin localización. Sin rol específico.
En la imagen, la codificación de la realidad visual se
instrumentaliza a través de la cámara (el ojo) que opera una selección —
encuadre, campo, enfoque, etc.—. El resultado de esa codificación es una
imagen que el espectador lee con unos códigos diferentes a los de la
realidad visual. Esa imagen posee unas características:
• Tiene una naturaleza artificial.
• Dentro del encuadre mantiene la temporalidad y la
espacialidad de sus elementos.
• Se abstrae la linealidad y la ubicación in situ, ad hoc.
En el sonido, la realidad auditiva es codificada a través de un
grabador (el oído) que la registra. Este instrumento opera una selección, no
de campo, sino de ámbitos acústicos. El auditor, aparentemente, lee con
unos códigos que son los mismos, pero que en realidad están
transformados por la convención de registro. Las características de la
banda sonora de registro son:
• Naturaleza artificiosa.
• No posee encuadre, ubicación determinada, aunque su
fuente tenga una justificación en la imagen.
• No tiene una localización fija en la imagen porque los
sonidos no salen de los exactos lugares que referencia cada
punto en esta, sino de unos altavoces tras la pantalla o,
incluso fuera de ella, repartidos por toda la sala. Convención
del extracampo sonoro.

7.2.5. Focalización de la fuente sonora


La percepción sonora es especialmente comprometedora porque
obliga a buscar su origen. La audición de un ruido, sin la visión de la
fuente que lo causa, provoca una reacción de localización instintiva como
consecuencia de la tensión que la imaginación y el conocimiento generan

152
para suplir la falta de información, para completar esa carencia. El poder
del sonido cinematográfico, como afirma Chion, radica en su capacidad
para jugar con la polaridad de acusmatizar/desacusmatizar los diferentes
sonidos. Y es que, el ser acusmático es ubicuo y omnisciente. Aunque la
representación sonora y la visual no son, en absoluto, de la misma
naturaleza —pues las características de los órganos de sentido
correspondientes, oído y vista, se comportan de forma muy diferente en
relación al espacio—, la simultaneidad de su percepción es
complementaria porque «en esencia, la dicotomía sonido-imagen reside,
no en una oposición sino en una identidad» (Burch, 1970: 96). De hecho,
cuando en un filme la continuidad no queda asegurada por la imagen, el
sonido puede suturar sus fisuras porque su potencia evocadora y grado de
legibilidad variable es extraordinaria: «El sonido, por su mayor realismo,
es infinitamente más evocador que la imagen, la cual es sólo una
estilización de la realidad visual. [...] Un sonido evoca siempre una
imagen, una imagen nunca evoca un sonido» (Burch, 1970: 97).
La fuente sonora no sitúa el sonido en el espacio. Colabora en
indicar su dirección y sentido, pero no consigue sujetarlo, empíricamente,
en un punto concreto de la pantalla. Lo justifica en la diégesis pero no lo
atrapa. El criterio discriminante es la posición de la fuente sonora en
referencia al contenido visible en la imagen visual. Los casos que se dan
son:
1. Sonido diegético. La fuente sonora aparece, visualmente, en la
imagen, forma parte de la historia y, por tanto, es oída por los
personajes de ficción.
2. Sonido off. La fuente sonora no se hace visible en la imagen pero
su presencia es integrable dentro de la diégesis. Hay cuatro casos:
a) Diegético-elíptico: aún estando ausente, la fuente sonora se
justifica porque ha sido presentada con anterioridad. Casos
especiales son el sonido ambiente —marca un espacio, un
territorio—, y el sonido on the air —retrasmisión electrónica—
(Chion).

153
b) Diegético-citado: la fuente no aparece ni lo ha hecho
anteriormente pero su presencia y localización se justifica en
el contexto. Puede presentarse, también, como sonido
ambiente o sonido on the air.
c) Diegético-suspensivo: la fuente no aparece y el contexto
tampoco ofrece una información fiable por el momento, pero
lo hará después. Incluye el sonido ambiente y el sonido on the
air.
d) Extradiegético: la fuente sonora no aparece y tampoco lo hará
posteriormente. No es oída por los personajes de ficción. Un
caso especial es el sonido interno —interior físico y mental de
los personajes. Chion (1993) habla de dos posibilidades: a)
Interno-objetivo, que corresponde a sonidos fisiológicos, y b)
Interno-subjetivo, que se produce como consecuencia de
recuerdos, pensamientos, etc.—.
3. Sonido Over. La fuente sonora «se sitúa claramente fuera de la
historia» (García Jiménez, 1993: 103). El sonido no es oído por los
personajes de ficción y tampoco forma parte de la diégesis.
4. Sonido acusmático. Aquel cuya fuente se desconoce pero que el
espectador es capaz de referenciar a través de lo que se ha visto y
escuchado.
El grado cero de focalización auditiva se produce cuando la
presencia e intensidad del sonido «no corresponde a la distancia
que se supone existe entre el personaje y [...] el “lector de sonido”
(el micrófono), generalmente asociado al “lector de la imagen” (la
cámara, que lo capta)» (Ibíd. 104).

(Fig. 12 Focalización de la fuente)

154
7.3. LA MÚSICA EN LA OBRA DE ARTE TOTAL

7.3.1. El audiovisual como síntesis


Ya hemos estudiado que las teorías respecto al origen del hecho
musical son muy diversas. Comprenden justificaciones emocionales
(sonorización de gritos, quejas; Cf. C.Stumpf), lingüísticas (Rousseau,
Herder), funcionales (andar, trabajar; cf. K.Bücher), imitativas (sonidos de
animales, naturaleza; Darwin), y ontogenéticas (balbuceos de los bebés).
Desde su origen, la música ha estado ligada a funciones
representacionales. Ya en la antigüedad una gran parte de su uso estaba
vinculado a la necesidad humana de cubrir de densidad emocional a sus
actos reales. Como arte ha conjugado elementos que expresan lo bello (en
cada una de las diferentes significaciones históricas que la metafísica, la
cosmología, la teología, la filosofía del arte y la estética han otorgado a este
término), a través del sonido, sobre un tapiz científico donde el conjunto
de leyes que rigen su producción, altura y duración, imponen a la
trascendencia de los valores psicológico y espiritual el ejercicio de un
cedazo a la par aglutinante y diversificador. La proyección y elevación del
espíritu y los actos humanos ha encontrado en la música el vehículo
idóneo para trascender la realidad. Desde los ritos guerreros o de caza a su
uso en el cine, aparecen múltiples expresiones en las que la música se
constituye en un elemento esencial. La liturgia, los romances, la música
trovadoresca, el teatro musical, la ópera, el drama wagneriano o la danza,
han encontrado en la música el nexo de unión entre descripción (mímesis) y
representación/narración (diégesis). Y es que en ese camino es donde se
configura el concepto de obra de arte total que surge, conceptualmente, a
partir de la estética del romanticismo temprano y se desarrolla y
populariza con el “drama musical” wagneriano. Su ideología es la ruptura
de los confines artísticos a través de la revolución estética, como
precursora de la “revolución de la humanidad”. La unión de diferentes
manifestaciones artísticas concertadas se produce en las producciones

155
globales, pues en ellas intervienen diferentes tipos de artistas —escritores,
directores, fotógrafos, actores, músicos, maquilladores, escenógrafos,
etc.—, y se superan los límites del drama a través de la inclusión de las
otras artes.
El cinematógrafo recoge esa larga tradición milenaria a través de la
cual el hombre ha rastreado la esencia de un aprehender total. La tan
anhelada unión de las artes encuentra, en este primero, y en sus epígonos
después, el vehículo de expresión idóneo con el que dotar de corporeidad
a esa voz cosmogónica que agote la sustancia del ser, en un decir
diacrónico y síncrono infinito. El cine supone, por tanto, un paso más hacia
esa integración total de las artes. En él, la música asume un papel esencial.
Surge un concepto mucho más amplio que alberga en su seno la
globalidad sonora. Nace una articulación de la plástica auditiva que
supera las barreras del pentagrama. La representación absoluta del espacio
sonoro evoca una multiplicidad de eventualidades que amplía hasta
límites desconocidos las posibilidades estéticas de este nuevo medio. La
diversificación de respuestas creativas amplifica su sentido ya que es
posible gozar de una multiplicidad de experiencias espectadoras, los
códigos de lectura se abren a las nuevas propuestas e interpretan, en su
inédita pragmática, soluciones divergentes que extienden, aún más, el
programa creativo. Frente al carácter emocional otorgado axiomáticamente
a la música, en el cine pasa a cumplir un doble efecto:
a) Empático: valor de código cultural: «La música se adhiere, o
parece adherirse directamente al sentimiento sugerido por la
escena, y en particular al sentimiento que supuestamente
están experimentando determinados personajes» (Chion,
1997: 232), y
b) Anempático: multiplica la emoción actuando según un
principio de displicencia cósmica: «Tras una escena
particularmente dura (asesinato, tortura, violación, etc.),
afirma su indiferencia, continuando su curso como si nada
hubiera pasado» (ibid. 233).

156
Con ello no hace sino acercarse a ese ideal romántico de integridad
expresiva anhelado por Wagner cuando recordaba a Berlioz, por ejemplo,
con qué interés miles de griegos seguían las tragedias de Esquilo, y se
preguntaba retóricamente la causa, para concluir que no había de ser otra
sino «la unión de todas las artes concurriendo hacia un mismo fin: hacia la
producción de la obra artística más perfecta y verdadera».
Estas nuevas posibilidades manifestadas por el cine no se acaban,
evidentemente, en él. Los nuevos medios y tecnologías expanden hasta el
infinito las posibilidades de articulación de las sustancias expresivas y,
consecuentemente, dotan a la música de una gran cantidad de expectativas
dispuestas a enfrentarse a las creaciones del futuro, como así lo confirmaba
Mariano Pérez:
EL siglo XX parece el lugar idóneo que han
encontrado las artes para unir sus esfuerzos en pro del
espectáculo total. En este proceso de fusión, no poco han
tenido que ver la fuerza que han adquirido los Medios de
comunicación. El ballet, el teatro lírico, la música incidental o
programática y las obras para narrador y orquesta han sido
evidentes y necesarios coetáneos de las artes propiamente
audiovisuales —que a la postre no dejan de ser los grandes
medios aglutinadores— (1980: 620).

7.3.2. Valor de la música en el texto audiovisual


Desde su origen, la aparición de la música en el texto audiovisual
ha provocado una desmedida necesidad de justificación. Aunque
preguntarse por el valor y presencia de la música en los filmes es tan obvio
como si se cuestionase «por qué en el circo los trapecistas no presentan su
número en silencio, por qué la música acompaña a los números de magia,
o por qué, en la producción de Shakespeare, encontramos a menudo
alguna canción» (Chion, 1997: 20), lo cierto es que el número de
“coartadas” aportadas es considerable. De forma absoluta, se pueden
establecer dos tipos: de carácter técnico —por ejemplo, cubrir el ruido del

157
proyector—, y de carácter pragmático y narrativo, sin lugar a duda, las de
mayor interés. Algunas de estas son:
1. Atenúa las defensas del espectador.
2. Depura las articulaciones del discurso.
3. Agiliza la narración y economiza planos.
4. Revitaliza las imágenes y les proporciona cuerpo tridimensional.
5. Le aporta verosimilitud a la historia.
6. Potencia la proyección espacial y temporal de la imagen.
7. Crea un nexo entre los espectadores, los unifica.
8. Rehabilita el valor del silencio como elemento dramático: La
música subjetiviza el sentido objetivo y realista del silencio
convirtiéndolo en un medio de tensión dramática a través de la
creación de la sensación de vacío. Para la justificación de la
música bastaría que, sin ella, «se echaría en falta lo que esta
también aporta: su silencio» (Chion, 1997: 33).
9. Fragua la concepción de nuevos géneros, etc.
Aunque parece sobradamente justificado el sentido cinematográfico de la
música no faltan aún opiniones contrarias. Mientras Xalabarder (1997: 9) afirma
que «lo idóneo en el cine sería prescindir de la música [...], que bastara con la
imagen para expresarlo todo», Chatman (1990: 26) considera que en un filme «la
historia podría entenderse igual aunque se viera sin la banda sonora». Y lo cierto
es que, tomado en su valor de imagen, tal vez se pueda entender la relación de
unión entre planos, pero no el sentido global de cohesión de las diferentes
sustancias expresivas. La pregunta que surge de inmediato es ¿qué es lo que se
entiende entonces por cine?. Para nada se puede interpretar como un arte
incompleto que precise de los recursos sonoros. El cine no es una imagen a la que
se agrega un decorado sonoro compuesto de música, diálogos y ruidos (tal vez
sea menos confuso hablar de sonidos no musicales. Objetivamente, un ruido es
un sonido no deseado y eso, en la banda sonora de una película, no tiene cabida;
si la tiene se trata de un fallo técnico), sino la conjunción de todos los elementos;
una suma que los difumina en un texto complejo. Evidentemente, cada una de
esas sustancias tiene capacidad expresiva por sí misma, pero lo que interesa,

158
cinematográficamente, es su unión, no sus posibilidades unitarias. Xalabarder va
más lejos todavía insistiendo en que «cuanto más se potencie la imagen sobre lo
sonoro, tanto mejor para el filme, para el espectador y para el propio intérprete».
Aparte de parecer esta una afirmación frívola y anacrónica, que no se
fundamenta en hechos objetivos, no tiene justificación alguna venir a decir, en
definitiva, que la música llega a ser fundamental tan solo como mal menor. De
hecho, aunque es indudable que los recursos desarrollados por la narrativa
cinematográfica han permitido a esta una notable economía «para funcionar y
mantener en vilo al público», sin que ninguno de sus componentes, incluida la
música, sea indispensable, no es menos cierto que su ausencia, casi siempre, es
significante, reivindica, amaga su nostalgia, y por ello se muestra vívida aún no
apareciendo.
A este respecto, la aportación teórica realizada por Michel Chion —
compendiada brillantemente en La audiovisión— es especialmente significativa.
En esta obra, contempla el texto audiovisual como una suma cuyos elementos no
integran su identidad en la operación, sino que cada uno de ellos le otorga un
valor añadido que no posee en sí mismo, pero que subyace en sus dinámicas
conectoras como una potencialidad ignota. El audioespectador percibe el
discurso audiovisual en su integridad, como un solo objeto estético. Se hace
explícita, entonces, la evidente interdependencia de las partes: en la mezcla de
imagen y sonido, en su fusión, se crea un nuevo marco semiótico fruto de la
actualización de unas fuerzas internas —actantes en la interdependencia que se
crea de la yuxtaposición y combinación del ver y del oír—, que van a condicionar
su mensaje. Los símbolos, en su esencia, permanecen inmutables, pero el vector
de su significado cambia de dirección.
Esta novedosa valoración, que bebe de las evolucionadas fuentes de la
música concreta, rompe definitivamente con la limitada y estrecha apreciación
expresiva que se ha otorgado estéticamente al sonido en el ámbito audiovisual.
No tanto por desconsideración —tal vez poca exigencia— como por la
dominancia que en todo momento ha tenido la palabra sobre el resto de sus
elementos, privilegiando el contenido semántico que nos ofrece la voz, para
dirigir el desarrollo de la trama, por encima de cualquier otra referencia. En esta

159
nueva construcción, el sonido se ha convertido en una entidad no contingente
que es preciso hacer presente en el texto audiovisual. Su utilidad está muy por
encima de normalizar «la organización de los elementos fílmicos visuales y
sonoros […] yuxtaponiéndolos, encadenándolos y/o regulando su duración»
(Aumont, 1983: 62). Por añadido, se hace preciso para salvar la credibilidad de la
diégesis, en entredicho en este marco conceptual, por medio de un
ficcionamiento artificioso de la realidad sonora —que pierde, así, su ingénito
carácter conmisto—.
Su poder evocador se hace patente a través de la capacidad de tornar las
perspectivas lectoras, de conducir las miradas fuera del marco/ventana que
ofrece la imagen, de consumar la ilusión tridimensional liberada de la esclavitud
de un plano de dos magnitudes. Unas capacidades que están ahí y que requieren
para su explotación un verdadero trabajo de diseño del sonido, de planificación
de las escenas sonoras, es más, un verdadero trabajo creativo audiovisual que
diligencie, desde el inicio de la realización, desde la misma idea, elaborar el
concepto narrativo a través de una concepción estética que conjugue ambas
sustancias expresivas en el eje de una reflexión bimodal. Se trata, en definitiva, de
una necesaria, por nueva, doble actitud —creadora y lectora—, que reivindique
una perspectiva inédita sobre las capacidades, que dentro del discurso
audiovisual, poseen los elementos participantes de la naturaleza de lo sonoro —
sonidos diastemáticos musicales, ruidos y la palabra—, considerando su
concurso en igualdad de potencialidades.

7.3.3. Música e imagen: anclaje y relevo


La imagen posee un significado que se hace explícito por medio de los
mensajes icónicos: el simbólico, y el literal, que funciona como soporte del
primero. Puesto que «un sistema que se hace cargo de los signos de otros
sistemas para convertirlos en sus significantes, es un sistema de connotación»
(Barthes, 1970: 131), la imagen literal es un sistema denotado y la imagen
simbólica un sistema connotado. Respecto a esta, el mensaje lingüístico, presente
en todas las imágenes, cumple dos funciones: de anclaje y de relevo.
Toda imagen es polisémica pues implica, subyacentemente a

160
sus significantes, una cadena flotante de significados, entre los
cuales se puede elegir unos e ignorar otros. La polisemia da
lugar a una interrogación sobre el sentido, que aparece
siempre como una disfunción». En toda sociedad se
desarrollan «técnicas destinadas a fijar la cadena flotante de
significados, como un modo de combatir el terror de los
signos inciertos (Ibíd. 131).
Ya que la imagen es polisémica, el mensaje lingüístico, en el plano literal,
fija uno de esos múltiples sentidos cumpliendo una función denominativa a
través de un mecanismo de anclaje. Y a nivel simbólico, orienta la lectura y la
interpretación de los sentidos connotados. La función de anclaje es, en
consecuencia, de elucidación selectiva, es decir, el mensaje lingüístico se
convierte en un metalenguaje de algunos signos del mensaje icónico aportando al
texto un valor regresivo.
Paradójicamente, se cree que la aplicación de la música a la imagen puede
reducir la multiplicidad de los significados de esta última, a través del anclaje y
selección de aquel que más interesa, al actuar como elemento disyuntor. De esta
forma se dota al mensaje musical de una paridad funcional con el mensaje
lingüístico que, evidentemente, no posee. La primera consideración debe partir
de su naturaleza. El mensaje musical, a diferencia del lingüístico, no solo es
multisémico sino que aparentemente funciona fuera del sentido, es decir, es
usémico —y en esto último, también se distancia de la imagen—. Hay, por lo
tanto, una contradicción explícita en pensar que de dos sustancias expresivas,
cuya esencia es abiertamente polisémica, pueda derivarse un contenido unívoco.
Es más, sería muy difícil decidir cual de ellas es la que cumple la función de
anclaje respecto a la otra: la música para la imagen, o la imagen para la música.
Sin embargo, y en esto radica la paradoja, el funcionamiento simultáneo de
ambas las convierte en metalenguaje de sí mismas operando una auténtica
selección, no de significados —como provoca el mensaje lingüístico—, sino de
grandes contextos significantes y emocionales. La multiplicidad de campos de
significación seleccionados por ambos, quedan acotados en una zona simbólica a
través de su interacción. Y se habla de zona simbólica, de contexto significante,

161
porque su relación, lejos de ser unívoca y direccional, presenta tantas
posibilidades como combinaciones son factibles. De hecho, su correspondencia
carece de sentido y necesidad fuera de la situación temporal y espacial en la que
permanecen unidas. Es decir, es el contexto vinculante el que atesora la
significación de su enlace, «la variable contexto dramático y visual», pues el
espectador, por encima del criterio de realismo acústico, confía en el principio del
«sincronismo, ante todo, y, secundariamente, el de verosimilitud global» (Chion,
1993: 32).
De alguna manera, el conjunto de los soportes significantes sonoros
forman una continuidad cierta, apreciable. La identificación de su linealidad
permite que, a pesar de la discontinuidad perceptiva o de los saltos de
percepción que se producen en la lectura de un texto audiovisual entre los
diferentes planos sonoros, sea posible reconocer y diferenciar selectivamente
cada uno de ellos según el valor narrativo que posean en cada momento. La
selección significante opera en virtud del efecto de valor añadido que toma cuerpo
en la «aportación de información, de emoción, de atmósfera, suscitada por un
elemento sonoro, espontáneamente proyectada por el espectador —el
audioespectador, de hecho— sobre lo que ve, como si emanara de ahí
naturalmente» (Chion, 1997: 209).

7.3.4. Funciones del signo musical


Como se ha tratado anteriormente, para considerar a un conjunto de
elementos como portador de significación se deben dar tres condiciones: la
finitud de sus signos, el poder incluirlos en un repertorio léxico, y la
determinación de las reglas que rigen su articulación, es decir, una sintaxis.
Señalábamos, asimismo, que la música como sistema cumple estas exigencias tan
sólo en parte.
En este sentido, se debe establecer una diferencia radical entre la
ilustración musical y la música programática y la absoluta, pues en estas se usan
imitaciones más complejas, más abstractas, a través de recursos menos
inmediatos, y requieren, por ello, unos conocimientos previos en el auditor para
hacer viable su reconocimiento.

162
El discurso audiovisual se compone de cuatro elementos: imágenes,
sonidos diastemáticos —música—, sonidos indefinidos —ruidos—, y palabras.
Tanto las imágenes como los ruidos, al menos la gran mayoría, son signos
motivados porque tienen un referente directo. Las palabras, por su parte, son
signos arbitrarios pues no poseen conexión explícita con su referente. Pero...¿y la
música?. En ella se produce una dualidad entre lo expresado y su sentido, entre
el sonido y el pensamiento que lo origina. En el mismo «acto de seleccionar,
unificar e identificar» se originan los significados (Marina, 1993: 46), y aflora la
pluralidad significativa de la música. La comunicatividad del lenguaje musical se
encuentra en el entorno de la expresión más que en el de la significación, lo cual
no impide, que, como sostiene García Jiménez (1995: 248) la música asuma «en el
discurso narrativo la triple función de todo signo»:
1. Referencial. En un primer estadio, el referente de un signo musical es
otro signo musical. En el reconocimiento de los sonidos, en su
ubicación temporal, o en la recreación del espacio que ofrecen, ya se
halla un primer nivel significante. Las sucesiones sonoras remiten a sus
propios elementos como consecuencia de los procesos sumativos de
percepción temporal acústica. No obstante, en un segundo nivel, a
través de las estructuras asociativas que «rigen la memoria auditiva»,
«los signos musicales [...] quedan investidos de una segunda
significación». Gracias a este proceso de identificaciones, el signo
musical «queda facultado para la función mimética y para la función
diegética en el discurso narrativo» (Ibíd.. 249). Se trata del desarrollo,
por períodos, de una doble función que hace presente la música en la
historia: reconocimiento cognitivo del sonido en una primera fase, y
anclaje de sentido en una segunda posterior.
2. Deíctica-conectora. El signo musical cumple esta función cuando
anuncia y marca «el punto de vista y la focalización del discurso
narrativo» (función relais) haciendo presente la música en el discurso.
Es una función pronominal, calificadora y relacional respecto a las
«instancias de la enunciación: autor, el lector, el narrador, el narratario
y los personajes, así como respecto a sus delegados en el texto»

163
(ibidem.).
3. Anafórica. El signo musical cumple una función estructurante,
gestativa, de la propia obra narrativa audiovisual. La disposición
musical compromete y organiza la trama narrativa.

7.3.5. Concepciones de la música


La música testimonia y fundamenta su presencia en el discurso
audiovisual a través de diferentes posiciones estéticas y poéticas que definen las
formas y criterios de su uso. Se trata, por tanto, de una vocación creadora, de la
expresión vindicativa de una individualidad interrelacional. Una relación
taxonómica de estas disposiciones ofrece las siguientes posibilidades:
1) Sintética. La música se plantea como una expresión ideológica unívoca.
Participa en el discurso audiovisual como cooperante de la doctrina de
la instancia enunciadora.
2) Analítica. La planificación musical sirve como un a priori de las
imágenes, estableciéndose una «concordancia rigurosa entre los
motivos musicales y los efectos visuales» (Ibíd.. 258).
3) Contextual. Las funciones encomendadas a la música son la generación
de ambientes, la focalización de la sensibilidad, y la intensificación y
evidencia de los mensajes.
4) Parafrástica. La música escolia y apostilla la dinámica de los diálogos,
las acciones, etc., con un sentido de trascripción redundante.
5) Diegética. La función de la música descansa sobre la activación de los
elementos de la narración, especialmente sobre los que se engarzan en
la temporalidad: acción y tiempo.
6) Dramática. La funcionalidad musical persigue potenciar la capacidad
emotiva de la historia, contribuyendo al «pacto de complicidad y
verosimilitud» en el que participa el espectador.
7) Mágica. La música tiene una participación vocativa de lo trascendente
y, a través de ello, «transporta a la historia a una nueva dimensión
metalingüística» (Ibíd.. 259). Su aportación tiene que ver con lo
prodigioso, lo divino, mágico, taumatúrgico y nigromántico que se

164
revela en relato a través de la presencia musical.
8) Poética. La música es considerada por su aportación al relato, pero,
fundamentalmente, por su propia capacidad para halagar el ánimo,
infundiéndole suave y puro deleite. Es decir, por su propia poesía que,
en términos de Pierre Schaeffer, supone el dominio del objeto musical
puro.
9) Pragmática. Dado que la incorporación de la música, salvo contadas
ocasiones como el rodaje de secuencias con play-back, no se produce
hasta la etapa final de producción, esta concepción hace referencia a su
presencia como cauterizador de las fisuras y desequilibrios que
presente la continuidad dramática a estas alturas del proceso.

7.3.6. Formas presenciales


Las formas presenciales hacen referencia a la manera en que se justifica,
empíricamente, la presencia de la música cinematográfica en el texto audiovisual.
García Jiménez (1993) las contempla bajo la nomenclatura de origen y naturaleza.
Sin embargo, parece ajustarse mejor el término formas presenciales por cuanto
remite directamente a los procedimientos de inclusión en el discurso. Define
cuatro formas comunes:
1) Introducción de Obras musicales preexistentes. Es decir, utilización de
partituras o piezas de repertorio cuya vida como obras nació fuera del
marco cinematográfico.
2) Elaboración de Partituras originales que son concebidas como
estructuras narrativas no dependientes, a la manera de los poemas
sinfónicos postrománticos.
3) Composición de Partituras fílmicas, entendiendo por tales a las
realizadas con una intención claramente funcional, en términos de
eficacia narrativa respecto al relato audiovisual.
4) Proposición de canciones y melodías de ámbito popular que se
integran, más o menos, en la narración y que tienen, ya en origen, una
clara vocación de recuerdo en el imaginario colectivo.
Esta clasificación, que resulta útil para ciertos aspectos de organización

165
analítica, puede mostrarse algo artificiosa en sus divisiones. En principio, nada
impide que una partitura original que resulte poseer una estructura
absolutamente “sinfónica” pueda, perfectamente, integrar una vocación de
eficacia y funcionalidad que se traduzca en un resultado narrativo excelente, al
tiempo que el acierto de su desarrollo melódico la convierta en una pieza de
culto. A la contra, la intencionalidad funcional de un trabajo compositivo,
buscando la precisión en los ajustes musicales para facilitar la narración, no elude
el peligro de convertir el discurso musical en un elemento extraño al propio
relato.

7.4. CARACTERÍSTICAS DE LA MÚSICA CINEMATOGRÁFICA


El cine ha creado un sistema de producción musical propio y autónomo.
Una de sus características, y condicionamiento fundamental, es que se ha de
generar una música cronométrica, calculada, que se ciña a la acción de cada
bloque, que sufra la tiranía del montaje, y que, por añadido, cuando se
comercialice posteriormente de forma independiente, cumpla una función
evocadora del filme. Es una música que, por principio, no aspira a la perennidad
de la obra de arte: nace y muere con la película, pues cuando se compone una
música específicamente para unas imágenes se espera que se produzca una
auténtica fusión material y estética entre ambas. Este axioma no indica sino la
voluntad de integración del discurso musical en el texto audiovisual pero, como
es evidente, multitud de partituras cinematográficas han superado las barreras
del filme del que formaban parte para convertirse en notabilísimas obras
musicales per se.

7.4.1. El compositor y su público: originalidad vs


comunicación
Decía Unamuno que «la originalidad, como es sabido; pero importa
repetirlo con frecuencia ya que con tanta frecuencia se olvida; no consiste en la
novedad de los temas, sino en la manera de sentirlos. En arte y en Literatura se
descubre cada día el Mediterráneo, lo mismo que para un alma poética el sol de

166
cada día es un nuevo sol. Para el filósofo desengañado, nada nuevo hay debajo
del sol, para el poeta de ilusiones, todo es debajo del sol nuevo a cada instante».
Cuando se descubre un nuevo lenguaje estético —como conjunto
susceptible de describir realidades desconocidas—, abriendo caminos inéditos
hacia formas nuevas de interpretar la realidad, y cuando de este modo surgen
originales materias musicales, lo que se está haciendo es apelar a un naciente
comportamiento perceptivo. Este cambio implica, de inmediato, la necesidad de
avanzar hacia estructuras de producción distintas. Estas nuevas formas deben
nacer, no de la generación de un vocabulario original, sino de la creación de un
lugar común dialéctico en el que puedan dialogar los idiomas pasados, presentes
y futuros, con miras a lograr que la representación de sus diferencias acerque a
una verdad más completa.
En ese proceso, la actitud del público es trascendental. Su empatía ante el
acto poético y artístico musical, los procesos de identificación-proyección con el
artista y con la expresión de este, condicionan un juicio artístico que «no es
determinable por principios» (Kant). De ahí que tenga especial importancia que
todos los componentes de la cadena artística, especialmente el receptor, cultiven
sus fuerzas sensitivas, su sensibilidad, a través de una educación estética que
forme su gusto y fomente la capacidad de juicio. En este caso, el concepto de
receptor alude a un contemplador competente que incluye todos los tipos, grados
y niveles establecidos por diferentes tipologías: perspectivas biológica y
psicológica, sociológicas de Frankl y de Adorno, empírica de la recepción, etc.
Consecuentemente, la estética musical ha de cumplir una función
interpretativa equidistando de la creación viva y de la interpretación de la
realidad. Debe buscar y promover el perpetuo cambio, el valor perecedero,
interpretando los valores caducos como piezas conexionadas de una secuencia
estética lógica, uniforme y metódicamente observable (De Pablo, 1968).
Puesto que la percepción y fruición de la obra artística se origina, además
de en la necesidad estética del ser humano, en su instinto lúdico, en el
reconocimiento de la libertad inteligente que ha transformado la realidad para
manifestarla artísticamente (Marina, 1993: 22), el influjo que los textos musicales
ejercen en el medio social en el que se desarrollan es proporcional a la respuesta

167
de la sociedad con la que interaccionan. Para que así sea, han de formar parte de
las inquietudes y voluntades artísticas que define el espíritu creativo de una
época desde los postulados religiosos, científicos, jurídicos y normativos de su
momento histórico (Henckmann y Lotter, 1988: 242). Ya que es evidente que
desde el inmovilismo no se puede generar movimiento social, la capacidad
evolucionadora de la sustancia expresiva musical dependerá de un progresivo
enriquecimiento general, tanto en calidad como en cantidad. La profundidad de
su poder transformador es una función exponencial de los riesgos creativos.
Señalaba así Falla:
La música supone progreso, nuevos caminos, inconformismo y
búsqueda. Es preciso conocer el pasado, admirar sus logros, pero
avanzar para que el alma de los creadores «dé un fruto nuevo, en tierra
viva y fresca, a pleno sol y en ancho y libre campo». Las formas clásicas
han de servir como patrón de conocimiento, como método para el orden
y el equilibrio, y estimulante de la creación de formas nuevas, jamás
como moldes o matrices seriales. El conocimiento de las obras del
pasado intensifica el disfrute de las del presente por cuanto permite
reconocer, las consecuencias de aquellas en estas. Pero este
conocimiento no debe suponer una coerción en las obras que se
compongan. El oficio de compositor se ha de ejercer sin preocupaciones
absurdas, con alegría, con libertad... (Falla. Prólogo a la Enciclopedia
Abreviada de Joaquín Turina. En Música, 1996: 59-60).
Sobre este punto, es incuestionable la reticencia actual del público hacia
determinados tipos de música, y, a estas alturas, es poco sostenible que tal
disociación venga provocada por un rechazo de las disonancias, de cierta
destemplanza de su discurso, de una supuesta cacofonía, en suma. Parece más
bien, que lo que detiene el consumo de estas expresiones por parte del gran
público es «la ausencia de direccionalidad perceptible y, por tanto, la
previsibilidad en el curso de la música» (Chion, 1997: 217). Es decir, en palabras
de José Nieto, la carencia de códigos:
Uno de los problemas de comunicación de la música
contemporánea, con respecto al oyente, es que se pretende que no existan

168
los algoritmos. Se ha roto la gramática y el espectador no sabe de qué se le
está hablando. Es incapaz de averiguar cuál es el discurso porque no puede
unir las ideas, no tiene los códigos, las instrucciones para decodificar los
mensajes. No existe ningún tipo de orden porque se ha eliminado la
sorpresa y se ha convertido la música en un todo disonante que no va a
ninguna parte. Carece de movimiento. Es puro y amorfo estatismo.
La cuestión para Attali, sin embargo, no se centra en la incomprensibilidad
de la música, sino en el desplazamiento del punto de equilibrio de esa
comprensión, la transformación del mismo concepto en sí. Su criterio aboga por
la necesidad de abrir los ojos ante el mundo que se muestra en ciernes e,
inevitablemente, forjar un nuevo oído para las novedosas propuestas que
amanecen cada día. Y en ello radica el problema: para alcanzar esa apertura del
espectador es preciso redimir sangrantes nostalgias, luchar contra «la tendencia
al aplauso fácil». Que el público deje de buscar «figuras en la pintura abstracta y
melodías en la música de hoy, donde muchas veces no las hay» (Odón Alonso).
Que los órganos administrativos hagan una encendida defensa de la cultura
contemporánea a través del conocimiento de la música de nuestros días,
arriesgando con nuevas propuestas que permitan «formar a la gente para que
abra las orejas a otros sonidos» (García Román).

7.4.2. La cuestión de la originalidad en el ámbito de la


multiplicidad estética.
Las características discursivas del cine hacen de este el lugar de encuentro
ideal para una variedad insospechada de estilos, épocas, géneros, técnicas y
recursos estéticos de forma simultánea, ubicua y paradigmática. Es, como dice
Chion, «el arte por excelencia donde todas las músicas poseen derecho de
ciudadanía» (1997: 23). Esta aparente universalidad esconde tras de sí el
inconveniente de revestirse, en contra de la opinión de Emanuel Levy, como un
falso esperanto, un ilegítimo lenguaje común con el que se mantiene una
comunicación de consanguinidad no mediada, lo que le ha llevado,
indefectiblemente, al vano intento de evidenciar esa utopía.

169
Ciertamente, la única obligación de la música cinematográfica es que,
independientemente de los métodos, procedimientos y sistemas que se utilicen,
debe estar dispuesta a entregarse al valor expresivo de las imágenes, estar creada
para ese fin. Consecuentemente, no es posible hablar con propiedad de un estilo
de música cinematográfica, no lo es porque, en rigor, no existe. La música de cine
vive del préstamo, que no del plagio. Todos los recursos le son válidos si encajan
con las necesidades de la historia a la que sirven. El compositor cinematográfico
tiene, ergo, inmunidad para concebir a placer su propio estilo personal, «no sólo
a partir de lo que inventa, sino también de lo que toma prestado de otros» (Ibíd..
252).
En este sentido, nada hace diferente a la música cinematográfica de otros
tipos de música. Lo que determina su carácter, aparte de las circunstancias
económicas, sociales, culturales y técnicas en que se desarrolla, es la intermitencia
de su aparición, su rasgo de ocasional recurrencia que picotea el discurso
audiovisual sin la obligación de justificar su aparición. Y es precisamente esa
veleidad, esa inconstancia que se enreda en la crin de un texto complejo y
polisustancial, lo que la obliga a una sencillez, que en ocasiones roza en la
simpleza, plena de redundancias y lugares comunes. No hay lugar para la
complejidad. Decía Maurice Ravel que «siempre que en arte se piensa complicar
una forma o sentimiento, es que no se sabe lo que se quiere decir». Cualquier
dificultad injustificada fuera del contexto de la narración desvela el dispositivo y
desplaza al espectador. El mito de la originalidad estilística queda así fuera de
sitio, se desplaza su centro de gravedad hacia la generación narrativa de su
origen: hacia el sentido de las imágenes. El problema aparece cuando este
precepto afrenta el ideal de unicidad y originalidad, ab initio y de facto, que se
tiene de la obra de arte. No se está dispuesto a aceptar fácilmente tal cambio de
perspectiva sobre el fundamento de la creatividad y, ante tal coyuntura, lo más
fácil es recurrir al desprecio de toda forma que no se ajuste a la norma, a la
convención. Visto así, el auténtico problema de la música de cine, como bien
señala Chion (1997), es de naturaleza terminológica:
cuando un músico compone para el cine, el uso y la practica legal
conservan el término de música para algo que ya se presenta con otro

170
aspecto (fragmentado), con otra función y otra lógica, y especialmente en
otro contexto diferente al de la obra musical, en el sentido en que esta
noción se ha formado últimamente en occidente.

7.4.3. Independencia discursiva y estructural


De lo anterior es posible desprender el interrogante de si la opción del
compositor es elaborar un discurso musical emancipado; si acaso la autonomía
de sus proposiciones induce una libertad estructural que radicaliza el valor
exento de su discurso; si, independientemente de su sentido cinematográfico,
revela una concepción abstracta, pura, privativa y específica. La respuesta ha de
ser siempre la misma: es inútil establecer sentencias o evidencias incuestionables,
por dos razones: estará siempre en función de la particularidad de cada caso, y,
además, en el fondo es una cuestión que, desde la reflexión cinematográfica,
carece de trascendencia. Sin embargo, forzando el punto por librar un complejo,
nada impide que esa superestructura que condiciona formalmente la
representación musical, diseñe, fuera de su molde mágico, un sentido discursivo
autónomo que pueda reconocerse como algo diametralmente distinto capaz de
cumplir una doble funcionalidad: evocación del filme en el espectador de este, y
revelación de un nuevo contenido sonoro independiente.

7.4.4. Música diegética vs Música extradiegética


La música diegética —música de pantalla (Chion), música viva (Valls y
Padrol), música objetiva (Moner)— está justificada en la lógica del relato porque
habita la acción narrativa y contribuye en la creación de la situación escénica, es
decir, es un elemento más de la historia. Aunque no es este, para García Jiménez,
el único caso. También se puede hablar de música diegética cuando no
cumpliendo explícitamente esta premisa, tiene la capacidad de dominar el
discurso narrativo convirtiéndose en «el indicio denotativo de las focalizaciones
del autor, el narrador, los personajes o el lector del texto audiovisual» (1995: 251).
Por su parte, la música extradiegética —música de fondo (Chion), música
transicional, integrada o decorativa (Valls y Padrol), música subjetiva (Moner)—
no participa de la acción narrativa ni del tiempo de la historia, pues emana de

171
una fuente imaginaria no presente en la acción. Su función se enmarca, por tanto,
más en el campo de lo descriptivo que de lo narrativo. Su presencia en el discurso
suele responder a varias causas, cinco según García Jiménez (1993) —aunque
algunas se incluyen en las otras y son redundantes—:
1) De modo impredecible.
2) De modo impositivo.
3) De modo discontinuo.
4) Al final del proceso productivo.
5) Con un sentido no realista.
La identificación perceptiva entre una y otra responde a un criterio de
lectura que atiende al modo en que se reproduce técnicamente. La música
extradiegética o de fondo acostumbra a sonar clara, presente, en primer plano
sonoro, pulcra en su ejecución y registro, y en el más alto escalafón de la jerarquía
sonora. «Matemáticamente, el plano sonoro se define como aquel conjunto de
emplazamientos del micrófono, en un local cerrado, para los que la relación entre
sonidos directos y sonidos reflejados se mantiene constante. El valor de esta
relación da idea del tamaño aparente de la fuente de sonido» (Roselló, 1981: 86).
La característica fundamental del primer plano sonoro es la cercanía, la
proximidad aparente del sonido, lograda mediante la ausencia, casi absoluta, de
sonidos reflejados. Curiosamente, la música diegética o de pantalla aparece,
normalmente, en retaguardia, distraída por las voces y los ruidos, solapada por
las interferencias de la ejecución, reducida en su vocación de realidad.

7.5. FUNCIONALIDAD NARRATIVA DE LA MÚSICA


Entorno a la funcionalidad de la música cinematográfica, con respecto a
los elementos de la historia, ha existido, y existe, un intenso debate entre los
defensores de esta y los que consideran que su misión en el texto audiovisual no
pasa por una funcionalidad inherente. De los primeros, Valls Gorina y Padrol
(1990) opinan que la música es, ante todo, funcional: el único nexo de unión entre
cine y música es que se desarrollan en el tiempo. «la música se adhiere a la acción
—al kine— con un evidente contenido funcional ajeno a su esencia, conservando,
no obstante, su independencia expresiva y, eventualmente, su sustantividad

172
como especulación sonora». Entre los otros, Gryzik, por ejemplo, considera que
las clasificaciones funcionalistas son insostenibles históricamente, porque al
tomar como medida, casi siempre, la sensibilidad individual no permiten
separaciones lógicas, por lo que llevan a un callejón sin salida. A su juicio, es
necesario buscar otros ángulos del problema, plantear nuevas metodologías, pues
en las teorías funcionalistas los elementos sonoros aparecen continuamente
subyugados a la imagen. Por eso, su planteamiento es una división dual de la
puesta en escena en gestos visuales y gestos sonoros, en condiciones de igualdad,
tomado como valor morfológico el concepto de rôle. Aunque cualquiera de los
gestos que integran el discurso fílmico puede tener su valor fuera de este,
cinematográficamente, «c’est leur ensemble qui détermine globalement le pouvoir
d’évocation» (1984: 100).
Muy a pesar de este criterio antifuncionalista, lo cierto es que los usos
conscientes de la música cinematográfica, aparte que sean cultivables hasta el
punto de alcanzar un dominio eficaz sobre ellos, interceden en el ámbito del
discurso narrativo y actúan sobre los elementos de la historia de forma
indiscutible. Colpi afirmaba que «la música de un filme debe ser funcional o no
ser» (1967: 94). Y ha de serlo si se entiende esa funcionalidad, como hace Jean
Mitry, de forma extensiva:
Toda música es descriptiva puesto que describe estados de ánimo o
falta de cosas concretas. Decir que la música crea o determina emociones es
decir, de otra manera, que traduce las que el autor ya ha experimentado,
porque la música no opera a partir de sí sino debido a que un compositor le
imprime su personalidad, digamos, si se prefiere, su “duración vivida”.
Cualesquiera que sean sus reglas y sus combinaciones creadoras la
música no es una simple resolución matemática de una fórmula dada
(1978: 357).
La gran ventaja cinematográfica de la música radica en que, frente a la
imagen, no está sujeta a un marco estricto, concluso, y frente al resto de
elementos sonoros carece de la urgencia realista y representativa de estos. Por
ello, sin contravenir que sea «presencia antes de ser medio» (Chion, 1997: 192), y
partiendo de su trascendencia como aparato tiempo/espacio es factible estipular

173
ciertas funcionalidades —que no servidumbres— de la música en el relato
audiovisual.
De entrada, posee la capacidad de unir y separar, puntuar o diluir,
asegurar el ambiente, y esconder los racords de los ruidos o imágenes que no
funcionan (Ibíd.. 195). Su utilidad se muestra en la capacidad para suavizar las
limitaciones realistas de este, aunque, en ocasiones, este rendimiento es
dilapidado lamentablemente por el nefasto uso para repastar la película una vez
que aquello no tiene arreglo, que se ha secado como un mortero pesado. Sirve
también como organizador de la representación simbólica del filme. Puede
constituirse como emancipador de su significación y como vehículo de
dimensión orgánica, como alegoría figurativa de su naturaleza, al tiempo que
ayuda a coestructurarlo desde su disposición fática. Sus apariciones y ausencias
determinan la funcionalidad formal del mismo por medio de fórmulas
extremadamente variadas, en muchas oportunidades sola, en otras apoyada por
medios visuales. Pero es que, por añadido, cumple una función de activador
narrativo de fuerza prodigiosa que, desde su no necesidad de justificación,
arrastra a todos los elementos del filme. Su presencia en el discurso narrativo
audiovisual «señala y refuerza la triple unidad: de acción, de lugar y de tiempo»
(G. Jiménez, 1993: 266).

7.5.1. Respecto a los personajes


La música posee un valor de subjetivación que se hace patente en dos
estratos distintos:
• Perpetuando la continuidad de la presencia humana, amparando a los
personajes de la esterilidad concreta del dispositivo cinematográfico
(Chion, 1997: 228).
• Ajustando de forma omnímoda su materia al «flujo cambiante de las
emociones sentidas por un personaje» (Ibíd.. 229).
De esta manera, las funciones que cumple respecto a estos son: (García
Jiménez, 1993)
a) Pronominal. La música marca, denomina los personajes, nombra su
presencia.

174
b) Prosopopeya sonora1. Enfatiza y anuncia su disposición en la acción, los
rasgos de actuación y sus transformaciones. Puede ser de dos tipos:
b.1. Caracterizadora: singulariza la especificidad de cada personaje.
b.2. Descriptiva: representa los estados de ánimo, etc.
c) Focalizadora. Administra el patrimonio distintivo de la narración, los
personajes, etc. y guía su evolución.
Paralelamente puede cumplir una función de psicologización. Está
capacitada para reflejar las circunstancias psicológicas e históricas de la
narración, y servir como expresión de la personalidad inequívoca del autor a
través de sus personajes.

7.5.2. Respecto a la acción narrativa


El papel que desempeña la música en el terreno de la acción narrativa está
ligado a un cometido plural que tiene en común su peculiaridad como activador
y como gestante. Las funciones que cumple cubre cuatro ámbitos:
1. Con respecto al comentario de la acción2, la música tiene una capacidad
gnóstica para señalar los «distintos tipos de discurso autorial, que ilustran las
funciones del narrador»: comunicativo, metanarrativo, explicativo,
evaluativo, emotivo, abstracto y modal. Añade, citando a Erik Barnow, que la
música cumple las funciones que ejercía el coro en las tragedias griegas en el
comentario de la acción (Cfr. García Jiménez, 1993: 267).
2. Respecto al subrayado de la acción, actúa como signo de puntuación a través
de las funciones características del narrador: explicativa y evaluativa. El golpe
musical, bien como inserto o como clímax, es un elemento de señalización y
división específico de determinados géneros. En los dibujos animados esta
función se hace especialmente presente a través del remarcado y la
onomatopeya. Describir el movimiento visual (Zofia Lissa).

1 Definir personajes: estados de ánimo, inquietudes, etc. (Xalabarder). Revelación de procesos psíquicos de los
personajes: siete posibilidades: a) momento de toma de conciencia de un acontecimiento vivido, b) música
dentro de recuerdos, c) reflejo de proyecciones futuras imaginadas, d) revelación de sueños, e) revelación de
alucinaciones, f) resaltado de emociones, g) señalar actos de voluntad y tomas de postura. (Zofia Lissa)

2 Servir de hilo conductor (Gilles Fresnais). Acompañar e ilustrar imágenes y secuencias para clarificarlas
(Xalabarder). Comentario introductor de la escena (Zofia Lissa). Función esclarecedora (Adorno y Eisler).

175
3. Respecto a la ambientación de la acción3, la decora a través de la función
expresiva —crea un clima emocional en el lector audiovisual reforzando la
intencionalidad expresiva de las imágenes—, y de la función referencial —valor
metonímico dimensional, del continente por el contenido, que revela el marco
espacial de la acción a través de su capacidad descriptiva—. La irregularidad, la
frustración de expectativas o la aparición de nuevas en el transcurso de un
discurrir sonoro, tanto en densidad, textura interna, su aspecto o su desarrollo,
afianzan la expectación del lector.
4. Respecto a la especificación de la acción, la música activa su capacidad
heurística, por asociación experencial, revelando y anticipando la declaración de
determinadas acciones, bien específicas de cada relato, bien propias de cada
género cinematográfico. Puede ser de dos tipos:
1. Anticipación no conclusa: se produce a nivel conceptual.
2. Anticipación diegética conclusa4: se produce a nivel proposicional.
La condición de reconocimiento, de identificación —anagnórisis—, es
especialmente importante en la música cinematográfica. Ya en la absoluta, reconocer
los diferentes elementos que integran la obra y acceder a la lógica de su
estructuración en diferentes módulos o secciones, es buena parte de su suerte. En la
aplicada, además, ese re-conocimiento que provoca la música en el espectador, ese
re-caer, pone de relieve, si es usado con coherencia, la dirección de la trama, coopera
en el desarrollo de la acción. Ahora bien, también esconde una faz peligrosa. Su uso
equívoco puede distraer al espectador. Si coincide ese reconocimiento en un punto
donde no se busca que haya tal, se puede provocar un efecto contraproducente,
contrario a los intereses buscados. Es una situación que ocurre, por ejemplo, con las
músicas previas que se insertan en una película. ¿Cómo se puede manejar la
condición de reconocimiento de esa canción, o de esa pieza en la propia película?.
¿Qué valores o contenidos se están declarando en ella?. Y aún más, ¿qué sentidos

3 Transmitir emociones y establecer estados de ánimo (Nieto). «Crear un estado de ánimo renunciando a la
reduplicación de lo que cualquier forma es visible» (Adorno y Eisler, 1981: 28). Recrear el universo fílmico y
unirlo en comunicación con la realidad. Ayudar a que se cumpla el sueño cinematográfico (Gilles Fresnais).
Contextualizar la historia y el discurso (Xalabarder).

4 Representación e interpretación simbólica. Anticipación de la Fábula. (Zofia Lissa).

176
puede adquirir esa pieza cuando se escuche nuevamente “contaminada” por la
lectura del texto audiovisual?.

7.5.3. Respecto al tiempo


La música acompaña la representación temporal en el discurso audiovisual
ofreciéndose como herramienta alternativa para su ordenación. «El sonido síncrono
ha convertido el tiempo fílmico en un valor absoluto» (Chion, 1993: 26) y ello
permite a la música, al igual que al resto de elementos sonoros, «introducir escenas
retrospectivas parciales o divididas» mediante la creación de una disparidad
temporal entre el canal visual y el canal auditivo (Chatman, 1990: 68). Las funciones
que cumple, de forma sustantiva o calificadora, son:
a) Transitiva. Lubrica los racords. Su funcionalidad abarca la unión y
separación de secuencias, el marcado de las diferencias cronológicas, y el
favorecer las elipsis. Para Desmond Davis (1966: 19), en las transiciones la
música solo debe cortarse al final de una cadencia musical cuando se
desvanece gradualmente bajo el diálogo o un ruido, o si es sustituida por
otros sonido de mayor fuerza o volumen. En ocasiones funciona como un
inserto: cortina, puente, transición, fundido, cierre, etc. Hay cinco tipos:

a.1. unión por fundido encadenado: fade out - fade in


(Fig. 13 Fundido encadenado)

a.2. unión por fundido a corte: fade out - in


(Fig. 14 Fundido a corte)

a.3. unión por corte a corte: out - in


(Fig. 15 Unión por corte)

a.4. unión por corte a entrada: out - fade in.


(Fig. 16 Unión por corte a entrada)

a.5. unión por cadencia: fade out - 0 - fade in.


(Fig. 17 Unión por cadencia)

177
b) Constitutiva5. La música sirve de impulso de la imagen, de activador de su
ritmo interno y de la pulsión genérica de los múltiples elementos que forman
parte de ella. Funciona a la manera de un «bajo continuo» que organiza el
conjunto de los ritmos del filme, como corazón que determina el pulso vital
de ese cuerpo6. Dos posibilidades:
b.1. Configura el tiempo de la enunciación (tiempos muertos).
b.2. Configura el tiempo del enunciado (forma parte de la historia).
c) Indicativa. Expresión del valor argumental, indicación del tiempo
cinematográfico. Ambientar épocas (Xalabarder).
d) Topográfica. Explicación del valor nominal del tiempo en el espacio
representacional.
e) Hagiográfica. Influencia en el tiempo de lectura. Activar, dinamizar o
ralentar el tiempo de lectura. (Xalabarder). Un caso particular y “moderno”
es el valor paréntico7.

7.5.4. Respecto al espacio narrativo


La música modula y modela el espacio pues sustituye, a menudo, al sonido
real «como expresión del espacio, utilizando sus propios códigos» (Chion, 1997: 224),
expresando una espacialidad que, difícilmente, este podría representar.
Independientemente de cualquier referencia, la música plantea una doble
espacialidad que le es inherente (Schaeffer):
• estática, que se produce en la identificación definida de una fuente; y
• cinemática, producida en la descripción de trayectorias que los objetos
sonoros realizan en el tiempo.

5 Articulación del tiempo representado. (Zofia Lissa). Aportar o modificar el ritmo de la imagen (Nieto).
«Llamamos temporalización al efecto mediante el cual una cadena sonora, que por definición está casi
obligatoriamente inscrita en el tiempo, otorga un tiempo a una imagen que por sí misma no lo conllevaría
forzosamente» (Chion, 1997: 212).

6 «La música desempeña […] un papel de patrón rítmico, cronométrico, en relación con el cual podemos sentir
cómo se desatan los ritmos más fluidos, irracionales, que se producen en la imagen» (Chion, 1997: 223).

7 «Designa el paréntesis que la música es susceptible de crear y de abarcar en su propia duración, en la acción del
filme, mientras que éste se inscribe, el resto del tiempo, en una duración concreta y naturalista, al menos en
apariencia [...]. En este caso, la música cinematográfica se separa completamente de las funciones de nexo y
concatenación entre escenas que, por otra parte, heredó de la música teatral» (Chion, 1997: 216).

178
Al igual que para el tiempo, estas funciones que desempeña la música en la
configuración del espacio unas veces se cumplen de forma sustantiva, y otras de
forma calificante o adjetiva. Estas son, para García Jiménez (1993: 269 y sucs.):
1) Referenciales8. El código histórico tipificado, y reconocido por el “lector”, remite
a un ámbito territorial específico.
2) Focalizadoras9. La música contribuye a marcar la focalización, el punto de vista y la
voz narrativa, «basculando siempre entre dos universos: el del narrador y el de los
personajes».
3) Pragmáticas. La presencia de la música, en su ubicación, declara su valor de
fonotipo y revela las prácticas de la primera instancia de la enunciación.
4) Formantes. Genera una condición ambiental que nos habla del modo en que
habitan y usan el espacio los personajes.
5) Expresivo/emotivas10. La música anima y espolea al espectador para que
participe y comparta la acción de los personajes. Esta función es equiparable a la
función lingüística que Jakobson denomina conativa.
6) Ambientales11. De las cuatro acepciones del espacio narrativo —estética,
dramática, lingüístico-discursiva y meta-física— es en las dos primeras donde la
música ambiental contribuye a la percepción del espacio, «decorando el escenario
y ambientando la situación narrativa y la escena dramática».
7) Mágicas. La música remite a un espacio irreal que supera el marco de lo físico y
visible.
8) Delimitadoras del marco12. Su cometido es señalar y puntuar. En primer lugar,
mediante las sintonías inicial y final, la magnitud y medida del relato
audiovisual. En segundo, las partes estructurales, las parcelas de ese todo.

8 Ambientar lugares. (Xalabarder)

9 Centrar la atención en un elemento con exclusión de otros: vectoralidad. Guiar el punto de vista del espectador
(Nieto¡Error! No se encuentra el origen de la referencia.). Cambiar las perspectivas de lectura (Gilles
Fresnais).

10 Implicar emocionalmente al espectador. (Xalabarder¡Error! No se encuentra el origen de la referencia.). Auto-


identificación del espectador con el universo fílmico. (Zofia Lissa¡Error! No se encuentra el origen de la
referencia.)

11 Representación del espacio fílmico (Zofia Lissa).

12 Servir de marco a la película (Gilles Fresnais).

179
9) Identificadoras y calificadoras de los planos de la escala13. Aparición de la
música asociada, de continuo, a un determinado tamaño de plano, posición de la
cámara, grado de angulación, etc.
10) Lubrificadoras de las fracturas del discurso visual. Gracias a ello, el discurso
narrativo encuentra la continuidad que su lenguaje elíptico impide.

7.6. MÚSICA, CINE Y CREATIVIDAD

7.6.1. Aspectos neurofisiológicos de la actividad musical


Algunas de las investigaciones neurofisiológicas de las últimas décadas han
trabajado sobre la posibilidad de identificar un estilo cognitivo relativamente
específico y distinto para cada hemisferio. Las especialidades hemisféricas
izquierdas se han venido asociando a representaciones lógicas, semánticas y
fonéticas de la realidad dentro de un cuadro de codificación lógico-analítica. En este
plano, la elocución, el sentido rítmico, la ejecución motora musical, el cálculo, el
juicio y razonamiento, serían fruto de sucesiones lógicas de orden temporal. Las
especialidades hemisféricas derechas, por su parte, quedan referidas a la percepción
holística de las relaciones de los modelos, de las configuraciones y de las estructuras
mediante motivos visuales y auditivos. El hemisferio derecho sería el artífice de las
totalidades, respondiendo con mayor rapidez, pero no con exclusividad, a lo
novedoso, lo desconocido, y a la creatividad artística a través de las facultades de
sintetización y de integración. El canto, la tonalidad, la melodía y el ritmo quedan
como actuaciones propias del hemisferio derecho, no apareciendo la competencia
lingüística como requisito previo de la capacidad musical (Gardner, 1993: 354).
Aunque este concepto dicotómico debe ser asumido con la cautela que
implica el estado actual de la cuestión, parece probada la existencia de diferencias
en el desarrollo de las capacidades hemisféricas atendiendo a variables como el sexo,
los contextos sociales de desarrollo, o los prototipos educativos. Así, parece que
mientras en la mujer evolucionan más las capacidades asociadas a lo lingüístico —
hemisferio izquierdo—, en el hombre las capacidades espaciales y holísticas tiene un

13 Poner de relieve los distintos aspectos de la imagen o crear aspectos nuevos. Cumplir, en el ámbito no
diegético, las funciones de la planificación en el ámbito diegético (Nieto).

180
mayor desarrollo. Estas diferencias, de diverso orden e importancia cada una, no
indican, por otra parte, ningún tipo de potencia o deficiencia para el desarrollo de la
actividad musical. De admitir que la música es captada, casi en su totalidad,
mediante los mecanismos del hemisferio derecho —en el que parece se activan más
las fuentes de la emoción—, no hay que creer, con ello, que el hemisferio izquierdo
es insensible a la emoción musical. Es por medio de su totalidad cerebral que el
hombre está en disposición de captar el mensaje musical.
A través de investigaciones que han trabajado mediante el procedimiento de
escucha dicótica (Kimura, 1964), se ha comprobado que el hemisferio derecho es
superior en la identificación de melodías. Este procedimiento consiste en enviar, “de
un modo simultáneo, informaciones verbales o musicales diferentes, inscritas en una
cinta magnetofónica de doble pasta, a cada uno de los oídos. Esto permite poner en
evidencia una asimetría de las respuestas” (Despins, 1989: 123). Otros
investigadores, actuando en otras líneas de investigación, han comprobado que
mientras las personas corrientes detectan mejor las melodías con el hemisferio
derecho, los profesionales de la música presentan una mayor bilateralización de la
percepción musical, muy probablemente a causa de una mayor potencialidad
interhemisférica en ellos como consecuencia de su preparación profesional. En el
caso de los músicos, se sospecha que se produce una mayor cooperación entre la
percepción holística, bajo el dominio del hemisferio derecho, y la percepción lineal,
realizada por el hemisferio izquierdo. Gracias a ello, cada hemisferio puede analizar
con mayor facilidad las informaciones transmitidas por uno u otro, ya sean
desarrollos de tipo temporosecuencial o desarrollos de tipo holístico.
El estudio de las capacidades y aptitudes que se ponen en juego en el ámbito
de la creatividad musical presenta dificultades importantes. Las considerables
diferencias de los distintos roles: compositor, intérprete, ejecutante, director, etc., los
diferentes instrumentos y la parte corporal a cuya mecánica afecta, los grados de
capacitación y sus tipos, las aptitudes innatas, etc. (Gardner, 1993: 351), imponen
criterios analíticos muy distintos dependiendo a qué parte o categoría se haga
referencia, pues cada una de ellas requiere procesos psicofísicos y mecánicos
diferenciados. Mientras la interpretación exige una comunicación interhemisférica
más fluida —mayor habilidad en la relación de lo denotativo (hemisferio izquierdo)

181
con lo connotativo (hemisferio derecho)—, la composición y la dirección orquestal
son, en esencia, condiciones más analíticas —denotativo— y holísticas —
connotativo—. Parece comprobado que el ritmo o la sensación del sentido rítmico es,
prácticamente, la única función musical que sigue las reglas del predominio cerebral
izquierdo en el procesamiento de las funciones lingüísticas. Respecto al contexto
musical, debido a que está estrechamente ligado al campo de las emociones y al de la
expresión artística —ámbito de la comunicación no verbal—, se puede afirmar que
es el hemisferio derecho el que regula la mayoría de las funciones musicales —en
especial la sensibilidad del tono y el timbre—, aunque, como contrapartida, le está
reservado al hemisferio izquierdo el papel de supervisar, tanto el sentido rítmico
como la ejecución musical (Despins, 1989).
Estas variaciones hemisféricas en la actividad musical pueden encontrar su
justificación en la menor importancia que poseen para la supervivencia. Las
facultades visuales-espaciales y las lingüísticas, que son esenciales en este sentido,
poseen una organización más uniforme a nivel cerebral (Gardner, 1993, 356) En
cualquier caso, tales variaciones o diferencias, que han sido observadas a través de
amusias y otros trastornos cerebrales similares, presentan un aspecto algo
reducionista y contradictorio si se considera que otros estudios apuntan deducciones
sobre traslados de dominancia que invitan a ser cautos a la hora de establecer
conclusiones definitivas sobre todo este vasto campo de conocimiento. El problema
es que difícilmente se llegará a conocer el cerebro en su totalidad. «Para entender
cualquier sistema es necesario que lo analice un sistema superior» (Alberto Portela),
y esto, en principio, está fuera del alcance del hombre.
Lo que parece menos discutible es la plasticidad del cerebro como órgano
moldeable y modulable según los estímulos sociales y culturales externos, como
manifiestan algunos estudios que apuntan diferencias estimables en el cerebro de
los músicos respecto al resto de la población. Los hallazgos de estas investigaciones,
dirigidas por Christo Pantev en la Universidad de Münster (Alemania), en las que se
experimentó con instrumentistas integrantes del Conservatorio de Münster, revelan
que las zonas destinadas al registro y diferenciación de los estímulos acústicos —
mapas tonotópicos— están más desarrolladas en aquellas personas que ejercen una
actividad musical, especialmente en los ejecutantes de instrumentos, estableciéndose

182
una relación directa entre la edad de inicio de los estudios musicales y el tamaño de
esos mapas neuronales. Sobre la potenciación, mejora y aceleración del aprendizaje
existen investigaciones que trabajan con la hipótesis de que el empleo de
determinadas frecuencias específicas —superposición de campos eléctricos— para
diferentes objetivos puede potenciar el aprendizaje en ámbitos tan dispares como la
memoria, la música, el arte, etc. (Pines, 1983: 38). Parece, por tanto, que un ambiente
propicio favorece el desarrollo de estructuras especializadas para la música, pero no
garantiza, necesariamente, que se vayan a desarrollar. Por otra parte, recientes
estudios del Instituto de Tecnología de Massachussetts (MIT) desarrollados por
Frank Sulloway, apuntan que variables como el orden de nacimiento, el entorno
familiar y el número de hermanos, influyen en la capacidad creativa de los sujetos.
Según estas investigaciones, son los nacidos en los últimos lugares quienes muestran
actitudes más abiertas ante las nuevas ideas y formas diferentes de ver y hacer las
cosas, siendo los que tienen mayor predisposición a ofrecer soluciones
revolucionarias, y dedicándose, por ello, a actividades de tipo creativo, artístico y
humanitario.

7.6.2. La creatividad musical


La característica fundamental que determina la especificidad de la creación
artística, frente a la científica, es la integración de lo corpóreo y de la técnica
productiva desde un plano menos teórico. Lo artístico se centra más en la
construcción de productos genuinamente estéticos que en la reflexión sobre su
funcionalidad. La creatividad musical, en concreto, organiza sus productos estéticos
desde la sensación acústica e, indefectiblemente, remite a lo corpóreo desde la
determinación sensible de su materia expresiva. La configuración de su sustancia
conjuga la conciencia del procesamiento con la intuición de sus habilidades. En la
música, además del aspecto científico mensurable, existe una esencia sensible,
inapresable para el conocimiento lógico, que reside en los valores, el contenido de la
forma científica. Lo que hace específico a ese valor sensitivo es, no obstante,
independiente de la estructura que le asiste. Su volubilidad, instalada en la
conceptualización de la genialidad, de la inspiración —entendida como herramienta
fundamental de la creación y humildad frente a las fronteras sin fin del

183
conocimiento—, procede autónomamente, fuera del control del propio compositor:
«Algo —no se sabe qué— llega hasta nosotros —no se sabe de dónde— hasta cobrar
forma sonora —no se sabe cómo— y refleja nuestro sentir —no se sabe porqué—»
(Hindemith). Aunque no en un sentido romántico, sino «como afirmación de la
necesidad expresiva que siente el músico, y como vehículo de la esencialidad del
propio mensaje humano, social y, sobretodo, ético-político» (Fubini, 1988). Esto no
significa que la forma carezca de importancia o sea un simple vehículo en la obra
musical. Su presencia es ineludible, forzosa. Sin forma, sin continente, no hay
contenido, no hay mensaje, no hay reconocimiento y, en consecuencia, no hay
producto creativo.
Como evento estético, la música tiene la capacidad de generar emociones
gracias a que hay un compositor —creador— que le imprime su personalidad, la
durabilidad de su vivencia, no sólo como intermediario sino como conceptualizador.
Cada composición —cada producto creativo musical—, por lo tanto, es,
independientemente del resto de elementos que la configuran específicamente, el
especular reflejo de una personalidad creadora. La determinación del alcance de las
aptitudes del músico como creador es especialmente compleja. En principio, nada le
diferencia, en este sentido, de cualquier otro tipo de creador. Para la actividad
musical, como para tantas otras, son precisas tanto las aptitudes de producción
divergente como las de transformación, ya sea sensibilidad, fluidez, flexibilidad,
originalidad, capacidad de redefinición, elaboración y composición, etc.
Parece, no obstante, que independientemente de la necesaria presencia de
esas aptitudes mínimas —a veces ocultas—, es necesario que haya, unido a estas, un
compromiso actitudinal, una motivación específica por el sistema expresivo de esta.
Para la creatividad musical es necesario que el creador, el compositor, mantenga una
disponibilidad para establecer y desarrollar la experiencia estética, es decir, que
tenga una actitud estética, bien como respuesta a una orientación vital, bien como
consecuencia de una concepción placentera del hacer creativo. No solo debe poseer
intuición o estar dotado de una gran sabiduría técnica, pues quien no posee una
técnica difícilmente estará capacitado para conocer bien lo que se dice o se hace con
el dominio de esa técnica. Es necesario que a ese mínimo talento —capacidad
creativa innata—, y al conocimiento exhaustivo de su ciencia, se añada un

184
entendimiento de la realidad global, una preparación musical auténticamente
integral que se adorne en la intuición y la sensibilidad (Marco, 1993: 23), una honesta
entrega de temperamento y amor por lo que se hace y se crea. Sobre este punto,
Chabrier reflexionaba: «Tengo más temperamento que talento [...]. Compongo como
siento, con más temperamento que técnica. Pero, ¿cuál es la diferencia?. Creo ser un
hombre honesto y sincero». (Schonberg, 1989).
Y ello es porque la motivación artística se rige por particularidades que no la
alejan demasiado de la de otras actividades. En casi todas las labores humanas
aparece, en mayor o menor medida, un componente creativo asociado a esa
capacidad inteligente de inventar y promulgar fines. La objetivación de un referente,
de una finalidad que responde a un objetivo de acción, implica la necesidad de
recorrer un trayecto, de realizar un itinerario que lleve hasta ese fin, y, para
transitarlo, es imprescindible recurrir a las herramientas de la creación.
La expresión artística, y por ende la musical, está inducida por determinados
factores que mueven a los sujetos creativos a asumir su sistema simbólico como
vehículo de comunicación. El lenguaje musical, en su usemanticidad, permite al
compositor disparar mensajes que asumen posibilidades periféricas de otros
lenguajes. Expresar los conceptos a través de las emociones sensibles es una de sus
contingencias, pero no la única: «El medio artístico proporciona los instrumentos
necesarios para abordar ideas y emociones de gran significación, que no se pueden
articular ni dominar a través del lenguaje corriente» (Gardner, 1993, 111).
La necesidad del ser creativo por sobrepasar los límites que las capacidades
de sus sentidos le imponen, ha impulsado buena parte de los hallazgos y
fundamentos técnicos o artísticos. Todos ellos pretenden la posibilidad de ir un poco
más allá del ámbito perceptivo que le imponen las limitaciones físicas de los
receptores del mundo sensible.
Lo cierto es que la creación musical, más allá de su valor social o su
controvertida condición paradigmática, es una necesidad individual que se expresa
en el margen de lo colectivo, con el deseo de implicar cambios en las circunstancias
sociales. En este sentido se expresa el compositor Luis de Pablo cuando afirma que
«hay hombres cuya forma de enraizarse en el mundo es justamente componer,
provocando la venida a la realidad de objetos sonoros que antes no existían y

185
modificando la conducta de sus semejantes con tal transformación del entorno
sonoro» (1968: 24). La afirmación personal del compositor requiere que se articule de
forma que sus hallazgos se diferencien de lo ya nominado y hecho, que posea su
propia personalidad. Es por ello que el creador ha de mantenerse dentro de una
dialéctica que le impone un difícil equilibrio entre la severa defensa de
autoafirmación personal y la condescendencia ante la necesaria representatividad de
la obra. Además, esa imperiosa precisión que urge al músico a componer se inscribe
en una línea de sentido exógena. El impulso creador cobra un nuevo sentido, se
realza enmarcándose en un contexto social, cultural, político e incluso económico,
que imante la proyección de sus significados.

7.6.3. El ámbito de la música cinematográfica


La capacidad del cine para generar sueños y cultivar las ensoñaciones
colectivas de un grupo social, pasa, en buena parte, por la acción de la música como
sustancia textual. La consideración sobre la importancia social que posee la acción
creadora en un lenguaje expresivo con tan poderosa energía de construcción
ejemplarizante, y las circunstancias económicas, juegan un papel destacado en la
actitud del compositor. Y es que, además del estético y el psicológico, el problema
sociológico influye decisiva y poderosamente en la creación artística, tanto en la
“determinación externa” —el encargo social o la esperanza del público sobre el
producto—, como en la forma social comunitaria de producción artística.
En la composición aplicada, en este caso al texto cinematográfico, hay tanto
una función artística como una funcionalidad empresarial. El autor se ha convertido
en un productor, y en el cine, el músico es un productor que aparece bajo la doble
sombra de los intérpretes, que ejecutan su música, y el director del filme, que
dispone cómo aparece esta integrada en el texto audiovisual. El músico creador no
deja de ser un asalariado que, trabajando dentro del proceso económico de una
cadena de producción, coopera en la generación de una mercancía “artística”. Por
ello, en muchas ocasiones, el concepto de lo creativo ha de hacer referencia más al
sentido funcional de construir y descubrir de una tarea aplicada a un proceso de
rango mayor, que al sentido estético y poético del término.
Las producciones cinematográficas, al igual que las de la arquitectura o las

186
representativas, son fruto del espíritu cooperante de muchos artistas. En ellas la
trascendencia del grupo, que procede en microestructuras que avanzan lineal pero
continuamente, es muy acusada. Esta característica, que distingue la composición de
música aplicada frente a otros tipos, presenta una extraordinaria cualidad: el trabajo
dentro de un colectivo permite un fluido intercambio de ideas, una profunda
polinización entre sus componentes, siempre, eso sí, que exista una determinada
disposición ante el trabajo propuesto —voluntad, tenacidad, flexibilidad, unidad,
etc.—, y una conciencia clara sobre la finalidad e interés del mismo.
La estructura sociométrica de los grupos suele ser diversa y multidisciplinar.
Director, montador, fotógrafo, productor, ingeniero de sonido, músico y un largo
etcétera, forman un conjunto extremadamente heteróclito —tanto en su formación
como disposición— que, sin embargo, muy a pesar de sus perfiles culturales
individuales, están llamados en atención a la conjunción de esas diferencias.
Armonización que no ha de significar, en ningún caso, la dilución de las
personalidades, pues el mantenimiento de cierta incertidumbre intelectual, de un
entorno de controlada disparidad y disidencia, invita y concita la productividad
creadora de cada individuo —tendencia contra—, lo que supone una inestimable
sucesión de aportaciones al conjunto del grupo.

7.6.4. El proceso de creación musical


Aún contemplando que cualquier ley musical es siempre relativa, pues se
adapta a un marco en el que es capaz de explicar las causalidades pero fuera de él
carece de valor, que no existen principios universales e inmutables, ya que la única
ley reconocida como válida es la posibilidad perenne de mutación y de evolución del
arte, dado que el arte refleja «la vida con su movilidad», y que, por tanto, no existen
leyes eternas para conocer el funcionamiento de los procesos creativos, es necesario
encontrar sistemas que compensen la exigencia humana de sentido y coherencia
formal. Aunque sea en función de suposiciones, y lejos de la validez de las leyes
naturales —pues las leyes que rigen el arte son cuantiosas «sobre todo en
excepciones» (Schönberg)—, es preciso construir complejos normativos que
estimulen un hacer escolástico.
La música es un hacer artesanal, un oficio del que hay que aprender una

187
sólida técnica, y es obligado ajustarla a las particularidades contextuales en que se
desarrolla. Como ya indicaba Arheim, es un arte eminentemente procesual. Su
actuación tiene un vector que marca la dirección de su sentido. Por eso, desde el
prisma de lo artístico, se considera el proceso como el «conjunto de las fases
sucesivas sujetas a la magnitud temporal que transcurren durante una situación, una
operación o una percepción de carácter creativo». A lo largo de esas fases se llevan a
cabo una serie de actividades con una intencionalidad artística, de búsqueda, de
experiencia única y novedosa, a través de las cuales prospera y se materializa la
relación procesual «establecida entre el artista y su percepción de su propio desarrollo
creativo» (Loek, 1996: 8-10).
En el caso de la música cinematográfica, el cine, como arte de la ilusión del
movimiento, ofrece a esta un mundo de leyes que evolucionan a veinticuatro
fotogramas por segundo. Pero no son solo sus características técnicas las que
imponen un sistema de producción determinado. Como se ha visto, las
circunstancias sociales, económicas, grupales, etc., condicionan sus resultados
estéticos, y dan origen a un proceso que, resumidamente, se cumple del modo
siguiente:
En una primera etapa —informativa o documental—, el compositor obtiene
una doble percepción del mundo. Por una parte, el ámbito productivo que hace
referencia a las necesidades implícitas de su trabajo, bien teóricas o prácticas; y por
otra, el ámbito de la ficción que representa la historia narrada en el marco de un
determinado discurso. Es el momento de la formulación de interrogantes; de generar
preguntas que justifiquen el resto del trabajo y, sobretodo, la presencia de este, su
necesidad. Earl Hagen, en su obra Scoring for films hace explícitas, desde una
dimensión pedagógica, cuatro preguntas que, emergidas a la luz del consciente,
marcan el territorio de un proceso de interpelación agotadora. El para qué, el dónde,
el cuándo y el cómo, son tan sólo los raíles por los que transcurre un tren a toda
velocidad, cuyo maquinista es la fantasía.
La insatisfacción perceptual —en el origen de todo acto creativo— viene dada
por las carencias de un texto que se ofrece demediado. El compositor siente la
necesidad de completar, de cerrar y atar los significados de la ficción, inventando
para ella desde sus propios ofrecimientos. Las conversaciones con el director, el

188
acopio de información, el mensaje soterrado descubierto en la pureza inmaculada de
una primera mirada, ingenua pero inquisitiva, propone una actitud problemática
que encamina el espíritu creador hacia la indagación. Mientras examina y reflexiona,
mira el objeto y le pregunta, directa y reiteradamente. Indaga sobre la dirección de
sus necesidades, sobre la dimensión de sus dudas, y espera impaciente a que la
sagacidad de las interpelaciones permita levigar adecuadamente el texto,
acercándole al recto camino de la satisfacción buscada.
Esa focalización deformadora de todo cuanto existe, que busca amoldar la
multiplicidad de las respuestas a una unívoca pregunta subconsciente, es el largo
tránsito que va desde la incubación del problema hasta la manifestación de sus
efectos en ese acto, instantáneo e inasible, de clarividencia total, que es la
iluminación. En un primer momento se trata de un primerizo destello que se
presenta como una intuición global, como un conjunto direccionado de posibilidades
hermanadas, como una suma de iluminaciones parciales que responden
fraccionariamente a cada problema. Sin embargo, en ese instante, la idea nacida
aparece como expresa solución al problema planteado con tal pregnancia que es
capaz de suturar, fulminantemente, todas y cada una de las dudas formuladas, para
encaminar, desde ahora, en un acto de ciega fe, los dubitativos pasos del
desconcierto hacia un objetivo descubierto entre la maraña. Surge así, una voluntad
afirmada en las expectativas de éxito y en la satisfacción intelectual; una
imprudencia necesaria para comenzar a construir una realidad más estable, más
consonante.
En la creación musical esta primera iluminación posee una naturaleza global.
Históricamente los propios compositores, y los biógrafos de estos, han justificado
esta etapa como centro del proceso creativo, otorgándole un cierto carácter arrobado.
El mismo Schönberg, defendiendo que la música expresa la más profunda
interioridad del hombre, argumenta que «la creación es un primun absoluto, fruto
exclusivo de la inspiración, de un auténtico acto de iluminación del artista» (cit. en
Fubini, 1988: 430). En ella se produce el encuentro con el objeto, mejor dicho, con esa
idealización del objeto que hace suya e interioriza el creador. Es así,
aprehendiéndole, como es capaz de dar una respuesta tácita de su esencia. Una
primera réplica que si bien muestra un camino a seguir, expedito mas en barbecho,

189
lo hace tan solo desde el inicio de «una operación de larga duración, en la que la
iluminación se presenta como una serie de breves y sucesivos destellos dentro de un
intenso período de trabajo» (Moles, 1977: 41).
En el caso artístico, la verificación, viene marcada por un trazo discontinuo
que se solapa con fases de incubación-iluminación sucesivas. La evaluación de la
idea obtenida —un color tímbrico, un motivo melódico, una asociación rítmica,
etc.—, su tasación en términos de utilidad, de practicidad para el objetivo buscado —
un concepto, un ambiente, un movimiento, la plasticidad de la imagen, etc.—, dan
paso a una rápida serie de transformaciones en las que se prueba y se borra, se
rectifica con constancia, hasta que la idea no asume un valor definitivo y da paso a la
formulación concluyente del producto creativo, ya sea a través de un procedimiento
de escritura-registro, bien mediante un sistema de registro directo.
Con su difusión y socialización, el texto musical entra en uso para provocar
un efecto creativo. Se convierte en objeto de cambio y de valor estético y económico.
Su puesta en marcha, su integración social —en el seno de un texto aglutinante—,
valida su función como instrumento de participación.

190
CAPÍTULO VIII. LA MÚSICA QUE NOS RODEA: EL
FENÓMENO MUSICAL EN NUESTRO TIEMPO.
El análisis del consumo de la música en la sociedad actual parte de la
aproximación a tres esferas de conocimiento complementarias: la social, que aporta
información sobre cómo los nuevos sistemas productivos modifican los
comportamientos de consumo y lectura de los textos/productos musicales; la
económica, que revela los mecanismos industrializados de esos sistemas
productivos; y la cultural, que determina los condicionantes y tendencias de
producción de las obras musicales en el momento presente.
Determinar las características que definen el consumo de la música en la
sociedad actual pasa por contemplar el fenómeno desde una perspectiva algo más
global de la que impone el término en sí. De entrada, porque es indisociable de otros
fenómenos que son solidarios con él; la creación, la producción, la industrialización,
la distribución y el consumo musical contemporáneo forman parte de un todo
heterogéneo que solo se puede entender si se aborda de forma conjunta.
Tres son los argumentos a considerar:
1. los mecanismos económicos;
2. la dimensión sociológica; y
3. los procesos culturales.

8.1. ASPECTOS ECONÓMICOS.

8.1.1. La industrialización de la creación-producción.


La revolución tecnológica iniciada en la segunda mitad del siglo XIX ha
puesto de manifiesto la industrialización de los procesos creativos y productivos y,
con ello, ha convertido la cultura en un nuevo proceso de producción. Hasta tal
punto esto es así, que es necesario preguntarse por cómo, a partir de las artes de
registro, se ha visto modificada la misma concepción del arte (W. Benjamin),
En el fundamento de este proceso se encuentran algunos sucesos:

191
1. El enorme aumento tanto de la producción como del consumo como
consecuencia de la fase del consumo de masas.
2. El creciente acceso a las aplicaciones tecnológicas semi-profesionales
desde entornos domésticos.
3. La especialización creciente de las disciplinas y, en consecuencia, la
fragmentación del conocimiento.

8.1.2. La industria fonográfica.


En el proceso de industrialización de la creación-producción la industria
fonográfica ha sido la punta de lanza, el sector pionero de ese proceso.
Las características del producto le hacen especialmente arriesgado desde el
punto de vista empresarial:
• Aleatoriedad de su valoración. No tiene un precio estable y, por lo
tanto, existe un riesgo poco calculable en la posibilidad de beneficios.
• Necesidad de continua renovación. Se trata de un producto con un
margen de vida muy escaso. La novedad es el valor de venta, una vez
que se agota esta es complicado darle salida en el mercado.
Para evitar esos riesgos la estrategia empresarial es la siguiente:
• Creación de catálogo. Se reparte el riesgo en un catálogo amplio,
combinando los productos de rápida o lenta comercialización, y
retomando los éxitos de otros mercados cada cierto tiempo.
• Inversión en distribución. Se asumen costes pequeños en la producción
pero se realizan grandes esfuerzos económicos en la distribución y
publicitación del producto.
• Fuerte estructura publicitaria. Se generan tendencias que influyen
sobre los gustos y marcan las direcciones de consumo dominantes en el
mercado.

8.1.3. Distribución y comercialización.


La distribución y comercialización tiene una importancia capital en el
mercado musical.
La situación actual de los mercados de distribución y comercialización de los

192
productos musicales viene determinada por dos cuestiones básicas:
a) Internacionalización. Existe un doble proceso de
internacionalización/concentración. Por una parte, existe un libre movimiento de
capitales de carácter internacional, y, de otra, se produce una concentración de
empresas —fusiones, compras, etc.— que facilita esa implantación internacional.
Este proceso se declara en ciertas tendencias homogéneas en:
• la expansión mundial y unificación de los productos
(exportaciones-importaciones);
• los procesos productivos;
• la propiedad intelectual y la gestión de derechos
patrimoniales;
• las prácticas profesionales;
• el lanzamiento de géneros y estilos, etc.
b) Transnacionalización. Grandes holdings de empresas controlan el grueso
de los mercados. La expansión internacional se produce a partir de unos pocos
grandes grupos desde países con economías muy fuertes. Se trata tanto de un
fenómeno económico como político de honda repercusión cultural. No en vano, “el
aparato transnacional de producción de mercancías culturales y de información lleva
en sí no solamente un proyecto de cultura, sino igualmente un nuevo sistema de
organización del poder” (A. Mattelart).
• La industria musical —fonográfica— se presta especialmente bien a
estos procesos por varias razones:
• Coste unitario medio de la producción, pero bajo coste de tirada y
transporte de las copias.
• Coste marginal, casi nulo, de las audiencias colaterales —radio oyentes,
teleespectadores, internautas, etc.—.
• Colonización política de los mercados: ideología, idioma —inglés—,
etc.
• Diversas fuentes de ingresos: venta directa, inserción en publicidad,
giras, presentaciones, derechos de autor, derechos de intérprete,
derechos de edición, etc.

193
• Facilidad en el establecimiento de sinergias con otros medios:
patrocinio de programas televisivos o radiofónicos, recopilaciones de
temas musicales de spots, ediciones de bandas sonoras, etc.

8.2. ASPECTOS SOCIOLÓGICOS.

8.2.1. Bases del modelo.


Aunque la comprensión del fenómeno de consumo musical en la sociedad
actual ha de partir, necesariamente, del análisis del proceso evolutivo de las culturas
visual y sonora desde los orígenes del hombre, este recorrido es especialmente
determinante desde la modernidad de la democratización de la cultura. Dos son los
momentos esenciales de esa socialización: el desarrollo de la imprenta de Gutenberg,
en 1439, que anticipa las posibilidades de difusión por medio de la máquina; y la
Revolución Francesa, de 1789, que suprimió las limitaciones sociales al acceso
cultural.
El advenimiento de la música al valor presencial del que goza hoy en día es
un fenómeno, desde la perspectiva histórica, novedoso. Hasta el mismo siglo XVIII,
la música aparece como algo frágil, ambiguo, lejano. Hoy por hoy, de forma
inevitable, invade el mundo y la vida cotidiana. Pero lejos de ser algo inocente, esta
ubicuidad de la música se sustenta, en buena parte, en su valor mercantilista, en el
poder de su industria. Estudios económicos confirman que en los países occidentales
se dedica mayor cantidad de dinero al consumo musical que actividades de primera
necesidad como beber, la higiene, etc.
Y es que en el siglo XX se ha producido una auténtica explosión demográfica
de los oyentes de música. Se puede considerar a esta como la época, en la Historia de
la música, del aficionado, del oyente aficionado, y, aún más, del oyente creador. No
hay que olvidar que, tan solo dos siglos atrás, exclusivamente los grupos más
adinerados —de forma muy escogida— podían escuchar música de forma habitual.
Era necesario que se produjese una representación en vivo, o bien, y esto marca el
acceso de la burguesía como clase dominante también en la cultura, que fuese
interpretada por el propio oyente, o bien que se asistiese a donde era
representada/tocada.

194
El registro de la música ha reducido la importancia de la representación
pública. Los músicos populares hacen sus discos más como producto que como
invitación a la representación en vivo, en directo. Esta tendencia parece, sin
embargo, que está provocando una estética de reacción que postula la necesidad de
la vivencia musical directa y rehúsan el registro grabado como sistema definitivo.
Aún así, es evidente que en la raíz del cambio social de consumo musical se
halla, nutriéndola, el descubrimiento y vertiginoso desarrollo de los sistemas de
registro sonoro y el acercamiento, al mismo, resulta inevitable.
En el cuadro siguiente se describe el proceso de expansión, en el ámbito
espacial, que ha seguido el fenómeno musical a lo largo del siglo:
(Fig. 18 Proceso de expansión)

8.2.2. Génesis: el registro sonoro.


La aparición del magnetófono personal, en un primer momento, y,
posteriormente, de los sistemas de grabación y reproducción personales analógicos y
digitales (walkman, discman, etc.) ha supuesto, en palabras de McLuhan, el
nacimiento de un nuevo escenario de transmisión donde la comunicación sonora se
establece en dos ámbitos distintos: la comunicación por difusión, y la comunicación
interpersonal.
A pesar de la indiferencia que, en origen, provocó la aparición del registro
sonoro entre los músicos, pronto hubo los que observaron que el surco registrado
suponía la tan anhelada perennidad de la obra de arte musical y que, hasta su
invención, había avanzado por los caminos de una notación musical cada vez más
compleja, rigurosa e intrincada, que estaba abocada a unos procesos de
decodificación cada vez más apócrifos.
Dentro del repertorio de mitos universales del pensamiento técnico, la
capacidad de registrar, conservar y reproducir el sonido ha supuesto un anhelo
constante de la investigación y el deseo humano. Desde la piedras de Memnón —
piedras “parlantes” egipcias que, mediante un fenómeno de dilatación solar, emitían

195
sonidos al atardecer— o las palabras congeladas de Rabelais, hasta el primer
fonógrafo, el hombre ha recorrido un camino que le ha llevado a comprender que el
registro sonoro supone la materialización del tiempo, su concreción física para una
ilimitada capacidad de manipulación. Para Moles, “el gran descubrimiento del
magnetófono consistió en escribir la ecuación: tiempo (minutos) = espacio (metros)—
velocidad”.
La aparición de los sistemas personales de grabación/reproducción ha
supuesto la socialización del acceso musical sobre la base del registro sonoro. Con
anterioridad, la concreción del sonido exigía un material delicado y costoso, que sólo
era asumible por grandes entidades que ejercían como gurús de la difusión. El
abaratamiento de costes de los nuevos sistemas ha atomizado las unidades
comunicativas sonoras y ha establecido, sin destruir las anteriores, nuevas jerarquías
y redes de emisores/receptores múltiples.
La reproducción ilimitada de la música, además de colectivizar sus procesos,
la ha convertido en un elemento ubicuo; su presencia es inagotable. Como ejemplo
de contraste sirva saber que mientras en 1830 la audición de una obra sinfónica
estaba al alcance exclusivo de las clases más privilegiadas, en la década de los años
80 se calculaba en dos horas diarias de media las que cualquier ciudadano de los
países desarrollados consumía música reproducida. Estos guarismos, veinte años
después, se han duplicado en esos países y se ha estandarizado su consumo por todo
el planeta.
En 1985, Moles, en su Diccionario de los Mass Media, ofrecía estos datos:
Cada año, la industria mundial produce y vende unos 200 millones
de discos. La mayoría de los ciudadanos de los países desarrollados disponen
de un receptor de radio y escuchan programas constituidos por un 50 por
100 de música, es decir, aproximadamente una hora de música oída (si no
escuchada) por día para 500 millones de personas. En una palabra, el 98 por
100 de la música pasa a través de un micrófono; la audición de conciertos o
la práctica personal de un instrumento sólo representan, respectivamente, el
otro 2 por 100.

196
8.2.3. Características del modelo.
Las características principales del modelo social de consumo musical son:
1. Cultura del ocio. La revolución tecnológica e industrial ha acentuado
el crecimiento de la productividad empresarial y ha determinado el
nacimiento de la cultura del ocio.
2. Creación de nuevos públicos. Como consecuencia de lo anterior,
aparecen sectores de población con una alta disposición al consumo —
con coste o sin él—: jubilados, parados, amas de casa y,
fundamentalmente, jóvenes estudiantes que se incorporan muy tarde
al mundo laboral. En verdad, buena parte de la absoluta
comercialización actual de la música se apoya en la juventud por varias
razones:
a. Tienen medios para adquirir los productos y el nivel de
disonancia cognoscitiva que les provoca una decisión de
compra, en términos comparativos de dinero, es inferior al de
otros sectores de población.
b. Hay una explosión demográfica importante —en los países más
avanzados, en franco retroceso—.
c. Ampliación de la etapa educativa y colchón de la adolescencia.
Creación de modelos de consumo.
d. La sociedad se orienta a lo kitsch y lo light. Valoración de lo
joven. Se les mima y se les pretende emular. Depreciación de la
sabiduría de la tradición y la experiencia.
e. Mayor permeabilidad a los nuevos mensajes, modelos y
tecnologías. Modelos de comportamiento e identificación grupal
a través de los MCM.
3. Colonización cultural e institucional. Mediante el show-business, el
star-system y el hit-parade se produce una colonización de las ideas, los
modelos y los productos.
4. Los Medios de comunicación de masas como fuentes de autoridad.
La colonización se asienta en la universalidad de los mensajes a través

197
de los Medios masivos de comunicación. Como fuentes de autoridad
actúan como reveladores de la verdad, con la ventaja añadida que
supone su aparente objetividad, la no-presencia de la potestad, la
pseudoevidencia de una subjetiva posición espectadora.
5. Serialización de los mensajes musicales. La música pierde su
inocencia al convertirse en mercancía. Como afirma Attali, lo informal
es producido y consumido en serie; la diferencia es recreada
artificialmente en la multiplicación de objetos casi idénticos.
6. Triple cotización de la obra musical. Al disfrute del creador y al valor
de uso para el oyente se añade el valor de cambio para el vendedor.
7. Referencialidad mediática. La experiencia vicaria que supone la
percepción musical a través de los medios de reproducción técnica
predice que nuestra escucha ya no se fundamenta en el principio de
veracidad, sino en el de verosimilitud global. Es decir, se posee una
idea, falseada arbitrariamente, de cómo suenan las cosas, sean objetos
instrumentales o no. La dramatización de su sonido, el engarzamiento
de estos a los procesos de narración y descripción discursiva, ha
producido un enajenamiento de las estructuras perceptivas originales
que son desplazadas por entidades sonoras cautivas. Ocurre, por
ejemplo, que alguien que es un experto en un determinado estilo de
música, escuche por vez primera un concierto en directo de este tipo de
música y se vea sorprendido por la naturaleza original de esos sonidos.
8. Generación de nuevos oficios. Aparición de nuevos oficios musicales
como consecuencia de la utilización de los nuevos instrumentos
tecnológicos Por ejemplo, los Disc Jockeys, que a partir de samplers,
reproductores de vinilo, etc. generan nuevas propuestas en las que
actúan como intérpretes/recreadores, o los Técnicos de sonido, que se
han introducido en la línea de comunicación que va desde el
compositor al intérprete y al público, y que tienen la capacidad de
modificar y recrear, de forma notable, el resultado final de los textos
musicales mediante su procesamiento electrónico.

198
8.2.4. Productos musicales al alcance de todos.
La música se ha convertido en una especie de fondo natural sonoro de las
urbes; donde la contaminación del aire ha terminado con las formas de vida
naturales, vivimos en el espacio de las flores de plástico que crecen al arrullo de un
incesante hilo musical. Discotecas, bares, oficinas, lugares de trabajo, medios de
transporte, salas de espera, centros comerciales, automóviles, en definitiva, cualquier
espacio público o privado es propicio para bañarse en el hálito de la música.
Reconociendo esta problemática, recogemos de Attali una curiosa cita: “En el siglo
XX, la dificultad no consiste en encontrar sitios donde se coma públicamente con música,
sino, por el contrario, en hallar un lugar donde podamos hacerlo sin ella. En esta época en que
el descanso para el oído es más difícil que nunca, un restaurante de Londres ha anunciado
como una atracción: ¡No hay Música!”.
Las consecuencias directas de esta situación son:
• Resulta molesta porque impide o traba la comunicación interpersonal.
• Incomoda porque nos hace escuchar algo que no deseamos. Todo
sonido no deseado es, recordémoslo, una suerte de ruido
• Su impacto constante genera una indiscutible contaminación textual.
Provoca hastío y devalúa su valor estético y artístico. Desde la
perspectiva de la proxémica, la música rellena los huecos de la palabra,
desodoriza los espacios sociales tal como el perfume anula el olor
corporal.
La representación tecnológica de la miniaturización, el culmen de esta
tendencia de la individualización de los medios, es el walkman. Aislarse en la música
las 24 horas del día, interrumpir la comunicación con el otro —cuanto más fuerte es
la intensidad, mejor porque más profundo es el retiro— en todos los espacios y
tiempos: para estudiar o realizar actividades domésticas, viajando en transporte
público o andando por la calle, en el trance del sueño, etc. Ha de considerarse, no
obstante, que esto no hace sino formar parte de la propensión de la evolución
tecnológica de los medios de masas hacia los medios de difusión individualizada;
así, donde antes se reunía la familia para pasar la sobremesa alrededor de un
receptor de radio, o integraba al televisor como un comensal más en la mesa camilla,

199
ahora cada individuo corre huidizo hacia su burbuja mediática: posee “su” televisor,
“su” radio, “su” ordenador y, aún de forma virtual, ha generado una nueva
“familia” que no exige el diario e “inoportuno” contacto físico.
Los niveles de intensidad sonora a los que se llega en las discotecas o los
conciertos musicales —grandes equipos de P.A.—, en ocasiones por encima de 120
dB durante varias horas, son realmente perjudiciales para la salud.

8.3. ASPECTOS CULTURALES.

8.3.1. Las industrias culturales.


La UNESCO determina la existencia de una industria cultural cuando los
bienes y servicios culturales se producen, se reproducen, conservan y difunden
según criterios industriales y comerciales, es decir, en serie y aplicando una
estrategia de tipo económico, en vez de perseguir una finalidad de desarrollo
cultural.
Las industrias culturales poseen rasgos específicos, que las diferencian de
otros productos industriales:
• Punto de vista económico. Existe un alto riesgo en los beneficios. Los
productos deben ser presentados, necesariamente, como únicos,
especiales y distintivos. Hay una exigencia de renovación permanente.
• Punto de vista político. Las industrias culturales son mecanismos
ideológicos: generan y transmiten ideología.

8.3.2. La obra de arte en la industria cultural.


La multiplicidad de los mensajes en la sociedad de comunicación de masas —
elemento que afecta también al canal— a través de su reduplicación industrializada,
y su don de ubicua instantaneidad, ha producido una cierta vulgarización de estos al
trasladar su aprendizaje a una especie de ciclo sociocultural.
La obra de arte pierde su trascendencia al desplazar su valor desde la
originalidad a la difusión masiva; al deslizarse desde el micromedio a la masa.
Queda así reemplazada, como tal, por la función artística, que no es sino una función

200
de subversión permanente de las formas; un juego gratuito —en principio, nadie está
obligado a participar en él— en el que son partícipes el artista, el público y la masa
social, y cuya regla esencial es la generación constante de nuevas artes, es decir, de
nuevos modos de atraer y soliviantar la sensibilidad.

8.3.3. La música como industria cultural.


La música, como participante de ese gran mercado contemporáneo que es el
audiovisual, es uno de los soportes fundamentales de las grandes tendencias de la
industria cultural. Por una parte, está en el centro de las tensiones económicas, de las
luchas por el mercado; por otra, favorecida por la sinergia multimedia, es uno de los
polos de atracción para la investigación, aplicación y comercialización de las nuevas
tecnologías.
Inevitablemente, esta mercantilización supone que la obra musical sea
tratada, como cualquier otro producto, en términos mercantiles desde su misma
génesis. Ello tiene unas consecuencias directas sobre el proceso creativo/productivo,
tanto en el plano de los contenidos como en el de los lenguajes, y una serie de efectos
en:
1. Modo de producción. Serialización de los mecanismos creativos en
función de las reglas de productividad —fijación de plazos para cada
tarea—, especialización determinista de los autores —compositor,
orquestador, músico de sesión, experto, productor, diseñador de
sonido, técnico, documentalista, editor, etc.—.
2. Modo de financiación. Compra directa del consumidor, o pago
indirecto a través de la publicidad.
3. Modo de programación. Inserción en el mercado. Estrategias de salida,
distribución, etc.
4. Modo de comercialización. Su unicidad permite salvar costes en un
mercado y obtener la rentabilidad mediante su exportación e
internacionalización.
Entre las consecuencias que conlleva la implantación de este modelo, se
hallan la fractura, cada vez más radical, entre la composición pura o abstracta y sus
posibles destinatarios, o la influencia que poseen en la generación de secuencias de

201
lectura que resultan poco favorables para determinados estilos. Buena muestra de
ellos son algunos de los mecanismos habituales de creación/producción:
• Brevedad. En radio y televisión, puesto que hay que insertar
publicidad, los temas comerciales de 3 minutos son idóneos. Como es
lógico un tiempo de sonata encaja mal en la programación
radiotelevisiva. Además, las dimensiones grandes encajan mal con el
principio de repetición sistemática.
• Niveles sonoros muy elevados —incluso con alta distorsión en
frecuencias—. Ciertos estilos resultan poco atractivos porque sus
sonoridades son más leves.
• Vacuidad de los mensajes. Han de ser productos que sean fagocitados
enseguida, que tengan una vigencia relativa. Hay que generar otros
deseos. Son productos de flechazo: instantaneidad y fugacidad.
• Facilidad de lectura. El acceso a la idea es inmediato —esquema de
canción— y reiterativo. No hay lugar a los planteamientos y
desarrollos extendidos. Se perfila una apatía auditiva: no se fuerza la
retentiva, la memoria musical. Se busca el placer sensorial, eludiendo el
placer formal. No hay reconocimiento, sólo emoción desenfrenada.
Richard Letts: “la música a la moda emplea un vocabulario restringido,
estructuras simples, y una sintaxis que se puede anticipar muy bien”.
• Asociación al movimiento, a la participación como grupo. El placer
sensual mueve al movimiento, a la introversión, a la mirada; el placer
formal a la reflexión, a la tertulia, a la voz.

8.4. ASPECTOS ECOLÓGICOS.


El estudio de las condiciones ambientales de contaminación sonora lleva,
indefectiblemente, al análisis del ruido —características, fuentes, efectos nocivos,
etc.— como uno de los factores básicos de la contaminación, especialmente presente
en las comunidades urbanas y ligado al desarrollo económico, que incide de forma
negativa en la calidad de vida.
Las fuentes de contaminación atmosférica que nos interesan desde la

202
perspectiva musical son:
1. Contaminación acústica. Deriva fundamentalmente de los adelantos
técnicos: motores de explosión, a reacción, máquinas, aparatos de
sonido, etc. Es característica de las grandes aglomeraciones industriales
y metropolitanas. Como ejemplo, sirva el estudio realizado en París
hace unos años: el dictamen refería que los únicos lugares donde la
cantidad de ruido no superaba los valores perjudiciales para la salud
eran los cementerios.
2. Contaminación electromagnética. Es producida por la creciente
emisión de ondas hertzianas (de frecuencia entre 10-4 MHZ y 105
MHZ), tanto por las emisoras de radiocomunicación como por los cada
vez más numerosos aparatos electrónicos: ordenadores, hornos
microondas, arcos detectores de metales, etc. El alcance de los efectos
de esta contaminación aún se desconoce. No obstante, en algunos casos
pueden ser fatales; tal es el caso de las perturbaciones que provoca en
el funcionamiento de los marcapasos, etc.
3. Contaminación estética-textual. Es fruto de la excesiva proliferación
de textos musicales, bien desde la industria fonográfica, bien desde la
audiovisual. El ámbito de sus efectos se centra en la incapacidad de los
oyentes para escapar de la recepción de mensajes que no desea.

8.4.1. Contaminación acústica.

8.4.1.1. El ruido.
La descripción tradicional —subjetiva— de ruido define este como todo
sonido molesto producido en un sitio y momento inadecuados. Es decir, se trata de
un sonido percibido de manera no deseada.
Desde el punto de vista técnico, el ruido es una forma de energía que se
transmite por ondas a través de las moléculas del aire o de cualquier otro material,
con una velocidad constante, característica del medio, y cuya intensidad disminuye
con la distancia. Se trata de un sonido complejo compuesto de ondas sonoras no
periódicas que están distribuidas espectralmente a través de una amplia gama de

203
frecuencias.

8.4.1.2. Clasificación del ruido.


Existen diversas formas para clasificar el ruido:
1. Por la forma espectral.
2. Por la duración y la presión sonora.
Atendiendo a la forma espectral pueden ser:
• Ramdom. Los valores instantáneos de las amplitudes de las ondas
siguen una ley de probabilidades específica.
• Gausiano. Es el ruido normal. La distribución de las amplitudes sigue
una distribución de Gauss.
• Blanco. La energía espectral es independiente del ancho de la banda de
análisis. Es el ruido habitual de una radio sin sintonizar, etc.
• Rosa. La energía espectral es dependiente del ancho de la banda de
análisis.
Atendiendo a la duración y a la presión sonora:
• Ruido de impacto. Es un ruido de muy corta duración y cuyo nivel de
presión sonora aumenta rápidamente. Son producidos por el choque
de superficies sólidas. De este tipo son los portazos o los producidos
por muchas de las máquinas empleadas en la industria.
• Ruido de impulso. Es un ruido de corta duración pero que produce,
instantáneamente, un nivel de presión sonora muy elevado que varía
rápidamente. Son de esta naturaleza los disparos, las explosiones, etc.
• Ruido continuo. Es el ruido cuyo espectro de frecuencia no varía con el
tiempo, ni tampoco varían los niveles de presión acústica. Se trata de
un ruido inusual en una ciudad o en un recinto industrial.
• Ruido intermitente. Se trata de un ruido cuyos niveles de presión y
espectro de frecuencias varían entre unos límites muy estrechos de
forma constante. Es el tipo de ruido más constante en las industrias.

8.4.1.3. Fuentes del ruido.


Toda actividad física implica la producción de ruido. En consecuencia, las

204
fuentes de ruido son múltiples y se localizan en todas partes.
Las causas más habituales que generan entornos ruidosos, fundamentalmente
en los grandes núcleos urbanos, son:
• Actividades humanas urbanas. Ruido de los bares —especialmente
cuando abren en horario nocturno—, de los mercados, de las
manifestaciones culturales, recreativas o sociales —altos niveles de
intensidad con los que se emite la música—, etc.
• Tráfico rodado. Sin duda alguna es la principal fuente de ruidos en las
grandes ciudades. Son fuentes específicas: el ruido del motor, la
refrigeración, la interacción de los neumáticos con el firme, el ruido
aerodinámico del vehículo al desplazarse, el sistema de frenos, las
bocinas, etc. La incidencia de cada uno de estos ruidos varía en función
de la velocidad. Al pie de una acera de una calle transitada el nivel de
intensidad del ruido alcanza los 90 dB.
• Actividades puntuales. Forman parte de este apartado los ruidos
generados por otros medios de transporte y ciertos ruidos puntuales e
intensos. Del primer tipo son los generados en zonas anejas a
aeropuertos, vías o estaciones de tren, etc. Pueden ser pitidos, ruidos
de movimiento de vagones, despegue de aviones, etc. Del segundo son
los ruidos debidos a la construcción, a martillos neumáticos,
compresores, hormigoneras, grúas, palas excavadores, etc., todos ellos
de carácter temporal.
• Trabajos industriales. Ser trata de los ruidos producidos por
actividades industriales. Los principales afectados son los operarios de
dichas empresas. Los niveles de sonido continuo (LEQ) superiores a 90
dB no están autorizados en las fábricas de muchos países.
A continuación se adjuntan dos tablas que ofrecen datos sobre los niveles de
intensidad sonora, las fuentes de ruido más habituales, y los valores de exposición
máximos recomendables.
Escala de intensidad, medida en decibelios, de sonidos habituales:

205
Nivel de Sonido de referencia Sensación
presión subjetiva
0 db Umbral de audición Silencioso
10 db Crujido de una hoja
20 db Biblioteca
30 db Susurro
40 db Área residencial por la noche Poco ruidoso
50 db Conversación normal
60 db Restaurante Ruidoso
70 db Oficina ruidosa
80 db Calle con mucho tráfico
90 db Camión pesado Muy ruidoso
100 db Vagón de tren
110 db Aeropuerto
120 db Avión despegando Intolerable
130 db Umbral del dolor
140 db
Tabla 7: Escala de intensidades en dB

Datos de la Agencia para la Protección del Medio Ambiente estadounidense


(EPA) ofrecen la conclusión de que existe el riesgo de pérdida definitiva de la
audición, después de cuarenta años de exposición diaria a un nivel constante de
ruido de:

75 dB 8 horas diarias
78 dB 4 horas diarias
81 dB 2 horas diarias
84 dB 1 hora diaria
Tabla 8: Riesgo de pérdida de audición

8.4.2. Efectos nocivos sobre el hombre.


El grado de polución sonora de la sociedad actual es tan alto que,
inevitablemente, afecta de forma notable a la calidad de vida de los seres humanos.
Tales efectos pueden clasificarse en tres grupos:
1. Fisiológicos.
2. Psíquicos y Psicosociológicos.
3. Sociológicos.

206
8.4.2.1. Efectos fisiológicos.
Se trata de trastornos de la audición asociados a la aparición de lesiones y
enfermedades consecuentes con la permanente exposición a niveles elevados de
intensidad sonora (± 100 dB). Aunque la causa más habitual es la laboral —obreros
que manejan herramientas neumáticas, grandes máquinas…— también afecta, cada
vez más, a grupos de población en los que la causa es el hábito de consumo en la
sociedad del ocio.
Estos trastornos son:
• Pérdida discreta de la audición. Dejan de oírse determinados rangos de
frecuencia y/o se reduce el umbral de sensibilidad a la potencia
sonora. Se conoce también como dureza de oído. Ha de considerarse que
en este trastorno no influyen exclusivamente los altos niveles de
intensidad puntual; tan importantes como estos es la cantidad de
energía sonora acumulada que recibe diariamente un individuo —
ruido en el trabajo, en el transporte, en el hogar, en la calle, etc.—.
• Sordera. Es el caso más extremo y supone la imposibilidad total de la
audición. Es habitual en las enfermedades profesionales —por ejemplo,
operarios que han estado sometidos a niveles superiores a 90 dB, ocho
horas, durante muchos años—. Un ruido prolongado superior a 150 dB
puede causar, en el acto, una sordera permanente. Por encima de 192
dB puede provocar incluso la muerte al producirse una extraordinaria
descarga de fuerza.
• Otros trastornos auditivos. Además de la pérdida progresiva de
audición hasta llegar a la sordera, existen otras alteraciones del oído
debidas al ruido: taponamiento del canal auditivo debido al aumento
en la secreción de cera, ruptura de la membrana timpánica, otitis, etc.
No solo son perjudiciales las intensidades sonoras violentas de forma
momentánea. La exposición prolongada a un nivel de intensidad
medio/alto puede resultar igualmente perjudicial.
• Daños a la voz. Tratar de dialogar en entornos muy ruidosos implica la
necesidad de subir el nivel de intensidad de la voz. Consecuentemente,

207
se somete a un sobreesfuerzo al aparato fonador que puede derivar, en
su repetición, en problemas más o menos graves de las cuerdas
vocales.
• Trastornos y molestias psicofisiológicas. Está demostrado que el ruido
provoca en el sistema neuro-vegetativo una serie de modificaciones
funcionales que son fruto de la reacción de defensa del organismo
frente a dicha agresión externa. Muchos de los trastornos psíquicos
provocan una reacción de naturaleza física: diarreas, vómitos, malestar
general, elevación de la presión arterial, aceleración del ritmo cardiaco,
tensión muscular, descarga de hormonas en la sangre, etc. Incluso, los
niveles elevados de ruido son considerados como factores de riesgo o
desencadenantes de determinadas enfermedades cardiovasculares.

8.4.2.2. Efectos psíquicos.


Las afectaciones de tipo psicológico marcan alteraciones en los procesos de
conducta. La importancia de tales alteraciones viene determinada por el nivel de
perturbación que implica en los comportamientos y costumbres de los individuos.
Pueden ser:
• Stress. El ruido actúa como un stressor pues genera tensiones mentales,
ansiedad, etc. Cuando las reacciones fisiológicas de adaptación general
al stress son persistentes —vivir en un entorno ruidoso de forma
continuada, por ejemplo— pueden provocar efectos graves sobre la
funcionalidad del organismo y dar origen a enfermedades de
adaptación.
• Depresión. Como cualquier otro factor ambiental, el ruido puede
provocar depresiones reactivas. Además, esta sensación de infelicidad
y desaliento puede verse acompañada de otros síntomas como la
ansiedad.
• Insomnio. Así como determinados sonidos periódicos —tictac de un
reloj, Vg.— inducen al sueño, los ruidos inesperados o continuados a
un nivel medio/alto impiden conciliar el sueño o producen serias
alteraciones de este. Ello da origen a trastornos psíquicos como

208
ansiedad, tensión mental, o fisiológicos como el aumento y aceleración
de episodios cardiovasculares. La legislación considera como horas de
sueño desde las 22 a las 8 horas. Durante ese periodo horario el valor
límite está definido en 35-40 dB.
• Alteraciones de la atención y falta de rendimiento. La exposición
prolongada a ambientes sonoros elevados y el hábito de acompañar la
realización de tareas intelectuales y/o mecánicas con fondos sonoros
provoca distracciones severas de la atención y, consecuentemente,
disminuye sensiblemente el rendimiento intelectivo.
• Agresividad. La causticidad del entorno puede provocar reacciones y
comportamientos hostiles como consecuencia de una actitud de
oposición al medio.

8.4.2.3. Efectos sociológicos.


El ruido, como se ha visto anteriormente, es un signo de la sociedad de
consumo postindustrial. Pero como signo es un atributo errado. En la sociedad de la
cultura informatizada, en el tiempo de la información del ocio, aparece como
negación expresa de la comunicación, de la búsqueda del otro. Sus consecuencias
son:
• Incomunicación. El efecto más claro del ruido sobre la comunicación es
la perturbación sobre las conversaciones orales y las interferencias
producidas por los aparatos electrónicos de recepción. Tratamos de
comunicarnos en ambientes que lo impiden salvo a niveles de
intensidad muy elevados —hablar por encima de 40-45 dB supone
realizar un sobreesfuerzo para la voz—. Ello origina la cultura de la
mirada: el habla se reduce al monosílabo y deja paso al ojocentrismo.
• Disminución del rendimiento. Los efectos nocivos fisiológicos y
psicológicos del exceso de ruido —insomnio, stress, etc.— inciden
negativamente en la capacidad productiva de quienes los padecen.
Existen dos indicadores que evidencian los efectos negativos del ruido
sobre las actividades intelectuales y el trabajo: el aumento de los
accidentes laborales en ambientes ruidosos, y la disminución en el

209
aprendizaje de los alumnos/as escolarizados en zonas muy ruidosas.

8.4.3. Medidas correctoras del ruido.


En el último tercio de siglo, la conciencia social sobre la problemática
derivada del exceso de ruido ha dado origen a movimientos ciudadanos que se han
movilizado con el objetivo de generar un debate crítico y eficaz que derivase en actos
legislativos determinantes a través de los cuales se redujese la producción de ruido.
Además, algunas entidades están iniciando la elaboración de mapas de ruidos. En
ellos se señalan los puntos más conflictivos en cuanto a niveles de ruido que sufren
las ciudades, sus causas y sus posibles soluciones.
El tratamiento de la problemática generada por el ruido pasa por paliar sus
efectos. La corrección de las molestias y alteraciones que provoca se encamina a la
puesta en práctica de una serie de acciones determinadas:
• Insonorización de la fuente sonora. Pertenecen a esta categoría la
utilización de componentes constructivos absorbentes, el uso de
pavimentos menos ruidosos, la sustitución de los motores de
combustión por motores eléctricos de menor impacto acústico, etc.
• Aislamiento del medio transmisor. De esta manera se dificulta la
transmisión del ruido a través de aquel. Ejemplos de estas medidas son
la instalación de pantallas y barreras acústicas —muros, vallas,
vegetación— o la creación de espacios de separación —parques, zonas
multiusos, etc.— alrededor de grandes vías de circulación, etc.
• Protección de los posibles receptores. Este tratamiento, que pretende
reducir la inmisión sonora, pasa, fundamentalmente, por la
planificación urbana e industrial, el uso de las fuentes y la organización
en el uso de los suelos metropolitanos.
En el último tercio del siglo, la preocupación medioambiental ha dado paso a
la elaboración de leyes y la asunción de medidas encaminadas a corregir los efectos
del ruido. Estas medidas son de tres tipos: insonorización de la fuente sonora,
aislamiento del medio transmisor y protección de los posibles receptores.

210
BIBLIOGRAFÍA

1. Obras de referencia o consulta


AA.VV.: Música en el Tiempo, Madrid, Sarpe, 1990.
AAVV.: Diccionario Sarpe de la Música clásica, Madrid, Sarpe, 1980.
BENÍTEZ, J. Mª.: Nombres de la banda sonora: diccionario de compositores cinematográficos, Madrid,
Stripper, 1996.
BERISTÁIN, H.: Diccionario de Retórica y Poética. (3 ed.), México, Porrúa, 1992.
BRENET, M.: Diccionario de la música. Histórico y técnico, Barcelona, Iberia, 1976.
HENCKMANN, W. Y LOTTER, K., (Eds.). (1998). Diccionario de Estética, Barcelona, Crítica (Grijalbo
Mondadori), 1998.
MICHELS, U.: Atlas de Música I, Madrid, Alianza, 1989.
—Atlas de Música 2, Madrid, Alianza, 1996.
PÉREZ, G. (Dir.).: Historia de la música del cine, Barcelona, Euroliber, 1994.
SCHOLES, P.A.: Diccionario Oxford de la música, Barcelona, Edhasa/Hermes/ Sudamericana, 1984.
TORRES, A.M.: Diccionario del Cine español, Madrid, Espasa-Calpe, 1994.
—Diccionario del Cine. (2ª ed.), Madrid, Espasa-Calpé, 1997.
VILALTA, L. (Dir.).: Cine & Música, Barcelona, Salvat, 1988.

2. Tratados y manuales
AAVV.: Tratado de Armonía, Madrid, Sociedad Didáctico Musical, 1972.
ALTEN, S.: El manual del Audio en los medios de comunicación, Andoain: Escuela de Cine y Vídeo, 1994.
ALTMAN, R.: Sound Theory, Sound Practice, London, Routledge, 1992.
BAL, M.: Teoría de la Narrativa: Introducción a la Narratología, Madrid, Cátedra, 1985.
BAS, J.: Tratado de la Forma Musical, Buenos Aires, Ricordi, 1986.
BELTRÁN MONER, R.: Ambientación musical, Madrid, IORTV, 1991.
CAMACHO, C.: Armonía e instrumentación, Madrid, Real Musical, 1993.
CASELLA, A. y MORTARI, V.: La Técnica de la Orquesta Contemporánea, Buenos Aires, Ricordi, 1987.
DIMBWADYO, M.: Vade Mecum de la armonía, Madrid, Editorial Música Mundana, 1991.
FRANCO RIBATE, J.: Manual de Instrumentación de Banda, Madrid, Música Moderna, 1983.
GARCÍA JIMENEZ, J.: Narrativa Audiovisual, Madrid, Cátedra, 1993.
GEDALGE, A.: Tratado de Fuga, Madrid, Real Musical, 1990.
HABA, A.: Nuevo tratado de armonía, Madrid, Real Musical, 1984.
LARUE, J.: Análisis del estilo musical, Barcelona, Labor, 1989.
MARÍN, R. y TORRE, S.: Manual de la creatividad, Barcelona, Vivens Vives, 1991.
MOTTE, D. de la.: Armonía, Barcelona, Labor, 1989.
NIETO, J.: Música para la Imagen, Madrid, SGAE, 1996.
NISBETT, A.: Uso de los Micrófonos, Madrid, IORTV - Focal Press, 1989.
PALOMO, M.: El estudio de grabación personal, Madrid, Amusic, 1995.
PISTON, W.: Orquestación, Madrid, Real Musical, 1984.

211
— Armonía, Barcelona, Labor, 1995.
ROSELLÓ DALMAU, R.: Técnica del sonido cinematográfico, Madrid, Forja, 1981.
RUMSEY, F. y McCORMICK, T.: Introducción al sonido y la grabación, Madrid, IORTV, 1994.
SALZER, F.: Audición estructural. Coherencia tonal de la música, Barcelona, Labor, 1990.
SCHENKER, H.: Tratado de armonía, Madrid, Real Musical, 1990.
SCHÖNBERG, A.: Tratado de armonía, Madrid, Real Musical, 1979.
—Ejercicios preliminares de contrapunto, Barcelona, Labor, 1990a.
—Funciones estructurales de la armonía, Barcelona, Labor, 1990b.
SIKORA, J.: Manual de métodos creativos, Buenos Aires, Kapelusz, 1979.
SOLER, J.: Fuga, técnica e historia, Barcelona, Antoni Bosch editor, 1995.
WATKINSON, J.: Audio digital, Madrid, Paraninfo, 1994.
WEIS, E. y BELTON, J. (comps.).: Film Sound, Theory and Practice, New York, Columbia University Press,
1985.
ZAMACOIS, J.: Curso de formas musicales, Barcelona, Labor, 1960.
—Teoría de la Música, Barcelona, Labor, 1983.

3. Textos
AAVV.: Las industrias culturales y la música, Madrid, Boletín de estudios, MEC, 1984.
ADORNO, T.W. y EISLER, H.: Cine y Música, Madrid, Fundamentos, 1981.
AGUILAR GARDNER, C.: La creatividad y el proceso creativo, México D.F, Edamex, 1980.
ALEGRE DE LA ROSA, O. Mª.: Asimetría cerebral en el procesamiento de materia musical en videntes e
invidentes, Tenerife, Universidad de Laguna, 1988.
ALPISTE, F. et al.: Aplicaciones Multimedia: Presente y Futuro, Barcelona, Ed. Técnicas Rede S.A, 1993.
ARIJON, D.: Gramática del lenguaje audiovisual, Andoni, Escuela de cine y video, 1988.
ATTALI, J.: Ruidos, Valencia, Ruedo Ibérico, 1978.
AUKSTAKALNIS, S. y BLATNER, D.: El espejismo de silicio, Barcelona, Página Uno, S.L., 1993.
AUMONT, J. et al.: Estética del Cine. Espacio fílmico, montaje, narración, lenguaje, Barcelona, Paidós
comunicación, 1989.
—La imagen, Barcelona, Paidós comunicación, 1992.
BARBACCI, R.: Educación de la memoria musical, Buenos Aires, Ricordi, 1965.
BARCE, R.: Fronteras de la Música, Madrid, Real Musical, 1985.
—Doce advertencias para una sociología de la música, Lisboa, Fundaçao Coluste Gulberkian, 1987.
BARRON, F.: Personalidad creadora y proceso creativo, Madrid, Marova, 1976.
BARTHES, R.: Retórica de la Imagen, Tiempo Contemporáneo, 1970.
—El "Grano" de la voz, México, Siglo XXI, 1983.
—Lo obvio y lo obtuso: Imágenes, gestos y voces, Barcelona, Paidos, 1986.
—Elementos de Semiología: La aventura semiológica, Barcelona, Paidos, 1990.
BAYLE, F.: Musique acousmatique, Paris, INA GRM-Buchet/Chastel, 1993.
BETTETINI, G.: La conversación audiovisual, Madrid, Cátedra, 1984.
BLANCHARD, G.: Images de la musique de Cinema, Paris, Edilio III, 1984.
BLAUKOPF, K.: Sociología de la música, Madrid, Real Musical, 1987.
BONO, E. De.: El pensamiento lateral, Barcelona, Programa Editorial, 1974.
BOULEZ, P. (Comp. Nattiez).: Puntos de referencia, Barcelona, Gedisa, 1984.
BURCH, N.: Praxis del Cine, Madrid, Fundamentos, 1970.
—El tragalúz del infinito, Madrid, Cátedra, 1991.

212
BUSTOS MARTÍN, I.: Multimedia, Madrid, Anaya, 1994.
CLAUDE, S.: Panorama de la música contemporánea, Guadarrama, Madrid, 1976.
COLÓN PERALES, C.: Introducción a la historia de la música en el cine, La imagen visitada por la música,
Sevilla, Cuadernos de comunicación, 10/11, Universidad de Sevilla, Alfar, 1988.
COLPI, H.: Défense et ilustration de la musique dans le film, Societé d’Etúdes, de Recherches et de
Documentation Cinématographique (SERDOC), 1963.
COPLAND, A.: Música e imaginación, B. Aires, Emecé, 1955.
—Cómo escuchar la música, Madrid, FCE, 1994.
CUETO, R.: Cien Bandas sonoras en la Historia del cine, Madrid, Nuer, 1996.
CHAILLEY, J.: La musique et le sing. Eléments de philologie musicale, París, Alphonse Leduc, 1984.
—Compendio de Musicología, Madrid, Alianza Música, 1991.
CHATMAN, S.: Historia y Discurso: La estructura narrativa en la novela y el cine, Madrid, Taurus, 1990.
CHION, M.: La voix au cinéma, París, Cahiers du cinéma, 1985a.
— Le son au cinéma, París, Cahiers du cinéma, 1985b.
— La toile trouée. La parole au cinéma, París, Cahiers du cinéma, 1988.
— El cine y sus oficios, Madrid, Cátedra, 1992.
— La audiovisión, Barcelona, Paidós Comunicación, 1993.
— Musiques, médias et technologie, París, Flammarion-Dominos, 1994.
— La música en el cine, Barcelona, Paidos, 1997.
DAN CARLIN, Sr.: Music in film and Video Productions, Boston, Focal Press, 1991.
DE PERGAMO, A.L.: La notación de la música contemporánea, Buenos Aires, Ricordi Americana, 1973.
DESPINS, J.P.: La Música y el Cerebro, Barcelona, Gedisa, 1989.
ECO, U.: Tratado de Semiótica general, Barcelona, Ed. Lumen, 1988.
— Obra Abierta, Barcelona, Ariel, 1990.
EHRENZWEIG, A.: El orden oculto del arte, Barcelona, Labor, 1973.
— Psicoanálisis de la percepción artística, Barcelona, Gustavo Gili, 1976.
EINSENSTEIN, S.: Cinematismo, Buenos Aires, Domingo Cortez, 1982.
— Teoría y técnica cinematográficos, Madrid, Rialp, 1988.
EVANS, M.: Soundtrack: The Music of the Movies, New York, Hopkinson y Blake, 1975.
EXIMENO, A.: Del origen y reglas de la Música, Madrid, Editora Nacional, 1978.
FRAISSE, P.: Tempo del ritmo, Madrid, Morata, 1976.
— Psicología del ritmo, Barcelona, Labor, 1978.
FRESNAIS, G.: Son, Musique et Cinema, Québec, Gaëtan Morin, 1980.
FUBINI, E.: La Estética musical desde la Antigüedad hasta el siglo XX, Madrid, Alianza, 1988.
— Música y lenguaje en la estética contemporánea, Madrid, Alianza, 1994.
GARCÍA BACCA, J. D.: Filosofía de la Música, Barcelona, Anthropos, 1990.
GARCÍA GARCÍA, F.: Estrategias creativas, Madrid-Barcelona, Edelvives y Servicio de publicaciones del
MEC, 1992.
GARCÍA JIMENEZ, J.: La Imagen Narrativa, Madrid, Paraninfo, 1995.
GARCIA NOBLEJAS, J.J.: Poética del texto audiovisual: Introducción al discurso narrativo de la imagen,
Pamplona, Universidad de Navarra, 1982.
GARDNER, H.: La nueva ciencia de la mente: historia de la revolución cognitiva, Barcelona, Paidós Ibérica,
1988.
— Arte, mente y cerebro: una aproximación cognitiva a la creatividad, Barcelona, Paidós Ibérica, 1993.
— Educación artística y desarrollo humano. Barcelona: Paidós Ibérica, 1994.
GENETTE, G.: Palimpsestos: La Literatura en segundo grado, Madrid, Taurus, 1989.

213
GOLDARÁZ GAÍNZA, J. J.: Afinación y temperamento en la música occidental, Madrid, Alianza, 1992.
GÓMEZ BERMÚDEZ DE CASTRO, R.: Evolución de la producción cinematográfica española, Madrid, Ed.
UCM, 1989.
GONZÁLEZ MARTÍNEZ, J.M.: La heterosemiosis en el discurso musical y literario: hacia una semiótica
integrada de la música y el lenguaje, Murcia, Universidad de Murcia, 1996.
GORBMAN, C.: Narrative Film Music. Unheard melodies, Londres, BFI (Indiana Universiti Press), 1987.
GREIMAS, A.J. y COURTES, J.: Semiótica. Diccionario razonado de la teoría del lenguaje, Madrid, Gredos,
1982.
GRUPO M.: Retórica General, Barcelona, Paidós Comunicación, 1987.
GRYZIK, A.: Le role du son dans le recit cinématographique, París, Lettres Modernes, 1984.
GUBERN, R.: Historia del Cine, Barcelona, Lumen, 1989.
GUBERN et al.: Historia del Cine español, Madrid, Cátedra, 1995.
GUILFORD, J.P. et al.: La naturaleza de la inteligencia humana, Barcelona, Paidos, 1986.
GUIRAUD. P.: La semántica, Madrid, Fondo de Cultura Económica, 1979.
HACQUARD, G.: La musique et le cinéma, Paris, Presses Universitaires de France, 1959.
HALAS & MANVELL.: Técnica del cine animado, Madrid, Taurus, 1963.
HEMSY DE GAINZA, V.: La improvisación musical. Buenos Aires: Ricordi, 1983.
HIPPENMEYER, J.R.: Jazz sur films, De la Thièle, 1973.
HUERTAS JIMENEZ L.F.: Estetica del discurso audiovisual: Fundamentos para una teoria de la creación
fílmica, Barcelona, Mitre, 1986.
HURTADO, L.: Introducción a la Estética de la Música, Barcelona, Paidós, 1971.
JAQUI, M.: Claves para la creatividad, México, Diana, 1979.
KARLIN, F. y WRIGHT, R.: On the Track, New York, Schirmer Books, 1990.
KAROLYI, O.:Introducción a la Música, Madrid, Alianza, 1981.
KUCHARSKI, R.M.: La música vehículo de expresión cultural, Madrid, Secretaría Gral. Técnica del MEC,
1980.
LACOMBE, A. y ROCLE, C.: La musique du film, París, Francis Van de Velde, 1979.
LEÓN TELLO, F. J.: Teoría y Estética de la Música, Madrid, Taurus, 1988.
LIBERMAN, A.: De la música, el amor y el inconsciente: búsqueda de una certeza y fragmentos de una
intimidad, Barcelona, Gedisa, 1993.
LONDON, K.: Film Music: A Summary of the Characteristic Features of Its History, New York, Amo Press,
1970.
LÓPEZ QUINTAS, A.: Estética de la creatividad, Barcelona, PPU, 1987.
MANTECON, J.J.: Introducción al estudio de la música, Barcelona, Labor.
MANVELL, R.: The técnique of film music, Londres - New York, Focal Press, 1975.
MARCO, T.: La creación musical como imagen del mundo entre el pensamiento lógico y el pensamiento
mágico, Madrid, R.A. de Bellas Artes de San Fernando, 1993.
MARÍN IBÁÑEZ, R.: La creatividad: diagnóstico, evaluación e investigación, Madrid, UNED, 1995.
MARINA, J. A.: Elogio y refutación del ingenio, Barcelona, Anagrama, 1993.
MEEKER, D.: Jazz in The Movies, Talisman Books, 1981.
MILLERSON, G.: Técnicas de Realización y producción en Televisión, Madrid, IORTV-Focal Press, 1985.
MITCHELL, D.: El lenguaje de la música moderna, Barcelona, Lumen, 1972.
MOLES, A. y CAUDE, R.: Creatividad y métodos de innovación, Barcelona, CIAC, 1977.
MORGAN, R.P.: La música del siglo XX, Madrid, Akal Música, 1994.
NATTIEZ, J.J.: Fundamentos d´une semiologie de la musique, París, V.G. dé Etiens, 1975.
NUÑEZ, A.: Informática y electrónica musical, Madrid, Paraninfo, 1992.
PABLO, L. de.: Aproximación a una estética de la música contemporánea, Madrid, Ciencia Nueva, 1968.

214
PACHÓN RAMIREZ, A.: La Música en el Cine Contemporáneo, Badajoz, Dip. Provincial de Badajoz, 1992.
PADROL, J.: Pentagramas de película. Entrevistas a grandes compositores de bandas sonoras, Madrid, Nuer,
1994.
PAOLA, L. de.: Música para películas mudas, Madrid, Rialp, 1978.
PEÑA TIMÓN, V.: Narración audiovisual. Investigaciones. Madrid, Ediciones del Laberinto, 2001.
PÉREZ, M.: El universo de la música, Madrid, Sociedad General Española de Librería, 1980.
PERSICHETTI, V.: Armonía del siglo XX, Madrid, Real Musical, 1985.
PIERCE, J. R.: Los sonidos de la Música, Barcelona, Prensa científica, 1985.
POIRIER, P.: Musique cinématographique, Bruselas, Larcier, 1945.
PORCILE, F.: Présence de la musique á l'ecran, París, Ed. du Cerf, 1969.
POUSSEUR, H.: Música, Semántica y Sociedad, Madrid, Alianza, 1984.
RASSKIN, M.: Música virtual, Madrid, Anaya – SGAE, 1994.
RETI, R.: Tonalidad, atonalidad, pantonalidad, Madrid, Rialp, 1965.
RIO, D. del.: La creatividad musical, Barcelona, Vicens-Vives, 1991.
RODRÍGUEZ, A.: La dimensión sonora del lenguaje audiovisual. Barcelona, Paidós, 1998.
ROWET, N.: Langage, musique, poésie, París, Ed. de Seuil, 1972.
RUIZ DE LUNA, S.: La música en el Cine y la música para el Cine, Madrid, Imprenta Pérez Galdós, 1960.
SAIFER, R.: Music in video productions, New York, Knoweledge Industry Publications, 1991.
SALAS VIU, V.: Músico y creación musical, Madrid, Taurus, 1966.
SAPODHKOV, M.A.: Electroacústica, Barcelona, Reverté, 1983.
SCHOENBERG, A.: El Estilo y la Idea, Madrid, Taurus, 1963.
SILBERMANN, A.: Estructura Social de la Música, Madrid, Taurus, 1962.
STOKOWSKI, L.: Música para todos nosotros, Madrid, Espasa-Calpé, 1964.
STONE, K.: Music Notation in the Twentieh Century. A practical Guidebook, New York, Norton, 1980.
STRAVINSKY, I.: Poetica musical, Buenos Aires, Emecé, 1952.
STUCKENSCHMIDT, H.H.: La Música del Siglo XX, Madrid, Guadarrama, 1989.
TARASTI, E.: Semiotique musicale, Poitiers, Pulim, 1996.
TOCH, E.: La melodía, Barcelona, Labor, 1989.
UTRERA, C. (Ed.).: La Música en el Cine, Las Palmas, Viceconsejería de Cultura y Deportes, 1990.
VALLS GORINA, M. y PADROL, J.: Música y Cine, Barcelona, Ultramar, 1990.
VAN DIJK, T.: Estructuras y funciones del discurso: una introducción interdisciplinaria a la lingüística del
texto, Madrid, Siglo XXI, 1980.
WEBER, A.: El camino de la nueva música, Barcelona, Berti, 1982.

215

Anda mungkin juga menyukai