FAUNA: MUSICA ELECTROACUSTICA Basada en el sonido directo como refuerzo de la imagen sonora del soundtrack para la video danza

UNIVERSIDAD DE CHILE FACULTAD DE ARTES ESCUELA DE POSTGRADO FAUNA: MUSICA ELECTROACUSTICA Basada en el sonido directo como refuerzo de la imagen sono

2 downloads 216 Views 2MB Size

Recommend Stories


El refuerzo de la imagen social en la conversación coloquial
ALBELDA MARCO, Marta (2005): «El refuerzo de la imagen social en la conversación coloquial del español», en Bravo, Diana (ed.), Cortesía lingüística y

BASADA EN EL MINDFULNESS PARA LA DEPRESIÓN
Cuaderno de trabajo de LA TERAPIA COGNITIVA BASADA EN EL MINDFULNESS PARA LA DEPRESIÓN de Zindel V. Segal, J. Mark G. Williams y John D. Teasdale Ed

BANDA SONORA. 1 El sonido 2 Significación de la banda sonora 3 Elementos de la banda sonora. 1 EL SONIDO. A modo de introducción
BANDA SONORA 1 El sonido 2 Significación de la banda sonora 3 Elementos de la banda sonora 1 EL SONIDO. A modo de introducción En la mayoría de las p

Story Transcript

UNIVERSIDAD DE CHILE FACULTAD DE ARTES ESCUELA DE POSTGRADO

FAUNA: MUSICA ELECTROACUSTICA Basada en el sonido directo como refuerzo de la imagen sonora del soundtrack para la video danza

Tesis para optar al postítulo de composición musical

AUTOR: TOMAS RODRIGO GONZALEZ ORTEGA

Profesor guía: Pablo Aranda Licenciado en composición musical en la Facultad de Artes Universidad de Chile, Postgrado en la Escuela superior de Música de Köln, Alemania

SANTIAGO - CHILE 2012

ÍNDICE

RESUMEN

4

INTRODUCCIÓN

5

OBJETIVOS

7

MARCO TEORICO

8

CAPITULO 1 PROPAGACIÓN DE LOS SONIDOS EN EL AIRE 1.a Ondas Longitudinales

8

1.b Frecuencia, velocidad, largo de onda, reflexión y refracción

10

1.c Definiciones de Bell, Decibel y Ganancia

13

1.d Propagación de ondas acústicas en salas

14

CAPITULO 2 CADENA DE AUDIO 2.a Registro de sonido directo en distintos sistemas

15

2.b Equipamiento

17

2.c Formas de transporte de la señal

25

2.d Dispositivos de registro de audio

26

2.e Configuraciones tipo

31

CAPITULO 3 TÉCNICA ACTUAL PARA PRODUCCIÓN Y POSTPRODUCCIÓN DE AUDIO 3.a Equipamiento

34

3.b Metodología

35

CAPITULO 4 EL LENGUAJE SONORO 4.a Introducción conceptual

50

2

4.b Morfología y gramática del audio

52

4.c Sobre espectromorfología

76

4.d Intermedios entre el sonido y la música

82

CAPITULO 5 DESARROLLO PRACTICO 5.a Introducción

86

5.b Documentación Aplicable

87

5.c Procedimiento

94

5.d Equipamiento utilizado

106

ANEXOS

109

CONCLUSIONES

121

BIBLIOGRAFIA

122

3

RESUMEN

En esta tesis mostramos como el sonido directo se puede aplicar actualmente en las bandas sonoras de la video danza, en este caso en las piezas musicales electroacústicas usadas en la obra “Fauna”, dirigida por Paulo Fernández, a partir de las herramientas entregadas por la física del sonido, como es la grabación, utilización y manipulación electrónica de ondas y samplers de sonido directo para reforzar el movimiento o lo estacionario en la imagen y en la conjugación de la morfología y gramática del audio. Entregándole así una guía compacta y precisa al músico.

Para explicar el proceso, hemos separado la información en 5 capítulos, en los cuales se especificarán los principios básicos del sonido y las herramientas que permiten el manejo eficiente en la transmisión y recepción de las ondas sonoras captadas durante el rodaje, además de sus aplicaciones para la posterior integración con la música utilizada actualmente en el área a través de la postproducción, bajo un criterio propio del lenguaje de la audiovisión y la espectromorfología.

Pese a que este ensayo posee aplicaciones, ya sea, en lo netamente artístico como en lo concerniente a documentales o trabajos audiovisuales periodísticos, evocaremos en explicar como se desenvuelve en el ámbito de la videodanza.

Como referencia utilizamos textos que hablan sobre sonomontajes, ambientaciones y en el fondo como integrar lo visual a una pieza cualquiera y viceversa. Todo bajo una perspectiva Schaeffereana.

La parte práctica nos muestra el procedimiento específico utilizado en la obra Fauna, proyecto ganador, financiado por EMPAC 2010-2011. Instituto politécnico Raessenlaer, Troy, New York. El desarrollo del proyecto está orientado hacia una nueva opción de investigación en el área del sonido, la música y sus beneficios en formatos audiovisuales en gestación o eminentemente nuevos, utilizando un enfoque metodológico y científico para la creación de nuevas áreas de búsqueda.

4

INTRODUCCIÓN

Según Rainer Krause, artista visual y sonoro, miembro del colectivo Radio-Ruido y académico de Artes visuales en la Universidad de Chile, Andrés Bello y UNIACC ya es un fenómeno habitual en la sociedad contemporánea el moverse periódicamente, a través de un material de interés, en distintas áreas sin preocuparse de los géneros tradicionales, produciendo obras y situaciones híbridas e intermedio categorías habituales. A nivel internacional no son pocas las exposiciones, eventos y festivales que se hacen cargo de esta situación actual. Por nombrar algunas de ellas tenemos: “Notation. Kalkül unf Form in den Künsten” Berlin, Academia de las artes 2008. “Sound of Art. Musik in den bildenden Künsten”, Salzburg, Museo de la Modernidad 2008. “Punk. No one is innocent. Kunst-Stil-Revolte”. Kunsthalle, Viena. 2008. Mientras el actual término de “híbrido” hace énfasis en la conexión entre diferentes áreas y hacer perceptible características tradicionalmente inconexas, ya en los 60 se reflexionó sobre otra posibilidad de cuestionar los géneros tradicionales del arte. Pierre Henry, Jean-Cloude Risett y el mismísimo Pierre Schaeffer le dieron un peso tremendo al concepto de la música electrónica ensamblada en la música docta; los estudios electrónicos de Maresz; la sinfonía collage de Luciano Berio apreciada en “Laborintus II” relacionando el material musical con la radiofonía; las aplicaciones contrapuntoespacio, fundido de capas por parte de Stockhausen; la tendencia al collage del difunto Bernd Alois Zimmermann con “Requiem für einen jungen Dichter” y la composición fundamentada en el trabajo en el estudio con manipulación del audio más que en la partitura con Fred Fritz. Dick Higgins, artista Fluxus, introdujo en la discusión estética el término “inter-media”; definiendo: “una forma de arte para el cual no existen fronteras entre el arte y la vida. Si no hay fronteras entre el arte y la vida, entonces no las puede haber entre diferentes formas de arte. Mientas el arte multimedia (o audiovisual) resultaba de la suma y yuxtaposición, el arte intermedia se situaba en los espacios, hasta entonces vacíos,

5

entre las artes rígidamente separadas y definidas. Los principios estructurales del arte intermedia eran la substracción y la reducción, más que la adición.” (Ken Friedeman, 40 años de los Fluxus. Página 66)

Ya para adorno la intermedialidad era una característica propia del arte moderno, aunque lamentó que “el desflecamiento de los géneros está acompañado casi siempre por la toma de la realidad extra estética por parte de la creación. Lo que significa que materiales aparentemente con sentido extraño entran en la obra de arte”. (Adorno Theodor, Ohne Leitbild. Página 189). Esta contaminación de la obra con lo real era inaceptable para una estética que defiende la autonomía del arte, que se basa en una “alta especialización técnica y una discusión-a base histórica de la tradición formal- de las características específicas de cada una de los medios estéticos singulares”. (Juliane Rebentisch, Ästhetik der Installation. Página 80). Desde los años 60 del siglo pasado una gran cantidad de artistas visuales, musicales, escénicos y poetas usan el sonido fuera de la música como material para propuestas que sobrepasan los límites de sus respectivos géneros. El término “arte sonoro” con que se denomina estos trabajos sugiere una unidad, un género o reglas claras que en tal forma no existen. Mientras unos trabajos responden más al concepto de hibridación, en función de varios espacios al mismo tiempo, otros parecen construir su propio espacio entre medio de los tradicionales. Pero todos contribuyen al creciente desflecamiento entre los géneros, produciendo dificultades de definición.

6

OBJETIVOS

OBJETIVO GENERAL

Mostrar experimentalmente como se realizó la banda sonora para la obra video danza Fauna la cual integra música y sonido en un bloque de música electroacústica.

OBJETIVOS ESPECÍFICOS

A) Entregar bases teóricas de los principios básicos de la acústica con respecto al sonido directo.

B) Explicar algunas técnicas de la postproducción en el mundo audiovisual actual.

C) Mostrar como es el lenguaje de la audiovisión desde un punto de vista morfológico, espectromorfológico y gramático.

D) Mostrar un resultado experimental de la aplicación del sonido directo (sampleado y luego manipulado electrónicamente) en un soundtrack de música electroacústica para la obra Fauna desde un punto de vista del lenguaje sonoro, siendo sonido y música obra del tesista.

7

MARCO TEORICO

CAPITULO 1: PROPAGACION DE LOS SONIDOS EN EL AIRE

1.a

Ondas Longitudinales

El sonido directo es realizado con el uso de ondas mecánicas o acústicas que viajan en el espacio aire. Cualquier onda mecánica es compuesta de oscilaciones de partículas discretas en el medio en el que se propaga. El paso de energía acústica por el medio, hace que las partículas que componen el medio, ejecuten un movimiento de oscilación en torno a la posición de equilibrio, cuya amplitud del movimiento será disminuido con el tiempo en consecuencia de la pérdida de energía adquirida por las ondas. Asumiendo que el medio en que registramos nuestro material acústico es el aire nos debemos ceñir a las ondas longitudinales, dejando de lado el estudio de las ondas de Lamb, transversales y de Rayleight. Ondas Longitudinales (Ondas de Compresión)

Son ondas cuyas partículas oscilan en la dirección de propagación de la onda, pudiendo ser transmitidas a sólidos, líquidos y gases.

Fig. 1. Onda Longitudinal

8

En la figura, se muestra que el primer plano de partículas vibra y transfiere su energía cinética a los próximos planos de partículas, y estas pasan a oscilar. De esta manera, todo medio elástico vibra en la misma dirección de propagación de la onda (longitudinal), apareciendo las “zonas de compresión” y “zonas diluidas”. Las distancias entre dos zonas de compresión determinan la longitud de onda (λ) (Lambda). En virtud del proceso de propagación, este tipo de onda posee una alta velocidad de propagación, característica de cada medio.

Tabla 1.

Velocidad de Propagación de las Ondas Longitudinales

Material

Velocidad m/seg.

Aire

330

Aluminio

6300

Cobre

4700

Oro

3200

Acero al Carbono

5900

Acero Inoxidable

5800

Nylon

2600

Aceite (SAE30)

1700

Agua

1480

Plata

3600

Titanio

6100

Níquel

5600

Tungsteno

5200

Magnesio

5800

Acrílico

2700

Acero Fundido

4800

9

1.b

Definiciones de Frecuencia, Velocidad y Longitud de Onda

Frecuencia

La frecuencia es el número de oscilaciones que una onda efectúa en un determinado intervalo de tiempo. El número de ciclos por segundo se llama hercio (Hz), y es la unidad con la cual se mide la frecuencia. Así, si tenemos un sonido con 280 Hz, significa que por segundo pasan 280 ciclos (el ciclo viene dado por la longitud de onda, que es el parámetro físico que indica el tamaño de una onda, precisamente, la distancia que hay entre el principio y el final de una onda y es la menor distancia a partir de la cual una onda se repite) u ondas. Sobre los 20.000 y bajo los 20 Hz son inaudibles, denominadas como frecuencia ultrasónica e infrasónica respectivamente.

Fig. 2. Campo de Audibilidad del Sonido

10

Velocidad de propagación

Existen varias maneras de que una onda sónica se propague, y cada una con características particulares de vibraciones distintas. Definimos velocidad de propagación como la distancia recorrida por la onda sónica por unidad de tiempo. Es importante recordar que la velocidad de propagación es una característica del medio, siendo una constante, independiente de la frecuencia.

Longitud de onda

Cuando tiramos una piedra en una laguna de aguas calmadas, inmediatamente creamos una perturbación en el punto atingido y formando así, ondas superficiales circulares que se propagan sobre el agua. En ese simple ejemplo, podemos imaginar lo que definimos anteriormente de frecuencia como siendo el numero de ondas que pasan por un observador fijo, también podemos imaginar la velocidad de propagación por la simple observación y aún podemos establecer el ancho de onda entre dos crestas de onda consecutivos o la distancia entre 2 partículas consecutivas cualquiera que se encuentren vibrando en fase. A esta medida denominamos “Longitud de Onda”, y es representada por la letra griega Lambda “λ”.La amplitud es el valor máximo del desplazamiento, es decir a la distancia respecto a su posición de equilibrio.

Fig. 3. Longitud de onda

11

Relaciones entre la velocidad, longitud de onda y frecuencia

Considerando una onda sónica propagándose en un determinado material con velocidad “V”, frecuencia “f” y longitud de onda “λ”, podemos relacionar estos tres parámetros de la siguiente forma:

V  f Esta relación, permite calcular la longitud de onda, ya que la velocidad de propagación es en general conocida, (ver tabla 1). Reflexión y refracción de los sonidos

Las leyes de la reflexión y refracción del "rayo" en óptica son:

Fig. 4. Reflector en movimiento.

Para la reflexión sobre una superficie plana: (1) el rayo incidente, el rayo reflejado y la normal en el punto de incidencia se encuentran en un mismo plano; y (2) el ángulo de incidencia, i, es igual al ángulo de reflexión, r, es decir que:

ir

Para la refracción en el plano de separación entre dos medios (1 y 2): (1) el rayo incidente, el rayo refractado y la normal se encuentran en un mismo plano; y (2) (ley de

12

n1 sin 1  n2 sin  2 Donde 1 es el ángulo de incidencia,  2 el ángulo de refracción y n1 y n2 reciben los nombres de índices de refracción de los dos medios. Snell)

De acuerdo con la teoría de ondas

n1 =

c c2

y c2

n2 =

c c1

donde

c1

Y

c2

son las

velocidades de propagación de dos medios y C es la velocidad de propagación establecida como patrón. Esto significa que si una onda sónica viaja por un medio de baja impedancia acústica y llega el límite con un segundo medio de impedancia acústica elevada, la energía es casi totalmente reflejada; esto concuerda con la idea de impedancia usada en otros contextos y particularmente en el referido a las ondas electromagnéticas. 1.c

Decibel (dB) (Ganancia)

La definición de decibel (dB), se aplica en el sonido, como la comparación de una onda sonora incidente con una reflejada, esta diferencia se expresa en dB (a lo que se denomina Ganancia).

El Bell (B) define el nivel de intensidad sonora (NIS) que compara las intensidades de dos sonidos cualesquiera, como sigue:

Donde “I” e “I0” son dos intensidades sonoras medidas en Watts por centímetros cuadrados (W/cm2). Por otro lado, el decibel equivale a 1/10 del Bell y en general es normalmente utilizado para medidas de la intensidad sonora es:

Por otra parte cuando hablamos de la amplitud de la señal la presentamos como I = A2, y por lo tanto debemos rescribir la forma a N.A.S. (Nivel de Amplitud Sonora):

13

Resultando

1.d

Propagación de ondas acústicas en salas

Atenuación Sónica

La onda sónica al recorrer un material cualquiera sufre, en su trayectoria efectos de difracción y absorción (Cuando una onda sonora alcanza una superficie, la mayor parte de su energía se refleja, pero un porcentaje de ésta es absorbida por el nuevo medio. Todos los medios absorben un porcentaje de energía que propagan, ninguno es completamente opaco, resultando en la reducción de su energía. La difracción se debe al hecho de que la materia no es totalmente homogénea, conteniendo Interfaces (diferencias en su composición molecular, considerando al medio con propiedades elásticas especificas), para procesos de fabricación o reparación. El fenómeno de absorción ocurre siempre que una vibración acústica recorra un medio elástico. Es la energía cedida por la onda para que cada partícula del medio ejecute un movimiento de oscilación, transmitiendo la vibración para las otras partículas del propio medio. Por lo tanto, el resultado de los efectos de dispersión y absorción cuando sumados, resultan en la atenuación sónica.

Tabla 2. Valores de Atenuación. Material Acero Cr-Ni

Atenuación Sónica en (dB/mm)

Forjados

0,009 a 0,010

Laminados

0,018

Fundidos

0,040 a 0,080

14

CAPITULO 2: CADENA DE AUDIO

2.a

Registro de sonido directo en distintos sistemas

En toda producción profesional de sonido para audiovisuales surge la necesidad de registrar sobre distintos soportes el sonido directo, que en los casos más comunes nace de la mano de la acción de los actores o personajes que participan de una narración audiovisual tipo. Desgraciadamente, existe muy poca información al respecto de cómo realizar esta serie de procedimientos. El problema tiene dos causas principales. En primera instancia,

por

lo

general suele creerse que el aprendizaje y el

dominio

herramientas

de y

destrezas

técnicas

dan

solución

como

operadores y técnicos capacitados

para

afrontar la realización de una grabación del directo de un film o documental.

Fig. 5. Rodaje de un material audiovisual.

Por otra parte, los realizadores tienen una noción muy débil de la serie de procesos que se ponen en funcionamiento. Debemos creer fundamentalmente que no estamos frente a un problema estrictamente técnico ni tampoco a un problema estrictamente estético. Este enfoque nos permitirá abordar el tema, desde una visión que intenta comprender que en el campo de las comunicaciones mediadas (cine, televisión y audiovisuales en general) entender la naturaleza del medio nos hace mejores narradores. Esta idea de herramientas técnico-estéticas permite hacer planteos de

15

producción coherentes y realizables, confeccionar propuestas de producción acordes a las ideas del director o productor de acuerdo con el guión y el presupuesto disponible. Es así, que para poder solucionar este problema que se nos presenta, el de la grabación del sonido directo o sonido de producción, nos adentraremos en la conformación de las cadenas de audio, o como las llamaremos seguidamente, cadenas electroacústicas de audio. Llamaremos cadena electroacústica de sonido o audio, a toda unión de dispositivos eléctrico-electrónicos que tengan como fin el tratamiento de señales acústicas y eléctricas, ya sea para su manipulación y/o almacenamiento. Cada vez que participemos dentro de un proyecto audiovisual, siempre surgirá la pregunta de cómo deberemos construir estas cadenas y como su forma de construcción irá cambiando de acuerdo al desarrollo del rodaje. Obviamente si nos adentramos en el universo de la postproducción encontraremos cadenas de audio que pueden llegar a ser más o menos complejas dependiendo el tipo de trabajo que encaremos. En este apunte solo nos referiremos a las cadenas de audio que construiremos en un rodaje y que apartados debemos tener en cuenta para la selección de los elementos que formarán parte de esa cadena. Como consecuencia de una serie de decisiones que conforman a una producción entre las que se encuentran: Tipo de proyecto (ficción, documental, etc.), medio para el cual se produce (cine, TV, video, multimedia), presupuesto, conformación de equipos de trabajo, etc. se establecen dos grandes métodos de registro o procedimientos para el registro de sonido: Sistema Simple: En esta forma de registro, audio y video conviven dentro del mismo soporte. Este procedimiento es válido solo para aquellos dispositivos de video que puedan almacenar audio, aunque de todos modos es posible que no obstante se este trabajando en video, el registro de sonido se realice en otro dispositivo que no sea ni el camcorder o VTR de video. Un claro ejemplo de esta condición es un camcorder de video con microfonía conectada al cuerpo de este dispositivo. De esta manera la cámara hace las veces de equipo captor de imagen y sonido. Sistema Doble: Este tipo de procedimiento nace como consecuencia de que el dispositivo de imagen no es capaz de almacenar ni captar sonido (ej. Una cámara de

16

cine / fílmico) o de la decisión de registrar y almacenar el sonido de manera separada al lugar donde se produce/almacena la imagen para lograr una mayor independencia en la forma de trabajo y posiblemente una mejora en las cuestiones que hacen a la calidad de audio resultante. Como ya sabemos, el sonido es una forma de energía que se manifiesta como cambios o perturbaciones en el aire, muy pequeñas variaciones de presión que se desarrollan dentro de un rango que conocemos como espectro audible. Nuestro primer punto de la cadena siempre será el cuerpo sonoro que produce estas vibraciones. Es de vital importancia establecer este punto como primordial ya que todos los cuerpos que pueden producir sonido no pueden ser pensados como cuerpos idénticos aunque por fines prácticos podemos categorizar o agrupar estos cuerpos dentro de formas sonoras conocidas para su eventual tratamiento. En una producción audiovisual existen y conviven un número muy grande de cuerpos sonoros construyendo a su vez una gran variedad de objetos sonoros que tejen la red de construcción de la banda de sonido de un audiovisual. Cuando pensemos el punto de partida de nuestras producciones, hablando exclusivamente del registro de sonido directo, nuestro foco de atención deberá ser el diálogo y solo el diálogo. Para el conjunto del resto de sonidos que conformarán finalmente el sonido del audiovisual existen otras etapas para el desarrollo y construcción de los mismos. De todos modos, vale la pena aclarar que siempre existen las excepciones y puede darse el caso en que al momento del registro del diálogo, antes o posteriormente, pueda también grabarse otro tipo de sonido (llamados efectos de producción) para la utilización en la etapa de postproducción.

2.b

Equipamiento

Nuestra pregunta como punto de partida será entonces, ¿Qué elementos necesitaré para la conformación de nuestra cadena de audio? Todo comienza por el proceso de transducción que necesariamente debemos realizar. La transducción de la energía acústica en energía eléctrica. Este proceso tiene lugar en el micrófono, responsable de resolver esta transducción.

17

En este momento la industria nos proporciona una serie de micrófonos que podremos clasificar de varias maneras: según el como logran esta transducción, según su patrón de direccionalidad o diagrama polar, y según su uso. Nos referiremos primeramente a la manera en que los micrófonos consiguen realizar la transducción.

Carbón

Los micrófonos de carbón, también llamados micrófonos de zona de presión, consisten en un compartimiento cerrado, cubiertos por una membrana que está en contacto con el carbón (generalmente antracita o grafito). Cuando la presión sonora actúa sobre la membrana las partículas de carbón varían su resistencia y por lo tanto se produce una variación de la tensión de salida del micrófono. Estos equipos han sido utilizados preferencialmente en telefonía, pero debido a su respuesta en frecuencia irregular y su gran nivel de ruido no se utilizan en grabaciones profesionales.

Fig. 6. Diagrama micrófono a carbón. Cerámica

Los micrófonos se comportan de manera muy similar a los de cristal, aunque el diafragma, en lugar de estar formado por dos placas de cristal de cuarzo, está formado por dos piezas cerámicas (titanato de bario). De igual modo, cuando la onda sonora incide sobre el diafragma, las placas se doblan y generan tensión eléctrica. Aunque el micro de cerámica tiene menos sensibilidad que el micrófono de cristal, soporta mejor la humedad y las bajas temperaturas. En la actualidad son muy utilizados en intercomunicadores, aparatos auditivos para sordos y en otros muchos servicios donde se precisa un micrófono que ocupe poco volumen y en donde no se exija una

18

reproducción de elevada calidad. Este tipo de micrófonos es muy utilizado para el registro submarino, su estructura y alta estabilidad lo convierte un perfectos hidrófonos. Dinámicos

Si un conductor eléctrico, como el cobre o la plata, es movido dentro de un campo magnético se induce un voltaje al final del conductor. El conductor puede ser un cable aislado dispuesto en una bobina adosada al diafragma. Con la forma de imán correspondiente, el diafragma provocará que la bobina produzca un voltaje correspondiente al movimiento del diafragma en el extremo del cable. Los micrófonos dinámicos generan su propia electricidad, sin necesidad de una fuente externa de alimentación. También son típicamente más resistentes comparados con otros tipos, soportando mejor que otros micrófonos tanto golpes como variaciones de temperatura1. Por esta causa son preferidos al menos como micrófonos de cobertura en varias situaciones de grabación. Contienen poderosos imanes, y algunos emanan un campo magnético, lo suficientemente eficaz como para alterar la grabación de audio de una cinta que se almacene junto con el micrófono.

Fig. 7. Diagrama micrófono dinámico.

El micrófono dinámico más simple de hacer es el de tipo omnidireccional, pero también los hay disponibles con otros diagramas polares, siendo el cardiode probablemente el más popular. Debido a la particular combinación de ventajas en el micrófono, es típicamente utilizado en rodajes en cine y televisión, donde prevalecen los requerimientos de confiabilidad bajo condiciones rústicas o adversas. La calidad final del micrófono dinámico, sin embargo, es potencialmente limitada por el requerimiento de que el sonido mueva la maza del diafragma y la bobina, con el fin de producir un

1

Téngase en cuenta que todo micrófono, sea del tipo que fuere debe protegerse con el cuidado que requiere como toda pieza clave de nuestro equipo. Transportarlos adecuadamente y resguardarlos de condiciones climáticas no aptas para su uso.

19

voltaje de salida, y esta masa, aunque baja, es más alta que en los micrófonos electroestáticos o de condensador (expuestos más adelante). Si bien los micrófonos dinámicos bien diseñados pueden ser muy buenos, no son considerados como el transductor óptimo.

Electroestáticos, de capacitor o condensador

Electroestáticos

Utilizan como principio de funcionamiento la diferencia de potencial entre las dos placas de un capacitor o condensador. Está compuesto por dos placas cargadas. Una de ellas se encuentra sujeta en forma fija. La otra está montada sobre una amortiguación que le permite cierta movilidad. Cuando la energía acústica alcanza al micrófono, la placa móvil se desplaza modificando la distancia con su compañera fija, produciendo una diferencia de potencial entre la carga de éstas debido a la proximidad de sus campos electromagnéticos. Ésta diferencia de potencial será proporcional a la energía acústica que alcanzó al diafragma. Un par de cables en cada una de las placas conducirá la energía eléctrica por los circuitos del micrófono. De esta manera se produce la transducción de energía acústica en energía eléctrica en los micrófonos electrostáticos. Como la diferencia de potencial entre las dos placas puede ser de un valor escaso en términos de energía eléctrica, éste tipo de micrófono necesita un preamplificador que lleve los valores de la diferencia de potencial a un nivel alejado del piso de ruido del circuito del micrófono y fácil de conducir por los cables. De esta manera se logra conducir el audio con una calidad aceptable para el uso profesional.

Micrófonos de Condensador

Este tipo de micrófono electrostático se caracteriza por tener una fuente de polarización exterior o como se les dice comúnmente, fuente de alimentación externa. Las placas son generalmente de un material muy conductor (preferentemente oro); lo cual garantiza una alta sensibilidad a las variaciones de potencial. Y por lo tanto también a las variaciones de presión sonora de poca intensidad. La fuente externa

20

proporcionará

una

corriente

continua y se encargará de dos funciones, primero polarizar las placas y; segundo alimentar el pre-amplificador

para

que

la

señal alcance un valor óptimo y circule sin grandes deterioros por el circuito del micrófono y la línea.

Fig. 8. Diagrama terminal de salida de un micrófono de condensador.

Esta tensión varía con el diseño del circuito del micrófono y oscila entre 40 y 200V, [Tribaldos - 1993]. La alimentación que comúnmente se utiliza es la llamada "Phantom" (fantasma) y provee una tensión de 48V que puede aplicarse directamente desde el mixer o la consola a través de los 3 cables de la línea balanceada. Electret

Los micrófonos condenser electret tienen polarización propia. Es decir que las placas son de un material que puede conservar su carga. Está constituido por una membrana de material plástico de policarbonato fluorado de 4 a 12 μm de espesor, metalizada por la cara exterior, que cumple la función de electrodo móvil. El electrodo fijo está constituido por una placa metálica perforada. [Bonavida - 1994]. Para lograr la polarización de la placa de plástico metalizada se la somete a una temperatura de 230°C junto con una tensión continua de entre 3000 a 4000V. Si bien estos micrófonos no necesitan una fuente de polarización para las placas, como los anteriores, necesitan una fuente de alimentación para el amplificador.

21

Fig. 9. Diagrama lámina electret. Micrófonos PZM Cuando un micrófono convencional se sitúa próximo a una superficie, como una pared o la superficie de una mesa, las ondas reflejadas en la superficie

y

captadas

por

el

micrófono crean una respuesta tipo filtro

peine

provocado

por

las

diferencias de fase a las distintas frecuencias. Esto hace que el sonido se escuche "coloreado", sonando de forma poco natural. Fig. 10. Micrófono PZM CROWN PZM®-6D. Si la distancia entre el micrófono y la superficie es menor de un milímetro, el filtro peine no tendrá efectos por debajo de los 20kHz. Es decir, fuera de frecuencia de audio o fuera del espectro audible. Los micrófonos boundary hacen exactamente esto. Estos micrófonos están montados sobre superficies de diferentes formas, circulares, triangulares, pero situados fuera del centro para evitar efectos nocivos de fase. Para este tipo de micrófonos se usan transductores piezoeléctricos. Por este motivo también se los conoce como micrófonos PZM. Este tipo de micrófonos ofrecen una óptima captación de sonidos transmitidos a través de superficies duras.

22

Mixers

En

todo

procedimiento

grabación

para

de

audiovisuales

existen unidades dedicadas a la administración de las entradas y salidas de audio, con la posibilidad de tomar decisiones sobre el nivel, el ruteo, el filtrado de todas las señales que entran y salen de esta

clase

de

dispositivos

denominados mixers. Aquí nos ocuparemos sistemas

de

solo

de

aquellos

mezcla

(mixers)

utilizados en configuraciones de registro de sonido directo.

Fig. 11. Mixer Sound Devices 442.

En esencia un mixer es el lugar en donde vamos a conectar todos nuestros micrófonos, sean del tipo que sean y el lugar donde vamos a decidir con que intensidad queremos controlar a cada uno de ellos, además de tener la posibilidad de que podamos, a cada una de las señales que producen los micrófonos, enviarlas a distintos destinos, tanto para su grabación como para su monitoreo por medio de auriculares. Como vemos en la figura anterior (arriba), tenemos una serie de potenciómetros para controlar la intensidad de las señales que provienen de los micrófonos conectados a las entradas disponibles (abajo, derecha) y una serie de salidas (abajo, izquierda) que dependiendo del tipo de mixer oscilan desde las dos a cuatro salidas e incluso podemos encontrarnos casos donde tenemos una salida por cada canal de entrada. En audio profesional nos encontraremos con una serie de conectores a los cuales denominaremos de la siguiente manera:

23

XLR o Canon

Se usan en aplicaciones de estudio y directo de alta calidad. Son los que utilizan los micrófonos de condensador para recibir la alimentación Phantom y enviar la señal al mismo tiempo. También son habituales en monitores de estudio y procesadores de gama alta. Fig. 12. Conector tipo XLR-3. Jack TRS, PLUG: Los hay de varios tamaños. Son más caros que los RCA, pero mucho más fiables y robustos. Los usan micros dinámicos,

sintetizadores,

guitarras

eléctricas, etc. y es la usada por la gran mayoría de auriculares. Los hay Mono y los hay Estéreo. Los estéreo, sirven

también

para

señales

balanceadas.

Fig. 13. Conector tipo TRS.

RCA:

Son

los

audiovisual

más de

Videocámaras,

habituales

en

consumo etc.).

Sólo

electrónica

(Hi-FI, usan

DVD, dos

conductores (hilos de cable) por lo que son conectores mono. Se necesitan dos conectores para una señal estéreo. No pueden usarse con señales balanceadas.

Fig. 14. Conector tipo RCA.

24

2.c

Formas de transporte de la señal

Forma no-balanceada. La señal se lleva a través de un cable de dos conductores. Los conectores de señal no-balanceada tienen dos pines, como el RCA (también llamado Phono y Cinch, utilizado habitualmente por los equipos domésticos de alta fidelidad) y el 1/4" no balanceado (a menudo llamado, de forma errónea, jack, y usado en los instrumentos musicales y audio semi-profesional). Los conectores de más pines también pueden llevar señal no-balanceada, aunque no usarán todos los pines). Por ejemplo un XLR (Cannon) de tres pines podría llevar señal no-balanceada, dejando un pin sin usar. Los equipos domésticos usan en su práctica totalidad conexiones no balanceadas. Las conexiones no-balanceadas son muy simples, y se usan habitualmente y sin problemas para la conexión de muchos instrumentos musicales. La razón por la que este tipo de conexiones no son consideradas "profesionales" es que son

muy

susceptibles

de

contaminarse

por

interferencia

electro-magnética,

particularmente cuando las distancias de cable son largas. Forma balanceada. La señal se lleva dos veces, una de ellas con la polaridad invertida. A esto se lo conoce como el balanceado de una señal. Para llevar una señal balanceada necesitaremos conectores de tres pines y cable de tres conductores, uno de los cuales es la pantalla (malla) del cable. Las interferencias electro-magnéticas que no rechace el apantallamiento del cable, afectarán lo mismo a los dos cables que llevan la señal. La entrada del dispositivo al que llevamos la señal realiza lo que se conoce como desbalanceado, que consiste en sumar las dos señales que le llegan tras invertir una de ellas. Al haber estado invertida a su vez una señal con respecto de la otra en el cable, el balanceado consigue reforzar (doblar) la señal original y cancelar las interferencias que se produjeron en el cable. En la práctica la atenuación de las interferencias es muy compleja y no siempre se consiguen los resultados esperados, aunque en cualquier caso el transporte balanceado de señal es el preferible para aplicaciones profesionales. El parámetro CMRR (Common Mode Rejection Ratio, Relación de Rechazo en Modo Común) expresa la atenuación de una interferencia que se cuela en igual cantidad en los conductores que llevan la señal, y suele oscilar entre 60 y 80 dB, que vienen dados por las tolerancias del circuito de desbalanceado de

25

entrada, y que definen la exactitud de la suma del desbalanceado. Desde el mixer, además, podemos generar un tono puro de 1000 Hz. con el fin de calibrar adecuadamente los vúmetros del sistema de registro y cerciorarnos que estamos midiendo adecuadamente los niveles de grabación. Otra de las opciones importantes de un mixer es la posibilidad de asignar phantom power a los micrófonos, para que aquellos mics de tipo condenser puedan funcionar. Una de las particularidades de estos equipos es la de poseer a la entrada de los micrófonos un circuito llamado previo, responsable de llevar el nivel de tensión que produce un micrófono (que se mide en el orden de los mili volts) a un nivel mayor equivalente al nivel de línea. Esto hace que se normalicen todas aquellas señales que ingresan al equipo a un mismo valor de tensión nominal. Todos los previos tienen como consecuencia no solo un incremento en el valor de la señal sino que además dotan al sonido de un color particular, por ende, todo equipo tiene un sonido particular, dos previos no suenan de idéntica manera.

2.d

Dispositivos de registro de audio

Grabadoras de Campo

Desde hace muchos años, existen diversas soluciones para registrar el sonido en el audio para audiovisuales. Históricamente, estos dispositivos han ido evolucionando desde los primeros que utilizaban cinta magnética con sistemas de sincronismo más o menos fiables, a otros sistemas de registro de estado sólido, donde la grabación se realiza sobre un disco rígido o algún medio extraíble o intercambiable como por ejemplo tarjetas de memoria o discos DVD-R. Una grabadora se conectará a la salida del mixer, es decir, toda señal que haya entrado al mezclador, tendrá como destino la grabación en cualquiera de los aparatos de grabación disponibles. Aquí es posible que podamos entregar una mezcla del mixer en dos canales o directamente un envío de señales directamente a canales separados de grabación (no siempre es posible, depende de las posibilidades del mixer y de la grabadora). Repasemos algunos sistemas de grabación disponibles en el mercado con sus diferentes propiedades:

26

Nagra Es un sistema de grabación sobre cinta magnética que fue estándar desde los años 60 hasta los 90. Originalmente consistían en equipos portátiles que funcionaban a batería, muy estables, y que con su sistema de sincronismo Neopilot,

posibilitaban

tener

un

sincronismo con la imagen exacto.

Fig. 15. Grabador NAGRA 3.

Los nagras más nuevos (aún comercializados bajo la misma marca) tienen la posibilidad de trabajar con códigos de tiempo SMPTE y gozan de todas las virtudes de los sistemas digitales más avanzados. Funcionan enchufadas a 220v mediante una fuente transformadora o con 12 pilas grandes comunes. Esto permite una autonomía de varias jornadas de rodaje sin necesidad de enchufarse a tensión de línea. Son muy resistentes y su funcionamiento no se altera con las variaciones de clima. Vienen con un Vúmetro que permite monitorear el nivel de grabación. El mismo se utiliza para chequear el nivel de baterías y otras funciones. Permite utilizar diferentes velocidades de grabación: Alta, Normal y Baja. DAT Cinta de Audio Digital, (del inglés Digital Audio Tape y abreviado DAT) es una señal de grabación y medio de reproducción desarrollado por Sony a mediados de 1980. Fue el primer formato de casete digital comercializado y en apariencia es similar a una cinta de audio compacto, utilizando cinta magnética de 4 mm encapsulada en una carcasa protectora, pero es aproximadamente la mitad del tamaño con 73 mm × 54 mm × 10,5 mm. Como su nombre lo indica la grabación se realiza de forma digital en lugar de analógica, la grabación y conversión a DAT tiene mayor, igual o menor tasa de muestreo que un CD (48, 44,1 o 32 Khz. de frecuencia de muestreo y 16 bits de cuantificación). Si se copia una fuente digital entonces la DAT producirá una copia exacta, diferente de otros medios digitales como el Casete Compacto Digital o el

27

MiniDisc Hi-MD, los cuales tienen compresión con pérdida de datos. Un casete DAT solo puede ser grabado por un lado, a diferencia de un cassette de audio análogo compacto. Como más de 80 compañías (en su mayoría niponas) estaban desarrollando el DAT en paralelo, hubo muchos puntos en los que no se llegó a un acuerdo sobre el estándar a utilizar. La investigación derivó en dos tecnologías: 

S-DAT (DAT de Cabeza Estacionaria)



R-DAT (DAT de Cabeza Rotatória). Los tapes se fabrican en varias duraciones (5, 15, 35, 65, 95, 125 minutos) que oscilan los US $15. Tienen un sistema de sincronismo perfecto: 1 impulso de sincronismo por cada muestra (Sample), con lo cual

es

imposible

perder

la

concordancia con la imagen.

Fig. 16. DAT TASCAM DA-P1.

Las salidas son por RCA (analógicas) y RCA/SP-DIF (Digitales), además de la salida de auriculares por Jack ¼”. Es posible elegir la tensión de entrada al equipo, entre ‘MIC’ y ‘LINE’ mediante un switch. También se puede alimentar un micrófono por Phamton (48 volts) y algunas cuentan con un limitador, que evita la saturación digital (perdida de información) por la entrada de una señal muy alta. Se alimenta mediante una fuente transformadora que se conecta a 220v o una batería propietaria (esto significa que cada marca tiene su propio modelo y la de Tascam no funciona en Sony). Esta batería dura aproximadamente 2 horas en grabación continua y demora en cargarse de 4 a 6 horas. En el frente tiene un display con un Peak Meter (para monitorear la señal entrante) y mediante potenciómetros individuales se controla el nivel de grabación. Con muy bajas temperatura se congela el cuarzo del display y la datera no se puede utilizar.

28

Los sistemas digitales tienen la posibilidad de guardar ciertos datos (números o texto) además de la información de audio o video (metadato). En el caso de la Datera, permite grabar marcas de identificación (ID), que posibilita avanzar aleatoriamente a cualquiera de ellas sin tener que escuchar todo el tape para buscar una toma. Estas marcas numeradas son anotadas por el Sonidista en una planilla de rodaje para facilitar la búsqueda en el momento de la edición. Además, en el casete se graba el tiempo absoluto de grabación (Absolute Time), en horas, minutos, segundos (HH:MM:SS), también utilizado para la búsqueda de información dentro del tape, medición del largo de tomas, etc. El cuidado que debe tener el sonidista al garbar, es que el cabezal lea la información previamente grabada, luego detener la cinta justo antes que comience el sector no grabado. Si se ha grabado algo de información y luego se deja un espacio en ‘blanco’ lo que se registre a continuación ya no tendrá tiempo absoluto y este no se vuelve a recuperar, a menos que se vuelva al último punto con esta información perdida. Algunos modelos también están preparados para grabar ‘Time Code’ SMPTE/EBU. MiniDisc

Si bien existen modelos muy profesionales, en general solo se utilizan en forma estacionaria en postproducción de TV, o estudios de sonido para música. También suelen venir formando parte de una porta estudio. Los que se utilizan para rodaje (portátiles) suelen ser del tipo "Discman". Graban en discos de 60 y 74 minutos que tienen un valor aproximado de US $ 3. Utilizan 2 pistas con una resolución de 44100/16bits, en un formato comprimido llamado ATRAC. Esta compresión produce una pérdida de ciertas frecuencias que el oído promedio no percibe. Por otro lado, este sistema de compresión hace que la sincronización no sea 100% confiable, en tomas de gran duración. Las "porta estudio" permiten grabar en 4 pistas reduciendo la duración del disco a la mitad. Lo importante a tener en cuenta a la hora de utilizar un sistema portátil es que se pueda desactivar el ACG. Es decir que el control de nivel se pueda hacer en forma manual. La entrada suele ser por un miniplug (1/8") estéreo. Es decir desbalanceada. Además como los micrófonos profesionales tienen salidas XLR hay que poner un adaptador que

29

termina agregando ruido. Algunos no tienen salida. Los que sí la tienen utilizan conectores "coaxial" u "optical" para salir digitalmente y miniplug para analógico. Los tracks grabados se auto

enumeran

y

pueden

ser

nombrados,

movidos, editados y borrados. Si bien, a los portátiles, no se los considera profesionales son bastante

usados

en

producciones

de

bajo

presupuesto. Fig. 17. Mini Disc Sony. Grabadoras de Estado Sólido:

Dentro de este grupo coinciden todos aquellos equipos que graban sobre soporte disco rígido, tarjetas de tipo compact flash u otros medios digitales extraíbles. Su gran ventaja reside en el hecho de poder tener muestreos muy potentes que van desde los 44.1 Khz. a los 192 Khz. con resoluciones en el orden de los 16 bits a 24 bits. Estos equipos han logrado hoy día volverse un estándar en la grabación de sonido directo, por su portabilidad y versatilidad. Son la pieza clave dentro de una cadena de audio típica. La forma en que realizan el registro de sonido, acompañada por una serie de metadatos, permiten un flujo de postproducción transparente y dinámico.

Fig. 18. Grabadora Solid State Sound Divices 744T.

Son capaces de grabar (además del audio) la información de código de tiempo o timecode y otros metadatos como por Ej. El número de escena, toma, fecha de creación de los archivos, cadencia de cuadro utilizada, y varias posibilidades más que dependen de la grabadora, su marca y su modelo. Algunos equipos además permiten conectarse a superficies de control para un cómodo manejo, sin necesidad de navegar algunos de los menús disponibles. La grabación generalmente produce archivos de

30

tipo bwav (Wav Broadcast) que contienen además de la información de audio tipo metadato antes mencionada. Algunos modelos como por Ej. La Sound Divices 744T y superiores, son acompañados por aplicaciones de software como Wave Agent, que permiten la edición y/o modificación de los metadatos producidos a la hora de la grabación.

2.e

Configuración tipo

Cada rodaje presenta siempre necesidades particulares que dependen siempre de la cantidad de actores, los tamaños de plano, las locaciones, el uso o no de generador, y otros factores que condicionan la elección correcta de los dispositivos de sonido. En el siguiente gráfico presentamos una configuración tipo que se ajusta prácticamente para varias situaciones:

Fig. 19. Configuraciones clásicas de grabación en rodaje. Elección de Equipos:

A la hora de seleccionar equipos para nuestros rodajes debemos evaluar las ventajas y desventajas que poseen cada uno de los dispositivos. Cuando de microfonía se trata podemos pensar en los siguientes criterios:

31

Micrófonos condenser montados en una caña con sus accesorios

Ventajas: •

“Naturalidad” del sonido de la captura.



Relación con el plano de cámara.



Generalmente libre de ruidos de roce, golpes en el micrófono e interferencias en la transmisión.



Relativa independencia del vestuario y los movimientos de los actores.



Relativamente robustos, más resistentes a condiciones adversas que los corbateros.



Mayor versatilidad frente a cambios de último momento, o aún durante la toma (especialmente en documentales).



Utilizados correctamente, y con los debidos accesorios, tienen gran resistencia al viento.

Desventajas: •

Mayor ruido (acústico) de fondo en situaciones comprometidas.



Plano sonoro muy reverberante, con poco detalle, mucho ruido de fondo, a veces inutilizable, dependiendo de las características de la toma, el tamaño de plano de cámara, la iluminación (y las sombras), la interacción de los actores.



En diagramas polares muy cerrados, el sonido proveniente fuera de eje tiende a estar muy coloreado. La inexperiencia o dificultades del microfonista se traduce en tomas de color desparejo.



Ruidos de manipulación de la caña y el cable.



Necesidad de fuente de alimentación externa.



Su tamaño hace que sea claramente visible y en determinadas situaciones dificulta la movilidad.

Micrófonos Corbateros Inalámbricos:

Ventajas:

32



Debido a la cercanía con la fuente, consiguen la mejor relación “señal útil” vs. “señal no deseada” (reverberación, ruido de fondo).



Permiten microfonear en lugares donde el boom no puede acceder.



Menor diferencia de plano entre los distintos actores.



Indispensables en situaciones de fondos ruidosos o poco controlados.



Independencia de cables. Tx FM.



Indiferentes al encuadre de cámara y puesta de luces.



Independencia de la posición de los actores dentro del cuadro y la cantidad de actores con texto.

Desventajas: •

Debido a la ubicación de la cápsula y su gran sensibilidad, es propenso a golpes y roces en el registro.



Gran dependencia del vestuario y los movimientos de los actores.



El “plano sonoro” de la captura, puede resultar “poco natural” con respecto al plano de cámara.



La “calidad del registro” es variable y muchas veces resulta inferior al obtenido con una caña.



Menor rango dinámico, necesidad de atenuación anticipada desde el transmisor en situaciones de alta presión sonora.



Necesidad de ocultar dentro del vestuario, cápsula y transmisor de FM. Dificultad de colocación.



Problemas de interferencias y pérdidas de señal de transmisión.



Fragilidad de las cápsulas y sistemas de transmisión.



Consumo de pilas o baterías.



Necesidad de un sistema por cada actor con texto en toma.



Condicionan las modificaciones de último momento y textos de los actores.



Generan incomodidad en los actores.

33

CAPITULO 3: TÉCNICA ACTUAL PARA PRODUCCIÓN Y POSTPRODUCCIÓN DE AUDIO

3.a

Equipamiento

Para llevar a cabo la producción contaremos con el equipamiento descrito en nuestro capítulo anterior más papel y lápiz junto con un equipo creativo a cargo o bien algún software tipo Word como para ir registrando todas nuestras ideas para luego irlas puliendo. Para llevar a cabo la postproducción contaremos con micrófonos de condensador con patrón omnidireccional, figura de 8 y cardioide, cables XLR-3 balanceados, antipops, sistemas de suspensión, fonos, 1 monitor con entrada coaxial, VGA o HDMI por el lado del locutorio; monitores de estudio, una interface AVID pre amplificada (para poder correr Pro Tools), una consola del tipo In line, amplificadores de fonos y en caso de realizar Foley con un master que posea material en un beta o en un vhs (sistemas antiguos) usar un conversor de señal LTC (Longitudinal time code) a MTC (Midi time code) para que lo pueda leer la interface (sistemas de sincronismos). A continuación se presenta el siguiente diagrama de flujo de señal del estudio de Post Producción:

Fig. 20. Diagrama de flujo de un estudio de postproducción.

34

3.b

Metodología

Etapas de la producción global

El Guión (Preproducción)

El guión literario consiste en la presentación narrativa y ordenada de las acciones y diálogos, todo ello estructurado en secuencias y dispuesto ya a ser llevado a la pantalla. En el guion por defecto deben estar presentes los siguientes elementos: Locaciones, protagonistas, acciones (motor de la historia) y elementos dramáticos (intro, desarrollo, clímax, desenlace). El guión está sujeto a modificaciones en su sistema y puede estar sujeto a mutilaciones de cualquiera de sus partes dando paso a modelos experimentales.

Elaboración de Cue list

El Cue List es un guion técnico con el que trabajaremos en el momento del montaje de nuestro trabajo. Es nuestra guía técnica del guion, donde se detallan todos los sonidos que participan en la creación del relato y en su respectivo código de tiempo (esto último en caso de que se esté sonorizando un video). Un formato básico de Cue List sería el siguiente: Acción

Descripción

Sonidos

Tabla 3. Formato básico de Cue List.

En la primera columna se escribirá la acción a describir (escena) En la segunda columna se describirá la acción (relato) En la tercera se detallara los sonidos a utilizar y como los lograra (bancos sonoros, grabación, etc.) Al formato del Cue List básico luego se le agregarán 2 etapas más: las

35

columnas de Código de Tiempo, que será nuestra guía para el montaje sonoro, y la de texto, en caso de diálogos.

TC

Acción

Descripción

Texto

Sonidos

00:00:00:00

Tabla 4. Formato de Cue List.

Este ejercicio se logrará viendo el video que tendrá incluido el código de tiempo en pantalla (burnt-in code).

Sincronismo

En un sistema con maquinas independientes unas de otras debemos conseguir que cada una trabaje a la par de un maestro, el que define el código de tiempo; el resto funcionara de esclavo, por lo que se “enganchara” a este código de tiempo. En nuestra configuración de estudio, hablamos de una configuración independiente, cada máquina tiene independencia de funcionamiento. En el caso de la post producción de audio, queremos que el sistema funcione con el fin de sonorizar una imagen, por lo que encontraremos maquinas reproductoras de video y grabadoras y procesadoras de audio. Tenemos que lograr que funcionen a la par, en sincronía. El dispositivo que usaremos para eso es la unidad MidiSport, que es una Interfaz MIDI que a su vez tiene la característica de generar y leer código de tiempo. Trabaja en formato MTC (midi time code), SMPTE. Esto quiere decir que transforma la información analógica que reproduce el Super VHS (LTC) en código de tiempo SMPTE. Este código será leído por ProTools, que actuara de esclavo en esta cadena. Entonces se puede concluir que

36

el maestro de nuestra cadena el Super VHS (la copia de trabajo, el video, vendrá con el código de tiempo escrito en uno de los canales de audio, L para ser precisos)

Fig. 21. Interfaz Midiman MidiSport 8x8 y Super VHS.

Como nuestro software de grabación

multitrack será el esclavo de la cadena,

deberemos hacer algunos ajustes para que funciones como tal. Estos se detallan en las siguientes figuras: Lo primero que debemos hacer, es verificar si Pro Tools está reconociendo el hardware MidiSport. Para eso nos vamos al dialogo indicado en la figura

Fig. 22. Software Pro Tools. Verificación del reconocimiento de interfaz midi.

Se abrirá una ventana con las opciones de Synchronization, en la que revisaremos si está disponible el hardware de sincronía y el canal por el que nos engancharemos.

37

Fig. 23. Software Pro Tools. Ventanas de disponibilidad de sincronía.

Nos engancharemos al canal MTC (SMPTE). Luego de chequear la MidiSport, nos dirigiremos al Session Setup para definir el tiempo de la película en que nos sincronizaremos.

Fig. 24. Software Pro Tools. Ventana de seteo de sesión.

38

Creación de Sonidos para segmento de video (FOLEYS)

Ya con el Cue List diseñado, se procederá a grabar los sonidos necesarios para la sonorización, utilizando este último como guía. El o los ejecutantes deberán crear sonidos acordes con la imagen y que ayuden a la dramatización del segmento. Los sonidos para este fin (foleys) serán creados a partir de lo que se escribió en el Cue List.

Fig. 25. Actores de foley.

Grabación de Sonidos Corporales y Vocales (FOLEYS)

En este bloque nos dedicaremos a la grabación de sonidos corporales, utilizando la voz humana como herramienta expresiva y el cuerpo como fuente sonora. Ej.: expresiones con o sin palabra hablada, gruñidos, suspiros, roce de ropa, respiración, etc. La grabación ya ha partido con el rescate del material de interés en la etapa de sonido directo. He aquí el declive entre la producción y la postproducción (de audio). En esta sesión el desafío se centra en la tarea de dirigir a un o unos actores para conseguir los sonidos adecuados. Aspectos importantes son la calidad técnica, la cual nos entregará buena sonoridad y el poder creativo, el cual nos permitirá solventar gastos innecesarios o evitar procesos dificultosos. También deberá recrear sonoridades utilizando técnicas de microfoneo que deberá deducir para obtener el resultado acorde a su guión, ejemplo: distancia, direccionalidad, etc. Lo puntual es contar con micrófonos de condensador con suspensión que posean omnidireccionalidad cosa de tener la misma sensibilidad en cualquier dirección, el locutorio adecuado, sistemas antipop(para evitar los popeos que pueden generar peaks en nuestras señales), fonos para que los actores puedan monitorearse auditivamente y en caso de foley (grabación sincrónica

39

de audio en referencia a una imagen) contar con un monitor con entrada coaxial (en caso análogo) o HDMI (en caso de sistemas HD digital). Grabación de doblajes - trabajo con voz hablada

Como

continuación

de

nuestro trabajo de creación de

sonidos,

se

deberá

realizar la grabación de los doblajes del segmento de video.

Esto

es

que

los

diálogos que se encuentran en él deberán ser grabados nuevamente por un actor. Enfrentarse a la tarea de dirigir actores con el fin de alcanzar el nivel de calidad y dramatismo adecuado a su trabajo es la gran clave en esta etapa.

Fig. 26. Grabación de doblaje.

Armado, orden y edición de sonidos en Protools

Luego de tener todos los sonidos necesarios que fueron detallados en el cue list, procederemos a montarlos dentro de la sesión de protools para su ordenamiento y mezcla. El objetivo es lograr un equilibrio y movimiento que relate la historio escrita con anterioridad. El desafío de este trabajo es lograr sincronizar el sonido directo con adicionados para reforzar la imagen de las acciones. Como primer paso crearemos nuestra sesión de ProTools. La crearemos en 48 khz de sample rate para acostumbrarnos a trabajar para video; las copias de trabajo (videos) vienen en esa resolución y debemos mantener el sincro. Es por eso que nos acostumbraremos a trabajar en esa resolución (48 khz, 16 bits). El tipo de archivo de audio lo decidirá la plataforma donde estemos trabajando, sea Mac o PC (aiff, wav

40

respectivamente),

aunque

actualmente los dos tipos de archivos son leídos por ambas plataformas. En nuestro caso nos acostumbraremos a trabajar en aiff

por

un

asunto

de

compatibilidad con otro software, por ejemplo Final Cut, que es un software de edición de video y que es el que recibirá la mezcla final de audio para su consolidado. Fig. 27. Software Pro Tools. Ventana inicial de salvado de sesión.

Luego procederemos a crear los tracks necesarios para importar los audios, deben ser estéreo y mono según se necesite, sin olvidar nuestro master fader que es el que nos guiara en

nuestro nivel de mezcla y por el cual masterizaremos nuestra mezcla

(estéreo). Debemos pensar en los tracks con un orden predefinido para tener una sesión ordenada. Los elementos que debemos considerar son: Voces, ambientes, efectos y música.

Fig. 28. Software Pro Tools. Ventana de creación de pistas.

41

Para la importación de audio

a

utilizaremos

la la

sesión, opción

Import audio to Region List, esto quiere decir que el audio que importemos a la sesión se guardara en la lista de audios que se encuentra

al

costado

derecho de la ventana de Edición.

Fig. 29. Software Pro Tools. Ventana de importación de audio.

En la imagen se ve el dialogo que se abre cuando se selecciona desde el menú la opción Import Audio to Region List, se debe elegir el disco de locación del archivo buscado. En la parte inferior del dialogo se puede hacer un preview del

audio.

Luego

de

elegido se convierte este al formato que se está usando en la sesión (aiff en este caso), si fuese necesario.

Fig. 30. Software Pro Tools. Ventana de destino de audios.

Cuando se ha elegido el audio para importarlo a la sesión, se abrirá el dialogo que aparece en la figura inferior, preguntando por la carpeta de archivos donde se desea guardar el audio. Por defecto se abrirá la carpeta de audios de la sesión en uso, esa es la que debemos elegir clickeando en “choose”. Aquí se ve como el audio seleccionado

42

es ingresado al Region List, se logra ver una flecha del lado izquierdo, que es la que indica la naturaleza del archivo, si es estéreo o mono, en este caso es estéreo porque al hacer click sobre la flecha, se desplegaran ambos archivos (L-R):

Fig. 31. Software Pro Tools. Ventana de edición.

Se selección el audio desde el región list y se arrastra hacia la pista deseada, en el caso de la imagen se ubico el audio en la pista estéreo.

Fig. 32. Software Pro Tools. Proceso de arrastre de un audio a la pista.

Montaje de sesión, creación de archivo OMF

Importación de ambientes y efectos Otro punto de vista en este trabajo es cuando se agrega imagen como información a la sesión, por lo que hay que importarla de igual manera que los archivos de audio. Se procede de la misma manera que importamos un archivo de audio, salvo que esta vez no elegimos Audio to Region List, sino que elegimos QuickTime Movie, se abrirá el dialogo para buscar su origen y se elige el archivo que será importado a la sesión como una pista más.

43

Además, por lo que vemos en la figura, podemos diferir que trabajaremos en conjunto con más programas, como por ejemplo Final Cut, que es un programa de edición de imagen, donde también se puede montar

audio.

El

montajista

entregara el video con una sesión OMF de audio, la cual es

una

propuesta sonora que debe ser trabajada por el post productor de audio. OMF es un formato de archivo que puede ser leído en programas

relacionados

de

diferentes fabricantes, la sigla significa Open Media Framework, y nos permite trasladar nuestra sesión a diferentes programas. Fig. 33. Software Pro Tools. Proceso de monitoreo con referencia visual.

Desde Pro Tools también se puede crear archivos OMF, que pueden ser leídas en otros programas de audio como Cubase. La idea de generar estos archivos, es que respeta el orden de los audios dentro de la sesión, los ubica en su posición dentro de esta y respeta las automatizaciones. La manera de generarlos es la siguiente:

Fig. 34. Software Pro Tools. Sistema para exportar archivos en formato OMF.

44

Fig. 35. Software Pro Tools. Sistema para exportar archivos en formato OMF.

Edición

Hablar

de

edición

puede

traernos de inmediato ciertas labores a la mente: sincronizar los foleys con la imagen, ajustar la duración de los sonidos, limpiar audios, etc. Usando su Cue List, se deberá posicionar cada archivo de audio en su posición para sincronizar con la imagen. Además deberá cuidar de tratar las regiones de audio de tal manera que cada una tenga fade in y out, se debe trabajar ordenadamente, respetando el nombre del track y el tipo de archivo que en él se posiciona, ejemplo: Track de Voces, en este track solo van los doblajes y sonidos de voz en general. En esta etapa también se deberá “limpiar” audio si fuese necesario, esto es que si un archivo tiene mucho sonido de fondo, debo utilizar las herramientas necesarias para anular ese ruido. Todo en función de tener mejor calidad de sonido. En esta etapa deben quedar listos los audios para después proceder a su mezcla. El software ProTools cuenta con todas las herramientas necesarias

para

este

(Ecualización, compresión, procesado

fin.

paneos, modulaciones,

de

armónicos,

expansión).

Fig. 36. Software Pro Tools. Ventana de edición y sus opciones.

45

Comparación de formas de Monitoreo.

La idea es que el o los individuos se vean enfrentados a diferentes formas de monitoreo, para poder realizar una mezcla que se adapte a todos los medios audiovisuales. En nuestro estudio contamos con equipamiento profesional, que no es el que todo el mundo posee en su hogar. Nuestro objetivo es lograr una mezcla tal que se pueda apreciar en diferentes tipos de monitoreo, tanto domestico televisivo, streaming y cine. Se procederá a monitorear sus mezclas en diferentes medios, como son: parlantes profesionales, televisor y audífonos. Solo así se podrá entender cómo enfrentarse a diferentes formas de monitoreo y lograr óptimos resultados. Posterior al ejercicio, se

continuará con el proceso de mezcla. Ahora cuidando mas

conscientemente del monitoreo que está utilizando, y entendiendo la necesidad de revisar su trabajo en diferentes tipo de monitoreo.

Mezcla

En este bloque nos preocuparemos ya del proceso de mezcla. La ecualización toma un papel importante en este proceso. Se utilizara como herramienta correctiva, es decir, utilizaremos

la

ecualización

para

igualar los sonidos de estudio al contexto

sonoro

de

ejemplo:

hacer

sonar

la

mezcla, una

voz

grabada en estudio como si estuviera en exterior, etc.

Fig. 37. Ingenieros en proceso de mezcla.

Esto es utilizar automatizaciones de nivel y ecualización correctiva de los sonidos. Todos estos procesos se realizaran en función de lograr una mezcla orgánica y coherente al guion escrito. Aquí destacan el uso de adecuado de los elementos sonoros y de la propuesta estética de estos

46

Fig. 38. Software Pro Tools. Plugin de ecualización.

Cabe destacar que el fin del trabajo no es solo la experticia en el manejo del software, sino el entendimiento del concepto de lenguaje sonoro y el desarrollar y proponer un concepto de banda sonora. Mezcla: Los Planos Sonoros.

Continuando con nuestra mezcla, ahora nos preocuparemos de los Planos Sonoros. Al momento de sonorizar un video, debemos, además de preocuparnos de que suenen los objetos y voces que allí aparecen en “sincro”, también debemos preocuparnos de respetar la espacialidad de la acción, es decir, debemos sonorizar acorde con los espacios que se nos muestran, ejemplo: si tengo un plano general de un valle, con viento moviendo las hojas; debo sonorizar con ambientes acorde y sonidos que me describan el lugar como insectos y pájaros, pero que al no estar en primer plano debe pasar

a

ser

parte

del

ambiente, posicionarlos en el plano. Y por el contrario, si tengo un primer plano de una persona,

los

sonidos

que

deben ser protagónicos, son los de la persona, dejando en segundo plano los sonidos de su

alrededor.

tomar

en

Se cuenta

deberá esta

información para lograr una buena mezcla. Fig. 39. Escena del film “La casa de las dagas voladoras”.

47

Mezcla: Sobre la “Sintaxis” sonora.

Siguiendo con el proceso de Mezcla,

es

ahora

cuando

debemos tomar mayor atención a

la

construcción

de

un

lenguaje sonoro, al concepto de banda sonora. En este punto debemos parar a pensar que es lo queremos transmitir y a partir de eso diseñar un lenguaje

sonoro

con

los

elementos que hemos trabajado.

Fig. 40. Construcción de la banda sonora.

Debemos elegir qué tipo de lenguaje usar, si uno Narrativo, Poético o una mezcla de ambos. Es en este punto donde relucir la creatividad y enviar un mensaje con su montaje sonoro. Para esto hará uso de sus grabaciones, sonidos de banco sonoro y música, para lograr una sólido masa sonora como diría Harvey Spector.

Fig. 41. Grabación del soundtrack de un film con referencia visual.

48

Masterización

Ya teniendo nuestra mezcla lista, estamos listos para entrar a la etapa de masterización. Se utilizaran herramientas básicas para este cometido, como por ejemplo: ecualizador, procesador de imagen estéreo, compresor y maximizador. En esta etapa nos preocupamos de nivelar la mezcla a los estándares requeridos para su transmisión, sea para cine, televisión, streaming o DVD (-3, -6, -12 db). Además podemos corregir o potenciar la sonoridad de la mezcla, aplicando nuevas ecualizaciones y compresiones. Todo esto cuidando de mejorar nuestra mezcla, no transformarla.

Ya

teniendo

el

master

terminado, hacemos la exportación de nuestra mezcla con los siguientes parámetros:

Fig. 42. Software Pro Tools. Ventana de Mix down.

El Bounce (en otros softwares conocido como mixdown; convertir la sesión multipista en un archivo de audio Estéreo, AC-3, pro logic, dts, 5.1, etc.) se hace en tiempo real, por lo que es recomendable escuchar la mezcla mientras se procesa para verificar que no haya ninguna error. Ya teniendo el nuevo audio, que ahora se transformo en una pista L-R (en el caso de la mezcla stereo), se la podemos entregar al montajista para que la importe a su sesion de Final Cut (programa de edicion de video) para que proceda a hacer el Export de la imagen y sonido.

Fig. 43. Software Pro Tools. Ventana de Mix down.

49

CAPITULO 4: EL LENGUAJE SONORO

4.a

Introducción Conceptual

Comunicación.

El lenguaje es un elemento que permite la comunicación. Es una forma de articular cierto código que nos permite comunicarnos. Necesita tener un código, una gramática, una morfología y además posee elementos estéticos. El código es el conjunto de signos que al articularse permiten la comunicación. El código es arbitrario al igual que el signo y debe ser compartido por el conjunto de individuos que se comunican. La morfología y la gramática están relacionadas con la forma de organizar los códigos dentro de un lenguaje Los recursos estéticos son los “adornos” que embellecen nuestro lenguaje.

Características del lenguaje audiovisual

Tiene tres particularidades básicas: Es un sistema de comunicación pues integra códigos de otros lenguajes y a partir de esto crea uno nuevo. Es multisensorial. Apela en general a la emotividad o al conocimiento. Una historia audiovisual se cuenta a través de acciones. Por ejemplo si queremos saber como es un personaje, lo descubriremos porque se lo muestra con ciertas actitudes, vestuario, en un ambiente determinado. No es como la literatura donde se describe, sino que vemos el actuar o el entorno de los personajes y por eso lo conocemos. Sus signos y elementos morfológicos son imágenes y sonido. Por eso desde el punto de vista de la percepción hablamos de Audiovisión. Un audiovisual, está constituido por una secuencia de imágenes conocidas como PLANOS. Estos son la unidad mínima desde el punto de vista narrativo. Un plano muestra una porción del espacio de representación. Es decir tiene un límite, llamado ENCUADRE o CUADRO. Los planos pueden tener distintos tamaños.

50

El sonido en el lenguaje audiovisual

En el medio audiovisual el sonido cumple un rol fundamental. Dará información que la imagen no proporciona, creará ciertos ambientes o atmósferas, provocará la ilusión de unidad a pesar del cambio de planos, y será parte del “como” se cuenta la historia. Debemos entender que el sonido no es solo un COMPLEMENTO de la imagen. Desde un punto de vista de cadenas sonoras (definidas por Pierre Schaeffer) podemos dividir los sonidos en cuatro categorías: La NATURALEZA, EL HABLA, LOS ARTEFACTOS Y LA MÚSICA. Desde un punto de vista técnico podemos dividir los sonidos en las siguientes categorías: DIÁLOGOS O VOCES: Serán todos los textos presentes, sean estas aquellas que veamos o no su fuente sonora. AMBIENTES: son aquellos sonidos que crean la atmosfera sonora de un espaciotiempo FOLEY: son sonidos característicos que deben grabarse en forma sincrónica con la imagen FX: son sonidos especiales que no pueden ser grabados en un estudio MÚSICA: existen a su vez dos categorías: Diegética y no- diegética.

Estas dos clasificaciones son complementarias. La primera nos hace ver las características acústicas del sonido y su función como índice. Si consideramos este aspecto podemos aportar a la construcción de la historia aportando información pero además siendo un aporte a la morfología. La segunda clasificación permite organizar nuestro trabajo y realizarlo en forma eficiente.

Nuestro trabajo como sonidistas debe ir profundizándose y lograr NARRAR con sonidos. No solo “poner lo que se ve”. El sonido en distintos planos siempre aporta información y es un aporte estético al lenguaje audiovisual.

51

4.b

Morfología y gramática del audio

Sobre Schaeffer

La introducción del libro Una voz y nada más de Mladen Dolar se inicia con el siguiente chiste: En medio de una batalla un Comandante del ejército italiano da la siguiente orden: ‘soldados ¡ataquen!’ Los soldados, que están atrincherados, no atinan a moverse. El comandante emite por segunda vez la orden y nuevamente, nadie se mueve. Intenta una tercera vez y uno de los soldados exclama ‘Che Bella voce’ (que bella voz!) (2007, p.13). Está claro que los reclutas no se reconocen en su misión en tanto soldados en una batalla. Y es por ello que no comprenden la orden del comandante. Sin embargo la respuesta elogiosa del soldado nos da pruebas de que si la interpelación del comandante fue fallida es porque sólo pudieron reconocerse como destinatarios de otro mensaje. Actúan como la comunidad de personas que aprecia la estética del bel canto; como buenos italianos amantes de la ópera. Es indudable que los soldados se centraron en la voz y no en el mensaje. Este ejemplo puede explicar muy bien el sentido de las celebres “Tres escuchas” que teorizó Pierre Schaeffer en su Tratado de los objetos musicales (1988, pp. 61-74). Para ser sintético diré que, según Schaeffer, habría tres posiciones de escucha. En la escucha causal el sonido funciona como un índice. El oído se dirige a identificar la causa que produce el sonido. En la escucha semántica el oído se dirige a comprender el mensaje En este caso tampoco interesa el sonido en sí mismo. El sonido funciona como soporte material de un sentido. El ejemplo paradigmático es el lenguaje. En la escucha reducida se toma al sonido como un objeto de observación en sí mismo. No nos interesamos ni por la causa ni por el sentido. Al escuchar en forma reducida nos focalizamos en las cualidades intrínsecas del sonido. Los soldados italianos del chiste antes comentado no se habían interesado ni por las causas del sonido –el comandante que emitía la voz– ni por el sentido de las palabras. Se interesaron por la voz en sí misma. La voz es el soporte material del significado. Digamos que posibilita el acto mismo del habla pero no contribuye a producir sentido. Es la materia prima en la que se operan las oposiciones diferenciales. Pero son estas oposiciones diferenciales las que importan a la lingüística. El sonido queda allí como un resto un tanto evanescente, que constituye

52

una condición del habla pero que al mismo tiempo parecería estar fuera de ella. Los soldados italianos anclaron allí, en esa materialidad del sonido de la voz y lo convirtieron en objeto de placer estético que también, a su modo, es portador de un significado, aunque de un orden distinto al del lenguaje. Sin embargo, es posible anclar en esa materia significante que es el sonido, sin hacerla objeto de culto ni de placer estético. Esta otra alternativa es tomar al sonido mismo como objeto de estudio, más allá del sentido o de las causas. Convengamos que nada puede funcionar como significante si previamente no es una cosa definida, con sus propiedades. Estudiar las propiedades de esa “cosa” definida, de ese resto que queda por fuera del sentido –y que por otra parte, es la materia prima con la que trabajan los músicos– es a mi juicio uno de los grandes aportes de los trabajos de Pierre Schaeffer. Tomar al sonido como objeto de estudio mediante la posición de escucha reducida es a lo que Schaeffer denominó objeto sonoro. En este artículo intentaré hacer un resumen de la tipología y la morfología del objeto sonoro. Es decir, la clasificación y la descripción del universo de sonidos en tanto objetos de la escucha reducida. Dos cosas cabe destacar: La primera es que, hasta donde yo sé, no existe en castellano, un trabajo más o menos completo acerca del tema. En el libro El sonido de Michel Chion (1999, pp. 295-350) hay un capítulo denominado “Describir y clasificar sonidos”, que aborda esta cuestión, pero está apenas esbozado. Otro libro de Chion Guide des objets sonores (1983), es un resumen muy completo acerca del la obra de Schaeffer, pero no hay –hasta donde llega mi conocimiento– traducción al castellano. El solfeo del objeto sonoro publicado por Schaeffer y colaboradores (1998) se detiene en la tipología, pero los aspectos morfológicos quedan un tanto diluidos. La segunda es que la tipo-morfología schaffereana ha tenido gran impacto en la enseñanza del audiovisual de la mano de Michel Chion en Francia (1993), y de Carmelo Saitta, en Argentina (2002). El Trabajo de Schaeffer debe ser entendido, entre otras cosas, como una herramienta para enriquecer la percepción sonora. Es posible realizar una suerte de aplicación pedagógica de la tipología y la morfología. Beatriz Ferreyra, en el prefacio al Solfeo del objeto sonoro escribe, “La clasificación del solfeo no es en sí una finalidad, sino una herramienta de trabajo que afina, amasa y hace consciente, la percepción de lo sonoro y por extensión, la percepción del fenómeno musical” (Schaeffer y colaboradores, 1998).

53

En un sentido similar, Michel Chion plantea, “Nuestra hipótesis es que la exigencia de precisión verbal activa es un medio primordial de afinación y cultivo de la percepción” (1999, p. 378). Así mismo, Delalande, en su libro de pedagogía La música es un juego de niños, titula un capítulo con el nombre de “Palabras para describir sonidos”. Allí nos dice que si nuestro vocabulario para describir sonidos es acotado escuchamos pobremente, en otras palabras, necesitamos palabras para escuchar. Más adelante agrega: En el comienzo de la música concreta Schaeffer se encontró con colecciones de ruidos grabados, con los cuales quería hacer música y confrontado a un problema de clasificación y de descripción. Entonces buscó palabras que permitieran analizar todos los sonidos (...) (Delalande, p. 58). Es claro que en estas tres citas existe algo en común: la enseñanza de los trabajos schaeffereanos, puede ser entendida como un medio para maximizar la escucha. Para dar una prueba más que apoye esta hipótesis de derivación pedagógica del Tratado de Schaeffer, vayamos a su post scriptum, que concluye con una cita que su autor hace de Descartes “que si quieren seguir un designio parecido al mío , no tienen necesidad de que les diga más de lo que ya he dicho en este discurso, pues si son capaces de ir más allá de lo que yo he hecho, con más razón lo serán para encontrar por sí mismos todo lo que creo haber encontrado... La Tipomorfología

El programa de investigación acerca del objeto sonoro, llevado a cabo por Pierre Schaeffer, puede ser entendido como un intento de construir un aparato de categorías destinado a clasificar y describir la totalidad de los sonidos. Para ello fue necesario, en principio, la consecución de tres objetivos: el primero referido a la necesidad de identificación de las unidades sonoras fundamentales; el segundo, a la clasificación de esas unidades en tipos; y el tercero, a una permanente búsqueda de criterios, cada vez más sutiles, de descripción. Schaeffer denominó “Tipología” al trabajo de identificación y clasificación de los sonidos; y “Morfología” al trabajo de descripción de los sonidos en su contextura interna. Este ambicioso programa se inició con una primera fase exploratoria denominada Tipo- Morfología. En esta fase inicial del trabajo las tres operaciones (identificar, clasificar, describir), se fueron realizando en forma conjunta y

54

por aproximaciones sucesivas. Imaginemos la situación: Schaeffer se encontró con un campo no explorado; no había antecedentes de estudios del sonido desde la escucha reducida; nadie, hasta donde yo sé, había planteado el sonido como objeto de observación en esos términos. O en otras palabras, Schaeffer estaba construyendo su objeto de estudio, bastante original en ese momento. Diseñar un objeto de investigación implica, entre otras cosas, decidir cuáles entidades del campo de estudio van a ser consideradas unidades de análisis y cuáles serán los criterios de clasificación y descripción, relevantes para esa investigación. En virtud de ello, se hizo necesario que Schaeffer comenzara por definir criterios de identificación de unidades sonoras. Es decir, recortar del continuo sonoro, las unidades que serán a su turno, objeto de agrupamiento y descripción. Para realizar una tipología de unidades sonoras y posteriormente describirlas es preciso, ante todo, delimitar esas unidades. En otras palabras, saber qué cosa vamos a hacer objeto de clasificación y descripción. La primera operación de la tipología es, como ya he dicho, la identificación de objetos sonoros del continuo sonoro. Más adelante entraré en detalle acerca del problema de la identificación de las unidades. Sólo adelanto que este problema puede ser sintetizado con la siguiente pregunta: ¿Cuáles son los criterios que nos permitirán delimitar las unidades a partir del continuo sonoro? Una vez acordados los criterios para recortar los sonidos (unidades) del continuo sonoro, se procede a una clasificación de los mismos, es decir a agruparlos por tipos. Clasificar significa agrupar elementos, formar clases de objetos conforme a determinados criterios. Pero para hacer esto, al mismo tiempo, se hace necesario perfilar algunos criterios relevantes que posibiliten su descripción. Supongamos que quiero armar una tipología de sillas. En principio no tendré dificultades en distinguirlas de otros objetos (mesas, aparador, etc.) ni distinguir sus componentes (Patas, respaldo etc.), esto es, identificar los objetos a ser clasificados, y los criterios de fragmentación del objeto. Por otra parte, tengo que disponer de criterios que me permitan describir las distintas características de las sillas. Es necesario que establezca algún criterio y comparar las sillas entre sí. Podemos pensar por ejemplo en la forma, en la cantidad de elementos constitutivos, en el modo en que se distribuyen esos elementos en el espacio; el material con que están hechas, etc. Ciertamente estos criterios pueden ser innumerables, razón por la cual se hace imprescindible simplificar ese “espacio de atributos”, tomando en cuenta sólo los

55

criterios relevantes en función de los propósitos de la clasificación. Y luego a partir de allí, formar tipos de sillas. Mi propósito puede ser clasificar sillas con el objeto de distribuirlas mejor en un espacio determinado, en consecuencia realizaré la clasificación conforme al tamaño, la forma, posibilidad de ser encastradas etc. Para clasificar objetos, es decir, saber en qué se parecen y en qué se diferencian, es preciso contar previamente con criterios de descripción. Pero al mismo tiempo para hacer una descripción necesitamos criterios de clasificación. Este es el problema con el que Pierre Schaeffer se enfrentó en el comienzo de su investigación: “La tipología o arte de separar los objetos sonoros y, si es posible hacer con ellos una tosca clasificación inicial, no puede fundarse más que a partir de rasgos morfológicos” (Schaeffer, 1988, p. 222). Se hizo necesario, entonces, disponer como mínimo de una rudimentaria morfología; seleccionar unos criterios que permitan decidir en qué medida esos objetos se asemejan o se diferencian, “Por ello, durante muchos años, hemos basculado entre una morfología apenas formulada y una tipología mal definida (Schaeffer, 1988, p. 219).” Otorgarle un lugar en el seno de una clase a determinada unidad sonora, implica haber elaborado criterios de descripción. En otras palabras, delimitar un elemento de un universo de estudio implica determinar cuáles son los atributos o cualidades que debe reunir para que pueda ser incluido en una clase. Identificación de los objetos sonoros: tipología elemental

La pareja Articulación / Apoyo

En esta fase de la investigación, y en dirección a realizar un primer esbozo de clasificación, la operación ha sido la de identificar las unidades de análisis. Esto es, elegir algunos criterios para extraer del continuo sonoro las unidades mínimas. “La suma del mundo sonoro es apabullante” dice Schaeffer (1988, p. 219). Cosa que obliga a buscar una regla de identificación, es decir algún criterio que se pueda aplicar, aunque sea provisoriamente, a todas las cadenas sonoras. Las cadenas sonoras son, para Schaeffer, el lenguaje humano, el lenguaje animal, la música y el ruido. En cada una de estas cadenas es fácil delimitar sus unidades de manera más o menos espontánea. Para el lenguaje hablado, la palabra; para el canto del pájaro, el trino;

56

para la música la nota, el motivo; para el ruido, el conjunto de indicios que permiten reconocer su causa. Ahora bien, a esos objetos sonoros que se les ha aplicado una “drástica regla de identificación”, que han sido aislados de manera más o menos convencional, se les aplica un segundo criterio. Veremos cómo: Dejando de lado el origen de esos sonidos y su significado, y tomando como recurso a la fonética, aunque forzando un poco los términos, Schaeffer se va a servir de los conceptos de articulación y apoyo. Con respecto a la articulación, podemos decir que existen sonidos articulados tales como las sílabas del lenguaje y otros inarticulados como un torrente, el sonido continuo de un río, entre otros. Como esta clasificación tiene como propósito al objeto musical y no al lenguaje, Schaeffer va a dejar de lado el concepto de articulación y en su lugar definirá el mantenimiento, es decir la energía aportada en el momento en que “atacamos” el sonido y que se puede comunicar de manera inmediata o prolongada. Notemos que, en última instancia, la manera de atacar un sonido está vinculada de modo análogo a la articulación en la fonética. El concepto de apoyo, en fonética, se refiere al color de las vocales y en menor medida a la entonación. Como el proyecto es hacer una clasificación de sonidos en dirección a propósitos musicales, es más apropiado hacer hincapié en la entonación. El concepto de entonación plantea la pregunta acerca de si un sonido está fijo o no en la tesitura. De hecho la palabra apoyo sugiere fijeza, en cambio entonación implica también variaciones de altura. De todos modos, en ambos casos sugiere un fenómeno sonoro que se prolonga (Chion, 1983, pp. 114). En resumen, digamos que la pareja articulación –apoyo tomada de la fonética se transforma en la pareja mantenimiento– entonación cuando la intención es orientada en dirección a propósitos musicales. Ahora bien, si aplicamos esta pareja mantenimiento- entonación a las unidades de las distintas cadenas, obtenemos los siguientes casos: Mantenimiento prolongado - entonación fija. (Una nota larga de violín que mantiene su altura). Mantenimiento prolongado - entonación variable. (Un glisssando de flauta en émbolo). Mantenimiento nulo - entonación fija. (Un nota de vibráfono). Mantenimiento nulo - entonación variable. (Una percusión de timbal, desplazando el pedal).

57

Descripción elemental del objeto sonoro: morfología elemental

La pareja Forma / Materia

Otra operación, es la elección de criterios de descripción más o menos generales. Así como los criterios de identificación más elementales de la tipología es la pareja Mantenimiento/Entonación, los criterios que permiten una primera descripción de los objetos sonoros, es la pareja Forma / Materia. La materia de un sonido es aquello que se perpetúa a través de la duración. Imaginemos que fuera posible “parar” para oír lo que es, en un instante determinado de nuestra escucha: lo que captamos, escribe Schaeffer, es su materia (Schaeffer, 1988, p. 224). La forma es la envoltura de la materia; es la manera en que esa materia se desarrolla en la duración. Como se verá más adelante, Schaeffer va a elaborar criterios cada vez más sutiles de descripción. Algunos de estos criterios morfológicos estarán vinculados a la materia y otros a la forma. Por ejemplo los criterios de Masa, Timbre Armónico y Grano pueden ser considerados criterios pertenecientes a la materia del sonido. Los criterios de Marcha (allure) y perfil dinámico pueden ser considerados criterios de descripción de la forma (Chion, 1983, p. 116). Sin embargo las nociones de forma y de materia no se dejan delimitar tan fácilmente. Hay que tomarlas como herramientas para el análisis del sonido que nos van a obligar a replantear el problema de la descripción sonora, y en consecuencia, aguzar la escucha (Chion, 1999, p. 308). Hasta aquí he resumido y comentado este primer intento de Schaeffer de construir una tipología elemental y una morfología elemental. Es decir aquello que se denomina Tipo-morfología. En adelante intentaré hacer una síntesis de otras dos fases de la construcción de esta taxonomía. Lo que sigue es entonces, tanto una tipología más desarrollada, como así también una morfología más sutil. Tipología de los objetos sonoros

Criterios tipológicos

Criterios de masa y factura

58

La factura es la percepción cualitativa del mantenimiento. Para entender este concepto recordemos que el Mantenimiento es el proceso energético que se mantiene o no en la duración. Según su mantenimiento los sonidos pueden ser de: Mantenimiento nulo: Es el caso de las percusiones. Cuando percutimos una fuente o pulsamos una cuerda puede suceder que la energía se disipe rápidamente o que tenga una extinción lenta pero no mantenemos el sonido. Mantenimiento continuo: Por ejemplo por frotado o soplido. Mantenimiento iterativo. Consistente en una repetición rápida de sonidos breves. La factura en cambio, es la percepción cualitativa del mantenimiento. Está en relación a éste, pero no se confunde con el mismo. El mantenimiento es una noción “neutra” y la factura es un criterio de descripción musical, describe al mantenimiento. Cabe aquí una aclaración. La noción de factura, como veremos, es pertinente sólo en el caso de que el objeto sea equilibrado, es decir, tenga un tiempo óptimo de memorización y un cierto grado de previsibilidad (Chion, 1983, p. 118). Si un objeto tiene una duración demasiado larga o bien es demasiado imprevisible, no podemos hablar de factura. Hablaremos en ese caso, meramente, de mantenimiento. Cuando un sonido es demasiado largo tendemos a olvidar su factura y la atención se centra en los detalles internos al sonido, o sea, aquello que hemos denominado su materia. Si el sonido es demasiado imprevisible la percepción tampoco se centra en la factura. Se hace muy difícil retener la forma de ese sonido. Distinguiremos entonces tres tipos de factura: Impulsiones Son breves, un ataque con una resonancia. El sonido de un Wood Block (cajas chinas), caracterizado por ser muy breve, con un ataque abrupto y una resonancia dada en general por la reverberación de la sala; un Pizz de violín; etc. Mantenidos y resonancias formadas. Ni muy largos ni muy cortos. Tienen una forma cerrada, se percibe en ellos, claramente el ataque, el cuerpo y la extinción. Tienen un tiempo óptimo de memorización y un cierto grado de previsibilidad. Está claro que pueden ser tanto sonidos carentes de mantenimiento, como del tipo percusiónresonancia (Una percusión de un platillo o la nota de un piano), como sonidos mantenidos, como un frotado de cuerda o el sonido de una flauta. Iteraciones Repetición de impulsiones que tienden a ser percibidos como una totalidad. En este caso también se aplica la misma regla acerca del equilibrio del

59

objeto. Por ejemplo un grupo de semicorcheas no necesariamente se escucha como varias impulsiones aisladas. En general lo escuchamos como una totalidad. Criterio de Masa

La Masa representa la generalización del concepto de Altura. Es derivada de la noción de entonación. Como habíamos dicho, podemos describir un sonido de acuerdo a la fijeza en la tesitura. Algunos sonidos pueden estar fijos en la tesitura y otros no. Diremos ahora que: lo que varía es su Masa. La pregunta que se plantea es la siguiente ¿por qué cambiar el término “altura” por el de “Masa”? Los dos conceptos no significan lo mismo. La masa es la generalización del concepto de altura. Que un sonido, por ejemplo, no tenga una altura “definida” no significa que no tenga una Masa. En algunos sonidos podemos identificar una altura precisa y en otros no. Sin embargo, a estos últimos, es posible situarlos en una zona del registro. Este criterio, en principio, está vinculado al de grado de tonicidad de un sonido. En resumen, un sonido puede tener una Masa Fija o variada y por otra parte, puede ser tónico o complejo. Schaeffer va a retener los siguientes valores que puede adoptar la Masa de un sonido La Masa de un sonido puede ser: Tónica. Tienen una altura precisa. Es decir que podemos “cantarla”. Compleja. No tiene una altura definida, aunque es posible situarla en una zona del registro. El sonido característico del platillo o el de una maraca. Este es un concepto muy amplio. Están incluidos en esta categoría, desde los sonidos inarmónicos de componentes discretos hasta las bandas de ruido. Variada. Significa que el sonido glissa. (Que varía su “altura”). El flexatón por ejemplo, es un instrumento que tiene la característica de hacer variar el sonido en altura. La flauta de émbolo también. Criterio duración – variación

Está relacionado a la duración del objeto sonoro y a la variación según los criterios de Masa y de Factura. La duración está referida a la duración percibida y no a la cronométrica. Y variación, como cualquier cosa que cambia en función del tiempo. Se

60

distinguen

duraciones

cortas,

medias y extendidas; y variaciones nulas, razonables e imprevisibles. Criterio equilibrio y originalidad. El equilibrio es un compromiso variable en la factura del objeto entre lo más estructurado y lo simple. “El grado de originalidad es, grosso modo lo que

sorprende

a

la

previsión”

(Schaeffer, 1988, p. 231). Estas dos nociones

son

complementarias.

Fig. 44. Tipos de factura y masa.

A los sonidos que tienen un buen compromiso entre originalidad y equilibrio, Schaeffer los denomina objetos convenientes y los va a ubicar entre los objetos denominados Equilibrados. A los objetos que no tienen un buen compromiso entre originalidad y equilibrio: los No Equilibrados; los subdivide en dos grupos. El primer grupo reúne a todos aquellos que son de originalidad nula, y los denomina objetos redundantes. Al segundo grupo pertenecen aquellos sonidos cuya originalidad es excesiva, y los denomina objetos excéntricos. Objetos equilibrados (tipología central)

Fig. 45. Cuadro tipológico.

61

Es posible resumir los tipos de sonidos resultantes teniendo en cuenta los criterios de Masa y Factura. Sonidos Resultantes. Fuente: Elaboración propia. Sonidos Fijos, Tónicos, Impulsivos. (Pizz de violín) Sonidos Fijos, Complejos, Impulsivos. (Golpe de maraca) Sonidos Variables, Impulsivos (Gliss breve de instrumento de cuerda) Sonidos Fijos, Tónicos, Formados (Nota de piano) Sonidos Fijos, Complejos, Formados. (Golpe de platillo) Sonidos Variables, Formados. (Gliss de flauta de émbolo) Sonidos Fijos, Tónicos, Iterados. (Tremolo de instrumento convencional) Sonidos Fijos, Complejos, Iterados. (Redoble abierto de tambor) Sonidos Variables, Iterados. (Gliss de marimba) Objetos no equilibrados

Además de los nueve casos de la tipología central, presentados anteriormente, Schaeffer clasificó más de treinta de tipos de objetos que ubicó en la periferia de su cuadro tipológico. Denominó a estos tipos de objetos “no equilibrados”. Y como ya hemos dicho, a su vez distinguió entre Objetos redundantes o poco originales (objetos de duración bastante larga), por un lado y objetos excéntricos, (objetos con una organización demasiado compleja) por otro. Como escribe Chion, Schaeffer consideró a los nueve casos de la tipología central como los más propicios para una construcción musical. Sin embargo los objeto No Equilibrados, que Schaeffer relegó a la periferia de su cuadro clasificatorio, fueron finalmente los más utilizados en la música contemporánea y en diseños de sonido en los audiovisuales (Chion, 1999, p. 311). No entraré en detalles acerca de los objetos no equilibrados. Se hace muy dificultoso describir cada tipo de objetos sin tener el auxilio de ejemplos sonoros. Por otra parte, la complejidad de extensión del tema merece un artículo aparte.

62

Morfología de los objetos sonoros

Schaeffer denomina morfología a la operación de descripción de los objetos sonoros en su contextura interna. Los criterios son siete. Y serán ordenados en este texto conforme a la materia, la forma, la variación y al mantenimiento, como lo ha hecho M. Chion en su Guía del objeto sonoro (1983).

Criterios que describen la materia

Masa Como se ha dicho, la masa es la generalización del concepto de altura. Creo que es conveniente aclarar esta noción. Antes de Schaeffer - y todavía hoy- se decía que los sonidos pueden agruparse en sonidos de altura determinada y sonidos de altura indeterminada. Los sonidos de altura determinada serían pues, todos aquellos sonidos característicos, producidos por los instrumentos tradicionales a excepción de la mayoría de los instrumentos de percusión. Estos últimos, por ejemplo una sonaja o un platillo, serían, según esa clasificación, sonidos de altura indeterminada. Con la misma lógica se ha utilizado otra clasificación que define como sonidos musicales a aquellos que tienen una altura determinada y ruidos a los que no. Para los sonidos del primer tipo (altura determinada o sonidos musicales), tenemos mucho que decir; somos capaces de precisar la zona del registro en que se encuentran situados, y la altura según una escala de valores (do 4, sol 6 etc.). Este tipo de sonidos por lo general, en términos acústicos, corresponden a sonidos de espectro armónico, son bastante parecidos entre sí, (razón por la cual se pone de manifiesto el valor de altura). Dentro de la segunda categoría (altura no determinada o ruidos) se depositan, a diferencia de los anteriores, sonidos de las más variadas características. El uso de esta lógica de clasificación explica por qué los sonidos de un platillo, de un triángulo y de una maraca, siendo indudablemente muy distintos entre sí, hayan coexistido, durante largo tiempo, amontonados en el mismo desván. Dijimos que según su Masa los sonidos podían ser tónicos o complejos. Fácilmente al enfrentarnos a esta nueva –pero no tan nueva– clasificación, nos vemos tentados a acomodar las nuevas nociones a las viejas lógicas. Es cierto que lo anterior no es del todo falso, e incluso no está mal para comenzar, pero la noción de masa sería inútil si sólo se definiera de ese modo. Si así fuera, sería

63

una invención de sinónimos innecesaria. En todo caso, el concepto de masa puede ser, en principio, una herramienta para identificar, o poner de manifiesto, ciertas cualidades del sonido que hasta el momento se han tenido poco en cuenta. La inclusión de la noción de Masa sólo se justifica si la lógica que sustenta la clasificación es otra. La lógica de sonido - ruido, pone el acento en los sonidos de espectro armónico y les reserva, a los no armónicos, apenas un casillero. Cuando decimos que la Masa es la generalización del concepto de altura, nos referimos a que vamos a tener la intención de percibir qué cosa nos puede decir el sonido acerca de la altura, de qué modo cada sonido (cualquiera sea) ocupa el campo de las alturas; la manera en que se sitúa el sonido en ese campo más allá de sus características espectrales. La noción de Masa puede ser pensada como a una suerte de “anchura”. Los sonidos de masa tónica son algo así como un punto; se los puede situar muy bien (recordemos do4 etc); los sonidos complejos son menos precisos en su situación, pero no por ello dejan de ocupar el campo de las alturas. De hecho se puede reconocer cuál es la ubicación que tiene un sonido complejo en el registro (si es agudo, sobre agudo, grave y demás) y qué cantidad de lugar ocupa, es decir si su masa es más o menos estrecha o más o menos ancha. Schaeffer reserva las nociones de Emplazamiento y Calibre para tratar estos temas. Otra tentación sería acomodar las nociones de masa tónica y masa compleja a las nociones de sonidos de espectro armónico y sonidos de espectro inarmónico y bandas de ruido. Es cierto que en los sonidos de espectro armónico se va a percibir una masa tónica, pero muchos sonidos inarmónicos de componentes discretos también van a ser percibidos con una masa tónica. Para que una masa sea tónica, basta con poder “cantar” el sonido. Osea que “represente un punto” en el campo de las alturas. Es más, algunos sonidos según el contexto van a funcionar como intervalo o como “color”; tenderán a integrarse a estructuras escalares o a tramas “tímbricas”. Pensar la masa de un sonido en términos de anchura nos deja en condiciones de poder describir con mayor sutileza sus características. Otro aspecto que marca una diferencia con la lógica clasificatoria anterior a Schaeffer es la inclusión de la noción de variación en este campo. Es verdad que la noción de glissando forma parte del vocabulario musical desde hace ya tiempo. De todos modos la noción de masa variada en Schaeffer supera los términos restringidos de la noción de glissando y le reserva dos criterios aparte en su morfología que denomina Perfil de masa y Perfil

64

melódico. La Masa puede variar, no sólo en cuanto a su emplazamiento o tesitura, sino también en cuanto a su calibre (su anchura). Tipos de masa En la tipología de las masas Schaeffer va a incluir solo los casos en que la masa está fija. Es decir sonidos tónicos y complejos, fijos en la tesitura. A los sonidos de masa variable les reserva, como ya he mencionado, los criterios de Perfil de masa y perfil melódico.

Clases de masa Donde mejor se nos revelan las cualidades de la materia del sonido es en los sonidos homogéneos. Estos tienen una duración tal que permiten escuchar los detalles del cuerpo del sonido. Es común que los investigadores intenten aislar entre los múltiples objetos, aquel que mejor ponga de manifiesto lo que quieren saber. Esos objetos son en este caso los homogéneos. Esto significa que se intenta llevar el fenómeno a condiciones extremas; aislar el mejor contexto en que aparece el problema. En este caso ¿qué podemos predicar acerca de la masa de un sonido? Ahora la masa de un objeto se ha tornado ella misma objeto de estudio (unidad de análisis) acerca de la cual vamos a predicar algo, conforme a criterios determinados. Ya identificado el tipo de masa de un sonido, en este caso fijo; si la masa es tónica o compleja, podremos ser un poco más sutiles en la percepción de la Masa. Podremos apreciar una Textura de Masa. Veamos cuales son: Sonido Tónico. Es un solo “sonido”. Por ejemplo el de un instrumento tradicional. Grupo Tónico. Escucharemos no una, sino varias alturas bien definidas. Este es el caso del acorde. Estriado. Son sonidos ambiguos que según el contexto se percibirán como color o como intervalo. Por ejemplo las campanas de plancha los gongs etc. Grupo Nodal. Son una variedad de alturas vagas. Por ejemplo varios temblores de platillos en distintas zonas del registro. Sonido Nodal. Es una altura vaga o Masa compleja. Por ejemplo temblor de platillo en zona de tesitura. Timbre armónico Otro criterio es el Timbre Armónico. No hay que confundirlo con el timbre instrumental. En los sonidos provenientes de instrumentos musicales, el timbre

65

armónico corresponde al espectro de ese sonido (pensar en el timbre de las vocales). El espectro armónico no es en general el principal factor de reconocimiento de timbre instrumental. El timbre armónico es una cualidad de la materia sonora anexa a la masa. En los sonidos tónicos se puede distinguir muy bien un criterio de otro. En los sonidos complejos no es tan sencillo separar el timbre armónico de la masa.

Tipos de timbre armónico Existen dos casos: O bien la masa del sonido es una y el timbre armónico es también global, o la masa está dividida en distintas capas y al mismo tiempo puede, cada una de ellas poseer distintos timbres armónicos. Clases de timbre armónico Las clases de timbre armónico están vinculadas a las clases de masas: Tanto el sonido puro como el ruido carecen de timbre; su timbre armónico es nulo. Para las masas tónicas el timbre es tónico. Para los nodos, es decir grupo nodal y sonido nodal, el timbre es lo que no está descripto en la masa. Es algo así como un “resto”. Este resto es susceptible de un análisis posterior. En este caso, hablamos de timbre complejo. Otras veces el timbre está totalmente soldado a la masa. Hablamos aquí de un timbre continuo o confuso. Es el caso de los platillos por ejemplo. Para los grupos tónicos el timbre puede ser tónico o continuo. Para los estriados el timbre puede ser tanto complejo como continuo. Criterio de mantenimiento

Grano Si bien lo clasificamos dentro de los criterios de mantenimiento, el grano constituye también una cualidad la materia sonora. Podemos apreciar el grado de rugosidad del sonido tal como evaluamos el tipo de grano de la superficie de un objeto cualquiera. Un sonido, debido al mantenimiento de un arco, una boquilla o un redoble de baquetas, puede comportar una micro estructura que designamos con el nombre de Grano. Tipos de granos Digamos en principio que a los tres tipos de mantenimiento: continuo, nulo e iterativo, corresponden tres tipos de granos. Estos son los de frotamiento (Compactos), los de resonancia (Armónicos) y los iterativos (Discontinuos).

66

Clases de granos Es conveniente, escribe Schaeffer, hacer una descripción empírica de los tipos de grano tal como lo haríamos una superficie material (Schaeffer, 1988, p. 282). Se evalúa cómo se “escalona” cada tipo de grano (de resonancia, de frotamiento y de iteración). Para hacer más compresible las clases de grano se hace necesario que lo hagamos conjuntamente con la descripción de los géneros de Grano. Granos Compactos: un sonido de flauta presenta una banda de ruido muy apretada debido al aire necesario para mantener el sonido, que se encuentra bien diferenciada de su Masa. El grano de la flauta perceptivamente está muy próximo al producido por el frotamiento de un arco. Podríamos evaluar qué lugar ocupa este género de grano en la escala que va desde lo rugoso a lo liso, pasando por el mate. Granos Armónicos: Las notas graves de un piano presentan cierto centelleo. El sonido de un platillo, más allá de su Masa y muy próximo al Timbre armónico, nos hace oír también una suerte de rápido hormigueo. Podríamos evaluar que lugar ocupa este género de grano en la escala que va desde lo tembloroso a lo límpido, pasando por lo hormigueante. Granos Discontinuos: el batido de la lengüeta de Fagot en las notas graves. Los redobles con baquetas duras y los sonidos muy graves en general, presentan un tipo de grano regular muy particular. Podríamos evaluar que lugar ocupa este género de grano en la escala que va desde lo grueso a lo fino pasando por lo cerrado. En la práctica estos tipos de Granos se superponen y se combinan. Por ejemplo, una nota grave de piano posee tanto un tipo de Grano Armónico a causa de su mantenimiento, como un Grano discontinuo a causa de la zona del registro en que se localiza. Habría entonces géneros mixtos de granos: Entre los armónicos y los discontinuos: Discontinuos armónicos (golpes resonantes, chirridos, machaqueos). Entre los discontinuos y los compactos: Compactos discontinuos (redobles, zumbidos etc.). Entre los compactos y los armónicos: Compactos armónicos (frotamientos resonantes, crujidos murmullos. Marcha. Si bien la marcha está agrupada en el criterio de mantenimiento, se puede considerar que la misma también es una cualidad de la forma. Además de la percepción del perfil general del sonido, se puede apreciar cierta oscilación de nivel denominada marcha o movimiento. El caso más conocido es la resultante de una forma particular de mantenimiento denominada “vibrato”. Sin embargo existen otros sonidos, carentes de mantenimiento, en los cuales es posible

67

percibir esta oscilación de nivel. La marcha o movimiento seria, entonces, la generalización del concepto de “vibrato”. Criterios que describen la forma

Perfil dinámico Michel Chion escribe que el criterio dinámico, bastante inconexo, reúne aquello que concierne a la intensidad del sonido y en especial a los ataques (Chion, 1999, p. 318). En cuanto a la intensidad, el perfil dinámico representa la manera en ésta evoluciona en un objeto sonoro. Es necesario no confundir este criterio con

la

intensidad

absoluta.

Un

sonido

puede

iniciarse

bruscamente

e

ir

progresivamente decreciendo en intensidad, o puede tener un forma delta, entre otras. No se contempla, entonces, el valor absoluto, es decir, cuan “forte” o “piano” es un sonido, porque esto depende de las condiciones de escucha. Por ejemplo, la fuente del sonido puede estar situada a mayor o menor distancia de quien escucha. Esto va a producir que escuchemos el sonido con mayor o menor intensidad. Ahora bien, lo que no va a cambiar es la variación de la intensidad del desarrollo del sonido. El “dibujo” que resulta de las variaciones de intensidad del desarrollo del sonido, es en gran medida independiente de las condiciones de escucha. Esto es lo que nos permite –dice Chion– “(...) reconocer el timbre de un instrumento en una grabación o en una retransmisión radiofónica, sea cual sea el volumen sonoro elegido” (Chion, 1999, p. 319). La percepción de la dureza del ataque esta en relación a la pendiente de disminución dinámica.

Criterios que describen la variación de masa

Como ya se ha dicho en este artículo, Schaeffer reserva dos criterios especiales para describir los casos en que la masa de un sonido es variable. Uno de esos criterios es el perfil melódico, el otro el Perfil de Masa. Perfil melódico Este criterio da cuenta de aquellos sonidos en los cuales la masa evoluciona en el campo de las alturas. Es decir cuando varía su tesitura. Estas variaciones pueden ser discontinuas o continuas. Un claro ejemplo de variaciones discontinuas es la melodía. La melodía en este caso es concebida como un objeto

68

musical variado y no como la articulación de diferentes notas. Schaeffer en su intento de justificar la noción de perfil melódico de se remite a la historia de la escritura musical y en especial a la escritura neumática. Los neumas reflejaban los movimientos de la voz (excluyendo el valor de los intervalos, de la altura absoluta y las duraciones) y los gestos “quironómicos” “cuando la melodía presentaba melismas de dos, tres o cuatro notas sobre una misma sílaba”. Schaeffer concluye que durante varios siglos la unidad musical fue el “objeto musical variado y no su descomposición en notas” (Schaeffer, 1988, pp. 288-289). Estas variaciones sin duda están ligadas también al acento como al ritmo, “(…) así pues, los neumas han asociado varios rasgos y creado figuras plenas de sentido, surgidas de una morfología evolucionada” (Schaeffer, 1988, pp. 288-289) Luego se recurrió a letras para expresar valores y a neumas para representar objetos. Cuando esta escritura, por razones de operatividad, dio lugar a la escritura actual, subsistieron sin embargo las ligaduras de expresión. Pierre Schaeffer dice que existe un profundo conflicto entre dos maneras de representar los objetos musicales y concebir la música. Es decir la continuidad de las figuras (el gesto, identidad entre acción y percepción), y la discontinuidad de los valores métricos e interválicos. Esta distinción entre continuidad de las figuras y discontinuidad de los valores la encontramos en algunos trabajos de investigación acerca del desarrollo de la aprehensión de nociones musicales en el niño. Algunos de estos trabajos son realizados a partir de las escrituras musicales espontáneas de los niños, en especial, haciendo hincapié en el ritmo y la melodía (Bamberger, en Sinclaire, 1988). Perfil de masa Este criterio está referido a las variaciones de la “anchura”, es decir las variaciones que afectan al calibre de la Masa, es decir, la forma resultante de las variaciones de anchura de la masa. “Aculogía” Coexisten en el tratado una Metafísica; una teoría de las escuchas; una teoría del objeto de esa escucha y una teoría del valor. Lo que llamo metafísica schaeffereana, está representada por el golpe que Schaeffer asesta a la psicofísica de su tiempo. En especial al descubrimiento de que no hay una correspondencia término a término entre las señales físicas y los datos perceptivos. De allí se infiere en Schaeffer una metafísica en el sentido de que esboza un “perfil general de las relaciones del hombre

69

con el mundo”. Pero además, es una metafísica puesto que el Tratado de los objetos musicales se ubica literalmente “más allá de la física” (o más acá, según se lo mire). La teoría de las escuchas en este artículo ha quedado apenas señalada. Pero además, las conclusiones de Schaeffer respecto de las escuchas están a la espera de nuevos aportes, en especial, de la semiología. La cuestión del objeto sonoro es mucho más compleja. La publicación castellana de su Tratado es una versión reducida. Hay aspectos de la teoría del objeto sonoro que han quedado mutilados. En especial la dialéctica del objeto-estructura. En otras palabras, toda música implica un género de objetos musicales, esto es, objetos que comparten características comunes y en virtud de ello, hacen posible la emergencia de cierto valor. La música de la tradición occidental se ha conformado con objetos cuyo carácter fundamental es su alto grado de tonicidad, al tiempo que sus otras variables quedan relativamente neutralizadas. Esto posibilita la percepción de las diferencias de altura y en consecuencia la construcción de un determinado tipo de sistema de referencia. Cada sistema musical presupone, por lo tanto, la elección de cierto género de objetos musicales. Es posible confrontar objetos de un mismo género (distintos de los objetos utilizados por la tradición) para verificar qué valores ponen de relieve. Schaeffer no es sólo un autor. Y el Tratado de los objetos musicales no es una mera “fonética de los ruidos”, como algunos pretenden. Schaeffer es un productor de discursividad. Las preguntas que se formuló marcan, a mi juicio, un antes y un después respecto del estudio del sonido. Si se quiere avanzar en esta línea de investigación se hace necesario retornar una y otra vez a las preguntas que Schaeffer inauguró. Retomar esas preguntas es una condición necesaria para quienes estamos interesados en ir en busca de lo audible. El concepto de escucha reducida hace referencia a la “reducción fenomenológica”, de Edmund Husserl. Véase Libro III “Objetos y estructuras” del Tratado de los objetos musicales pp.159-169. El presente texto es una guía para orientar la comprensión de la taxonomía Schaeffereana. En especial, el texto estará basado en El Libro IV Morfología y tipología de los objetos sonoros y solfeo de los objetos musicales, perteneciente al Tratado de los objetos musicales en su versión española. Pp, 215- 294. Pierre Schaeffer y Guy Reibel. Solfege de l`objet sonore. Paris, Buchet/Castel. 1998. Esta obra contiene tres discos compactos con los ejemplos sonoros. Además esta edición de 1998 está traducida al castellano. Sólo doy ejemplos de los casos pertenecientes a

70

instrumentos musicales. Faltaría dar ejemplos de otras cadenas sonoras. El lector se encontrará con los recortes de objetos de todas las cadenas sonoras en: Pierre Schaeffer y Guy Reibel.1998. op.cit., pp 149-151, y en los ejemplos sonoros 14 al 22 del CD 3, adjuntado a esa obra. Para una mayor comprensión de la tipología se hace necesario que el lector disponga, al menos, de la versión castellana del Tratado de los objetos musicales. Para el caso de la Tipología, y con el propósito de comprender cómo Schaeffer organiza el cuadro clasificatorio, en la página 242 se encontrará con el “cuadro recapitulativo de la tipología”, que por razones de espacio no es posible reproducirlo en el presente trabajo. Schaeffer realiza un cuadro de doble entrada- una suerte de tabla de los elementosdonde cruza los siete criterios morfológicos (en las filas) con las categorías de tipo, clase, género y especie (en las columnas). El lector se encontrará con este “Cuadro de recapitulación del solfeo de los objetos musicales” en las páginas 290 a 293 del “Tratado...”. El término “Aculogía” fue acuñado por Schaeffer para designar una ciencia cuyo propósito es estudiar “aquello que el sujeto oye”. Si la teoría del objeto sonoro representa las relaciones “inter- objetos”. Es decir los tipos y clases de percepción, cualificación y diversificación de los criterios del objeto. La teoría del valor representa las cuestiones trans- objetos, ubicadas al el final del cuadro. Schaeffer indaga la relación que los objetos mantienen con las estructuras musicales. Es decir: el “salto” de lo sonoro a lo musical (ver Schaeffer; 1988: 292).

Tipos de Mensajes Acústicos (Henri Pousseur) “…los mensajes acústicos nos aportan una imagen de las cosas, una información sobre algunas de sus propiedades…”. Los mensajes acústicos pueden ser: a) No intencionales: es decir, no tienen la intención de comunicar, pero llevan con si una determinada información. Ej.: Los fenómenos naturales (lluvia, truenos, etc.); o los artefactos (autos, electrodomésticos, etc.) b) Intencionales: tienen la intención de comunicar.

71

Estos últimos se dividen en: a) Verbales b) No Verbales Y entre ambos esta la onomatopeya. El sonido suministra información a dos niveles: -Función como Índice: manifiesta sus cualidades Evocativas -Función con Materia: manifiesta sus cualidades Acústicas

A partir de estas se hace referencia a dos tipos de escucha: a) Escucha Ordinaria: Es el tipo de escucha que utiliza el sonido para informarse de sus causas. Esta causa pude ser visible, por lo que en este caso no aporta información adicional al objeto; o pude ser invisible, por lo que el sonido en este caso será nuestra mayor fuente de información. Este tipo de escucha, que es la más extendida, es la más susceptible a verse influida o engañada.

b) Escucha Reducida: Esta escucha afecta a las cualidades y formas propias del sonido. Califica a los sonidos independientemente de toda causa, sentido o efecto. La escucha reducida no se sitúa en la objetividad física o en la subjetividad absoluta, sino a una objetividad particular que surge de las percepciones compartidas.

Desde otro punto de vista, las estructuras sonoras o musicales, pueden crear sentido desde dos aspectos: a) Sintáctico-Formal: las estructuras se comunican a sí mismas, como han sido organizadas, como se articula su sintaxis. b) Simbólico-Inconsciente: reducción metafórica que da cuenta del valor afectivo, emocional, físico y estético del sonido. Esto sobre todo a partir de las sensaciones que las cualidades acústicas o relaciones sintáctico-formales del sonido provocan Niveles de Semanticidad “La eficacia de la comunicación sonora no solo depende de su denotación, sino también de la información que deviene con lo connotativo, de lo estructural y de lo contextual. Dicho de otro modo, en el diseño de la banda sonora será necesario

72

articular un sistema constructivo basado en un doble eje: por un lado aquellos factores que hacen a la relación audiovisual (eje vertical), es decir, inherentes a la síncresis; por otro lado aquellos factores que hacen a una articulación coherente entre las diferentes cadenas lingüísticas que configuran la banda sonora (eje horizontal) y que, como hemos dicho, constituyen para nosotros el aspecto central, su aspecto constructivo, “soporte” de lo narrativo y expresivo.” Sonorización

Ambientación: una forma de expresión que busca reflejar la imagen auditiva de algún lugar (un ambiente). Se priorizan aquellas propiedades sonoras que determinan condiciones circunstanciales de un medio y su ubicación; de forma tal que esta imagen sea lo más sugerente posible. Conformado por acciones sin rol protagónico, pero que brindan un marco necesario para ubicar en tiempo y lugar una o varias acciones principales. Son ejemplo de esto el canto del búho, que nos ubica en un momento de la noche. De las chicharras, que aluden a un momento del día, del año o determinadas condiciones climáticas. Los pájaros que sugieren la mañana, o los espacios verdes. El sonido del tránsito; ruido característico de los motores que definen una época o tipo de vehículo. Ruidos de aviones, de transportes, ruido de pasos, de gente, etc. La ambientación brinda un marco espacio-temporal; da contexto a la imagen, y genera un entorno propicio para el desarrollo de un relato. Actúa como fondo, sin que ocurran acciones demasiado relevantes que pueden asumir un protagonismo excesivo. No obstante, en algunos casos el fondo podría constituirse en figura. A modo de ejemplo, comparemos una fotografía de un paisaje con la de un primer plano de una persona con el mismo paisaje detrás. Sonomontaje: Puede ser tanto evocativo como no, y debe establecer en su interior una relación de contigüidad, de analogía, de oposición entre dos sonidos o dos estructuras. La lógica no se funda solo en aquella cualidad evocativa, sino más bien, en una relación acústica o estructural, es decir, en una relación par-par, por lo menos en el mantenimiento de un parámetro común entre dos sonidos, que no

73

necesariamente debe ser conservado en el par siguiente. Entonces presenta dos niveles de significación: el evocativo y el acústico. Música: No hay dependencia absoluta de lo cualitativo acústico del material. Las relaciones de los elementos están establecidas culturalmente; con un vínculo mayor, menor o nulo si se quiere, con lo cualitativo acústico o lo evocativo. El origen de esta estructura le es propio a cada cultura, grupo social o estrato cultural. No hay vínculo espectral, ni de frecuencia. Tipos de Sonomontaje Como ya se menciono, la lógica del sonomontaje no se funda solo en una cualidad evocativa, sino más bien en una relación acústica o estructural, es decir, una relación par-par, por lo menos en el mantenimiento de un parámetro común entre dos sonidos.

Existen tres tipos de sonomontaje:

Narrativo: Se establece una historia a través de una narración sonora (expresable en un guion) que garantiza la cohesión estructural. Las acciones poseen un rol protagónico; estas son jerarquizadas y de ese modo encausan el discurso. La gran diferencia con la ambientación sonora, la podemos encontrar en que en el sonomontaje narrativo posee un protagonismo a manera de figura-fondo, y la imagen es recreada a partir del discurso sonoro.

Poético: Se diferencia de la ambientación, en que los sonidos tienen una vinculación estructural. No hay una dependencia absoluta hacia lo evocativo, sino una relación cualitativa acústica del material. Poético-Narrativo: constituido con sonidos evocativos y no evocativos.

El Texto El texto es el soporte de la narración y el que posee (o en el que se hace recaer) la mayor parte de la carga de sentido.Las palabras forman imágenes mentales a partir de que aluden a la realidad (objetos, personas, situaciones, acciones, etc.) pero

74

también pueden generar imágenes ideales, ficticias, situaciones inexistentes. “Cabe entonces pensar que en el cine las palabras crean imágenes dentro de imágenes. Imágenes que se vinculan con otras imágenes (las visuales) para dar significados o significaciones más complejas o, en todo caso, de otro orden”

El Sonido El sonido es portador, a diferentes niveles, de una información que será la esencia de la comunicación. Estos niveles pueden agruparse en dos grandes campos. El semántico y el acústico. Nivel Semántico

-Índice Causístico: Considerar al sonido como índice, es decir que sea capaz de evocar. Es el sonido que surge de la relación causa-efecto, funciona como índice, es decir que da cuenta de la causa, indican el acontecimiento del cual forman parte. Es también el sonido que nos permite evocar una imagen fuera de campo.

Nivel Acústico

-Sonido Acusmático: el termino acusmático proviene de la técnica pedagógica utilizada por Pitágoras con sus discípulos. El hacía que sus alumnos lo escucharan detrás de una cortina para que prestaran mayor atención al contenido de sus palabras y no fueran dispersados por su imagen. A estos alumnos se los llamaba acusmáticos. Entonces el termino designa la situación de escucha en la cual se oye el sonido sin ver su causa. “Este tipo de escucha puede atraer nuestra atención hacia caracteres sonoros que la visión simultanea de las causas nos enmascara, al reforzar la percepción de ciertos elementos del sonido”, “la acusmatización aísla los objetos sonoros y los convierte en portadores de conceptos”. Es decir que nos acerca hacia la escucha reducida. Pasar de escuchar solamente las causas, a percibir las características acústicas del sonido, su masa, su textura, su velocidad, etc.

75

Cadenas lingüísticas “…en realidad no percibimos los objetos, son las estructuras que los incorporan”. Estas estructuras son las cadenas de lenguaje, que conforman el total sonoro que somos capaces de percibir. - Naturaleza: que incluye tanto los sonidos producidos por los fenómenos naturales (lluvia, viento, truenos) - El Habla: con sus variantes. - La Música - Sonido de los Artefactos, también denominados “ruidos”, que producen sonido sin ser ese su fin. 4.c

Sobre espectro morfología

La teoría tipo-morfológica de Pierre Schaeffer, a pesar de que no constituye realmente una metodología analítica sino más bien compositiva y teórica, ha sido utilizada por muchos como un punto de partida para el análisis de música electroacústica. En su propuesta, Schaeffer identifica tres tipos de objetos sonoros, presentes en el discurso musical, de acuerdo a criterios topológicos y morfológicos los cuales indican los tipos generales de estos objetos y sus características respectivamente. En esencia, los tres tipo de objetos sonoros propuestos por Schaeffer son los continuos, los iterativos y los impulsivos. Esta clasificación claramente se basa en las características morfológicas de los sonidos, y será extendida más adelante por Smalley. Schaeffer también considera tres planes de referencia a través de los cuales los objetos sonoros son descritos y clasificados: 1. Plan melódico o de textura: la evolución de las alturas en el tiempo. 2. Plan dinámico o formal: los parámetros de la intensidad en el tiempo. 3. Plan harmónico o tímbrico: las relaciones entre los parámetros anteriores y sus componentes espectrales. Cada plan de referencia presenta diversos sistemas de clasificación de acuerdo a los tipos de movimientos melódicos, dinámicos y tímbricos. Además, Schaeffer establece cuatro clases de criterios de clasificación: material, mantenimiento, forma y variación, los cuales se correlacionan con las características morfológicas de los objetos sonoros.

76

Denis Smalley desarrolló el concepto de espectro-morfología como una herramienta para describir y analizar experiencias auditivas (Smalley 1986, 1997). Las dos partes del término se refieren al sonido (espectro) y la evolución de su molde o forma de onda (morfología) a través del tiempo. El espectro no puede existir sin la morfología: algo tiene que ser moldeado y debe poseer también contenido sonoro. Desde un punto de vista analítico, la propuesta de Smalley es extremadamente importante, dado que en los primeros treinta y cinco años de actividad electroacústica no fue propuesta ninguna metodología comprehensiva para el análisis. La teoría de Pierre Schaeffer sobre tipos morfológicos, o tipomorfología, fue el intento más serio. La espectro-morfología es más exhaustiva, puede ser aplicada a distintos contextos musicales y extiende las ideas de Schaeffer al incluir estructuras jerárquicas y otras propiedades como movimiento y espacio (Camilleri 1993). La espectro-morfología es una herramienta descriptiva basada en la percepción auditiva. Este enfoque considera modelos y procesos espectrales y morfológicos y provee

un

marco

de

referencia

para

entender

relaciones

estructurales

y

comportamientos sonoros experimentados en el flujo temporal de la música (Smalley 1997). El marco teórico de la espectro-morfología se articula en cuatro partes principales:

los

arquetipos

espectrales,

morfología,

movimiento

y

procesos

estructurales. A continuación se detallan las primeras dos partes, dado que son las más relevantes para efectos de esta tesis. Smalley identifica tres tipos básicos de espectros: nota, nodo y ruido. La nota corresponde a un tono musical normal, con una frecuencia fundamental y armónicos. Un nodo corresponde a una densidad de sonido más compleja, donde la identificación de un croma o altura determinada es difícil. Un ruido es una densidad sonora extremadamente comprimida donde no hay identificación de una altura o croma posible. Smalley va mucho más allá de las definiciones de Schaeffer al designar diversos arquetipos morfológicos y crear una serie de modelos obtenidos a través de diversas transformaciones tales como la retrogradación. Pueden discernirse tres arquetipos básicos en las fuentes de sonidos: ataque impulsivo, ataque resonante y continuo graduado.

77

El ataque impulsivo corresponde a un rápido impulso que es inmediatamente terminado. En este caso el inicio del sonido es también su final. La atención se enfoca por completo en el ataque súbito. El ataque resonante es modelado en sonidos cuyo ataque impulsivo es extendido a través de una resonancia (como por ejemplo una cuerda pulsada o una campana) para luego decaer ya sea en forma rápida o graduada dependiendo del caso. La atención se enfoca en la sorpresiva aparición y en la forma en que ésta se convierte en un sonido sostenido. El tercer arquetipo es un continuo graduado el cual es modelado en sonidos sostenidos. El ataque es paulatino, dando paso a un comportamiento continuo que luego decae en forma también progresiva. En este caso el ataque es percibido como una influencia mucho más débil que en el caso de los otros dos arquetipos. La atención se enfoca principalmente en la forma en que el sonido es mantenido. Desde estos tres arquetipos principales puede generarse una sutil variedad de articulaciones temporales. Smalley extiende estos arquetipos en una mayor cantidad de modelos morfológicos. Estos modelos permiten lo que él denomina modulación morfológica, dado que proveen un marco de referencia más completo y versátil para la clasificación de unidades morfológicas estructurales. No obstante, estas morfologías no son solamente objetos aislados sino que pueden enlazarse y mezclarse formando cadenas, creando así objetos híbridos. Thorensen (2007) extendió las teorías espectro-morfológicas de Schaeffer y Smalley y propone una clasificación de los objetos sonoros en la cual en términos del espectro, los objetos pueden clasificarse de acuerdo a la distribución de su energía y en el tiempo, en relación a su evolución o articulación de la energía. Su principal aporte consiste en el refinamiento de los modelos espectro-morfológicos. Desde el punto de vista temporal considera modelos de tipo vacilante, estratificado, sostenido, impulsivo, iterativo, compuesto y acumulado. En la dimensión espectral hay dos grandes clasificaciones: estable e inestable, las que a su vez de subdividen en de altura definida, distónicos y complejos o sin altura definida. La combinación entre estas dimensiones temporales y espectrales da origen a una gran variedad de modelos espectro-morfológicos, muy útiles de aplicar en el análisis.

78

Análisis basado en conductas auditivas

Delalande (1998) hace una crítica explícita de la espectro-morfología de Smalley. De acuerdo con sus propuestas, hay un tipo de análisis simplemente inaceptable: uno que apunte a demostrar lo que la música es, o cuál sea la forma o la estructura. En consecuencia, uno debe descartar la ilusión de un análisis único y definitivo. Delalande enfatiza que al analizar música electroacústica (o incluso un sonido medianamente complejo) es siempre posible revelar una infinidad de características y distintas configuraciones de morfologías. Esto no sólo se aplica a todas las piezas de música sino también a todos los objetos sonoros. Un análisis siempre implica una reducción. Sólo algunas características y configuraciones son seleccionadas de entre todas las posibles. La pregunta del objetivo del análisis y la pertinencia de las características en relación con este objetivo es, por lo tanto, evadida. Como solución a esto, Delalande propone el curso de acción opuesto. El objetivo del análisis, según sus ideas, es revelar las elecciones (implícitas o explícitas) y acciones del compositor, o explicar los comportamientos auditivos de los receptores, o ambos al mismo tiempo. Solamente después que un objetivo analítico ha sido elegido es posible definir un criterio de pertenencia. En un nivel general y teórico no hay razón alguna para que las unidades pertinentes coincidan con unidades espectro-morfológicas. En sus análisis, Delalande realiza en forma separada análisis taxonómicos, enfáticos y figurativos de la misma pieza. Los resultados son totalmente distintos, pero complementarios. Cada comportamiento da su propia forma a los objetos sonoros. Delalande entrega dos nociones fundamentales de pertinencia y de conducta; la pertinencia, en cuanto permite explicar el “punto de vista” de alguien sobre algo: un rasgo es pertinente para alguien cuando, de entre todos los rasgos posibles, elige alguno que le permite describir un objeto desde un ángulo particular. En cuanto al término conducta, éste designa un conjunto de actos elementales coordinados por una finalidad; la conducta de escucha será aquella que determina la estrategia del oyente, sus observaciones sobre unos aspectos y no sobre otros, su acomodación a lo nuevo que llega y a lo que ya ha oído, y también la que le provocará sensaciones o emociones que a su vez reforzarán y reorientarán sus expectativas (Alcázar 2006).

79

Altamente influenciado por el enfoque de Delalande, Alcázar (2006) propone un método de análisis basado en los datos obtenidos mediante la exploración del fenómeno de la escucha de un grupo de sujetos. Mediante este enfoque se busca precisar diferentes puntos de vista o estrategias de escucha que puedan proporcionar criterios para el análisis de la obra desde distintos ángulos o puntos de vista. También se pretende detectar los aspectos propios de la música que puedan generar tales conductas auditivas en los sujetos. Otras iniciativas relacionadas con este tipo de análisis incluyen proyectos como el de intención/recepción (Landy 2006), el cual implica introducir obras electroacústicas a distintos sujetos y evaluar sus experiencias auditivas. Estas respuestas son monitoreadas a través de sesiones repetidas de escucha de las obras y mediante la introducción de las intenciones de los compositores ya sea través de los títulos de las obras, elementos que los compositores quisieron comunicar o elementos propios del proceso compositivo. El objetivo principal de este proyecto es investigar el rol de la familiaridad con el lenguaje musical electroacústico al acceso y apreciación del mismo, y el nivel en el cual actúan la intención del compositor y la recepción por parte de la audiencia en el caso particular de la música electroacústica. En la obra Ahora de Iván Pequeño existe texto recitado en español y francés. El fragmento contiene múltiples instancias de texto en francés. Dependiendo de la familiaridad del auditor con dicho idioma, se adoptarán estrategias distintas en la audición. Quien entienda francés hablado posiblemente centre su audición en el proceso de reconocer el contenido de lo narrado, mientras un auditor no familiarizado con el idioma, es más probable que se centre en los aspectos espectro-morfológicos del sonido producido.

Análisis del movimiento

El movimiento en la música electroacústica merece un tratamiento especial. En general, tal como argumenta Kendall (2007), los enfoques espectro-morfológicos asumen que la música es movimiento. La mayoría de los análisis de música electroacústica publicados hasta la fecha ignoran totalmente el fenómeno del nomovimiento o inmovilidad.

80

La inmovilidad se da mucho en la música del modernismo temprano, en autores como Stravinsky o Varèse (Kendall 2007). En su artículo, Kendall realiza un análisis del Poème Electronique de Varèse, donde queda manifiestamente claro el rol fundamental del concepto de inmovilidad inherente a esa obra. En esta obra en particular, y también en forma general, el concepto de inmovilidad se encuentra muy ligado al de yuxtaposición. La yuxtaposición se constituye por relaciones percibidas entre sonidos en el contexto de una composición. No es sólo un producto de procesos perceptuales tales como los flujos auditivos (Bregman 1990). Tampoco es un sinónimo de contraste. Mientras la yuxtaposición claramente necesita de contraste, en adición requiere que los elementos contrastantes se entiendan como divorciados entre sí. Estos elementos no deben ser meramente diferentes, sino claramente disjuntos. Por la naturaleza propia del material sonoro, la yuxtaposición es algo bastante común en la música electroacústica. Al tener la posibilidad de utilizar variados y muy distintos materiales sonoros, el concepto de elementos divorciados es relativamente fácil de lograr. Por lo general se asume que el análisis debe dar cuenta de las relaciones entre elementos musicales. Cook (1998) entiende el análisis como un compromiso con la idea de percibir la música como una serie de elementos interactuantes. El análisis musical sería por lo tanto una actividad de descripción de las posibles relaciones entre esos elementos, relaciones que en conjunto caracterizarían cada obra en sí (Aguilar 2006). Pero en el caso de la yuxtaposición, esta afirmación puede carecer de sentido. La yuxtaposición intenta posicionar elementos distintos sin establecer conexiones o relaciones entre ellos. En la idea de la yuxtaposición está implícita la idea de la negación de la direccionalidad. Análisis del espacio

En la mayoría de la música electroacústica, el espacio juega un rol fundamental. Hay mucha música compuesta especialmente para sistemas multicanales, e incluso las obras creadas en formato estéreo, son usualmente especializadas por los compositores al momento de su presentación. La consideración del espacio, es por

81

ende, algo importante en el análisis de la música electroacústica. Smalley argumenta que la experiencia espacial de la música electroacústica es uno de los aspectos particulares que ningún otro arte musical puede ofrecer en tal variedad y viveza, lo que hace única a este tipo de música (citado en Kendall y Ardila 2008). Sin embargo, se carece de un vocabulario definitivo y comúnmente aceptado para describir la especialidad en la música electroacústica. No sólo falta un vocabulario para describir los atributos espaciales de fuentes sonoras individuales, sino que también para describir como estos atributos son partícipes en la expresión artística (Kendall y Ardila, 2008). Al respecto, en su artículo, estos autores proponen una terminología clara y precisa sobre éstos conceptos, de manera de contribuir a un léxico analítico que considere aspectos sobre la especialidad. 4.d

Intermedios entre el sonido y la música

Paisaje sonoro

Según Jorge Martínez Ulloa, musicólogo y compositor, académico e investigador del departamento de música de la Universidad de Chile y Católica de Valparaíso; en general se entiende por paisaje acústico un conjunto de variadas manifestaciones accesibles a/desde nuestra sensibilidad y que, rodeándonos, son factibles de ser comprendidas e integradas como un horizonte audible. Estas sensaciones con el tiempo serán transformadas a través de un proceso cognitivo como señales. No existe el silencio más que como una posibilidad mental, pues se supone que siempre oímos, pero no todo lo oído es escuchado. Existe un llamado ruido de fondo, una especie de continuum acústico indistinguible y que, finalmente dejamos de oír, es decir, deja de aparecer en nuestra mente. Toda interrupción de aquel “ruido de fondo” se toma como un atisbo de geto acústico que irrumpe la continuidad. Es en ese momento cuando comenzamos a tratar de definir “lo acústico”, en donde un algo que rompe la continuidad y atrae nuestra atención, indicando que se requiere mayor y mejor esfuerzo interpretativo en esa dirección. Aquel proceso es denominado “substitución de primer orden”.

82

En la primera substitución la memoria sensible del gesto, es reemplazada por una representación de éste, una imagen. En la segunda substitución, (construida sobre la imagen mental del gesto) comienza a delinearse, por vía de la atención consciente, una ordenación de trazos distintivos del gesto que viene a ser una reestructuración del gesto primero en una serie más o menos ordenada de trazos distintivos. Esta operación de descomponer la experiencia casi directa de trazos autónomos y variables nos entrega lo que llamaremos “sonido”, el cual en su producción es decididamente un acto mental y cultural. “Algo” rompe el silencio (compuesto básicamente de un ruido de fondo no articulado y sin sintaxis que podemos llamar ruido a secas por redundante que nos parezca), nos dice Sergio Rojas, doctor en literatura de la Universidad de Chile, magíster en filosofía de la Universidad Católica y académico del departamento de teoría e historia de las artes de la facultad de artes de la Universidad de Chile. Ese “algo” infiere directamente en las substituciones de 2do grado del gesto primero integrable en teoría y sintaxis. Pero ¿En qué condiciones sería posible escuchar el ruido en el sonido? Propongo iniciar esta reflexión con la siguiente cuestión: ¿Qué es lo contrapuesto al ruido? Creo que aún considerando la posibilidad de que el ruido sea sólo un concepto, podremos afirmar que lo radicalmente opuesto al ruido no es el sonido musical, si no el silencio. Por cierto, un antecedente fundamental respecto al silencio lo constituye John Cage, autor de la obra 4:33, cuya partitura se limita a indicar al intérprete la ejecución de cuatro minutos y treinta y tres segundos de “silencio”. En 1951 el músico visitó la cámara acústica de la universidad de Harvard con la finalidad de obtener una perspectiva de lo que podría considerarse como “silencio total”. Sin embargo, una vez en la cámara anecoica, se dio cuenta de que allí en donde se suponía que no escucharía nada, o mejor dicho, donde Cage esperaba escuchar el silencio, percibía todavía sonidos: su sistema nervioso, el respiratorio y los latidos de su corazón. Por supuesto que esta experiencia vino a demostrarle que, en sentido estricto, era imposible percibir el silencio. Así que el compositor lo expresó de la siguiente manera: “El significado esencial del silencio es la pérdida de atención (…) el silencio no es acústico. Es un cambio de mentalidad. Es solamente el abandono de la intención de oír. Dediqué mi música a este cambio (al silencio), mi trabajo se volvió una exploración de la no-intención”. (La filosofía Zen en el trabajo de John Cage como generador de

83

4¨3”, de David Martín Jiménez, para técnicos estructurales. Universidad Nacional autónoma de México). El silencio es, pues, un estado subjetivo de la atención, en que – podemos conjeturar- la conciencia se vuelve sobre sus propios procesos “internos”, suspendiendo no solo el trato acústico con lo exterior, si no interrumpiendo el trato acústico en absoluto. Cabe preguntarse si esto consiste en concentrarse en un contenido de conciencia o más bien en su contrario, a saber, en ensimismarse hasta el punto de trascender incluso todo contenido ideológico. El punto es que, se trate de reflexión o de meditación, el silencio como negación material del sonido no existe. Volviendo a nuestra pregunta entonces ¿es posible escuchar el ruido en el sonido? Si aceptamos que el ruido en si mismo no existe, entonces el sonido corresponde siempre a una especia de “modulación” acústica subjetiva de la materia sonora. Y sin embargo el sonido, “algo” oído. Es decir, en el sonido, algo ha devenido, y no solo en cuanto a que éste tiene una causa objetiva determinada, sino en la medida en que una determinada materia sonora ha devenido sonido. Entonces, el ruido es un concepto, propuesto para pensar la materialidad no procesada del sonido, el coeficiente de resistencia a la articulación significante del sonido. De esto obtenemos 2 ideas: - El ruido solo puede tener lugar en el sonido. - En la música emerge el sonido, y en el sonido pues el ruido. Además según Reiner Krause al analizar músicos como Cage se desprende que al trabajar en una instalación sonora, no solo creamos una relación entre el espectador con el material sonoro, si no con su entorno; el espacio arquitectónico. Ambiente y paisaje sonoro Viene a ser una ordenación, aunque sumaria, de objetos percibidos. Paisaje sonoro es más bien cada objeto más definido, algo más autónomos de los procesos de sensibilidad atenta. Formas de comportamiento de la obra de arte sonoro

1) Enfriamiento suspensivo: El dispositivo de la obra genera su propio estatuto; aséptica y distante; objetiva. Verificable en una dinámica de la exploración sensible más que en la introspección emotiva.

84

2) Progresión indefinida del vector material: En una forma que comporta la dessublimación de lo humano y la extensión de este a escalas supra humanas. 3) La apertura de la obra tiene una procesualidad orgánica y biofísica: El devenir cuerpo, devenir organismo, es un correlato del devenir materia. Lo humano tan propio de lo musical, es extendido y desagregado en una discursividad propia y cuyos fragmentos son apenas intravistos. 4) La obra se configura como un experimento estético: La obra se consuma experimentalmente, pudiéndose localizar paradojas que son implícitas en el soporte de la misma. 5) Carácter implosivo de la obra: La que constituye en una mónada cuyo sentido se abre hacia su interior, en una forma, que recuerda la auto similitud del dispositivo de poder en la acepción de Agamben. Dramaturgia y sonido

Mauricio Barría, dramaturgo y teórico del teatro, académico de las escuelas de teatro de la Universidad de Chile y ARCIS nos acerca al intermedio entre la dramaturgia y sonido. Nos habla del vínculo entre el teatro, las palabras y el sonido – Sonido sin confinamiento semiótico. ¿Es posible que el sonido de las palabras (texto dramático) conserve su autonomía cualquiera que sea su puesta en escena? Artaud dio el paso para distintos papeles para la palabra y sus posibilidades (y sobre sus límites): 1) Crítica al diálogo conversacional (Harold Pinter) 2) Radicalización del silencio (Samuel Beckett – Hainer Müller) 3) Transformación del metalenguaje en meta teatralidad (Peter Handke – Thomas Bernhardt) Finalizar el modelo fonologocéntrico del lenguaje, en donde el lenguaje se limitaba como un vehículo de transmisión de significado, en desmedro de sus valores sensoriales. Apenas a operaciones de versificación y prosodia más o menos estandarizadas por parte de Maeterlink, García-Lorca o Pessoa; juegos lógicoformales, mezcla de registros del habla y a la transgresión de las situaciones de enunciación (teatro del absurdo).

Así, el lenguaje, por básico que se manifestara

debiera incluir fonemas, entonaciones, timbres y un tempo (Veltruski, 1989).

85

CAPITULO 5: DESARROLLO PRÁCTICO

5.a

Introducción

La obra “Fauna” desde el punto de vista de la forma es una obra electroacústica que funde los sonidos directos proporcionados por la grabación in situ de los intérpretes de danza con samplers (cuerdas, maderas, filtros, radiofrecuencias), voz y sonidos de percusión procesados. La obra Fauna está supeditada a 3 polos de atención en todo orden de cosas (vestuario, iluminación, escenografía, cámaras, movimientos, accesorios, música, sonido, entre otras), delimitando el comportamiento instrumental y los planos sonoros: El primero tiene estricta relación con buscar lo natural en lo artificial. Toda esta búsqueda de artificios para recrear esa naturalidad recae en el uso de filtros, pitchs, ecualizadores y procesadores de dinámicas para generar en un sampler una versión alienada de su sonoridad. El segundo apunta a la destrucción de esta artificialidad el cual queda evidenciado en la ausencia de música en la banda sonora dejando solo el audio prácticamente en crudo (salvo por la compresión y maximización realizada en el proceso de generar el Layback master) del sonido directo en la escena de la destrucción del set. Y por último una tercera en una búsqueda de salir de ese mundo de artificio con la aparición de un material no diegético de una obra de Chopin, la cual irrumpe dramáticamente en el flujo que se estaba gestando en la banda sonora. La disposición del registro de la obra está delimitada por los filtros usados, los cuales tienden a negar los registros naturales de los samplers de maderas involucradas (fagot, clarinete en Sib, flauta en Sol) cuerdas (violín, viola, violonchelo), piano (Grand, 2 pedales), ensamble de percusión, las sopranos y los mismos sonidos directos, todos ellos, procesados. Estos filtros atacan la estructura de la envolvente de cada uno, tendiendo, insistimos, a cambiar el timbre específico de cada una de las células sonoras. Como recursos compositivos relaciona el comportamiento de la envolvente del sonido directo con el comportamiento del “accidente sonoro”, ícono musical de la obra “128 erfüllte augenblick” de Mathias Spahlinger. Además de las citas en un primer caso

86

melódica por parte de “Latente”, obra de Pablo Aranda (ambas con masas variadas y facturas iteradas) en un segundo caso de texturas con las obras “Metallics” de Yan Maresz y “Allegro sostenuto” de Helmut Lachenmann. Para ello, se toman muestras de sonido directo durante el rodaje de la obra Fauna proveniente de la ejecución y la interacción con la escenografía por parte de los intérpretes y del coreógrafo. Estas luego se procesan, por medio de filtros, compresores de dinámica y ecualizadores para lograr acercarlos a las texturas buscadas. Ya moldeadas estas son usadas como un instrumento más que sumado a trabajos de percusión y voz pasan a formar parte de la banda sonora en algunos casos como sonidos congruentes, incongruentes, sincrónicos y no sincrónicos. Todo eso conformando la diégesis de la obra. La parte no diegética

tiene que ver con la terca polaridad que observábamos

anteriormente y está sostenida en la obra de Chopin “Nocturno nº 20” en C# menor”. Todo este proceso es la génesis del material en la pieza. El comportamiento general de la sonoridad es un trabajo más bien homogéneo, lleno de pequeños detalles pero en un marco global que lo envuelve, de orden más bien simultánea y fraseológica. La mayoría de los enlaces y su relación con lo visual van yuxtaposicionados, tanto por imbricación y Morphin y por superposiciones logrando densidades cronométricas más bien definidas. La densidad polifónica es más bien plana a la hora de mezclar sonidos más bien cercanos a la timbrística natural de un instrumento y los más cercenados por el procesado electrónico.

5.b

Documentación aplicable

Desde el punto de vista de documentos y partituras, vale la pena que nos detengamos en lo relacionado a los autores mencionados y las respectivas obras en donde están fundamentados estos materiales. Allegro sostenuto, música para clarinete, violoncello y piano – Helmut Lachenmann

87

Fig. 46. Primera página del Allegro sostenuto de Helmut Lachenmann.

Lachenmann ha descrito sus composiciones como música concreta instrumental (a partir de la música concreta de Pierre Schaeffer), lo cual implica un lenguaje musical que abarca la totalidad del mundo sonoro hecho accesible

mediante

técnicas

interpretativas no convencionales. Fig.

47.

Detalle

del

Allegro

sostenuto de Helmut Lachenmann, en

donde

observamos

masas

tónicas por parte del clarinete, impulsiones por el cello y masas complejas en el piano.

88

Esta obra recoge parte de sus trabajos anteriores en cuanto a técnicas de ejecución, colores armónicos y estéticas sonoras: Wiegenmusik para piano (1963), Pression para violoncello (1969-70) y Trío fluido para clarinete, viola y percusión (1966-68). La superposición de diferentes objetos y estructuras musicales nos dan como resultado la creación de piezas musicales que superan la condición de suma de componentes; articulaciones, dinámicas, el gesto y su remanente conjugado con las resonancias. El principal gesto es un impulso sonoro de nota tenida, la cual va acompañada

de

un

accidente sonoro, el cual deja una estela de su sonoridad en el espacio pedal (en

debido de

caso

a

armónicos de

llevar

piano) o de el release natural

de

la

envolvente

de

cada

instrumento entorno,

en

el

haciendo

alusión a ese enfoque Schaefferiano (sampler

más

instrumentos, respectivamente). Fig. 48. Enfoque Schaeffereano en el Allegro sostenuto de Helmut Lachenmann.

En el cuadro superior tanto como en los inferiores podemos observar el manejo de la célula musical descrita anteriormente. En estos casos el material en piano se presenta no como un acorde si no como una polaridad situada en un registro en especial por medio de clusters.

89

Fig. 49. Detalle de las masas complejas y sobre el comportamiento de impulsiones en el Allegro sostenuto de Helmut Lachenmann.

Ahora bien los procesos de modificar la envolvente

por

procesos

de

síntesis,

Lachenmann los propone desde un punto de vista instrumental y efectista, irrumpiendo en el timbre natural del sonido de los instrumentos involucrados. Por otro lado a través de ascensos y descensos conjuntos con formato de glissando entre los instrumentos logra ampliar el registro de la nota tenida citando el proceso de modulación de frecuencia (FM) bajo el ala de la micropolifonía. Fig. 50. Detalle sobre el comportamiento de impulsiones del piano en el Allegro sostenuto de Helmut Lachenmann.

Fig. 51. Pasaje que nos muestra procesos de modulación de frecuencia desde un punto de vista instrumental por medio de la micropolifonía en el piano y el clarinete en el

Allegro

sostenuto de Helmut Lachenmann.

En todas las partituras anteriores correspondientes (salvo en un detalle para el piano) vemos dispuestas desde arriba hacia abajo 2 pentagramas para clarinete (B), 2 para el violoncello y 4 para el piano con un amplio registro.

90

Hablando del mismo Lachenmann y de su propuesta efectista, para invocar la libre manipulación de la envolvente sonora por medio de la síntesis, propongo sumar a esta documentación extractos de un análisis visto en clases de composición de la pieza Pression para violoncello. En ella podemos observar diferentes técnicas para llevar el sonido y timbre clásico de este instrumento mucho más allá del enfoque tradicional.

Fig. 52. Detalle de las indicaciones para el solista en violoncello en Pression de Helmut Lachenmann.

Esta obra gira entorno a los diferentes tipos

de

distintas

presión

ejercidos

posiciones

del

en

las

violoncello:

tastiera, tasto, flautado, al ponti y sulponti; rasguños y rasgueos sobre la superficie de madera; rebotes del arco sobre el puente; sobre como llevarlo al límite de su sonoridad nuevamente evocando la alteración de envolventes, aplicaciones de distorsiones y otros filtros (elementos Schaeffereanos) con recursos

acústico-efectistas

en

el

instrumento.

Fig. 53. Detalle de las indicaciones para el solista en violoncello en Pression de Helmut Lachenmann.

91

Fig. 54. Detalle de las indicaciones para el solista en violoncello en Pression de Helmut Lachenmann.

Metallics – Trompeta + dispositivos electrónicos – Yan Maresz

Fig. 55. Primera página de la partitura de Metallics de Yan Maresz.

Esta obra está hecha para trompeta con 4 sordinas (plunger, Bol o cup, Wawa o harmon y whisper) más 1 sordina para 1 momento en específico (Straight), de la mano con la electrónica, la cual es la que nos atañe un poco más debido al uso de elementos como chorus, delay, reverb,

distorsión

(por

feedbacks),

armonizadores y filtros. Existe además la versión definitiva que posee una forma

de

ensamble

de

orquesta

contemporánea más trompeta solista. El concepto surge de Metal X en donde la

X

nos

acerca

a

un

mundo

92

desconocido, una alquimia del sonido, intersección con mirada entre lo real de lo acústico y lo irreal de la electrónica. La obra comienza sin sordina con 1 sola nota, clara,

la

cual

va

transformándose de a poco hacia

un

evento

ruidoso.

Contamos entonces con una célula, la cual se va volviendo una estructura, en donde nos apoyamos de las sordinas para demarcar los cambios en el progreso del proceso.

Fig. 56. Plano esquemático del comportamiento de Metallics de Yan Maresz.

Fig. 57. Flujo de repeticiones enpor parte de la electrónica del material que venía anteriormente haciendo la trompeta en Metallics de Yan Maresz.

Aplica filtros por formantes dándole a la trompeta el sonido

de

cómo

estuviera

usando

si una

sordina, bajo la siguiente estructura por zonas yendo desde el sonido al ruido. El sonido sincretiza

de con

viento un

lo filtro

resonante más ruido rosa.

93

Fig. 58. Detalle de la segunda parte de la obra en donde Maresz incluye una fotografía de la señal electrónica y sobre como ésta debe comportarse en cuanto a su masa y factura. 5.c

El

Procedimiento

procedimiento

se

desglosa en: captura de sonido directo durante el rodaje, captura de audio y video, limpieza del audio,

selección

de

samplers con los cuales trabajar, aplicación de procesadores

de

dinámica, filtros y otros elementos, mezcla/composición directa en el software (Pro Tools), grabación de voces y masterización. Captura de sonido directo

La práctica se realizó chequeando el espacio, es decir, observando cuidadosamente las condiciones acústicas de la sala a grabar, como atenuar posibles reverberaciones y sonido no deseado (grabar desde ciertos ángulos para evitar reflexiones tempranas de vectores de sonido); aparte del hecho de haber dejado conversado con el coreógrafo

94

para determinar en que sectores estarían los intérpretes y con el director sobre la iluminación, para no entrar en escena (encuadre), a través de un mal movimiento o bien por la sombra. Un detalle no menor era la tremenda reverberancia natural del lugar (Perrera arte), otorgándole un gran remanente a la forma envolvente del audio.

Fig. 59. Espacios de Perrera arte, galpón usado para la grabación de Fauna.

Luego se prosiguió con revisión de cables

(balanceados),

micrófono

(shotgun unidireccional), fonos (semi cerrados) y que estos estuvieran 100% operativos para poder así probar y ajustar niveles de entrada de la cámara y de salida a la cinta miniDV (digital), soporte físico del material audiovisual.

Fig. 60. Instante de grabación de sonido directo realizada por Tomás González.

Una vez a punto todo lo previamente visto, se procedió a grabar bajo constante monitoreo. Este método se aplicó en cada una de las sesiones del rodaje en donde estuvo involucrado el sonido directo. En más de alguna ocasión se debió grabar sin

95

caña debido a lo incómodo de su tamaño para ciertos cuartos o espacios de menor tamaño.

Fig. 61. Detalle del proceso de captura de sonido directo. En este caso sin uso de boom pole o caña debido a condiciones de espacio. Captura de audio y video

El sistema de captura de video y audio se realiza por medio de conectar la cámara a una tarjeta de video y de sonido instaladas en un computador capacitado (Con un procesador de doble núcleo o superior y con más de 2 GBs de memoria RAM) las cuales funcionan como un conversor de datos tanto análogo digital como entre los mismos códigos digitales. La idea se centra básicamente en transformar esta información en un lenguaje de códigos binarios, codificado en un formato .mov (nativo de Quicktime; software de edición de video), el cual será capaz de ser leído y modificado por los softwares pertinentes a la edición de material audiovisual. En este caso se rescató a través del Software Avid Final Cut 9 en un Mac book Pro. Luego se hizo envío del audio para la libre manipulación del a través de un archivo .aiff (sigla de Audio Interchange File format, archivo nativo para guardar formatos de audio en computadores personales tanto Mac como Amiga) al músico.

Limpieza del audio

Esta práctica es aplicable en un gran número de situaciones en el audio. En el caso de nuestro desarrollo práctico se usó audio suites en Pro Tools, operación que se define como una aplicación definitiva al sample de audio por medio de plugins, en este caso de limpiadores de audio, eliminando o mitigando clicks (impulsos por distorsión digital en la captura o bien por popeos por mala manipulación de la caña o golpes en el micrófono), cracks (fatiga del soporte como sería en este caso alguna dificultad con la

96

cinta), ruido y además usando ecualizadores para reducir la coloratura natural que micrófonos hypercardioides o unidireccionales (típico patrón polar en modelos tipo shotgun) le dan a la señal registrada. La suite usada fue la de los plugins Waves Diamond bundle pack, en Pro Tools 7.3 en un Ibook G4. Específicamente los plug ins: X-Noise, el cual posee un umbral y un seteo de reducción de ruido (el cual le da un porcentaje de mitigación una vez la señal supera el umbral determinado, niveles de monitoreo de señal de salida, un display de señal entrante–ruido-señal de salida y un sistema de memoria para realizar modelados de ruido en base a un tipo de señal tipo. Fig. 62. Plug in reductor de ruido X-Noise. Waves Diamond bundle pack.

X-Crackle, el cual posee un umbral y un seteo de reducción de cracks, niveles de monitoreo y la opción de escuchar la cantidad de crack mitigado de la señal y un display a nivel espectométrico.

Fig.63. Plug in reductor de ruido X-Crackle. Waves Diamond bundle pack

97

X-Click, plugin que permite el

borrado

o

bien

la

disminución de clicks y popeos con un sistema muy símil al del X-Crackle. X-Hum, controla los niveles de hum (zumbidos de bajas frecuencias) de las pistas de audio.

Fig. 64. Plug in reductor de ruido X-Hum. Waves Diamond bundle pack

Fig. 65. Plug in reductor de ruido X-Click. Waves Diamond bundle pack

Selección de samplers

Una vez limpias las pistas de audio de sonido directo, se procede a elegir los trozos para trabajar. Además de la importación de los

samplers

instrumental

para

armar

(violoncello,

la

parte

clarinete,

por

ejemplo). Esta se hace directamente en la sesión destinada a trabajar la posterior composición y mezcla del material sonoro. La

mayoría

de

los

sonidos

directos

utilizados son más bien impulsiones con masas complejas y en algunos casos sonidos estriados.

Fig. 66. Ventana de importación de audio en Pro Tools 7.3

98

Aplicación de plugins estéticos

La aplicación de filtros, procesadores de dinámica, distorsiones, excitadores de armónicos, reverbs, ecualizadores, delays están basados en simular las texturas logradas por Lachenmann y Maresz en los materiales vistos anteriormente bajo una perspectiva Schaefereana aludiendo a sonidos estriados, escapando en general al perfil

melódico,

generando

granos

armónicos

y

discontinuos

aludiendo

a

yuxtaposiciones sin establecer conexiones entre ellas salvo en cuanto al contexto de la envolvente del sonido directo y su forma en cuanto a masa y factura, haciendo de este el nexo entre un lenguaje y otro. Busqué desfigurar el contexto tímbrico de cada instrumento e incluso las grabaciones de la soprano las introduje a esta práctica en sesiones posteriores. Esto lo hice con las siguientes herramientas (en el mismo Ibook G4 con Pro Tools 7.3): OhmForce Frohmage VST RTAS v 1.1, es un filtro resonador el cual procesa señales y les cambia coloratura, fase y registro tonal en tiempo real. Su interface simula un sistema controlado por voltaje.

Fig. 67. Filtro OhmForce Frohmage VST RTAS v 1.1.

OhmForce Mobilohm PRO VST RTAS v1.21, es un poderoso multi phaser (es un efecto de sonido. La señal se dobla y luego se le aplica un retraso. Al sumarla con la señal original se produce un efecto phasing de modulación entre una señal y la otra. La diferencia principal con el flanger, el cual es muy similar, es que las cancelaciones de fase de "Phaser" son exponenciales (1, 2, 4, 8, 16, etc) y las del "Flanger" no (1, 2, 3, 4, 5, etc) el cual trabaja con 4 osciladores en tiempo real entregando versatilidad al modelado sonoro.

99

Fig. 68. Filtro OhmForce Mobileohm VST RTAS v 1.21.

OhmForce

OhmBoyz

PRO

VST RTAS v1.51, este plugin usa 2 líneas de delay (es un efecto de sonido que consiste en la multiplicación y retraso modulado de un sonido. Una vez procesado, se mezcla con la original), 2 filtros resonadores y un distorsionador (Se entiende como la diferencia entre la señal que entra a un equipo o sistema y la señal que sale del mismo. Por tanto, puede definirse como la "deformación" que sufre una señal tras su paso por un sistema. La distorsión puede ser lineal o no lineal).

Fig. 69. Filtro OhmForce Ohmboyz VST RTAS v 1.51.

OhmForce

Ohmicide

VST RTAS v1.23,

PRO

distorsión

con compresión multi banda, cada

uno

dotado

de

compuerta de ruido (originalmente un circuito, es un sistema el cual permite, eliminar tensiones que no nos interesa que lleguen a un determinado punto de un circuito), controlador de respuesta dinámica y Feedback (la cantidad de veces que se repite la señal sonora pudiendo ser cualquier valor entre uno e infinito).

100

Fig. 70. Filtro OhmForce Ohmicide VST RTAS v 1.23.

Soundtoys FilterFreak 2, con un estilo más bien análogo, con un doble filtro, me otorgó una relación más natural con los equipos de rack, y un poco más

de

limpieza

a

la

hora

de

comparar con los de la familia de OhmForce.

Fig. 71. Filtro SoundToysFilerFreak 2 VST RTAS.

Estos

fueron

los

principales responsables de generar un discurso atimbrístico en el perfil sonoro y en cambiar los registros naturales de los mismos samplers de instrumentos, voces y sonido directo, ensamblándolos como sonidos nodales en donde prevalecen registros graves.

Por otro lado también usé una suite Sony (Inflator y Oxford) para trabajar la coloratura de las piezas a nivel de armónicos y sobretonos, alterando el brillo natural de estos. Con una presentación muy en estilo de las consolas mezcladoras Solid State Logic de Rupert Neve la capacidad ecualizadora (Se entiende como ecualizador un equipo capaz de modificar frecuencias en la señal que procesa. Para ello, cambia la amplitud de sus coeficientes de Fourier, lo que se traduce en diferentes volúmenes para cada

101

frecuencia.) de estos plugins fue precisa y concisa sin adicionar extra coloraturas de las deseadas.

Fig. 72. Ecualizador Sonnox Sony Oxford VST RTAS.

Fig. 73. Exitador armónico Sony Oxford VST RTAS.

Para definir el granulado armónico y generar a su vez discontinuidad usé plugins Amplitube 2, testeando el material con diferentes cajas, pedales de

efectos

y

cabezales

de

amplificador. Este plugin simula el viaje que realiza una señal sonora desde su grabación hasta su salida a través de un sistema de amplificación clásico para guitarra. Los diferentes procesos de transducción le fueron otorgando al sonido un color por intervalos. Cuenta con 8 sistemas de conexión distintos. Posee 12 modelos de amplificadores basados en Mesa Boggie, Vox, Marshall, Fender, entre otros. Tiene 16 gabinetes de bocina distintos y 6 modelos de micrófonos de los conocidos Shure SM57, Neumann U87; AKG C-414; Sennheiser MD-414, entre otros Aparte de una suite de procesadores de dinámica, efectos y ecualizadores en un sistema rack virtual.

102

Fig. 74. Plugin Amplitube. Suite de transductores y multiefectos VST RTAS.

En cuanto al procesador de reverb

(es

un

fenómeno

producido por la reflexión que consiste

en

una

ligera

permanencia del sonido una vez que la fuente original ha dejado de emitirlo.), que solo usé en algunos casos (la mayoría de las señales

tenían

elevado

de

ya

un

nivel

reverberancias

debido a la rigidez de los muros de Perrera Arte) mi preferido fue el TL Space de la compañía Avid; el cual para ser un modelador en tiempo real ofrece el sonido impoluto de los espacios de reverb naturales, con los controles habituales de las

unidades

de

reverb

de

hardware de alta gama. La combinación de las muestras acústicas de los espacios de reverb reales con avanzados algoritmos

DSP,

ofrece

un

asombroso realismo y un control total de los parámetros de reverb en formatos mono, estéreo y Surround. Fig. 75. Plugin modelador de espacios TL/Space VST RTAS.

103

Mezcla/composición

La composición y la mezcla de la obra está basada directamente en referentes que el director, Paulo Fernández me entregaba (ver anexos) y que conversamos en el proceso de génesis del marco teórico de la obra en donde involucré citas de Helmut Lachenmann con “Allegro Sostenuto”, Yan Maresz con “Metallics” (ambos en texturas instrumentales), Mathias Spahlinger con “128 erfüllte augenblick” (accidente sonoro, directamente relacionado con la forma de comportamiento de la envolvente sonora del sonido directo), Pablo Aranda con un perfil melódico de su obra “Latente” (quizás el único perfil de este tipo polarizado en un eje tal). La obra está dividida en 3 secciones descritas en el marco teórico de la obra Fauna (ver anexos) y ellas van dando las directrices en cuanto a la estética audiovisual. La música es enfática por lo general con el material visual (pese a que en la electroacústica se evite un lado visible por su origen acusmático; esta obra fue a pedido para un material de videodanza) y el único nodo que tiende a romper la línea diegética dejando una controversia respecto a si debía ser parte o no de la historia se da acerca del final con una obra de Chopin el “Nocturno nº 20” en C# menor”, generando una tensión tremenda con una pieza tonal, contradicción pura. Es importante destacar la tendencia constante por medio de plugins de despersonalizar las cualidades tímbricas tanto del sonido directo como de los samplers usados para dar paso a una personalidad integral de todos ellos en vez de resaltar cada una de las individualidades llevándonos a un concepto de un sonido más bien nodal. Con respecto al sonido directo que más usé y manipulé electroacústicamente, cabe destacar el trabajo de interpretación que realizó uno de los intérpretes sobre una reja que cubría una bodega en Perrera arte; gateos, rasguños, rebotes sobre la superficie metálica y sonora de aquella reja. Debido al gran remanente que le otorgaba el lugar a aquellos sonidos por la rigidez de sus paredes (principalmente granito y metal) decidí darle el mismo matiz a la sonoridad de los samplers para que hablaran el mismo idioma en cuanto a su comportamiento tiempo-espacio en cuanto a la envolvente. Es entonces el gesto de la envolvente del sonido directo el que influye el comportamiento de la sonoridad integral de la instrumentalización; parte con la cita de Pablo Aranda, armada y Schaeffereana en lo instrumental (pero con uso de samplers), sigue con la

104

incorporación

del

material

del

sonido directo tratado y lentamente fluye hacia lo no figurativo (fuera del timbre) de la electroacústica basada en ese gesto inicial.

Fig. 76. Detalle del gesto visual generador del impulse sonoro predominante en los registros de sonido directo. Grabación de voces

El sistema que llevamos a cabo con la soprano Denise Torre consistió en revisar el material referencial (tanto visual como sonoro, ver anexo Marco teórico Proyecto Fauna) y encontrar un punto de conexión para hilar uno con otro. Luego decidimos registros, facturas y tipos de masas adecuadas para cada impulso sonoro. Una vez definidas aquellas conjeturas dimos paso a las diversas grabaciones del material. En ella obtuvimos 3 polos por sobre la cita a “Latente”, masas tónicas mantenidas, impulsiones en base a growls (gruñidos) y voces yuxtapuestas a respiraciones agitadas iteradas. El objetivo llegar en forma de retrogradación, a lo que debiera ser el material sonoro original, sin pasar por un plugin que de vuelta el direccionamiento del sonido, con respecto a un accidente sonoro y entablar un punto de coincidencia con el sonido directo. Una vez terminado el registro se dio paso a integrarlo al mismo tipo de universo sonoro con que se trabajaron samplers y sonido directo por medio de los plugins antes vistos, creando de su voz 3 personajes vocales los cuales combaten en 1 solo ser (su voz)en un punto de la obra. Masterización

Una vez todas las pistas reunidas se llevó a cabo el proceso de masterización del material (llamado también mix down o bounce) en una pista estéreo modulando entre -

105

3 y -6 dBs a un radio de sampleo de 16 bits y a una resolución de 48KHz. Este proceso fue realizado mano a mano junto con el director. Posee en consideración la integración del material como una unidad tendiendo a eliminar las coloraturas individuales de cada sonido involucrado en el previo sistema multipista, por medio de una ecualización y procesado de dinámica general. Este proceso se realizó en Pro Tools 9.0 en un Mac Book Pro, por motivos estrictamente de mejor rendimiento, con las pistas ya previamente “consolidadas” (proceso que adjunta plugins funcionando en tiempo real en la pista y las aplica definitivamente, en conjunto con cualquier automatización de volumen, paneo, etc). El master fue entregado al director, quien era

responsable

del

Layback

(vaciado sincrónico del master sonoro al master visual para obtener el Master definitivo o la copia 0).

Fig. 77. Proceso de Bounce en Pro Tools 7.3.

5.d Equipamiento utilizado

Para registrar sonido directo usé el micrófono de condensador unidireccional AKG C568b con protector de viento (Windshield) WS7 Rode montado sobre una caña (Boom pole) Rode con suspensión NTSM3 Rode con cableado balanceado Gaileo 238 SommerCable

Fig. 78. Boom Pole Rode.

106

Fig. 79. Windshield WS7 Rode.

Fig. 80. Suspensión NTSM3 Rode.

Fig. 81. Micrófono de condensador AKG C568b.

Fig. 82. Cable doblemente blindado Galileo 238 Sommer Cable.

107

Para el registro del material se usó una cámara HD Sony FX1 en cinta miniDV. Su captura se realizó en un Mac Book Pro.

Fig. 83. Paulo Fernández en proceso de grabación con la Sony FX1.

La mezcla y grabación de voces se realizó en 2 equipos Macintosh: Ibook G4 con una interface Mbox 1 con un micrófono dinámico AKG D770 y en un MacBook Pro con una interface Digi003 con el mismo micrófono, con Pro Tools 7.3 y 9.0 respectivamente.

Fig. 84. Computadores personales Ibook G4 y Macbook Pro respectivamente.

Fig. 85. Micrófono dinámico AKG D770.

Fig. 86. Interface DIGI 003

108

ANEXOS Proyecto " Fauna” Marco teórico - Sinopsis “Fauna” Serie de videodanza experimental construida mediante una narrativa poética plástica y articuladas desde distintas estrategias creativas para alcanzar un resultante y territorio propio. La imagen y el cuerpo son desplegados desde su condición abstracta, hasta su condición simbólica ejercicios

y

conceptual, de

mediante

danza-performance,

estudios de movimiento, y experimentos corporales,

los

cuales

son

re-

significados a través del montaje y la manipulación audiovisual.

Fig. 87. Tercer piso Perrera arte. Locación de grabación de Fauna. Objetivos - Trazar una investigación en torno al video experimental, que integra como parte de su despliegue lingüístico la relación entre danza y video, utilizando como estructura y pie forzado piezas de duración breve, conformando un proceso macro. - Operar a través del concepto de silencio y ruido en 3 disciplinas involucradas: imagen - sonido – danza. - Generar un soporte de obra hibrida, como espacio de investigación para trazar nuevas vías de narrativa audiovisual. - Utilizar el cuerpo como soporte de exploración visual. Disponer, comprender y utilizar el cuerpo en las siguientes dimensiones: cuerpo simbólico, cuerpo superficie, cuerpo estético, cuerpo onírico, cuerpo conceptual. - Proponer métodos de carácter experimental en la ejecución de la obra, priorizando la improvisación en danza y en los procesos de producción. - Desplazar el eje argumental narrativo y establecer un eje argumental que se construye bajo las premisas cuerpo – espacio - movimiento. - Sostener un eje de construcción poética, basado en la relación de imágenes. - Suprimir la utilización de diálogos, acciones e imágenes funcionales, para establecer relaciones entre personajes y elementos a nivel gestual, poético , conceptual. - Utilizar el lenguaje audiovisual como herramienta para investigar en el lenguaje kinético y la relación a nivel de lenguaje abstracto que se materializa entre la danza y las artes visuales. - Vincular el lenguaje audiovisual con el ejercicio pictórico. - Comprender el uso de la pantalla como una superficie de composición pictórica. - Desarrollar el concepto de serie, analogando al proceso pictórico (serie de cuadros). - Explorar el territorio incierto ubicado entre los límites de cada disciplina. - Utilizar el concepto de Paisaje para indagar en el concepto de Identidad

109

Fig. 88. Armado del set de Fauna en Perrera Arte Fundamentos

Es necesario aclarar en primera instancia que el trayecto de investigación trazado desde obras anteriores, se materializa como sistema a largo plazo, en que las problemáticas y preguntas se van reiterando en el propio ejercicio respecto al cuerpo, al soporte audiovisual, al sonido, a la interrelación de disciplinas. Estas preguntas dispuestas en los límites de cada lenguaje, van mutando según las condiciones específicas que se plantean en cada nuevo proyecto, según los pies forzados y objetos de estudio abordados, pero se sostienen como sistema en el tiempo en la medida que retomamos y re procesamos su determinación en el marco de operación actual. La relevancia de este tipo de obra se sustenta en la importancia de investigar a través de métodos y procedimientos que revelen nuevas narrativas en la construcción audiovisual El formato breve para resolver un despliegue lingüístico y simbólico, implica trazar un sistema de elementos reducidos, despojados, en que la imagen poética cobra vida a partir de relaciones sutiles, estas relaciones se establecen desde la especificidad de cada lenguaje, en un encuentro que potencia y se pregunta sobre los límites de cada disciplina. El vínculo con este tipo de estructura poética se determina no desde una perspectiva que límite el despliegue formal, sino más bien que asimilan ciertos procedimientos de construcción creativa que pueden resultar provechosos para comprender una estructura breve. Desarrollar una serie de piezas implica una relación de interdependencia global, pero también de autonomía presente en cada estructura, esta forma de operar permite construir en cada trama una característica bajo conceptos muy específicos, pero también prolongar y derivar en otros estados, otros ritmos y otras formas de resolver, manteniendo conexión y coherencia. Fundamentado en la relación interdisciplinaria, el eje y soporte para la presente investigación, es el cuerpo. Su presencia, ausencia, límites, intervención, transformación y mediatización. Situado y cruzado por el Paisaje, desde su perspectiva social, natural, artificial, para generar un vínculo latente con la realidad y su construcción mediante un imaginario determinado. El factor determinante en este tipo de obra no es la temática abordada, sino los problemas plásticos y procedimientos que se pueden generar en torno a los elementos dispuestos. También se utiliza la noción de paisaje, cuerpo abstracto, cuando el cuerpo pierde nitidez cuando el cuerpo se vuelve una mancha, una línea en movimiento, el cuerpo no figurativo en un paisaje no figurativo. Se dispone de un marco general para el desarrollo de cada secuencia y elementos que se manifiestan ya sea desde su concepción absolutamente planificada hasta su concepción azarosa e improvisada. Lo importante se dispone entonces en la pregunta sobre esos elementos, y sobre como forzar los límites y las relaciones de funcionalidad de los mismos. El ejercicio plástico manifiesta su inevitable vinculación con los procedimientos de construcción, es un sistema que tiene que ver con la forma en que se revela y que descubrimos la obra, en el terreno de relación con los materiales, desde la forma de instalar y disponer los cuerpos , desde los elementos que conforman la puesta en escena, desde el uso de acciones , desde el uso de secuencias coreográficas, desde como usamos la cámara, desde como ejercitamos el montaje y la intervención en la postproducción y también operamos a través del concepto de serie , analogando una serie de cuadros (pinturas), presentamos una serie de cuadros kinéticos, poéticos con un desarrollo en un espaciotiempo, con un ritmo y proceder , con un concepto enfatizado a desarrollar en cada pieza.

A través de estos

110

procedimientos y vínculos obtenemos otros valores de lenguaje que no son la narración, la historia o los diálogos en su concepción pragmática, sino la construcción de la imagen en su potencial poético, estético y conceptual. Indagar en el territorio incomodo de la indefinición , donde no sabe con exactitud cuando comienza y en que momento termina un proceder, supone indagar entonces en los bordes del lenguaje, en los espacios no probados ,en el límite de los factores técnicos. Si intentamos acceder a la definición o clasificación del tipo de obra abordado es necesario conectar sus vínculos genéricos. Videodanza, Videoarte, Video experimental, Videoclip, todos manejan un espacio común de extensas posibilidades en su capacidad de reflexionar sobre si mismas, y de proponer respuestas que mas bien se constituyen en preguntas, o se manifiestan como elemento latente e inquietante. Espacio coreográfico se aborda desde la perspectiva pictórica , como un despliegue visual latente que permite componer y establecer relaciones en el campo plástico ; se arman y desarman sincronías, se crean tensiones, líneas, planos puntos, ejes, contrastes, el sonido a su vez potencia, cuestiona, problematiza su vinculo con la imagen, determinando cercanía o distancia a través de varios métodos de producción, siempre cuestionando su funcionalidad y su capacidad generadora de discurso estético. Cada imagen y pequeño detalle y mínimo gesto o textura se constituye en

elemento

provechoso

para

esta

composición que se resuelve desde las prácticas del lenguaje abstracto y enfoca su interés en validar un soporte de acción alejado de la obligatoriedad de sostener la obra en una historia.

Fig. 89. Rodrigo Chaverini, coreógrafo de Fauna dando indicaciones. Descripción

Realizar

un

proyecto

de

video

experimental a través de una serie de ejercicios de videodanza, proponiendo la investigación del cuerpo a través de herramientas audiovisuales, describiendo seres alienados de la realidad, viviendo y percibiendo el mundo desde lo artificial y sobre como llegan a romper este mundo-bunker; utilizando procedimientos propios del ejercicio pictórico . La realización audiovisual se compone de 4 piezas breves de 5 a 8 minutos cada una aprox.

Cada pieza va

yuxtapuesta generando un proceso: 1/ Naturaleza artificial, Cuerpo, 2/ Desplazamiento, Soledad, Sueños sobre compañía, 3/ Ruptura del artificio, 4/ Liberación, aceptación de la realidad. Cada tramo o pieza posee una estructura individual, pero en orden correlativo funcionan como fragmentos o cuadros de una estructura global mayor. Se establece también coherencia estética para establecer continuidad y contrapunto en cada pieza para su funcionamiento en la lectura global. Otro pie forzado establecido para operar son los conceptos de Silencio y antagónico Ruido, su reflexión e investigación desde todas las disciplina involucradas, abordado desde la visualidad, desde el movimiento (danza), y desde el sonido. En el proceso de producción se dispone de 3 Interpretes estables en danza, mas el apoyo de un director coreográfico, para llevar a cabo ejercicios de movimiento bajo diversas circunstancias, superficies, contextos y condiciones, determinando un lenguaje integrado tanto a nivel de expresión corporal, performático, visual y sonoro. También se dispone de interpretes extras, que se determinan en la medida de la construcción del proyecto. Los ejercicios y la experimentación con el cuerpo en su

111

despliegue visual y compositivo, entregan claves y revelan relaciones e imágenes no planificadas, por lo tanto se dispone de métodos de operación que proliferen la acción de circunstancias azarosas, improvisadas y sin previa determinación. Como contrapunto, también se utilizan unidades de acción e imágenes que se construyen desde la planificación absoluta. Se indaga también la utilización de dispositivos técnicos que permitan ejercicios determinados en relación al trabajo de cámaras, como la replicación del cuerpo mediante proyecciones, el traslado de espacios y elementos a través de elementos proyectados, puestos en relación al cuerpo real y determinando su construcción kinética y respuesta gestual. En el proceso de producción se enfatiza también la utilización de materiales para interactuar

con

los

intérpretes,

desde su utilización en sentido estético,

poético,

guardando

relación con la construcción de puesta en escena, plástico, telas, globos, elementos inflables, todos elementos que permitan articular ejercicios

para

abordar

conceptos

trazados.

locaciones

públicas,

los

Se utilizan así

como

espacios cerrados, que determinan la

noción

de

cuestionamiento

paisaje como

y

su

sistema

natural – artificial.

Fig. 90. Detalle del set de Fauna.

El material resultante del proceso de producción se dispone como material bruto para comenzar su recontextualización y para construir las relaciones interdisciplinarias definitivas, esto ocurre en el proceso de montaje. Paralelamente y con la elaboración enlazada a través de conceptos se procede en la creación musical y sonora, que se construye

desde

las

propias

experiencias

investigadas en el transcurso del proyecto con y en base

al

sonido

directo,

así

como

desde

la

planificación concertada entre director y músico. La creación y producción musical también toma parte en la experimentación de procedimientos, abarcando desde la recolección de elementos sonoros, hasta la elaboración en estudio de piezas musicales y sonoras. Fig. 91. Detalle del set de Fauna.

112

Edición y postproducción

El proceso de edición se establece con el material disponible en video, imagen, audios y banda sonora. Se establece por una parte en función de los parámetros determinados con antelación por el guión, y por otro lado se opera a través del descubrimiento y la incorporación de elementos imprevistos mediante su administración rítmica, visual, estética, durante la propia ejecución de montaje audiovisual. La postproducción se propone como una instancia para develar la obra en su dimensión estética, poética y formal, adquiriendo sentido en este punto y permitiendo potenciar su estructura de lenguaje, a través de ejercicios visuales y utilizando el soporte digital en sus posibilidades técnicas en favor de una construcción que proponga reflexiones propias sobre el cual se opera. Para tal efecto se dispone de maquinas de edición digital y programas para intervenir y manipular video , se utilizan procedimientos de composición como recortes, reencuadres y superposición de imágenes , también la alteración del espacio-tiempo y movimiento mediante aceleraciones , cámaras lentas , detenciones y todo factor posible que permita articular nuevos vínculos y relaciones. DVD Authoring

Se finaliza el proceso creativo en un producto concreto a través de una estética global, se estructura bajo la coherencia formal que determina el resultado de la obra y conteniendo de la estructura funcional e informativa, disponiendo de la obra bajo una arquitectura integral. Técnicamente el procedimiento comienza con el diseño de los elementos como fondos, botones, transiciones, luego se construye una interface con cada menú para toda la información disponible y se realizan pruebas de compresión para encontrar la proporción adecuada entre calidad y peso del archivo en la película, finalmente se realiza un master en DVD, el cual se duplica e imprime para su distribución en la etapa de difusión. La edición del presente proyecto, cuenta con un tiraje de 150 copias en dvd que se distribuyen bajo los canales determinados por un plan de difusión estratégico. Contexto en que se sitúa la obra

Contexto artístico

La construcción de videodanza se constituye en un campo de investigación para el videoarte o el cine, en el uso reflexivo de los métodos y técnicas de abordar una obra audiovisual. Se sitúa en una posición incómoda al borde de los lenguajes, en el espacio hibrido que se genera ante la dificultad de responder, definir y rotular una práctica artística. Si bien se obtiene ciertas respuestas al observar las premisas básicas que contiene un videodanza, lo interesante sucede en este espacio que no acoge respuesta ni definición y que se declara en constante expansión hacia pequeños desplazamientos, la incorporación de elementos no academizados, no metodizados. Es un territorio que va creando su respuesta solo en la medida que se ejercita con las premisas básicas involucradas; cuerpo, espacio, movimiento y su relación con un dispositivo tecnológico. La pregunta apunta en todo momento sobre los límites de cada disciplina, donde comienza una y termina la otra, y como destinar las herramientas de expresión artística para preguntarse por sus propias funcionalidades. Este espacio de indefinición, también hace circular la definición del genero videodanza, en el territorio audiovisual desde su referencia más cinematográfico, pasando por sus vínculos con el Video-arte, Video experimental, Videoclip; que se nutre y sustenta desde cada uno de estos formatos acercándose o alejándose a momentos, según formas de proceder y condiciones morfológicas.

113

En la forma de proceder que posee este proyecto en particular , existe una clara vinculación con la practica presente en el ejercicio pictórico, tanto desde la forma de enlazar los signos para construir imágenes, hasta la comprensión del formato audiovisual como un soporte de exploración en problemas plásticos, como el uso del lenguaje abstracto, desplazar la narrativa para permitir un soporte de la obra en elementos discursivos, estéticos, poéticos, en el fondo trazar nuevas vías para sustentar una obra prescindiendo de una historia o relato. Y en ese sentido es cuando la narrativa adquiere más cercanía con la poesía, con el lenguaje abstracto y minimalista también presente en las poesías breves, donde cada elemento no justifica su funcionalidad en la necesidad de contar, sino más bien se auto justifica como un elemento que cobra vida desde lo estético, desde la apropiación del lenguaje, desde su desarrollo como signo artístico. Lo interesante se sitúa en el punto de establecer un vinculo con este tipo de práctica artística y situarlo en el territorio contemporáneo, desde las tónicas contemporáneas y desde la perspectiva especifica que supone el ejercicio artístico en latino américa, en el contexto urbano, con el despliegue tecnológico implicado y bajo la contaminación simbólica cultural para situar en alguna medida un concepto de identidad, cruzado por el paisaje propio, que se define por las circunstancias sociales, morfológicas, estéticas, etc. Podemos citar algunos vinculos presentes en la obra desde diversas disciplinas: En audiovisual podemos encontrar directores como Peter Greenaway, David Lynch, Takeshi Kitano, Michael Gondry, Gaspar Noe, Darren Aranofsky, Harmony Korine. En el campo pictórico: Rauschemberg, Jasper Johns, Hopper, Magritte. En danza: Sasha Waltz, Pina Bausch, Trisha Brown, En música Radiohead, Aphex twin, Akira Yamaoka, Angelo Badalamenti, Joe Hisaishi, Yan Maresz, Helmut Lachenmann, Pablo Aranda, Mathias Spahlinger. Contexto tecnológico

Los problemas y preguntas engendrados en este tipo de proyecto, van directamente relacionados con el uso de herramientas tecnológicas. En el propio procedimiento y experimento con el soporte se van generando reflexiones sobre la funcionalidad y los limites de estas herramientas. En ese sentido se genera un sistema en que se pueden establecer ejercicios que solo cobran vida en este soporte, por ejemplo teniendo en cuenta los límites del cuerpo en la danza, se generan una serie de preguntas y contradicciones respecto a lo posible y no posible en la ejecución, a como intervenir de forma casi científica sobre las condiciones que establece la física en cuanto a la gravedad, el tiempo, la velocidad, el peso, etc. El espacio donde se construye la obra, responde a la utilización inherente de la tecnología, es un espacio que hace inconcebible a la obra en otras circunstancias, ya que determinan de forma fundamental su morfología y construcción lingüística, y es sobre este terreno que se manifiesta como posición estilista y como fundamento de los procedimientos. Este punto traza nuevamente el vinculo al procedimiento pictórico, donde disponemos de un soporte con material prima, el cual va determinando su estructura en la medida que intervenimos en el, en la medida que nos preguntamos y respondamos con la propia ejecución de procedimientos sobre la materia. Algunos dispositivos tecnológicos presentes en el proyecto que determinan la morfología y las preguntas sobre el soporte son por ejemplo el uso de proyecciones, que permite establecer un dialogo de imágenes entre lo ya sucedido mediatizado y lo que acontece y que, además, está siendo registrado, esto traza una lectura multidireccional del tiempo, estableciendo contradicciones y espacios de representación. También podemos disponer de la multiplicación, recorte y re encuadre de la realidad proyectada, lo que traza nuevas preguntas sobre la representación de la realidad, sobre la verosimilitud de la realidad representada y sobre la construcción y deconstrucción de la realidad. Estas preguntas se

114

determinan también en la etapa de Postproducción, en la cual disponemos del material para operar mediante herramientas digitales, que nos permiten intervenir y reconstruir un discurso estético artístico. Contexto cultural

Se apela al rescate de lo propio, y a la definición de identidad en la medida que operamos e intervenimos sobre la realidad, sobre el concepto de paisaje (paisaje artificial, paisaje natural), la realidad cultural se manifiesta como un cuestionamiento reflexivo, preguntarse en el fondo que es lo propio, si el sentimiento purista sobre un sistema cultural, o la aceptación, apropiación y utilización del concepto “Contaminado” para determinar un imaginario que nos pertenece. Utilizar y basarse en una práctica artística engendrada en otra cultura bajo otros parámetros, supone una adaptación interesante bajo conceptos que determinemos como necesarios para retratar la realidad. Esta estructura o formato poético, puede ser provechoso en su despliegue lingüístico postmoderno, bajo las estructuras mediáticas y en el contexto de creación contemporáneo. Se determina a su vez coherente y enfatiza un vínculo con el cuerpo y su representación social, cultural y como territorio de exploración simbólica y poética. Pequeño Glosario

VTR Es una sigla en inglés que significa Video Tape Recorder (grabador de cinta de video). Esa es la función que cumple en nuestra cadena; reproducirá la cinta que usaremos de referencia visual para la sonorización, y si fuese requerido, se podrá grabar cintas en él. Unidad de sincronismo Es el dispositivo que utilizaremos para “enganchar” las diferentes maquinas del sistema para que trabajen al mismo tiempo, en sincronía. En el estudio utilizamos la interfaz midi MidiSport como dispositivo de sincronismo, ya que cumple con las características necesarias para este fin. Entre sus funciones esta la lectura y escritura de código de tiempo en formato 24; 25; 29,97 o 30 non-drop frame LTC SMPTE. Convierte LTC a Midi Time Code (MTC) para sincronizar con cualquier máquina capaz de leer ese código. LTC La sigla significa Longitudinal Time Code. Este código se graba en la cinta, en una de las pistas destinadas para eso. Como su nombre lo dice, este código es longitudinal, se escribe a lo largo de la cinta, por lo tanto en la reproducción de la cinta se podrá leer el código. También existen otros tipos de código de tiempo como el VITC, CTL, BITC y KeyCode. Envolvente acústico El 'envolvente acústico' es un término utilizado en audio, música y estudios acústicos. Constituye una manera de definir, en términos de cuatro parámetros globales, la evolución temporal en amplitud de cualquier sonido. Está determinado por cuatro principales parámetros:

  

Ataque: Es el tiempo de entrada. Lo que tarda en escucharse el sonido después de haber sido ejecutado el instrumento. Sostenimiento: Después del decaimiento, es la amplitud que se mantiene constante hasta despegar la tecla o punto de inducción vibratoria. Decaimiento: Es el tiempo que tarda la amplitud en reducirse a la de sostenimiento, después de haber alcanzado la amplitud máxima, sin despegar la tecla o punto de inducción vibratoria.

115



Relajación: El tiempo que tarda el sonido en perder toda su amplitud después de despegar la tecla o punto de inducción vibratoria.

Drop Frame Cuando se creó el formato NTSC, los diseñadores notaron que en un rate frame nominal de 30 frames por segundo, una hora de reloj no coincidía con una hora de Código de Tiempo, esta ultima era 3,59 segundos más larga que una hora cronológica. Esto producía errores en las transmisiones, crenado una sumatoria demora de un minuto y medio en 24 horas. Para corregir esto crearon un sistema de corrección llamado Drop Frame SMPTE, que como su nombre dice, se salta alguna información del código de tiempo (no del video). Esto es resumidamente que cada 1 minuto se salta dos frames, excepto cada decimo minuto, dando así la cuenta de 29, 97 frames por segundo, lo que equivale a una hora cronológica. SMPTE Es una sigla, la cual significa Society of Motion Picture and Television Engineers. Esta sigla se asocia a una señal digital - impulsos o ausencia de ellos, grabada analógicamente- que contiene referencia temporal absoluta y que suena a modo de tono electrónico modulado. Esta referencia se indica como horas, minutos, segundos y frames o cuadros (hh:mm:ss, ff) En esta configuración el VTR hace el papel de master de la cadena. Se reproduce el video desde esta unidad al que previamente se le grabo el código de tiempo (análogo). Este código de tiempo será reproducido y enviado hacia la unidad de sincronismo (midisport) la que traducirá esta señal analógica a digital, la transformara a MTC (midi time code). Este código midi será leído por el software de grabación multipista (Pro-Tools), que funcionará como esclavo de la cadena para sincronizarse con el video. Claqueta Si bien no es un elemento perteneciente a la cadena de audio propiamente dicha, este elemento es crucial en un rodaje tanto para sistema doble, como para el registro en sistema simple. La claqueta es una doble plancha de madera, acrílico u otro material rígido, provista de una bisagra, que sirve para anotar los datos de cada toma cinematográfica, por ejemplo, el nombre de la película, el número de la escena, el indicador de plano y el número de toma. Algunas claquetas son electrónicas, pudiendo ver en su frente el timecode del grabador de audio, para que al momento de la postproducción la persona encargada de hacer los sincros pueda encontrar fácilmente el punto de cierre de la bisagra y el sincro se exacto. La claqueta se usa para sincronizar la toma visual con la toma sonora y para identificar cada toma de un rodaje. Se coloca delante de la cámara cuando ésta empieza a rodar, de forma que quedan los datos incorporados a este segmento de película. Al hacer esto se facilitará la labor de montaje. En un rodaje generalmente al comienzo de cada toma se desarrolla una línea de órdenes de vital importancia que permiten no solo el ordenamiento adecuado de los materiales visuales y sonoros, sino que además a la hora de la postproducción el buen uso de la claqueta nos permitirá localizar sin problemas las informaciones que estamos buscando. Las órdenes en un rodaje son las siguientes:

1)

Sonido : El sonidista contesta GRABA o ANDA

2)

Lectura de Claqueta: El asistente que sostiene la claqueta procede a leer la información correspondiente a escena, plano y toma.

3)

Cámara: El camarógrafo contesta ANDA o MARQUE

4)

El asistente cierra la claqueta para que el Clack quede registrado en el audio

5)

Acción: El director ordena la acción a los actores

6)

Corte: El director pide el cese de todas las acciones de actores y técnicas.

116

Esto sirve para sincronizar posteriormente las imágenes con los sonidos. A veces es imposible hacer claqueta al comienzo de la toma y se hace al final, colocándola al revés y dando el golpe para que el montador la pueda sincronizar también. Si la toma es sin sonido, la claqueta se utiliza de todas maneras, pero permanece cerrada para que el montajista sepa que la toma seleccionada no contiene ningún sonido asociado. Pieza romántica sugerida por el autor Antes de trabajar con el referente directo de Chopin (el “Nocturno nº 20” en C# menor”).y de determinadamente grabarlo en la facultad de artes con el estudiante Javier Moraga, cuando se me pidió una obra en estilo de forma romántica, presenté una obra trabajada anteriormente en la clase de armonía estilística, dictada por el docente Antonio Carvallo, la cual estaba basada en una estructura Schumaneana (a-b-a’)

Fig. 92. Pequeña forma romántica a-b-a’ en estilo Schumann-página 1.

117

Fig. 93. Pequeña forma romántica a-b-a’ en estilo Schumann-página 2.

118

Fig. 94. Pequeña forma romántica a-b-a’ en estilo Schumann-página 3.

119

Fig. 95. Pequeña forma romántica a-b-a’ en estilo Schumann-página 4. Modelo referencial indicado por el director

Los formatos que yo recibía para tener un referencial en cuanto a texturas, colores, tonos y formas del grano musical siguen el patrón de este ejemplo:

01. naturaleza. para fauna video 1. Mezclar atmósfera de naturaleza nocturna, algunos grillos, sonido de agua, viento moderado, algún pájaro de vez en cuando, con un sonido constante y atmosférico de algo que asemeje engranajes rodando, triturando, o como una rueda de bicicleta que va girando, este sonido va y viene, se acerca mucho y se aleja, se pierde. Complementar con una nota alta constante como la que hablábamos el otro día, un sonido cristalino elevado al punto exacto ( es una nota exacta a punto de desbordar, a punto de estallar, como cuando vas a cantar algo y estas tan emocionado y no puedes subir a esa nota, inalcanzable) puede variar en unas 3 notas en el mismo rango. Eso es como una gota de agua que está cayendo todo el rato, constante. Atmosferas experimentales. Atmósfera 1. Moscas sobre un cadáver en descomposición. Atmosfera 2. Ondas sobre el agua Atmósfera 3. El cuerpo funcionando por dentro, venas, sangre, fluidos, células, es un espacio sucio, pegajoso, pero es vital. Corazón bombea sangre, tripas, jugos gástricos. Atmósfera 4. Insomnio - no puedes dormir - sudas Atmósfera 5. Subterráneo, estás atrapado bajo tierra, tus sentidos se agudizan, escuchas sonidos en la superficie. Para las atmósferas, trata de no referirte figurativamente a lo descrito, más bien tiene que ver con sensaciones, para trabajar en forma más abstracta y libre.

120

CONCLUSIONES

Los resultados obtenidos en esta experimentación, nos conllevan a pensar en el nexo que se genera al realizar música con elementos provenientes del material visual, obtenidos durante el rodaje y moldeados junto con samplers, grabaciones y procesos electrónicos en un soundtrack. Esta tesis nos muestra como el sonido directo y su manipulación funciona como un instrumento más, logrando un engrosamiento en el lenguaje del gesto audiovisual, reforzando lo sonoro con lo visual y viceversa en la videodanza. El acoplamiento tanto estético como diegético entre las piezas electroacústicas presentadas en un concepto de banda sonora junto con la imagen es un comprobante absoluto de que el formato da frutos positivos frente a un medio artístico (la videodanza) el cual exige nuevas y constantes investigaciones sobre como fortalecer y asentar el lenguaje, pese a que en la electroacústica se tienda a evitar esa mezcla con un material visual dado su origen en un contexto del acusmatismo. Esto corroborado por la comitiva del Rensselaer polytechnic Institute en Troy New York, quien luego de financiar el proyecto, aplaudió y fomentó el dar a conocer el material a nivel didáctico en su instituto en contexto de nuevos precedentes y formato experimental de videodanza. Concretamente de todas las piezas y de la mezcla OMF obtenemos una pista master estéreo, maximizada entre -3 y -6 dB a 16 bits y 48 KHz en formato .aiff, la cual es la que oímos frente al imaginario visual que podemos observar en el material anexo a la tesis. Para redondear la idea final, debemos destacar, el beneficio que trae el abrir el arte musical a través de diferentes áreas tales como el sonido y porque no atacarla creativamente desde ese mismo punto de vista, ir desde la disciplina del audio para llegar a la estética de la música. Hoy en día son cada vez más los músicos doctos contemporáneos adentrados en el mundo de las perillas y los filtros, en donde conviven los procesos de síntesis y las modulaciones de frecuencia. Si se estudia música electroacústica como postítulo después de composición, ¿Porqué no composición después de sonido?

121

BIBLIOGRAFIA - Aguilar, A.. 2006 “El papel de los procesos de estructuración en el análisis de música electroacústica”. En Electroacoustic Music Studies Network (EMS) – MusicAcoustica 2006

Festival,

Beijing.

Publicado

on-line

en:

http://sussurro.musica.ufrj.br/abcde/a/aguilarananay/procesos.pdf - Alcázar Aranda, A. 2006. “Análisis De La Música Electroacústica –género Acusmático A partir de su escucha: bases teóricas, metodología de la investigación, conclusiones.” En L'analyse perceptive des musiques électroacoustiques, LIEN Revue D'esthétique musicale, pp. 30-39. Bossis, B. 2006. “The analysis of electroacoustic music: from sources to invariants.” Organised Sound, 11/2, pp. 101-112. - Aymes, W (2008) - Audio postproduction for television and film (3rd edition). Focal Press. - Banberger, J. (1988). Les structurations cognitives de l´appréhension et de la notation de rytmes simples. En Sinclair, H. (ed). La producción de notations ches le Jeune enfant. Paris: Press Universitaires de France. - Bregman, A. 1990. Auditory scene analysis. The perceptual organization of sound. Cambridge: MIT Press. - Cádiz, R. 2008. “Análisis musical de obras electroacústicas chilenas”. Publicado on-line en http://www.musicaelectroacustica.cl/analisis - Camilleri, L. 1993. “Electro-acoustic music: analysis and listening processes”. Nicholas Cook. 1998. Analysing musical multimedia. Oxford University Press. - Chion, M. (1999). El sonido: Música, cine y literatura... Barcelona: Paidós. - Chion, M (1993). La audiovisión: Introducción a un análisis conjunto de la imagen y el sonido. Barcelona: Paidós. - Delalande, F. (1995). La música es un juego de niños. Buenos Aires: Ricordi. - Delalande, F. 1998. “Music analysis and reception behaviors: Sommeil by Pierre Henry”. Journal of New Music Research, 27, pp. 13-66. - Dolar, M. (2007). Una voz y nada más. Buenos Aires: Manantial. - Kendall, G. 2006. “Juxtaposition and non-motion: Varèse bridges early modernism to electroacoustic music”. Organised Sound, 11/2, pp. 159-172.

122

- Kendall, G. y Ardila, M. 2008. “The artistic play of spatial organization: spatial attributes, scene analysis and auditory spatial schemata”. En R. Kronland-Martinet, S. Ystad y K. Jensen (eds.), CMMR 2007, LNCS 4969, pp. 125-138. - Holman, T. 2008.Surround Sound. Focal Press. - Landy, L. 2006. “The Intention/Reception Project”. En Mary Simoni (ed.) Analytical methods of electroacoustic music.Routledge, New York, pp. 29-53. - Morthenson, J. W. 1985. “The concept of meaning in electronic music”. En Proceedings of the ICEM Conference on Electro-acoustic Music, Stockholm. - Risset, J.C. “Prefacio”. 2002. En Thomas Licata (ed) Electroacoustic Music. Analytical perspectives. Greenwood Press, Westport, Connecticut, pp. xii-xviii. - Saitta, C. (2002). El diseño de la banda sonora en los lenguajes audiovisuales. Buenos Aires: Saitta publicaciones musicales. - Schaeffer, P (1983). Guide des objets sonores: Pierre Schaeffer et la recherche musicale. Paris: Buchet/Castel. -(1988). Tratado de los objetos musicales. Madrid: Alianza. -(1966). Traité des Objets Musicaux: essai interdisciplines. Paris. Éditions du Seuil. -(1959). ¿Qué es la música concreta? Buenos Aires: Nueva visión. - Schaeffer, P. y Reibel, G. (1998). Solfège de l’objet sonore. Paris: Buchet/Castel. Ángel Rodríguez, La dimensión sonora del lenguaje audiovisual. - Smalley, D. 1992. “The listening imagination: Listening in the electroacoustic era”. En R. Orton J. Paynter, T. Howell and P. Seymour (editors), Companion to Contemporary Musical Thought, cap. 26, pp. 514–554. London:Routledge - Thoresen, L. 2007. “Spectromorphological Analysis of Sound Objects. An adaptation of Pierre Schaeffer's Typomorphology”, Organised Sound, 12/2, pp. 129-141. - Varios autores-. (2009) [ Pensar el // trabajar con // ] Sonido en espacios intermedios AV Ediciones Departamento de artes visuales. Facultad de artes Universidad de Chile.

123

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.