Medios Audiovisuales

Cámaras. Luz. Televisión. Sistemas de Reproducción audiovisual. Efectos Ópticos. Grabación de audio, video

1 downloads 264 Views 43KB Size

Story Transcript

TECNOLOGÍA DE LOS MEDIOS AUDIOVISUALES CÁMARAS Diferentes tipos de cámaras Vamos a comenzar hablando de la cámara. Hay diferentes tipos de cámaras, las cuales se agrupan en tres tipos: las E.N.G., las E.F.P. y las cámaras de estudio. La utilización de uno u otro tipo de cámara lo haremos en base a la producción que queramos realizar. Va a ser por lo tanto el propio producto, el producto final, quien nos va a condicionar al utilizar un tipo de cámara u otro. Así, y como hemos mencionado anteriormente, encontramos tres garndes grupos: La cámara de estudio Las cámaras de estudio son normalmente utilizadas en la produción de programas eb grandes platós profesionales o en retransmisiones de grandes acontecimientos. Son generalmente estáticas y suelen estar instaladas sobre complicados sistemas (trípodes, grúas,...). Contienen de forma compacta en la misma cámara los sistemas oportunos de motorización, generadores,..., además de una óptica (zoom) compleja y con un amplio margen de variación. Cámaras E. F. P. La configuración E. F. P. Se utiliza normalmente en producciones de programas más sencillos, por lo que resulta una cámara más simplificada en su construcción interna y con posibilidades más limitadas en su aplicación. Se usan generalmente en platós de pequeñas dimensiones o en retransmisiones de actos en espacios físicamnte limitados. Tanto la configuración E. F. P. como la de estudio están pensadas para funcionar bajo un sistema de realización. Cámaras E. N. G. Son cámaras ligeras, con un equipo ligero, transportable a casi cualquier sitio. Se utilizan para producciones rápidas o con poca necesidad de grandes despliegues. Actualmente, las E.N.G. incorporan el magnetoscopio dentro del cuerpo. Son ligferas y fáciles de manejar, lo que permite que una sola persona haga todas las operaciones necesarias para poder grabar las imágenes que necesite. Como hemos podido observar, y a tenor de las distintas definiciones, son los productos y los espacios los que nos van a exigir un tipo u otro de cámara. En general, podemos decir que son las cámaras de estudio las que más prestaciones proporcionan y también las de más calidad, seguidas por la E. F. P. y por la E. N. G.. En cualquier caso, las imágenes grabadas con cámaras E. N. G. profesionales dan una calidad más que suficiente como para poder ser emitidas. Aunque efectivamente existen diferencias entre los distintos tipos de cámaras, la base de todas ellas es la misma, y también los elementos y los ajustes que debemos hacer. Por lo tanto, y para explicar cuáles son los elementos fundamentales a tener en cuenta cuando tenemos una cámara entre manos, vamos a utilizar como ejemplo la E.N.G.

1

El camascopio En la actualidad, la mayoría de las cámaras E.N.G. son camascopios. En ocasiones oiremos que se llama también camcorder (versión inglesa). El camascopio consta esencialmente de dos secciones básicas: cámara de vídeo en color y magnetoscipio. Hasta hace muy poco tiempo, estos dos elementos eran diferenciados; en la actualidad, y gracias a los adelantos de la industria videográfica, éstos van unidos, lo que proporciona mayor facilidad en su manejo. La cámara es la encargada de recoger la imagen, y el magnetoscopio es el que nos permite grabar esa imagen recogida previamente por la cámara para después reproducirla y, por tanto, poder utilizarla, manipularla. La cámara Como hemos señalado, la cámara es la encargada de recoger la imagen. En realidad el proceso que sigue la cámara es similar al que siguen nuestros ojos, al igual que su función, que es la de recoger imágenes del entorno que nos rodea. Pero ¿qué son las imágenes? Las imágenes son en realidad diferentes intensidades de luz, por lo que las imágenes son luz. La luz pasa a través de la lente llamada cristalino. Esta luz es percibida como imagen por el cerebro, que actúa así de película o material sensible. Pero el cerebro humano no está capacitado para leer los rayos de luz, necesita que previamente alguien se los envíe a través de un cable llamado nervio óptico. De eso se ocupa la retina. Esta retina posee dos tipos de elementos sensibles a la luz: los bastones y los conos. Los bastones nos permiten ver el brillo de la luz, es decir, es como si mandaran la señal en blanco y negro. A esta característica la llamamos luminancia, y su símbolo es la Y. Los conos son los que mandan la señal en color al cerebro. Los conos tienen una sensibilidad que varía según el color que percibimos. La sensación de color la definen dos parámetros: el matiz y la saturación: − El matiz es el que nos permite clasificar un color: el que nos permite diferenciar entre los diferentes colores (amarillo, rojo, azul,...). − La saturación es la cantidad de color puro que posee lo que percibimos. Por ejemplo, si a un rojo intenso le añadimos un rayo de luz blanca, rebajamos su saturación. Visto esto, podemos decir que la cámara tiene dos elemntos fundamentales: El objetivo, que sería el equivalente a la lente cristalino, y el tubo o tubos de cámara (o actualmente el sensor o sensores de imagen CCD), que convierte la señal luminoa en señal eléctrica, dando así origen a la señal de vídeo, siendo estos los elemntos que actúan como la retina.por último, encontramos al cerebro, que se correspondería con el monitor. Este monitor o televisión cuenta con una placa de fósforo que convierte la señal eléctrica proveniente del sensor de imagen otra vez en señal luminosa, de manera que podamos percibir la imagen. Por lo tanto, las imágenes son señales luminosas que se convierten en señales eléctricas para después volver a convertirse en señales luminosas y así poder ser vistas o percibidas. El CCD Actualmente, todos los camascopios están equipados con sensores de estado sólido y también, cada vez más, las cámaras de estudio, ya que ofrecen sustanciales ventajas frente a sus antecesores, los tubos de cámara El sensor de imagen o CCD covierte una señal lumínica en una señal eléctrica. La conversión se realiza 2

analizando punto por punto la imagen óptica que se forma en la zona sensible del sensor de imageneste sensor de imagen de estado sólido podría coompararse a un mosaico formado por una multitud de puntos elementales o pixels. Los pixels son elementos sensibles a la luz, es decir, fotoeléctricos que al recibir la luz dan origen a la formación de cargas eléctricas. Los pixels están situados en la interesección de una retícula de líneas verticales y horizontales. El mosaico tiene una relación de aspecto 4:3,relación entre la altura y la anchura. Los puntos elemntales son analizados y explorados a través de líneas sucesivas y paralelas, pero ¿cuántas líneas? El número de líneas dependerá del tipo de sistema televisivo utilizado. Serán 625 líneas para los sistemas PAL y SECAM y 525 líneas para el sistema NTSC o americano. El número de líneas verticales dependerá del diseño de cada CCD. Hemos dicho que en cada intersección está situado un pixel, y cuantos más pxels contenga mayor calidad obtendremos, por lo que cuantas más líneas verticales, mayor número de pixels y mayor calidad. Formación de la imagen La formación de imagen en cine es instantánea, pero en vídeo es secuencial, se analiza a través de las líneas horizontales. Estas líneas se analizan de izquierda a derecha y de arriba abajo (igual que la lectura de una página), pero lo suficientemente rápido como para que nuestro ojo perciba una imagen completa. Para percibir la sensación de movimiento, en cine se utilizan 24 imágenes o fotogramas por segundo, mientras en vídeo se usan 25 imágenes, cuadro o frames por segundo. Si la lectura se hiciera desde la primera línea hasta la 625 seguida, pasando por todas ellas, se detectaría cierto parpadeo. Para evitarlo, cada cuadro se descompone en dos campos, esto es, la exploración se realiza en dos secuencias. En primer lugar se analizan las líneas impares, y luego las pares. La exploración completa de la imagen se obtiene por un entrelazado de los dos campos. La exploración completa de la imagen o cuadro o frame (terminología inglesa) que está fomada por el entrelazado de los campos par e impar se realiza en 1/25 de segundo, por lo que en 1 segundo hay 25 imágenes completas. Gracias a que la lectura se hace tan rápida, tenemos la sensación de movimiento Para que coincida la imagen de la pantalla con la del sensor de imagen, cada vez que acaba de explorar una línea se produce un impulso de sincronismo horizontal para que pase a la línea siguiente, y cada vez que termina de explorar un campo, se produce un impulsode sincronismo vertical para que vuelva hacia arriba y así poder iniciar la lectura del siguiente campo, y así sucesivamente. El rojo, el verde y el azul son la base de la televisión en color. Gracias a estos tres colores (y a la mezcla en diferentes proporciones de los mismos)se consiguen absolutamente toos los colores. Son los llamados colores primarios. La luz pasa a través del objetivode la cámara e incide sobre un elemento separador del color formado por dos espejos dicróicos, los cuales tienenla propiedad de reflejar un solo color a la vez que permiten el paso de los otros dos. También hay dos espejos convencionales. De este modo, la luz, al incidir sobre el primer espejo dicróico, preparado para la longitud de ondas azules, refleja el color azul y transmite los colores verde y rojo. Por medio de un espejo convencional, los rayos azules son reflejados hacia el CCD correspondiente. Lo mismo ocurre con el color rojo; el espejo dicróico correspondiente a este color lo desvía a un espejo normal, y éste a su vez hacia su CCD correspondiente, mientras deja pasar el color verde.

3

El color verde, que no ha sido reflejado por ninguno de los dos espejos dicróicos, incide directamente sobre su CCD correspondiente. Así, se han formado tres señales eléctricas distintas, una para cada color. Una vez llegados a este punto, debemos saber que cuando en 1953 nació la televisión en color, lo hizo con el compromiso de que la señal de color debería estar estructurada de tal modo que pudiera ser recibida e interpretada indistintamente por receptores de color o receptores de blanco y negro en condiciones aceptables de calidad para los dos. Esta condición de compatibilidad que hoy en día nos puede parecer innecesaria bajo la óptica actual de una virtual innexistencia de receptores monoicromos, no lo fue en su momento, puesto que entonces todos los receptores eran de blanco y negro y cabía esperar que se tardaría mucho tiempo hasta que la gran mayoríua de usuarios/as cambiaran sus receptores por aparatos de color. En definitiva, que los receptores en blanco y negro ignoran la información de crominancia relativa al color y aprovechan tan solo la señal de brillo o luminancia, que es la única que necesita para su funcionamiento. La señal de luminancia en las cámaras de color se obtiene restando parte de señal a la salida de los tubos o CCDs. Restando, sí, pero ¿cuánto? : 30% de rojo 59% de verde + = LUMINANCIA 11% de azul La diferente proporción de los tres colores primarios es debido a que el sentido de la visión no responde de igual modo ante el estímulo de los tres primarios (R, V y A), siendo más sensible a la energía de la luz verde, un poco menos a la del rojo y mucho menos a la del azul. Por ello, para adecuar la sensibilidad del ojo a los niveles de energía de los tres primarios, es necesario obtener un porcentaje distinto de cada uno de ellos que sea equivalente a la sensibilidad del ojo frente a estos tres primarios, que según las leyes de la visión en color son los siguientes: Luminancia = 30 % rojo + 59 % verde + 11 % azul. O lo que es lo mismo: Luminancia = 0, 30 rojo + 0, 59 verde + 0, 11 azul Así se han formado tres señales eléctricas distintas, una para cada color, que se canalizan hacia una matriz que nos da, por una parte, la luminancia y, por otra, las componentes de color. Las componentes de color se envían a otro codificador donde se mezclan, generando así la croma que contiene la información de matiz y saturación mezcladas en un solo cable. Una vez llegados a este punto, y dependiendo del diseño de la cámara, podemos enviar estas dos señales, la de luminancia y la de crominancia, bien juntas, bien separadas. Para mezclarlas tenemos un dispositivo llamado sumador que recoge en un solo cable las informaciones de luminancia y crominancia.esta señal es la denominada vídeo compuesto. Si decidimos enviarlas por separado, esto es, por una parte la luminancia y por otra la crominancia, sería la señal de video separado. Existen dos sistemas para hacer el proceso que acabamos de describir: los tubos de cámara y el CCD o sensor de imagen. Veamos cuáles son algunas de las ventajas del CCD con respecto a los tubos de cámara.

4

LA LIGEREZA: El CCD tiene un tamaño más reducido. Prácticamente un sensor CCD ocupa un volumen 600 veces inferior al de un tubo de cámara, por lo que pesa menos y se hace más fácil su manejo. VIDA ÚTIL: El tubo de cámara tiene una vida útil de unas 1.000 horas. El CCD tiene una vida útil de aproximadamente 7.000 horas. Además, durante su vida de servicio, las características funcionales permanecen inalterables. PRECISIÓN: La exploración de la capa fotoconductiva del tubo de cámara se realiza de una forma perfecta en la zona central, pero presenta dificultades en las esquinas, creando en ocasiones distorsiones geométricas. Este defecto no se presenta en los sensores CCD. LA LUZ Hemos visto como se consigue la imagen en color. Hemos dicho que en realidad las imágenes son diferentes intensidades de luz, pero sabemos que dependiendo del tipo de luz que tengamos, percibimos los colores de una forma u otra. , es decir, que según el tipo de iluminación ambiente que tengamos percibimos el color de un modo u otro. El cerebro lo hace automáticamente; sin embargo, la cámara hay que adecuarla al tipo de iluminación ambiente que tengamos para conseguir una aproximación lo más fiel posible a la realidad. Veremos cuáles son esos ajustes necesarios, pero antes necesitamos hacer un análisis de la naturaleza de la luz. Según su propia definición, la luz es una radiación electromagnética de intensidad y longitud de onda variables. A cada longitud de onda corresponde un color determinado. La longitud de onda de los diferentes colores está comprendida entre 370 y 780 nm (nanómetros o milmillonésima de metro). La luz que irradian la mayoría de las fuentes luminosas está compuesta por varios colores lumínicos, que son exactamente el rojo, el verde y el azul, y con la mezcla de éstos, se consigue el resto de los colores. Pero para conseguir distintos colores se mezclan diferentes proporciones, lo que motiva una dominante de color. Dominante de color Se diferencian dos tipos de iluminación ambiente: − Iluminación natural. − Iluminación artificial. La iluminación natural es aquella cuyo origen está en la luz solar, y la iluminación artificial es la que ha sido creada por el ser humano, y va desde una simple vela hasta los focos de grandes potencias de luz. Cualquier fuente luminosa, ya sea natural o artificial, tiene una dominante de color. Así, la luz de una bombilla tiene una tonalidad amarillenta o rojiza, y la luz solar tiene una fuerte dominante azulada.estas variaciones de color que pasan desapercibidas para la visión humana, se evidencian perfectamente en fotografía y en videografía. En fotografía existen básicamente dis tipos de películas de color: las diseñadas para tomar fotografías con luz exterior y las diseñadas para tomar fotografías con luz interior. Cada una de éstas está concebida para una dominante de color específica. Así, si se utiliza una película de luz exterior para tomar escenas luminosas con luz incandescente o de interior, las fotografías tendrán una marcada tonalidad amarillenta. Por elcontrario, si se utiliza una película de luz interior para tomar una escena iluminada con luz solar, las fotografías tendrán una tonalidad azulada.

5

Un fenómenbo parecido ocurre cuando utilizamos una cámara.es por esto por lo que las cámaras contienen un dispositivo que compensa las dominantes de color de la escena.es necesario conocer la dominante de color para ajustar la cámara. Para evaluar la dominante de color de una fuente luminosa se utiliza la escala de temperatura de color. Temperatura de color En la visión humana, las variaciones de las dominantes de color quedan compensadas automáticamente por el cerebro, pero cuando tenemos una cámara entre manos debemos adecuarla, y para ello, debemos conocer la dominante de color. Para conocerla se utiliza la escala de temperatura de color, que se mide en grados Kelvin (abreviadamente K, impropiamente ºK). La relación entre grados Kelvin y grados centígrados es 0K = −273 ºC. La temperatura de color no se mide con un termómetro sino que ese utilkiza un termocolorímetro.de todos modos, existe un nexo de unión entre la temperatura y el color: Al calentar un pedazo de hierro, éste pasa por toda una gama de colores que va desde el rojo oscuro al naranja incandescente. Cda incremento de temperatura va emparejado con un aumento de la energía radiante emitida. Para establecer una relación más precisa entre temperaturas y color, se toma como patrón un cuerpo perfectamente negro. La temperatura a la que debe llegar a fin de que emita una luz similar a la de la fuente de luz en examen se identifica con el término de temperatura de color. Cada fuente luminosa tiene su propia temperatura de color.la luz natural del mediodía tiene una temperatura de color de 5.500 K; esto sgnifiica que un cuerpo negro habría de calentarse a 5.500 K para que emitiese una luz del mismo color. Filtros Las cámarss disponen de sistemas de filtros para distintas temperaturas de color. Estos sistemas permiten colocar distintos filtros entre el sistema de lentes y el bloque dicróico de la cámara, gracias a los cuales conseguimos colores fieles a la realidad. La mayoría de las cámaras están ajustadas en el proceso de fabricación para operar con iluminación en un estudio (3.200 K), y al utilizarlas en exteriores, se cambia el filtro para poder compensar la diferencia de temperatura de color. La mayor parte de las cámaras profesionales dan, al menos, tres posiciones de filtro, indicado en los números 1, 2 y 3. 1. − 3.200 K luz interior. 2. − 5.200 K luz exterior 3. − 5.200 K ND luz exterior cuando hay mucha luz.por ejemplo, un día muy soleado y estamos grabando en la playa o en una estación de esquí. ND significa filtros neutor de densidad, que se utilizan para tomas fuertes de sol, evitándose así la sobreexposición de la película o que la imagen aparezca quemada. Balance de blancos Una vez colocado el filtro adecuado a las condiciones lumínicas no se resuelve totalmente el problema, ya que las nubes, las sombras, reflexiones y otras condiciones influyen en la temperatura de color. Para ajustar la cámara a ésta, es necesario lo que se denomina balance de blancos cada vez que se emplean nuevas condiciones de iluminación. Electrónicamente, la cámara establece la combinación de color apropiada para 6

unas condiciones de luz determinadas. La operación de balance de blancos es muy sencilla: basta con enfocar hacia un papel blanco y pulsar el color correspondiente. Pero ¿por qué blanco?. Se debe a que el blanco se consigue a través de la mezcla en las mismas proporciones de los colores primarios (rojo, verde y azul), por lo que ajustando el blanco ajustamos también los colores primarios y, en consecuencia, toda la gama de colores. LA ÓPTICA DE TELEVISIÓN El objetivo El objetivo capta los rayos luminosos provenientes del tema encuadrado, y los concentra sobre el mosaico fotosensible del sensor sólido de imagen o CCD, o en su caso, del tubo de imagen. El objetivo tiene una forma exterior de un cilindro metálico. En su interior, dispone de una agrupación de lentes junto con un sistema mecánico que posibilita su desplazamiento a fin de obtener una imagen nítida.estas lentes son tanto convergentes o positivas como divergentes o negativas. Las lentes positivas hacen convergir en un punto y las divergentes hacen que se separen los diferentes rayos de luz. En la parte delantera del objetivo, aparecen distintas cifras que expresan en mm. la distancia focal del objetivo, que puede ser fija o variable (zoom). Éste último se representa con dos cifras, que indican el gran angular y el teleobjetivo. La segunda anotación que aparece es la luminoisidad, que hace referencia a la cantidad de luz que dejamos entrar en nuestro objetivo. De controlarla se encarga el diafragma. El diafragma El diafragma es el elemento mecánico que sirve para graduar la cantidad de luz que pasa por el objetivo. El diafragma aparece con unas cifras que pueden ir desde el 1 al 22. Los objetivos tienen también una escala graduada en metros que sirve para regular el enfoque del tema encuadrado El diafragma está compuesto por unas láminas superpuestas que pueden abrirse o cerrarse (formando un círculo), dejando pasar más o menos luz. La apertura del diafragma se realiza desde el propio objetivo, y consta de unos números F, que están marcados en un anillo exterior situado en la montura de la óptica. El objetivo más luminoso tiene la posibilidad de apertura de hasta el 1, aunque las aperturas más corrientes suelen estar entre el 5,6 y el 8. El paso o salto de una apertura a otra permite la entrada de la mitad de cantidad que la de la apertura anterior. Es imprescindible utilizar el diafragma adecuado: si dejamos pasar excesiva cantidad de luz, las imágenes aparecerán quemadas o sobreexpuestas; si no abres lo suficiente el diafragma, la imagen aparece gris y oscura. Por eso, es conveniente tener un diafragma automático, aunque no suelen ser exactos porque aparecen con la medición de luz general. Los profesionales suelen controlar de forma manula el diafragma, regulando a medida que ves el objeto por el visor de la cámara. El diafragma automático se utiliza para filmar con rapidez y agilidad, corriendo el riesgo de que las imágenes no aparezcan con fidelidad. El enfoque 7

Al enfocar una cámara lo que hacemos es ajustar el objetivo para reproducir con la mayor definición la imagen del sujeto u objeto. Cuando utilizamos una cámara E.N.G., El enfoque se realiza girando el anillo de foco situado en el eje giratorio de la lente hasta conseguir la imagen con la mayor nitidez. Cuando el operador de cámara ha de mantenerse en movimiento con una cámara sostenida con su propia mano, tiene que concentrarse en la dirección que ha de seguir y en mantener al sujeto dentro del plano, por lo que el enfoque automático puede ser una buena solución. Aún así, tiene sus problemas, ya que si el sujeto no está en el centro de la imagen, el enfoque automático puede no enfocarse con nitidez. Diferentes tipos de objetivos, distorsiones y el zoom − Es considerado objetivo normal en cámara de video aquel cuya distancia focal es de 25 mm. Tiene un ángulo de visión que abarca entre 20 y 30º, que dependen normalmente de los mecanismos propios de la cámara. − Un gran angular es aquel que tiene más de 30º. − Un teleobjetivo es el que tien menos de 20º. TELEOBJETIVO Es un objetivo de ángulo estrecho y de ampia distancia focal. Cubre solo un estrecho sector de la escena. A la imagen que captamos con el teleobjetivo le lamamos vista telescópica. Puede ser utilizada cuando la cámara no se puede acercar al sujeto debido a obstrucciones física (por ejemplo, los reporteros sensacionalistas). También cuando el sujeto está fuera del alcance o cuando no hay tiempo para desplazarse hasta el sujeto. Incluso cuando la cámara está fija yel teleobjetivo es el único medio para obtener imágenes de objetos distantes de fuera del estudio. Efectos de distorsión: La profundidd aparece notablemente comprimida y la distancia desde el primer plano hasta el fondo parece mucho más corta de lo que es en realidad. Los objetos aparecen como aplastados, distantes, parecen de gran tamaño y cercanos. Otro objeto de distorsión es que los objetos parecen avanzar hacia la cámara muy lentamente. Cuando hacemos tomas con objetivos de 5º ó 10º, se aprecian unos rasgos dasegradablemente aplastados y con una disminución general de los contrastes. En general, el teleobjetivo supone bastantes problemas para el operador/a de cámara. A medida que se aumenta la distancia focal o se reduce el ángulo de enfoque, se hace progresivamente más difícil realizar tomas estáticas ya que la sensación de movimiento de la cámara es mayor. Además, el seguimiento de un sujeto en movimiento en un plano corto es muy difícil, y en días de mucho calor, los objetos distantes aparecen desfigurados. GRAN ANGULAR: Es un objetivo de distancia focal corta pero de ángulo de amplitud amplio. Las características del gran angular son las opuestas a las de las lentes de ángulo estrecho. 8

Efectos de distorsión: Son los opuestos a los efectos del teleobjetivo. Con el gran angular, la profundidad de campo y el espacio son acentuados en exceso; las cosas parecen estar más lejos de lo que están en realidad. Además, la persona que se acerca o leja con respecto de un gran angular parece que se desplaza con mayor rapidez de la normal. La ventaja del gran angular es que nos da unos planos amplios aunque lo sujetos estén muy cerca. El gran angular también puede ser una ventaja cuando nos movemos en espacios físicamente muy reducidos Con el gran angular se producen distorsiones irreales y estrafalarias, aunque a veces éstas son buscadas. Aparecen, sobre todo, cuando los objetos son geométricos y cuanto más ancho es el ángulo de la lente En el gran angular, a diferencia del treleobjetivo, el movimiento de cámara es menor, y dispone la primerade una mayor profundidad de campo. OBJETIVO NORMAL Es un objetivo ideal para los estudios de vídeo y tv. No genera distorsiones de perspectiva y no precisa de espacios con características especiales para conseguir buenos planos. Teniendo en cuenta que el ángulo de visión es de 24º, el objetivo normal satisface este campo angular, se acerca a la visión humana. El teleobjetivo aplana y el gran angular da relieve, pero el objetivo normal no modifica los rasgos de la cara en los primeros planos. Zoom:Es el objetivo de distancia focal variable con el que podemos pasar del objetivo normal al teleobjetivo y al gran angular. El zoom tiene muchas ventajas prácticas, pero el principal inconveniente es que tiene menoscalidad que las imágenes de distancia focal fija. El movimiento de zoom se llama zoom in si se utiliza hacia delante, y si se hace hacia atrás, se denomina zoom out. Cada vez que se realiza un zoom conviene empezar en un plano fijo y terminar con otro fijo a fin de dar un reposo anterior y otro posterior. No es conveniente meter dos zoom seguidos porque no queda bien y porque es una fiorma estupenda para desconcertar al espectador. La realización Trata de adquirir un dominio sobre los recursos del lenguaje televisivo y cinematográfico con el fin de poder expresar con fluidez unas ideas a través de imagen y sonido. Se trata, en definitiva, de un conjunto de reglas y fórmulas que, estando en contínua evolución, posibilitan el control del medio. La televisión incorpora ennla realización variantes propias del medio de comunicación: las dimensiones de la pantalla, las diferencias en la base electrónica de esta pantalla,... etc.De todos modos, en cualquiera de los dos terrenos, es necesaria una minuciosa planificación del proyecto que comineza con la plasmación técnica de las ideas en un guión, pero tenemos que elaborar un plan de rodaje, que estará en función del tipo de programa en el que vayamos a trabajar (informativo, magazine,...). Todos ellos se planifican sobre una idea núcleo, sobre la que se estructura todo el programa. Para plasmar las ideas será, pues, el guión, y la unidad básica de trabajo para crearlo será el plano El plano tiene dos acepciones:

9

1ª. − Es una toma, con sentido más secuencial y temporal. 2ª. − Como encuadre, al límite espacial, parte de la realidad seleccionada. El plano entendido como toma, será todo loo registrado por la cámara desde que apretamos el rec hasta que la paramos. A la vez, cuando hablamos de plano, nos referimos a la unidad de significación más pequeña en un programa, es decir, la mínima unidad espacio − temporal en que puede fragmentarse la narrativa. También refiriéndonos al plano, puede decirse que su duración es ilimitada Otro concepto referido al plano es que tiene valor polisémico.es decir, que su significación es abierta, pudiendo interpretarse de forma diferente en el contexto en el que se incluye El tiempo de la realidad es secuencial, por lo que los acontecimientos se suceden unos a otros. Las técnicas audiovisuales, a fin de reflejar esta realidad, pueden comprimirla o expandirla, esto es, una realidad de 15 minutos se puede pasar a 5 minutos o a 1 hora. Estas condensaciones o expansiones las hace el realizador a base de segmentar la realidad en planos que, una vez entrelazados, permiten que los espectadores hagan su recomposición. Así, el realizador sintetiza la realidad durante la planificación o proceso de agrupación de planos, que lleva al resurgimiento de una nueva realidad (ordenando elementos dispersos). Al referirnos al plano como encuadre, nos estamos remitiendo a la cantidad de información que aparece en la pantalla. Los planos generales o largos servirán para establecer el ambiente y para mostrar el escenario donde va a transcurrir la acción. Los planos cortos poseen un carácter más dramático, es decir, muestran los detalles. La composición es un concepto muy importante en la edición, la producción y la realización. La composición es el arte de disponer todos los elementos de una escena con el fin de destacar el centro de interés. La base de la composición es la estructura artística, a la que se le suma mucha intuición. El plano dirige la mirada hacia un punto, exactamente hacia esa base. Es muy importante el gusto estético del operador de cámara aunque le demos unas reglas. La función fundamental de este operador será la de procurar equilibrar la imagen, a través de la cual el espectador capta el objeto principal del plano, por lo que el plano tiene que ser equilibrado, lo que no quiere decir que tenga que ser simétrico. El equilibrio tiene mucho que ver con el contexto. Lo que está claro es que debemos eliminar espacios vacíos o detalles perturbadores que distraigan la atención del espectador. La relación que se establece entre la horizontalidad y la verticalidad es básia para el ser humano, sobre todo a la hora de componer y visualizar. Esta relación está unida con el equilibrio. Al contrario de la fotografía, en vídeo no nos podemos concretar en una sola imagen, sino que debemos dar sensación de movimiento. Por esto, el proceso de composición será uno de los aspectos más importantes a tener en cuenta por el operador de cámara. Horizontalidad En vídeo, los detalles no se aprecian en los planos generales aunque los distintos elementos de la escena han de guardar un orden para buscar una imagen equilibrada que resulte atractiva. Al hablar de equilibrio, se recomienda no utilizar la simetría ya que no proporciona resultados satisfactorios Cuando hacemos una toma del horizonte, no conviene grabarlo en el centro de la pantalla, sino que hay que situarlo un poco más arriba o abajo, pero nuca en el centro. Se recomienda que para obtener un efecto agradable, se divida la pantalla en tres partes horizontales iguales. Si el horizonte ocupa dos partes, 10

destacaríamos el horizonte. Con los ojos ocurre lo mismo; los debemos colocar en la parte superior de la pantalla. Regla de los tercios Esta regla viene ya desde la antigua Grecia, y todo videógrafo / a debe conocerla Esta regla trata de dividir la composición en una rejilla de líneas verticales y horizontales que dividen la pantalla en 9 partes iguales. Dentro de esta rejilla, se originan 4 puntos, que son considerados centros de interés de la imagen. Si nosotros ubicamos un objeto en el centro de la pantalla, no damos al observador una idea de la dirección en la que tiene que seguir mirando, por lo que vemos que el centro de la pantalla es la zona que resulta menos atractiva para el espectador. Por ejemplo, en algunos informativos, vemos al periodista en un lado de la pantalla, generalmente en el derecho, mientras que en el izquierdo aparece una pantalla que nos lleva al tema tratado. Es necesario situar los temas clave de la composición en los puntos de intersección de la regla de los tercios, porque estos puntos invitan al espectador a explorar el centro de la escena. No es una regla obligatoria, sino que es un punto de referencia para la imagen. Luego, el videógrafo tiene que aportar imaginación. El encuadre de los ojos Nunca conviene encuadrar los ojos en el punto medio de la imagen. Si los ojos se encuentran a 2/3 a la altura de la cara y nosotros los ubicamos en la mitad de la imagen, haríamos una composición extraña para el cerebro. El lugar más adecuado sería entre ½ y los 2/3. Al hablar de los ojos, tenemos que tener en cuenta que son el centro de interés del personaje. A través de ellos, podemos expresar sus estados de ánimo: sorpresa, alegría, cansancio,... etc. Cuando contemplamos un primer plano, lo primero que se mira son los ojos y después, por ejemplo, los labios, la nariz,... etc. El aire o el margen espacial En general, siempre hay una zona de fondo tras el sujeto. Este espacio, en el caso de la cabeza del sujeto se trata del borde superior de la pantalla, lo vamos a llamar aire o margen espacial. Si este espacio es demasiado pequeño, la imagen será incorrecta y nos dará la sensación de que el sujeto está comprimido. Si es excesivo es espacio, aparecerá una sensación de pesadez en la parte inferior Por otro lado, siempre que un sujeto mire hacia un lado del plano, es necesario dejar cierto margen entre los ojos del sujeto y el extremo del encuadre hacia el que dirige la mirada. Asimismo, cuando haces el seguimiento de un sujeto con panorámica o travelling, es necesario dejar aire delante del sentido de la cámara. Preferencia perceptiva Es la zona a la que se dirige el ojo humano al visualizar una composición en una pantalla de cine o televisión. Se trata de la zona interior derecha del campo de visión a la que preferiblemente se va o se decanta. Objetos perturbadores Es necesario evitarlos. Por ejemplo, sacar a una persona con una maceta en su cabeza porque detrás de ella hay un balcón con flores, o que sobresalga un poste,... etc. A veces te olvidas de estos detalles y no te das cuenta porque te fijas exclusivamente en la acción.

11

El movimiento El movimiento es un concepto básico del vídeo, y lo estático de la fotografía. El antecedente del vídeo es la cinematografía, y el de ésta, la fotografía, que congela los movimientos. Éste (el movimiento) puede ser de cámara o de sujeto. Cámara fija y sujeto en movimiento La cámara permanece fija (se establece un espacio en el que se va a originar y desarrollar la historia). Esta zona será el escenario en el que van a estar los sujetos. La cámara fija está relacionada con el teatro, donde el espectador está fijo y la historia se desarrolla a través del movimiento. De hecho, en las primeras poelículas se usa un escenario similar al del teatro, donde se desarrollan las historias, pero al avanzar la técnica (cámaras más ligeras,...), aumenta también la creatividad. Cámara en movimiento La cámara se mueve gracias al avance de la técnica cinematográfica. El movimiento de la cámara se utiliza a través del empleo de la panorámica y del travelling. La panorámica Se obtiene cuando la cámara gira alrededor de uno de sus ejes (horizontal o vertical) sin desplazarse en el espacio. Es decir, el trípode permanece fijo y sólo gira la cámara con uno de sus ejes. La panorámica se emplea para describir una acción o un escenario que no puede abarcarse de una sola vez mediante un solo encuadre fijo. Su efecto práctico es muy similar al que se produce cuando giras la cabeza. Un ejemplo práctico de su necesidad es la contemplación de una montaña: Vamos recorriendo con la cámara desde la parte inferior hasta la superior. La panorámica puede realizarse en todos los sentidos: vertical, horizontal,... e, incluso, si el guión lo exige, puede ser oblícua. Las panorámicas horizontales pueden llegar a los 360º, aunque las verticales están limitadas a un cierto ángulo. Uno de los requisitos de la panorámia es hacerla consuavidad, sin brusquedad, sin interrumpir la acción en seco. Tipos: − Panorámica horizontal de seguimiento: Este movimiento de cámara es el más cómodo. La panorámica hace un seguimiento al sujeto que se mueve. En las tomas de mayor tiempo, el espectador se suele dar cuenta de la relación del sujeto con el entorno. En los planos cortos, el fondo se convierte en algo accidental que generalmente aparece como borroso e indescifrable. − Panorámica horizontal de reconocimiento: La cámara hace una panorámica lenta por la escena para permitir al espectador que se fije en todos los detalles del paisaje, la multitud,... etc. El movimiento de la cámara puede crear mucho dramatismo y espectación (a la vez que decepción). Por ejemplo, el fugitivo se vuelve para atrás porque ha oído un ladrido, se da la vuelta y.. sólo es un perrito faldero. 12

− Panorámica horizontal interrumpida: Es un movimiento largo y suave que se detiene de repente para crear un contraste visual. Esta técnica se puede usar en situaciones dramáticas o cómicas. − Panorámica horizontal en barrido: Es una panorámica rápida. El barrido produce una serie de imágenes transitorias que generalmente son borrosas porque no le da tiempo a la cámara a recoger con nitidez las cosas. El barrido trata de atraer nuestra atención rápidamente hacia la imagen siguiente, produciedo generalmente una relación dinámica o de cambio comparativo. El barrido puede ser utilizado con las siguientes finalidades: − Une diferentes aspectos de la misma escena. − Proporciona continuidad de interés, conectando entre sí a una serie de sujetos o temas similares. − Cambia los centros de atención; de un área de concentración se pasa a otro. − Puede mostrar la causa y el efecto. Por ejemplo, dispara un cañón y una pared cae destruida. − Contrasta o compara, relacionando situaciones extremas (nuevo − viejo, grande − pequeño, rico − pobre,... etc.). − El barrido traslada el tiempo y el espacio. Por ejemplo: Despega un avión, le haces una toma estática, cortas y haces un barrido de cómo aterriza. − Realiza un cambio dramático de dirección, dando al tema un apogeo repentino. − El barrido sigue el ritmo entre dos escenas de acción rápida. − Puede crear un puente entre una escena rápida y otra lenta. Al hacer un barrido hay que ser siempre muy preciso y apropiado para que el resultado sea bueno. Para evitar problemas de precisión en un barrido en su punto final, se realiza el siguiente truco: Se hace una toma estática, se edita un barrido y luego otra toma estática. Las tres partes se juntarán en el master. 3.6.2.) El travelling Toma su nombre del aparato mecánico que se aplica para obtenerlo y que esutilizado para el desplazamiento de la cámara. El travelling consiste en el desplazamiento espacial de la cámara con respecto a su posición inicial. Lo normal es que la cámara se deslice por unos carriles previamente instalados, aunque en algunas ocasiones, la cámara viaja sobre un coche (cámera − car) o sujetadas por grúas. El movimiento originado al desplazar la cámara proporciona una ilusión de solidez y profundidad, y una impresión de realismo que no se puede lograr a través de una cámara estática que realiza un zoom. Tipos: −El travelling avante: Es el que se acreca al sujeto y el que refuerza la atención. Una vista demasiado cercana al sujeto puede resultar desconcertante y, por tanto, de poco interés.

13

−El travelling retro: Normalmente se utiliza para hacer bajar el interés, a la vez que puede relajar la tensión, a no ser que al realizar el movimiento hacia atrás se revelen objetos que no se veían y se despierte nuevamente la espectación. En este último caso, la atención tendería a irse hacia los lados. −El travelling en arco: Se establece realizando un recorrido en círculo alrededor de un sujeto u objeto, con la intención de verlo desde distintos ángulos y puntos. Este tipo de movimiento tiende a ser de exploración, y al hacer el cambio de posición, podemos lograr que un personaje que estaba tapado aparezca en imagen. En general, este tipo de travelling tiene que estar muy controlado, realizándolo con suavidad y a una velocidad adecuada porque, de lo contrario, puede resultar una toma desconcertante y molesta. −El travelling lateral: Es un movimiento transversal a lo ancho de la escena. A través de este travelling, se crea una fuerte ilusión de profundidad ya que los objetos más próximos a la cámara, por efecto del paralelismo, dan la sensación de que se mueven con más rapidez. Durante la realización de un travelling, existe una modificación de la distancia entre la cámara y el objeto. Por tanto, es preciso ajustar de forma constante el enfoque (manual) para mantener al sujeto dentro de los límites de la profundidad de campo. El enfoque manual es una tarea muy complicada que requiere mucha práctica y experiencia El número de ajustes que hay que realizar para que permanezcan perfectamente enfocados dependerá de dos factores: −De la distancia focal del objetivo. −De la distancia que ha de recorrer la cámara en su recorrido. Cuando usemos un teleobjetivo, los ajustes que tengamos que hacer a la cámara deberán ser mucho más precisos porque el teleobjetivo tiene menor profundidad de campo que, por ejemplo, el gran angular. Es importante en el travelling la apertura del diafragma: cuanto más cerrado esté mayor será la profundidad de campo, por lo que procuraremos, si nuestro objetivo es filmar con profundidad, que el diaframa esté lo más cerrado posible. Por supuesto, para cerrar el diafragma deberemos contar con una buena iluminación si no queremos que nuestras imágenes aparezcan oscuras. Elñ travelling y la panorámica puede combinarse entre sí, dando mayor flexibilidad a los encuadres. En general, tanto el travelling como la panorámica pueden realizarse a mano, obteniéndose una mayor espontaneidad que sacrifica la estabilidad y la fijeza del encuadre. El estilo de realizar a mano se ha impuesto en los reportajes callejeros, aunque está muy de moda en los reportajes musicales. Desde el punto de vista expresivo, las panorámicas y el travelling acentúan la sensación de movimiento, incidiendo en las cualidades de la expresión televisiva. Podemos decir, pues, que son unos temas muy aconsejables, pero siempre moviéndonos dentro de unos límites racionales. 3.7.) Los ángulos de toma Es el ángulo que forma el eje óptico del objetivo con el eje horizontal de referencia. Es, en definitiva, el ángulo que forma la cámara con la horizontal. Si el ángulo de toma es nulo, hablamos de una toma normal, de ángulo cero. 14

Si es positivo este ángulo, será un contrapicado. Si es negativo, hablamos de una toma en picado. La utilización de distintos ángulos de toma en la expresividad El ángulo de toma influye considerablemente en la actitud del espectador, que realmente no se da cuenta de ésta. −En la toma normal, el objetivo de la cámara está a la altura de los ojos del sujeto, y si se trata de un objeto, se supone que la cámara está en horizontal. Como mantener de forma constante la altura durante toda la filmación puede resultar de poco interés visual, resulta aconsjable variar o modificar dentro de ciertoslímites la altura de la cámara ya que lo estático nos aburre. −El contrapicado, o vista de la rana, filma al sujeto de abajo hacia arriba, reforzando considerablemente su importancia. Se trata de una toma que contribuye a enfatizar, enorgullecer o ennoblecer. −El picado, o vista de pájaro, filma de arriba abajo. El valor expresivo contribuye a empequeñecer, ridiculizar o mostrar un sujeto vulnerable. Picado = Dominado, Contrapicado = Dominante. 3.8.) Profundidad de campo Cuando enfocamos un objeto, se ajusta la distancia a la que aparece con mayor nitidez. Cuanquier cosa que esté antes o después de ese objeto enfocado irá apareciendo progresivamente desenfocado. El campo de distancia entre los cuales los sujetos tienen una buena definición se llama profundidad de campo. La profundidad de campo puede variar de tres formas: − Cuando se mantiene constante la distancia focal del objetivo y la distancia de enfoque (distancia entre la cámara y el sujeto), y se cierra el diafragma, por lo que cuanto más se cierra, mayor profundidad de campo existirá. − Variando la distancia focal, cambiando el objetivo. La profundidad de campo aumenta cuando aumenta la distancia focal. − Variar la distancia entre la cámara y el sujeto. A medida que aumentamos esta distancia entre la cámara y el objeto, crece la profundidad de campo. 4) LOS PRINCIPIOS DE LA GRABACIÓN DE VÍDEO O AUDIO Cuando surgió la televisión, había sistemas de grabación de audio. Para grabarlo, se usaba el magnetismo, y se intuía que la grabación de imágenes, que aún no existía, vendría dada por este magnetismo. No obstante, la grabación y la reproducción de la imagen presentan mucha más complejidad que la del audio, por lo que se retrasa en unos años la aparición del magnetoscopio. El principal problema de la grabación de vídeo está en el enorme ancho de banda* que se necesitaría aplicando el mismosistema que para la grabación de audio, ya que el ancho de banda viene determinado por la 15

cantidad de elementos a transmitir. En un sistema de televisión de 625 líneas, se requiere un ancho de banda de 5 MHz (5.000.000), y en el caso del sonido, oscila entre los 8 KHz y los 20 KHz (8.000 − 20.000). Esta enorme diferencia es lo que provoca principalmente la tardanza en la aparición de la grabación magnética de imágenes. 4.1.) Grabación de vídeo Para obtenerlas, las imágenes que pasan por el objetivo de la cámara actúan sobre los CCD (sensores de imagen de estado líquido). Estos sensores eran como un mosaico formado por puntos elementales o pixels. Los pixels son elementos sensibles a la luz que, al recibirla, crean cargas eléctricas. Los CCD transforman la luz en señal eléctrica. Cuando hablamos de los CCD, nos referimos a las cámaras y no a los estetoscópios. El proceso de paso luz a señal eléctrica que se realiza en la cámara va a ser fundamental en el proceso de grabación de imágenes, porque antes de grabar hay que transformar las imágenes en señales eléctricas De este modo, la cámara transforma la luz en señales eléctricas y éstas serán grabadas en el soporte magnético (señales eléctricas − campo magnético). Estos campos magnéticos afectan a un material feromagnético que se encuentra en la cinta de grabación, y establece en él na huella permanente. El proceso de reproducción de imágenes es inverso. 4.2.) Cómo es el proceso de grabación Toda corriente eléctrica genera un campo magnético, y viceversa. El material ferromagnético, que se encarga de recoger los campos magnéticos, está constituido por materiales como el hierro, el niquel, el cobalto, el cromo,..., o aleaciones de los mismos. El campo magnético que se genera es proporconal a la señal de vídeo. Todos estos materiales tienen la capacidad de quedar imantados. La cinta magnética consiste en una sucesión de partículas ferromagnéticas que se desplaza frente a la cabeza de grabación, imantándose secuencialmente según el magnetismo que en ese instante esté produciendo la señal de vídeo, adquiriendo mayor o menor grado de magnetización según sea mayor o menor la corriente que lo provoca. En la 2ª fase del proceso, se recupera la señal eléctrica a partir del registro magnético. Si un campo magnético se mueve a lo largo de un conductor (cabeza de registro − elemento captador de campo magnético), en dicho conductor aparece una corriente eléctrica, es decir, hacemos una cinta. La condición necesaria para que entre un campo magnético y un conductor se genere una corriente eléctrica es que exista un movimiento relativo entre ambos En la reproducción de las cintas magnéticas de vídeo se utiliza la última posibilidad; es decir, la cinta y el cabezal se mueven. Mientras, en las de audio, se utiliza la segunda opción, en la que la cinta se mueve a lo largo de la cabeza estática. El hecho de que sean los dos elementos los que se mueven ha hecho posible la creación del magnetoscopio, ya que con este sistema de movimiento doble se palían los problemas del ancho de banda de los que hablábamos al principio. Para evitar este problema, se hace desfilar a la cinta a una elevada velocidad lineal (hasta 57 metros pos segundo). Al hacerlo tan rápido, se acumula más información. Para ahorrar metros de cinta magnética, se hace girar a las cabezas de grabación a la par que se desplaza longitudinalmente la cinta. 16

Existen dos sistemas que hacen posible la grabación y la reproducción de vídeo: −La grabación transversal o cuádruplex. −La grabación helicoidal. La grabación transversal o cuádruplex Los problemas tecnológicos del principio para construir el primer grabador de imágenes se soluciona en 1956 por MPEX, que construye el primer magnetoscopio profesional que cumplía los requisitos de radiodifusión (broadcast = aparato profesional homologado). Este primer sistema utilizaba el sistema de grabación transversal, que emplea cuatro cabezas situadas en los extremos de una rueda o tambior desplazadas entre sí 90º. El tambor gira transversalmente, grabando en líneas paralelas el ancho de banda, que tiienen mucha información. La cinta magnetizada que se emplea es de 2 pulgadas de anchura (50,8 mm.). La cinta se desplaza a 38 cm./seg. longitudinalmente, mientras que el tambor gira a 250 revoluciones/seg. Simultaneamente al desplazamiento de la cinta, se produce un giro del tambor; de este modo, las pistas se graban paralelamente con una pequeña inclinación (0,50º) con respecto a la vertical. Cada una de estas pistas paralelas contiene la información correspondiente a 15,625 líneas de las 625 líneas que componen un cuadro de tv en los sistemas de televisión PAL y SECAM. Este sistema no puede congelar la imagen porque sólo tiene una parte mínima. Los magnetoscopios de reproducción transversal, al tener un sistema de lectura de 4 cabezas, complican los circuitos, con lo que aumenta el peso y el tamaño de los equipos. Tiene una ventaja: Ofrece una absoluta compatibilidad entre los aparatos de grabación transversal (nos referimos a la cinta de 2 pulgadas). Este sistema, dados los problemas de congelación, tiende a desaparecer. La grabación helicoidal Las dificultades antes mencionadas fueron solucionadas al decubrirse el sistema que aparece en la década de los 60. En este sistema, la cinta envuelve a un tambor que gira en el mismo sentido que la cinta. Los cabezales entán en el tambor, y sobresalen a través de una ligera hendidura. Las cabezas del tambor exploran la cinta de forma oblícua, dando lugar a una disposición oblícua de las pistas magnéticas grabadas. En este tipo de grabación, cada una de las pistas recoge la información correspondiente a un campo de televisión. Cada pista lleva 312,5 líneas (el cuadro o fotograma tiene 625 líneas), y la velocidad de giro del tambor de dos cabezas es de 25 revoluciones/seg. , por lo que se producen 50 campos/seg, obteniendo así 25 frames o fotogramas/seg. Este sistema de dividir en campos evita el parpadeo. El sistema helicoidal emplea los formatos de 1 pulgada, 3/4 de pulgada, 1/2 pulgada y ¼ de pulgada (nosotros utilizamos el de ½ pulgada). Sistema en Azimut (o doméstico) Todos los sistemas dejan un espacio entre línea y línea de grabacion para que el cabezal pueda realizar una 17

lectura nítida y evitar la diafonía (leer la pista correspondiente más la adyacente o parte de ésta), que alteraría la señal de salida. En el sistema Azimut, las pistas están juntas, y para evitar la afonía, las pistas se colocan con un ángulo diferente de inclinación y en sentido inverso, mientras en el sistema helicoidal todas las pistas tienen el mismo sentido pero con espacios libres. 4.3.) La cinta electromagnética Pistas mínimas Las pistas mínimas son una de vídeo y otra de audio. Pueden existir hasta 4 y un contol de track o pista de sincronismos, que sirve para regular la velocidad de desplazamiento de la cinta con el objetivo de que se produzca una perfecta sincronización entre las cabezas lectoras y las pistas magnéticas grabadas en la cinta. Otra pista necesaria es la pista de órdenes, donde se incluye el Time Code (TC). Esta pista de órdenes es muy útil para hacer la selección de imágenes a fin de realizar la edición. Cinta electromagnética en general Las cintas de vídeo están compuestas por una película plástica sobre la que se deposita un metarial ferromagnético reducido a particulas que se mezclan con una sustancia aglutinante. En el proceso de fabricación de las cintas magnéticas, las partículas son orientadas de forma diferente según el sistema de grabación al que vayan orientadas (helicoidal o transversal). Las propiedades magnéticas de la cinta dependerán de la orientación de estas partículas. En la grabación, las partículas, sometidas a la acción de los acmpos magnéticos, adquirirán grados de magnetización proporcionales a la señal de vídeo aplicada. De esta forma, tras la grabación, la cinta queda dispuesta para la reproducción. 4.4.) La relación señal − ruido Todos los componentes que integran una cadena de tratamiento de señal (magnetofón, cinta magnética,... etc.), llevan consigo la creación de unas señales interferentes no deseadas, debidas principalmente al calentamiento de los componentes electrónicos o a los elementos mecánicos móviles. Estas señales interferentes reciben el noimbre de ruido. Éste se encuentra mezclado con la señal útil, y es muy difícil eliminarlo completamente sin dañar la útil. Por esta razón, todos los elementos y aparatos que intervienen en el tratamiento de la señal aportan su propio ruido a la señal utilizable. Cuantificar esta señal Para poder cuantificar la importancia del ruido con respecto a la señal, se compara el máximo nivel que puede alcanzar la señal útil con el máximo nivel que puede alcanzar elruido, por lo que si relizamos el cociente, aparece la relación en deciBelios (dB). Cuanto mayor sea la señal y menor el ruido, mejor será la señal y, por tanto, mayor número de deciBelios. Para los equipos domésticos, es suficiente que esta relación se encuentra entre los 40 y los 43 dB, mientras que los profesionales tendrán que alcanzar los 55dB.

18

Ausencia de señal o Drop Out Es la pérdida de imagen en determinadas partes de la grabación que se manifiesta a través de rayas, puntos o nieve. Esto ocurre debido al desprendimiento de las partículas magnéticas, a su falta de homogeneidad, a la acumulación de partículas de polvo sobre la emulsión, al desgaste de la cinta por un uso excesivo o a la suciedad de las cabezas del magnetoscopio. Para que no se produzcan problemas de este tipo y para conservar mejor la cinta, existen unas recomendaciones básicas: − Las cintas siempre se colocan en posición vertical. − Hay que protegerlas del polvo, que es uno de sus peores enemigos. − El calor excesivo también las puede deformar. − Se recomienda evitar los rayos solares que inciden directamente. − La humedad. Evitarla. 4.6.) La narrativa de las imágenes En la narrativa de las imágenes, vamos a tener en cuenta los siguientes parámetros: − El orden. − La duración. − El ritmo. − El tiempo de transición entre planos. El orden El plano tiene un valor polisémico, es decir, que su significado está condicionado por los planos anteriores y posteriores. Por ello, el orden es importante. A veces, con los mismos planos aunque variando el orden, podemos contar una historia diferente. La duración No se pueden dar unas reglas fijas acerca de la duración de los planos, pero podemos decir que debe existir una cierta adecuación entre duración y contenido, de forma que cuanto más contenido tenga un plano, mayor duración deberátener a fin de transmitir completamente el mesaje al espectador. El ritmo Es un elemento importante para captar l atención de la audiencia. El ritmo es la cadencia (secuencia) de los elementos visuales, temporales y sonoros de un programa, producido por el ordenamiento y yuxtaposición de dichos elementos. El ritmo está regulado por la duración y combinación de los planos, y está íntimamente asociado con el 19

concepto de tiempo, aunque éste en el lenguaje audiovisual pùede tener distintos contenidos (tiempo de acción en la vida real, tiempo de proyección,... etc.). El tiempo de transición entre planos La transición es la forma que se adopta para pasar de un plano al siguiente. Según el mensaje que deseemos tranmitir, podemos seleccionar un tipo de transición u otro. Los tipos de transición los podemos dividir en cuatro: −El corte. −El fundido. −El encadenado o mezcla. −La cortinilla. EL CORTE Es la forma más simple de tranbsición, y sirve, sobre todo, para asociar rápidamente dos situaciones distintas. Produce un cambio rápido y tiene un impacto mayor que el cambio gradual. EL FUNDIDO La técnica de transición por fundido permite realizar la desaparición y parición graduales de una imagen pasando por un oscurecimiento de la pantalla. El fundido puede ser de entrada, de salida o de entrada / salida. El de entrada partiría del color que hemos seleccionado (generalmente es el negro) e iría desapareciendo este color hasta que aparece nítifamente la imagen. En el de salida, por el contrario, el plano terminaría hacia una transición del color. Y finalmente, el fundido de salida /entrada, sería una enlace entre dos secuencias: pasa de un plano al color, y de éste al siguiente plano. Este fundido se usa en general para conectar secuencias que quieran expresar un cambio de tiempo o de lugar. EL ENCADENADO O MEZCLA El encadenado se produce cuando desaparece una imagen mientras aparece la siguiente, por lo que hay un momento en el que las dos están en pantalla. La mezcla se puede considerar como una transición suave en la que hay un mínimo de ruptura del fluir visual. Las mezclas son en general comparativas, esto es, pueden señalar aspectos similares o diferentes entre dos o más sujetos u objetos. Puede también comparar tiempos o puede ayudar a relacionar áreas visuales. LA CORTINILLA Es un efecto visual considerado como una transición decorativa. Se puede realizar de muy distintas maneras que están en función de la operatividad electrónica del sistema de mezclas. El efecto de la cortinilla puede ser el de descubrir, revelar, cancelar o fragmentar según se aplique, pero hay un aspecto que hay que resaltar: este modo de transición destaca la naturaleza plana de la pantalla de televisión. 20

La cortinilla es usada, sobre todo, en la repetición de imágenes futbolísticas. Aspectos de la transición La transición porcorte utiliza dos magnetoscopios (player y recorder), pero cuando tenemos que hacer otro tipo de transición, tendremos que contar con tres magnetoscopios (2 player y 1 recorder), porque si queremos hecer, por ejemplo, una mezcla de dos planos, tendremos que tener en pantalla ambos. 4.7.) El A − B roll La mesa de realización que cuenta con el sistema necesario para llevar a cabo las mezclas, los fundidos o las cortinillas es el A−B roll. Este sistema cuenta con 2 player y 1 recorder. Cuando queremos realizar un encadenado, debemos activar la orden MIX e indicar también la velocidad a la que queremos que se dé la transición. Lo mismo ocurre con el findido. Para activar la cortinilla, debemos activar la orden WIPE. * Ancho de banda: Es el espacio radioeléctrico que ocupan las informaciones de audio y vídeo en su transmisión, y el ancho de banda en vídeo es muy amplio debido a las elevadas frecuencias en las que se transmite. 21

21

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.