Luis Torres Freixenet

Buscar Índice DIGITALIZACIÓN DEL PATRIMONIO DOCUMENTAL Luis Torres Freixenet Jefe de Unidad de Sistemas de Reproducción de Documentos Ayuntamiento d

4 downloads 122 Views 3MB Size

Recommend Stories


Autor: Daniel Torres Micó Colaborador: Juan Luis Perello Zabala Web:
Euros de Prueba de España Euros de prueba Autor: Daniel Torres Micó Colaborador: Juan Luis Perello Zabala Email: [email protected] Web: www.mone

Dra Nimbe Torres y Torres
Dra Nimbe Torres y Torres CURRICULUM VITAE Datos personales: NIMBE TORRES Y TORRES R.F.C. TOTN5702246V3 Sexo: femenino Estado civil: casada Fecha de

I. ANTECEDENTES.- Carlos Torres y Torres Lara
Carlos Torres y Torres Lara 1942 - 2000 Alonso Morales Acosta Carlos Torres Morales Rafael Torres Morales Juan Carlos Benavente Teixeira Miguel Angel

Story Transcript

Buscar

Índice

DIGITALIZACIÓN DEL PATRIMONIO DOCUMENTAL Luis Torres Freixenet Jefe de Unidad de Sistemas de Reproducción de Documentos Ayuntamiento de Zaragoza [email protected]

Anterior

Siguiente

Buscar

Índice

Anterior

Siguiente

Buscar

Índice

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 - Pags. 241-298

DIGITALIZACIÓN DEL PATRIMONIO DOCUMENTAL Luis Torres Freixenet

Jefe de Unidad de Sistemas de Reproducción de Documentos Ayuntamiento de Zaragoza [email protected]

Introducción En primer lugar dar las gracias a la Asociación Andaluza de Archiveros por la oportunidad que nos brinda de establecer contacto. Es materialmente imposible el poder resolver todas las dudas referidas a la digitalización del Patrimonio Documental. Pero la intención es que la información que estos días manejaremos por lo menos nos tiene que servir para iniciarnos de una manera correcta en este entorno tan atractivo como exigente. Para ello realizaremos una aproximación teórica que os sirva para adentraros y posteriormente en el foro podamos establecer un debate lo más enriquecedor posible. No os dejéis nada en el tintero. No puedo terminar esta introducción sin recordar que cada vez son más necesarios los conocimientos en diferentes campos tecnológicos, o lo que sería mejor, el trabajo en equipo y de manera multidisciplinar. Los conocimientos de informática, fotografía, archivística, documentación, etc. convierten en una tarea más complicada el poder controlar todos los aspectos relacionados con la digitalización. La realización de cursos de digitalización “prácticos” suelen ser complicados de organizar: es realmente difícil encontrar lugares con la infraestructura necesaria para de manera práctica abordar estas materias. 1. Digitalización de documentos 1.1. La imagen digital Las IMÁGENES DIGITALES son fotos electrónicas tomadas de una escena o escaneadas de documentos fotografías, manuscritos, textos impresos e ilustraciones. Se realiza una muestra de la imagen digital y se confecciona un mapa de ella en forma de cuadrícula de puntos o elementos de la figura (píxeles). A cada píxel se le asigna

Anterior

Siguiente

Buscar

Índice

242

Luis Torres Freixenet

un valor tonal (negro, blanco, matices de gris o color), el cual está representado en un código binario (ceros y unos). Los dígitos binarios (“bits”) para cada píxel son almacenados en un ordenador en una secuencia, y con frecuencia se los reduce a una representación matemática comprimida. Luego el ordenador interpreta y lee los bits para producir una versión analógica para su visualización o impresión. Pero ¿qué es un bit? Un bit no tiene color, tamaño ni peso y viaja a la velocidad de la luz. Es el elemento más pequeño en el ADN de la información (1) Por razones prácticas hemos de considerar que un bit es un 1 o un 0. El significado del 1 o el 0 es una cuestión aparte. En los inicios de la informática, una cadena de bits representaba por lo general información numérica. Hoy en día hemos conseguido digitalizar cada vez más tipos de información, auditiva y visual, por ejemplo, reduciéndolos de igual manera a unos y ceros. Digitalizar una señal es tomar muestras de ella de modo, que poco espaciadas, puedan utilizarse para producir una réplica aparentemente perfecta. En un CD de audio, por ejemplo, el sonido se ha sometido a muestreo 44,1 mil veces por segundo. La forma de onda de audio (nivel de presión de sonido medido como voltaje) se graba como números discretos (que, a su vez, se convierten en bits). Estas cadenas de bits, cuando se reproducen 44,1 mil veces por segundo, nos proporcionan una versión en sonido continuo de la música original. Las medidas sucesivas y discretas están tan poco espaciadas en el tiempo que no las oímos como una sucesión de sonidos separados, sino como un tono continuo. Lo mismo sucede con una fotografía en blanco y negro. Imaginemos una cámara electrónica que extiende una fina trama sobre una imagen y luego graba la gradación de gris que capta en cada célula. Si le damos al negro un valor de 0 y al blanco un valor de 255, los distintos matices de gris se situarán entre estos dos valores. Una cadena de 8 bits se llama byte, y tiene 256 permutaciones de unos y ceros, empezando por 00000000 y terminando con 11111111. Con gradaciones tan sutiles y una trama tan fina, la fotografía se puede reconstruir perfectamente. Tan pronto como se usa una plantilla más gruesa o una escala insuficiente de grises, uno empieza a ver intervenciones artificiales digitales, como contornos y volúmenes. Cuando usamos bits para describir sonido e imagen, existe una ventaja natural en usar tan pocos bits como sea posible. Hay una cierta analogía con la conservación de la energía. Sin embargo, el número de bits que se emplean por segundo o por centímetro cuadrado está directamente relacionado con la fidelidad de la música o la imagen. Normalmente interesa digitalizar con una resolución muy alta y luego usar una versión de menos resolución. La economía de bits la determinan en parte TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

243

Digitalización del Patrimonio Documental

las restricciones del medio en que se almacena la imagen o el sonido o el medio por el cual se difunde. Conceptos básicos para la digitalización documental: del libro al píxel. El número de bits que se transmiten por segundo a través de un canal determinado es el ancho de banda de este canal. Es la medida del número de bits que pueden desplazarse por una tubería. Ese número o capacidad tiene que igualarse cuidadosamente con el número de bits que se necesitan para reproducir un tipo determinado de datos (voz, música, vídeo…): —— 64.000 bits/segundo válido para reproducir la voz. —— 1,2 mll bits/s para la música de alta fidelidad. —— 45 mll bits/s para reproducir imágenes.

Aquí es donde están apareciendo continuos avances con más y mejores sistemas para comprimir estos bits (por ejemplo el “LTW - software de compresión de imágenes” del Grupo GATCOM- Universidad Miguel Hernández presentado en Madrid el 12 de Noviembre del 2008). Además se esta consiguiendo a bajo coste y con alta calidad. Es como si fuéramos capaces de hacer cubitos de capuchino y, al añadir agua, éste apareciera ante nosotros tan rico y aromático como si estuviera recién hecho. De forma paralela al avance en la compresión de la información digital se ha avanzado en sofisticadas técnicas para la corrección de errores. En un CD de audio un tercio de los bits se usan para la corrección de errores. Resolución La resolución es la capacidad de distinguir los detalles espaciales finos. Por lo general, la frecuencia espacial a la cual se realiza la muestra de una imagen digital (la frecuencia de muestreo) es un buen indicador de la resolución. Este es el motivo por el cual dots-per-inch (puntos por pulgada) (dpi) o pixels-per-inch (píxeles por pulgada) (ppi) son términos comunes y sinónimos utilizados para expresar la resolución de imágenes digitales. Generalmente, pero dentro de ciertos límites, el aumento de la frecuencia de muestreo también ayuda a aumentar la resolución. Dimensiones de Píxel Las dimensiones de píxel son las medidas horizontales y verticales de una imagen, expresadas en píxeles. Las dimensiones de píxel se pueden determinar multiplicando tanto el ancho como la altura por el dpi. Una cámara digital también tendrá dimensiones de píxel, expresadas como la cantidad de píxeles en forma horizontal y en forma vertical que definen su resolución (por ejemplo: 2.048 por 3.072). TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

244

Luis Torres Freixenet

La profundidad de bits La PROFUNDIDAD DE BITS es determinada por la cantidad de bits utilizados para definir cada píxel. Cuanto mayor sea la profundidad de bits, tanto mayor será la cantidad de tonos (escala de grises o color) que puedan ser representados. Las imágenes digitales se pueden producir en blanco y negro (en forma bitonal), a escala de grises o a color. Una imagen bitonal está representada por píxeles que constan de 1 bit cada uno, que pueden representar dos tonos (típicamente negro y blanco), utilizando los valores 0 para el negro y 1 para el blanco o viceversa. Una imagen a escala de grises está compuesta por píxeles representados por múltiples bits de información, que típicamente varían entre 2 a 8 bits o más. Una imagen a color está típicamente representada por una profundidad de bits entre 8 y 24 o superior a ésta. En una imagen de 24 bits, los bits por lo general están divididos en tres grupos: 8 para el rojo, 8 para el verde, y 8 para el azul. Para representar otros colores se utilizan combinaciones de esos bits. Una imagen de 24 bits ofrece 16,7 millones (2 24 ) de valores de color. Cada vez más los escáneres están capturando 10 bits o más por canal de color y por lo general imprimen a 8 bits para compensar el “ruido” del escáner y para presentar una imagen que se acerque en el mayor grado posible a la percepción humana. Cálculos binarios para la cantidad de tonos representados por profundidades de bits comunes: —— —— —— —— —— —— ——

1 bit (21) = 2 tonos 2 bits (22) = 4 tonos 3 bits (23) = 8 tonos 4 bits (24) = 16 tonos 8 bits (28) = 256 tonos 16 bits (216) = 65.536 tonos 24 bits (224) = 16,7 millones de tonos

Destacaríamos de la tecnología digital frente a la analógica: —— A favor yy Imbatible como elemento de difusión: a una imagen digital puede tener acceso hoy en día prácticamente toda la población y además de una manera cómoda y rápida. yy Posibilidad de adaptar las imágenes a otros patrones: artísticos, de restauración, académicos, etc. yy Posibilidad de capturar en color, y así conseguir la imagen conforme a nuestras necesidades: binaria o grises.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

245

Digitalización del Patrimonio Documental

—— En contra yy Normalización cambiante yy Necesidad de hardware que “interprete” los datos. yy Estabilidad física muy limitada, se habla en los CD’s de 50 años, pero pruebas independientes sobre CD’s han disparado la alerta al constatar que en periodos de 2 y 3 años hay altos % de problemas. Y esto se puede hacer extensible a la reciente implantación de los DVD yy Peligrosa obsolescencia: ¿quien no recuerda los disquetes de 5 ¼, o las fichas perforadas...? Incluso no es necesario retroceder tanto en el tiempo, actualmente ya tenemos que estar realizando migraciones de soporte CD-ROM a DVD, es decir, el Refreshing (recopia). yy El reto del futuro es la preservación digital, y entre los muchos problemas que nos podemos encontrar está el alto coste.

1. Infraestructura Técnica

A la hora de enfrentarse a un proyecto de digitalización es necesario plantearse una infraestructura técnica que nos permitan hacer viable el proyecto con unos niveles de calidad lo suficientemente contrastados. De forma general cuando nos estamos refiriendo a la infraestructura técnica estamos haciendo hincapié en la cadena o flujo de trabajo. Aunque la vamos representar lineal muchas veces presenta ramificaciones laterales, y/o pasos recurrentes. La cadena de digitalización y la infraestructura técnica que la sostiene se dividen en tres componentes fundamentales: —— Creación —— Gestión —— Entrega.

La Creación de imágenes se ocupa de la captura o conversión inicial de un documento u objeto a la forma digital, por lo general con un escáner o cámara digital. A la imagen inicial se le pueden aplicar uno o más pasos de procesamiento de archivo o de imagen, que pueden alterar, agregar o extraer datos. Las clases generales de procesamiento incluyen la edición de la imagen (escalarla, comprimirla, otorgarle nitidez, etc.) y la creación de metadatos (2) La Gestión de archivos se refiere a la organización, almacenamiento y mantenimiento de imágenes y metadatos relacionados. La Entrega de la imagen comprende el proceso de hacer llegar las imágenes al usuario y abarca redes, dispositivos de visualización e impresoras. Los ordenadores y sus interconexiones de red son componentes integrales de la cadena de digitalización. Cada eslabón de la cadena comprende uno o más ordenadores TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

246

Luis Torres Freixenet

y sus diversos componentes (RAM, CPU, bus interno, tarjetas de expansión, soporte de periféricos, dispositivos de almacenamiento y soporte de red). Los requisitos de configuración cambiarán, dependiendo de las necesidades informáticas específicas de cada componente. Por lo tanto volveremos sobre las necesidades informáticas a cada paso del camino. A medida que revisemos cada paso, hay que considerar si estamos preparados para llevarlo a cabo nosotros mismos o si trasladaremos el trabajo a un proveedor externo. Las tareas que se llevan a cabo en nuestros centros requieren la mayor atención, aunque la externalización no reduce la necesidad de un programa de control de calidad planeado de forma sumamente cuidadosa. Es fundamental para evaluar y negociar con éxito los servicios externos desarrollar una base de conceptos y procedimientos consensuados tanto en su desarrollo como en su compresión. Es decir, que cuando nosotros nos estemos refiriendo “a imágenes a 300 dpi en jpg nivel 9” hay que procurar que ellos y nosotros entendamos lo mismo. La tecnología necesaria para navegar desde un extremo de la cadena de digitalización al otro consta principalmente de: hardware, software y redes. Éstos son el centro de esta sección. Una perspectiva integral de la infraestructura técnica también incluye protocolos y normas, políticas y procedimientos (para el flujo de trabajo, mantenimiento, seguridad, actualizaciones, etc.) y los niveles de habilidad y responsabilidades del trabajo del personal de una organización. Sin embargo, ni siquiera los aspectos básicos de la infraestructura técnica se pueden evaluar en forma completamente aislada. Las acciones y consideraciones relacionadas que afectarán las decisiones respecto de la infraestructura técnica incluyen: —— Determinación de los requisitos de calidad basándose en los atributos de los documentos (Patrón de referencia). —— Valoración de las virtudes y defectos institucionales, los horarios y el presupuesto (Gestión). —— Comprensión de las necesidades del usuario (Presentación) —— Valoración de planes a largo plazo (Preservación digital).

Las decisiones en lo que respecta a la infraestructura técnica requieren una planificación cuidadosa debido a que la tecnología de la digitalización de imágenes cambia rápidamente. El mejor modo de minimizar el impacto de la depreciación y la obsolescencia es a través de la evaluación cuidadosa, y evitando las soluciones únicas y patentadas. Si los equipos elegidos son los indicados para los usos previstos y los resultados TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

247

esperados, y están sincronizados con horarios realistas, el rendimiento de las inversiones se maximizará. Cinco recomendaciones prácticas: I. Se puede llegar a considerar el uso de un integrador de sistemas que pueda garantizar que todos los componentes interoperan entre sí sin dificultad. Aunque la realidad me ha demostrado que esto es prácticamente imposible. Por eso tendremos que realizar la selección de componentes nosotros mismos, aunque eso si manteniendo la cantidad de dispositivos en el mínimo posible. II. Elegir productos que cumplan con las normas y que tengan una amplia aceptación en el mercado y un fuerte apoyo por parte del proveedor. III. No somos, todavía, un referente para la industria con lo que siempre tendremos que estar realizando adaptaciones, en algunos casos de “bricolaje”. A pesar de todos nuestros esfuerzos hay que estar preparados para los problemas típicos: el “plug and play” no siempre funciona y muchas veces tendremos que recurrir al famoso “reset”. IV. Siempre que se pueda es conveniente comprar productos de calidad y además hay que preparar presupuestos para, de forma periódica, realizar actualizaciones y reemplazos. No hay que esperar hasta el último momento ya que ello puede acarrear problemas de pérdida de tiempo y dinero. V. La digitalización es un trabajo multidisciplinar y de máxima cooperación. Mi experiencia me indica que los resultados a la larga son mejores en los sitios donde se han configurado equipos de trabajo abiertos donde el personal técnico puede participar en las discusiones desde el comienzo y con frecuencia. Como hemos indicado al principio la cadena de digitalización en realidad no es lineal sino que en realidad presenta una forma compleja. Seremos tan fuertes como el más débil de los eslabones, y el mejor remedio es tener localizado siempre el eslabón más débil.

En el momento de elegir el dispositivo de captura para nuestra digitalización se nos abre un panorama muy amplio de opciones. La realidad es que casi ninguno está pensado para aplicaciones de archivos y bibliotecas sino para grandes mercados como por ejemplo los segmentos de negocios y de artes gráficas. Cuando nuestro trabajo se centra en Archivos, Bibliotecas y Hemerotecas la diversificación de sus fondos da como resultado que muy pocas máquinas puedan servir para cubrir todas las necesidades. Y las pocas que existen tienen un coste muy alto. Podemos hacernos una serie de preguntas iniciales acerca de cualquier escáner* *Nota: Utilizamos el término escáner para referirnos a todos los dispositivos de captura de imágenes, incluyendo las cámaras digitales. I. ¿Es este escáner compatible con mis documentos? ¿Puede manejar la variedad de tamaños, tipos de documentos (hojas simples, volúmenes encuadernados), medios (opacos, transparentes), y el estado de conservación de los originales? II. ¿Puede este escáner producir la calidad requerida para satisfacer mis necesidades? Siempre es posible obtener una imagen de calidad inferior partiendo de una de TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

248

Luis Torres Freixenet

calidad superior, pero por más magia digital que se utilice, no se podrán restablecer con exactitud detalles que, para empezar, nunca se han capturado. Entre los factores a considerar se incluyen la resolución óptica (opuesta a la interpolada), la profundidad de bits, el rango dinámico (la habilidad de registrar detalles a lo largo del mayor rango de tonos desde las sombras a los puntos de luz), y la relación señalruido. III. ¿Puede este escáner soportar mi programa de producción y presupuesto de conversión? (Prestar atención a las afirmaciones de rendimiento - con frecuencia un factor de suma importancia en el costo del escáner). ¿Cuáles son las capacidades de manejo de documentos del mismo? ¿Su ciclo de servicio y de vida útil? ¿Que tipo de contratos de mantenimiento nos ofrecen? ¿Tiene servicio técnico en la ciudad? ¿Cuál es su tiempo de respuesta? Etc. IV. En el caso de ser necesario (aunque no forma parte del tema) ¿puede este escáner integrarse en un sistema de Digitalización Certificada.

En nuestro caso uno de los factores que más va a influir en la adquisición del dispositivo será el precio. Además con un agravante. Por ejemplo, en la Unidad de Sistemas de Reproducción de Documentos (en adelante USRD) del Ayuntamiento de Zaragoza contamos con una cámara de microfilme de 1988 que todavía sigue prestando servicio. Su coste de adquisición en 1988 entre la cámara y el resto de los componentes fue de diez millones de pesetas. Esto hoy en día es impensable con la tecnología digital. Hay que tener en cuenta que la capacidad de amortización de equipos se tiene que producir en un periodo de cinco años como máximo puesto que nos podemos encontrar en ese plazo de tiempo con la imposibilidad de poder continuar realizando la captura con unos niveles de calidad/precio asumibles por nuestra institución. Una breve Tipología Los escáneres planos son el tipo de escáner en el que todos pensamos en seguida. Es el más popular, y esta popularidad ha llevado consigo una amplia variedad de modelos, fabricantes y precios. Desde 99 € hasta 1900€ Precisamente es un tipo de escáner no muy apropiado para nuestros centros, teniendo su uso muy limitado a una tipología muy concreta de documento: aquellos que no están encuadernados. Podemos encontrar algunas variaciones en estos escáneres, por no extenderme, indicaré que los modelos sin ADH (alimentadores automáticos) y con posibilidad de capturar originales no opacos en toda la superficie del escáner son los más versátiles para un entorno de Archivo/ Biblioteca/ Hemeroteca. Repito que la diversidad de nuestro patrimonio documental impide en la mayoría de los casos el contar con un dispositivo de captura único e ideal, sino que contaremos con herramientas más o menos especializadas para así conseguir los mejores resultados. TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

249

Digitalización del Patrimonio Documental

Una variación que proviene de la experiencia acumulada en los entornos de la microfilmación son los escáneres de columna aérea (=cámara planetaria de microfilmar). En este tipo de escáner el sensor se coloca en un brazo o columna vertical mientras que el documento (normalmente encuadernado) esta justo debajo. De esta manera el original no sufre ningún tipo de presión y su manipulación es más sencilla. He llegado a ver desde los dispositivos industriales de gran calidad (y alto precio) a soluciones de bricolaje con escáneres planos que se han colocado en una columna de manera invertida, con unos contrapesos de forma que subiendo y bajando el escáner sobre una cuna o mesa prensa-libros se realizan las capturas. Los escáneres de tambor sólo los nombramos pero tienen su aplicación fundamentalmente en los entornos de artes gráficas. Los escáneres de microfilme son el complemento ideal para trasladar todos nuestros fondos microfilmados a entornos digitales. Actualmente el avance que presenta este tipo de dispositivos garantiza una fiabilidad y calidad muy alta. Su gran ventaja es el alto volumen de producción que pueden llegar a producir (un rollo de microfilme de 35mm en un hora). Su mayor inconveniente es el precio rondando en muchos casos los 40.000 €. Dejo para el final dos dispositivos, por su trascendencia y accesibilidad: las cámaras digitales de alta resolución y las fotocopiadoras de última generación. Las Cámaras Digitales La evolución que en los últimos dos años han tenido este tipo de dispositivos ha dado como resultado herramientas muy versátiles y que cubren buena parte de nuestras necesidades. Además la evolución continúa a un ritmo imparable proporcionando dispositivos cada vez más potentes y con precios más asequibles. Cómo es lógico nos estamos refiriendo a las cámaras digitales de la gama profesional que son las que por prestaciones y recursos añadidos mejor nos pueden servir. Actualmente en la USRD contamos con cuatro cámaras: —— Una Canon EOS 1Ds reflex de 11,5 mll de píxeles, lo que nos permite capturar en su tope de calidad documentos de hasta DINA2 (42cmx59,4cm). Esta cámara nos ofrece un fichero tif plano en RGB de 27 Mb. Documentos de superficie mayor pueden ser capturados pero no con los parámetros de calidad que para nuestros fines de conservación necesitamos —— Dos Canon EOS 5D reflex de 12,5 mll de píxeles. Ambas dotadas de objetivos de 50mm. Su uso más inmediato será para los documentos que o bien por el tamaño del volumen o por el tamaño de la tipografía no podemos capturar a doble página con la CANON EOS 1Ds. Para esta captura a página sencilla tenemos podemos usar dos dispositivos: TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

250

Luis Torres Freixenet yy Columna KAISER con adaptador para dos cámaras conectado a dos CPU’s. yy De la casa ATYZ el llamado BOOKDRIVE DIY adquirido en noviembre del 2008.

—— Una Canon EOS 350D de 8,5 mll de píxeles. Fundamentalmente la usamos para las peticiones puntuales que nos realizan los usuarios. Dejando la Canon 1Ds y las EOS 5D para la digitalización programada.

En el segmento de las cámaras digitales podemos encontrar diferentes opciones, todas ellas válidas, y limitadas por nuestro presupuesto: cámaras reflex equivalentes a las antiguas de 35mm; de medio y gran formato con respaldo digitales; específicas para capturar fondos documentales, etc. Estas cámaras tienen varios elementos a destacar: —— Cuentan con un sensor de mayor tamaño lo que posibilita que la distancia focal de su óptica sea la real y no haya que realizar ningún tipo de conversión. Por ejemplo en otros modelos que cuentan con menos resolución cuando se usaba un zoom de 28-135mm en realidad estábamos usando un zoom de 44,8-216mm. —— El software con el que viene la cámara permite trabajar en modo remoto. Esto quiere decir que podremos realizar los ajustes, las pruebas, las correcciones, los disparos y el almacenamiento directamente en el ordenador. De manera que en combinación con una columna de reproducción y una mesa prensa-libros contamos con una unidad digital muy versátil para los entornos de Archivo, Bibliotecas y Hemerotecas. —— El ritmo de producción es muy alto puesto que la cámara realiza las capturas con las velocidades de una cámara fotográfica y si contamos con un ordenador potente podremos realizar una alta cadencia de capturas. Precisamente esta alta cadencia también es su punto débil: el obturador no está pensado para realizar trabajos tan intensivos aproximadamente con 300 ó 500 mil disparos el obturador suele fallar, por lo que suele ser conveniente tener preparado un segundo cuerpo sino queremos parar mientras se realiza la reparación —— Nos permite capturar en color, lo que para muchos documentos es un valor añadido muy importante y en algún caso fundamental. —— Las imágenes capturadas digitalmente con una cámara son salidas digitales puras, mientras que una imagen escaneada de alto nivel registrada desde una imagen intermedia de película no lo es. Estas últimas siempre van a contener algunas impurezas electrónicas o físicas en la superficie de la película o en el grano de la imagen de la película (para el caso de la digitalización de artefactos fotográficos en soporte papel o negativo).

El ritmo que la industria fotográfica está incorporando al entorno digital me obliga siempre a tener que retocar este apartado por las continuas novedades que TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

251

Digitalización del Patrimonio Documental

van apareciendo. No obstante en el campo de las cámaras digitales podemos citar la opinión de Niels Ohrgaard, directivo de Hasselblad en Europa, que recientemente afirmó que el límite de los sensores de formato completo en 35 milímetros es de unos 18 ó 20 megapíxeles, mientras que Hasselblad puede alcanzar en un futuro cercano los 30 (3). Por ejemplo: —— CANON EOS 5D Mark I: Cámara con un CMOS de 35,8X23,9mm, por lo que necesita realizar conversión en la distancia focal de sus objetivos. Como elementos más destacables tendríamos que ofrece 20 Megapíxeles de resolución. En formato raw la imagen tendrá un tamaño de 4368x2912 píxeles. La podemos encontrar por unos 2700 € (sólo el cuerpo) —— CANON EOS 1Ds MARK III: Con 22,5 Megapíxeles o la demostración palpable de que Ohrgaard no acertó en su previsión de futuro… —— Hasselblad H2D: Tamaño del sensor 36,7x49mm. Una resolución de 22 Megapíxeles. Como elemento novedoso que utiliza como formato el DNG de Adobe. Cuyo precio puede rondar los 22.300 €.(4) Acaba de presentar el CFH 39 con 39 mll de píxeles…

Fotocopiadoras de última generación: digitales Me estoy refiriendo a las fotocopiadoras digitales que ya empiezan a verse, incluso en nuestros centros. Estos dispositivos son plataformas que permiten, fotocopiar, imprimir y escanear. Han unido las estructuras robustas de las fotocopiadoras analógicas a la tecnología digital. En nuestro caso esto puede ser muy interesante puesto que nos puede permitir capturar con velocidades muy altas y con niveles de calidad más que aceptables fondos documentales no críticos. Por ejemplo, expedientes administrativos que deben ser digitalizados con el único fin de mejorar su consulta y accesibilidad, y no con criterios de conservación/sustitución. Se han realizado algunas experiencias con resultados altamente satisfactorios y son unos dispositivos muy polivalentes que incluso permiten realizar capturas en DINA3. Estas fotocopiadoras pueden trabajar en red de manera que todos los integrantes de un centro pueden hacer uso de sus potencialidades. En la USRD hemos comenzado a trabajar con un modelo de la marca CANON la IR3570 que nos fue instalada el pasado 24 de diciembre de 2004. Las expectativas creadas nos pueden permitir iniciar un nuevo enfoque de trabajo muy atractivo: podríamos, estableciendo un protocolo preciso, que los documentos conforme vayan siendo solicitados para ser fotocopiados en su lugar digitalizarlos, imprimirlos y almacenar la información digital. La próxima vez que se realizara una consulta de ese expediente los usuarios podrían hacerlo directamente en pantalla e imprimirse ellos mismos las hojas necesarias. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

252

Luis Torres Freixenet

En todos los casos lo más difícil es tomar la decisión de cuando empiezas a aplicar estas tecnologías y de cómo resuelves lo ya almacenado. Un criterio válido es actuar sobre los fondos más críticos (o por nivel de consultas o por estado de conservación) y además comenzar por lo que empieza a entrar en la institución. Esto último permite presentar resultados a nuestros responsables políticos muchas veces más atractivos por su nivel de comprensión y cercanía: al ser documentación más actual la comprenden mejor y afecta a un colectivo de ciudadanos más cercano a sus intereses (votos). Para la digitalización de procesos documentales administrativos elegiremos el dispositivo en función de la velocidad de captura, capacidad de captura a doble cara, eficacia del alimentador automático ante atascos, interoperabilidad con programas de gestión, posibilidad de ser admitido para una digitalización certificada, etc. 1.1 Retos ante el documento a digitalizar Ya tenemos nuestros equipos, tanto de software como de hardware, seleccionados y adquiridos. Nos hemos leído, estudiado y comprendido todos los manuales de instrucciones, ahora podemos empezar (si nos quedan ganas) a digitalizar nuestro patrimonio documental. ¿Cómo lo hacemos? ¿Con que resolución? ¿Con que hardware?... Estas y muchas otras preguntas son las que continuamente me preguntan, y desgraciadamente siempre me veo obligado a decir que no hay una solución comodín valida para todas las tipologías. La realidad me ha demostrado que la mejor receta es: —— evaluar el fondo de manera individual (análisis). —— pensar que es lo que queremos conseguir (usos) —— y que es lo que queremos ofrecer (soluciones).

Análisis A la hora de enfrentarse a la digitalización de una colección hay que tener en cuenta varios factores. —— Tipología: yy Materiales opacos o no (negativos, diapositivas, placas de vidrio, radiografías, papel vegetal, etc). yy Tamaños normalizados (DIN) o no. Que estén dentro de nuestras posibilidades técnicas o no. yy Estado de conservación: riesgo Alto, Medio, Bajo o nulo. yy Encuadernado o no. yy Aspectos legales a tener en cuenta: copyright, acceso a datos personales, etc.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

253

Digitalización del Patrimonio Documental

yy Porcentaje de mezcla de los factores antes mencionados. Es decir, podemos encontrar un fondo con un 18% de placas de vidrio de 9cmx11cm, un 45% de folios no encuadernados, y un 37% de planos DIN A1 encuadernados. Este fondo tendrá unas necesidades totalmente diferentes, a la hora de digitalizar, que un fondo 100% de negativos 35mm en tiras de 6 unidades.

El tener claro desde el principio del proyecto cuales van a ser los retos a los que nos vamos a enfrentar nos ayudará a tomar una decisión, y sobre todo, a elegir las mejores opciones técnicas de cara a la digitalización de los fondos. Las mayores dificultades se presentan a la hora de trabajar con fondos que presentan poca o ninguna homogeneidad. Cuando hablamos de la homogeneidad nos estamos refiriendo a tres variables: —— En relación al tamaño. —— En relación al material (opaco o no, y sus correspondientes apartados o subdivisiones) —— En relación a su accesibilidad (encuadernado, enmarcado, grapado, cosido, plegado, etc.)

La experiencia me demuestra que no existe el fondo idílico, y siempre nos van a aparecer este tipo de problemas En función de estas tres variables y de nuestro presupuesto, tendremos que usar un dispositivo de captura u otro: —— Cámara digital (mínimo 11,5 mll píxeles) sobre columna de reproducción y a ser posible con prensalibros. —— Escáner plano de mesa. —— Escáner de negativos/diapositivas (35mm) —— Escáner de rodillo para planos. —— Escáner aéreo profesional. El orden en el que cito estos equipos no es aleatorio, sino que se corresponde a la idoneidad/precio/versatilidad, tres factores difíciles de conjugar en nuestros centros.

Usos Una cuestión que no dejo de repetir siempre que tengo ocasión de hacerlo es COMO OFRECEMOS EL ACCESO A LA IMAGEN DIGITAL. Este es uno de los elementos más importantes de todo proyecto digital. Y si vamos a realizar un proyecto de digitalización, antes deberíamos hacernos varias preguntas: a). ¿Será un proyecto aislado o estará dentro de una visión global de digitalización a largo plazo?

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

254

Luis Torres Freixenet

b). ¿Digitalizamos como herramienta de conservación? c). ¿Digitalizamos como herramienta de conservación y de difusión. a) Los proyectos de digitalización en realidad no tienen fin. Esa es la trampa de esta tecnología tan nueva. Se deben realizar previsiones para comprobar o monitorizar “la salud” de los archivos digitales y para garantizar que en el futuro van a ser accesibles de una manera continua. Los proyectos se pueden realizar desde la misma institución o con proveedores externos, pero cuando vayan llegando a su etapa final los productos digitales serán de nuestra responsabilidad. Si puedo añadir tres sentencias: yy los proyectos piloto no son proyectos de producción.

yy es fácil comenzar un proyecto digital; es difícil implementar un programa de forma continuada. yy una serie de proyectos digitales no constituye un programa de digitalización.

b) Mantener colecciones digitales es más difícil de lo que podemos pensar, sobre todo si acogemos seriamente la siguiente idea: La meta fundamental de la preservación digital es la de mantener el acceso continuo a los datos digitales durante el tiempo que dicha información sea de interés. c) Si además de herramienta de conservación es herramienta de difusión tenemos que pensar en nuevos formatos y resoluciones. Esto es debido a que normalmente las resoluciones y formatos destinados a conservación generan unos ficheros de un tamaño considerable, y estos tamaños no los hacen prácticos para su difusión. Esta difusión habitualmente se realiza mediante intranet o Internet y las necesidades de velocidad de descarga son fundamentales. Para solucionar este problema surgen formatos como DjVu. El tipo de fondo digitalizado es un factor fundamental en el tratamiento de las imágenes para su difusión. Por ejemplo, una colección de postales puede ser reducida a ficheros JPG, comprimidas al 50% y con una resolución de 90 dpi, estos valores serían impensables para una colección de documentos capturados a doble página y que su escala real es casi cercana al DINA2. Con este material los usuarios lo que quieren es poder leer y para poder lograrlo no podemos convertir las letras en artefactos digitales ilegibles. Más adelante veremos en las sesiones prácticas las diferentes soluciones que se pueden aplicar.

Soluciones Las imágenes las tenemos que capturar teniendo en cuenta los parámetros anteriormente expuestos. Podemos usar la tabla contenida en el cuadro comparativo (al final del texto) como referencia de cara la conservación de los fondos digitalizados. Nosotros en la USRD acabamos de optar, al igual que otros organismos, por DjVu. Tenemos que aclarar que este formato lo vamos a destinar a las aplicaciones de difusión por la facultad que tiene de comprimir las imágenes (con tecnología propia, TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

255

Digitalización del Patrimonio Documental

tipo wavelet) pero permitiendo uno niveles de detalle inimaginables. De esta manera hemos conseguido que un libro de actas pasara de ocupar 630 Mb a 33 Mb, con unos niveles de detalle superior a los formatos JPG o similar. Nuestro sistema sería de dos o tres niveles, variando en función de los fondos o de nuestros intereses: —— TIF sin comprimir, como fichero de conservación, o TIF con compresión sin perdida LZW —— JPEG como fichero de difusión. —— DjVu como fichero de difusión.

El uso de una tecnología u otra (JPEG/DjVu) dependerá en buena parte de los resultados que podamos ofrecer. El usuario para ver los ficheros DjVu tiene que descargarse un plug-gin (gratuito) de 930 Kb y a cambio de esto puede tener una velocidad de descarga rápida y un muy alto nivel de calidad y de detalle. De nada sirve el ofrecer una imagen que se descarga muy rápidamente pero que no sirve a los mínimos intereses del usuario, en nuestro caso mayoritariamente poder leer. 1.1.Formatos: tiff, jpeg/jpeg2000, pdf, mrsid, djvu. La tipología de los formatos digitales es una demostración práctica del fenómeno de la obsolescencia digital pero remarcado por un elemento clave: no siempre la supervivencia de un formato se debe a su grado de eficacia o efectividad técnica. El mercado acaba mandando al rincón más olvidado a aquellos formatos que no han tenido la gracia de recibir la bendición del apoyo de los usuarios. Aunque nos vamos a centrar mayoritariamente en unos cuantos formatos no podemos dejar de mostrar una sucinta recopilación de los formatos de imagen (formatos de archivo gráficos) más habituales.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

256

Luis Torres Freixenet

PRINCIPALES FORMATOS DE ARCHIVOS GRÁFICOS RASTERIZADOS

Extensión

Tipo MIME

.art

Detalles Formato propietario. Software cliente de AOL soportando normalmente una única imagen fija muy comprimida.

.bmp

image/bmp

Formato de Windows puede recibir compresión sin pérdidas pero no todos los programas pueden abrirlos.Windows Bitmap

.cin

image/cineona

Es desarrollado por ANSI (Instituto Nacional Estadounidense de Estándares) y contiene cabeceras fijas. Es un subconjunto del ANSI/SMPTE DPX. CINEON

.cpt

.dng

Sería el equivalente al formato pds (Adobe Photoshop) pero con un menor peso. Poca compatibilidad. Corel Photo-Paint Image Application/dng DNG 1.1 Adobe Digital Negative

.dpx

image/dpx

.djvu

Application/.djvua Formato de tecnología wavelet. es un estándar abierto.

.exr

image/exr

Desarrollado por Kodak con cabeceras de imagen flexibles y variables. Digital Picutre eXchange file format La especificación de formato de archivo, así como una de las implementaciones de código abierto el decodificador (y parte del codificador) están disponibles.

OpenEXR es el formato en código libre que sirve para las imágenes de alto rango dinámico (HDR). Extended Dynamic Range Image File Format

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

257

Digitalización del Patrimonio Documental

.fpx

image/vnd.fpx

Desarrollado por Kodak y HP permite varias resoluciones de una imagen. Con y sin compresión de 8 a 24 bits de profundidad de color (o bits por pixel). Flaxhpix

Extensión

Tipo MIME

Detalles

.gif

image/gif

.jpg/.jpeg

image/jpeg

.Jpg2/.jpg2

.sid

.pcx

Usado ampliamente en internet. Comprime con pérdida pero esta puede ser ajustada. Hablaremos de él más adelante. Joint Photographic Experts Group Podemos hablar del formato del futuro. Entramos en los formatos basados en la tecnología wavelet o de segmentación. Joint Photographic Experts Group

Application/sid

.pbm

.pcd

Su popularidad reside en su uso masivo en internet. Es un formato de 8 bits que además puede darnos animación mediante frames. Como compresión usa el LZW. Graphics Interchange Format

El formato MrSID (pronunciado Mister SID) es un estándar abierto de compresión de imágenes raster desarrollado por Los Alamos National Laboratory, un centro público de I+D de los EE.UU., y comercializado por la empresa LizardTech. Su acrónimo proviene de Multi-resolution Seamless Image Database y permite mostrar archivos digitales de gran tamaño con un tiempo de carga mínimo gracias a la tecnología wavelet. Cumple los requisitos del OGC Es un formato simple para gráficos en blanco y negro. Puede contener texto modificable por un procesador de texto. Está relacionado con los formatos .PGM (grises) y .PPM (color). Portable Pixmap

image/pcd

Propietario de KODAK (Photo Cd) compresión con perdidas y 24 bit color. ImagePac Photo CD Paintbrush. Compresión sin perdida. Picture eXchange

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

258

Luis Torres Freixenet

.pgm

.png

Es un formato simple para escala de grises. Puede contener texto modificable por un procesador de texto. Está relacionado con los formatos .PBM (binario) y .PPM (color). Portable Pixmap

image/png

.ppm

.psd

Formato desarrollado para intentar sustituir al .GIF en internet Es un formato simple para color. Puede contener texto modificable por un procesador de texto. Está relacionado con los formatos .PBM (binario) y .PGM (gris). Portable Pixmap

Ap p l i c a t i o n / x - Formato de Adobe Photoshop con capas y poco photoshop compatible fuera del programa original.

.tiff/.tif

TIFF es definido comúnmente como el formato ideal para guardar los originales digitales. El formato es propietario de Adobe Actualmente va por la versión 6 (año 1992), aunque presenta problemas de compatibilidad en alguno de los subconjuntos. Tagged Image File Format

.CR2 /.CRW .DCR/.KDC .MRW .NEF .ORF .PEF .RAF .SRF .X3F

Formatos que incluiríamos en el grupo de los denominados CAMERA RAW. Perteneciendo a los diferentes fabricantes. En el mismo orden: CANON KODAK MINOLTA NIKON OLYMPUS PENTAX FUJI SONY SIGMA

OTROS FORMATOS .eps

image/eps

Como salida de los dispositivos PostScript (.ps). Es un formato de documentos, creado por la empresa Adobe , para describir documentos listos para imprimir, es decir, documentos que ya están maquetados y preparados para ser impresos, pero que ya no podemos editar. Hay impresoras que entienden directamente este formato (impresoras PostScript). El formato Postscript se ha convertido, junto con el PDF, en un estándar para el almacenamiento de documentos listos para imprimir. Encapsulated PstScript

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

.dxf

image/vnd.dwg

.pdf

application/pdf

.svg/.svgz

259

Formato normalizado de texto ASCII usado para almacenar datos de programas CAD Realmente no es un formato gráfico. En realidad es una versión que nace del PostScript pero que actualmente, con sus continuas mejoras y actualizaciones ha superado (por la difusión) a éste. Propietario de ADOBE. Portable Document Format Formato vectorial basado en XML definido por W3C para ser usado en navegadores web. Scalable Vector Graphics

Aspectos a tener en cuenta desde la óptica de la preservación digital Siguiendo las recomendaciones de la Library of Congress (EE.UU.) los podríamos resumir en siete puntos: 1. Divulgación. (Disclosure) El grado en el que las especificaciones y herramientas de validación de la integridad técnica existen y son accesibles. Un espectro de los niveles de divulgación se debe tener en cuenta para los formatos digitales. No es más importante la aprobación por un organismo de normalización reconocido, lo es la existencia y accesibilidad ilimitada de toda la documentación referida. 2. Aprobación. (Adoption) Grado en que el modelo ya es utilizado por los principales creadores, divulgadores, o usuarios de los recursos de información. Esto incluye utilizar como un formato maestro, para su entrega a los usuarios finales, y como medio de intercambio entre sistemas. 3. Transparencia (Transparency). Grado en el que la representación digital está abierta a un análisis directo con herramientas básicas, como por un editor de texto. 4. Auto-documentación.(Self-documentation) Auto-documentación de los objetos digitales. Contienen elementos descriptivos básicos, técnicos, administrativos y otros metadatos. 5. Dependencias externas. (External Dependencies) Grado en el que un formato particular depende de hardware, sistema operativo, o software para la prestación o el uso previsto y la complejidad de tratar con esas dependencias externas en el futuro desde entornos técnicos. 6. Impacto de las patentes. (Impact of Patents) Grado en que la capacidad de las instituciones de archivo para mantener el contenido en un formato que se inhibió por patentes. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

260

Luis Torres Freixenet

7. Técnicas de mecanismos de protección. (Technical Protection Mechanisms) Aplicación de mecanismos como la encriptación que impiden a la preservación de los contenidos por un depósito de confianza. No obstante existe una línea de trabajo americana muy importante de cara a la preservación seguida a través del Global Digital Formato de Registro (GDFR), una actividad de colaboración inicialmente estimulada por el interés común de en Harvard y en el MIT. El GDFR pretende con este esfuerzo mantener un registro activo que apoyará la ejecución de las operaciones sobre los formatos de archivos, para identificar, validar, e incluso poder llegar a transformarlos. Pero a partir de 2006, el mayor peso del desarrollo en el GDFR se está llevando a cabo en OCLC, utilizando fondos de la Fundación Andrew Mellon. El GDFR está relacionado con el desarrollo de la JHOVE conjunto de herramientas para la caracterización y validación de los formatos, y la propia Library of Congress no está exenta del mismo proyecto junto con las principales bibliotecas del mundo. Formatos RAW, TIFF y JPEG Habitualmente en mis cursos cuando hablo del formato RAW lo suelo denominar el “FORMATO NO FORMATO”. En realidad estamos accediendo a los datos en bruto del sensor de la cámara. Y digo cámara porque actualmente este formato con sus diferentes extensiones (en función del fabricante/modelo) está restringido al uso de las cámaras fotográficas digitales. Si disparamos dos fotos del mismo motivo, una en jpg con baja compresión (alta calidad) y otra en raw, seguramente se verá mejor la tomada en jpg: mejor nitidez/enfoque, mejor contraste, mejor iluminación, mejores colores,... Esto es debido a que una cámara digital suele aplicar distintos filtros digitales para mejorar la imagen. Sin embargo, el formato raw nos muestra la foto tal y como el sensor la capturó, sin ningún filtro de mejora. Se verán unos colores más neutros, menos saturados, un enfoque más blando y una iluminación que dependerá más de la exposición que hicimos, más visiblemente sobre o subexpuesta si fuera el caso. Sin embargo, una foto en jpg tiene 24 bits/pixel frente a 36 bits/pixel que suele contener el modo raw. 24 bits serán suficientes para ver toda la gama de colores posible, pero serán claramente insuficientes cuando queramos realizar ciertos ajustes (iluminación, corrección de tonalidades,...) a la imagen. Por otro lado, una imagen en formato raw, aunque en apariencia parezca más pobre, contiene muchísima más información y será posible ajustar todos los parámetros sin perder la información inicial dado que una vez “revelado” el fichero raw con el programa adecuado podremos guardar el resultado obtenido en el formato que deseemos. TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

261

Habitualmente se dice que RAW presenta un problema de “mayor peso” pero esto es si lo comparamos con jpeg, porque si lo comparamos con Tiff la cuestión se invierte. Por ejemplo nosotros en Zaragoza debido a los problemas de espacio de almacenamiento (ya vamos por los 5 Tb y seguimos creciendo) un tiff a color de una CANON EOS 1Ds genera casi 31 Mb, mientras que su equivalente RAW pesa 10 MB. Estamos hablando de casi el triple de ahorro y en altos volúmenes de producción es un factor interesante a tener en cuenta. Tomar la decisión de usar este formato como formato “master” conlleva un riesgo que se puede asumir siempre que uno sea consciente del mismo. El problema es realmente cuando se una toma decisión desconociendo los riesgos que esta implica. Uno de los mayores problemas que presenta RAW es precisamente su normalización. Esta falta de normalización lo podemos incluso comprobar al ver como Photoshop tiene que ir publicando continuos “pluggins” para actualizar su programa y que pueda abrir los ficheros RAW de las cámaras fotográficas que van saliendo. En esta línea de actuación surge una iniciativa internacional para intentar conseguir que los fabricantes unifiquen (normalicen) y presenten un único formato RAW, nos estamos refiriendo a OPENRAW Precisamente un primer intento de mitigar esta falta de normalización surgió de Adobe con el formato DNG que no deja de ser en realidad de un símil del formato RAW, llegando incluso a tener la posibilidad de generar un fichero DNG que contenga el fichero RAW del que ha surgido. Desgraciadamente la iniciativa de Adobe se encontró con el rechazo de los grandes fabricantes de cámaras fotográficas (CANON y Nikón, fundamentalmente) contrarias a dejar más “trozo del pastel” en manos de Adobe. Es interesante leer el artículo de Michael Reichmann and Juergen Specht “The RAW Flaw” Para tener una aproximación más exacta a las particularidades de este formato que presenta unos niveles de excelencia tan altos como para que prestigiosos fotógrafos de todo el mundo lo consideren el verdadero “negativo digital”. Una de las cuestiones más interesantes a la hora de trabajar con el formato RAW es el comprender la diferencia entre las imágenes capturadas con las cámaras fotográficas de sales de plata y las digitales. Para poder entender mejor esta cuestión voy a trasladar el intercambio de pareceres (traducido) que destacados técnicos anglosajones tuvieron en un foro sobre el tema en cuestión (y que me perdonen mis amigos los filólogos ingleses…)

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

262

Luis Torres Freixenet

Fichero raw de 12 Bit Dentro del primer F/Stop, que contiene los tonos más brillantes

2048 niveles disponibles

Dentro del segundo F/Stop, que contiene tonos brillantes

1024 niveles disponibles

Dentro del tercer F/Stop, que contiene los Medios tonos

512 niveles disponibles

Dentro del cuarto F/Stop, que contiene los tonos oscuros

256 niveles disponibles

Dentro del quinto F/Stop, que contiene los tonos más oscuros

128 niveles disponibles

Fichero JPG de 8 Bit Dentro del primer F/Stop, que contiene los tonos más brillantes

69 niveles disponibles

Dentro del segundo F/Stop, que contiene tonos brillantes

50 niveles disponibles

Dentro del tercer F/Stop, que contiene los Medios tonos

37 niveles disponibles

Dentro del cuarto F/Stop, que contiene los tonos oscuros

27 niveles disponibles

Dentro del quinto F/Stop, que contiene los tonos más oscuros

20 niveles disponibles

Estuvimos bastante tiempo charlando sobre temas digitales a lo largo de nuestro viaje de 3000km por Islandia, y Thomas se extendió en uno en el que no había caído antes; no obstante en cuanto empecé a pensar en ello, observé que tenía mucho sentido. Empecemos: rango dinámico Supongamos (para los propósitos de esta disertación) que una cámara digital SLR (N. del T: DSLR a partir de ahora) tiene un rango TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

263

Digitalización del Patrimonio Documental

dinámico o latitud de 5 puntos (normalmente se acerca más a los 6, pero no divaguemos). Cuando trabajamos en modo RAW, en el que debería, la mayoría de las cámaras registran una imagen de 12 bits. (Sí, decimos que en modo 16 bits, pero la realidad es que sólo está registrando 12 en un espacio de 16. Mejor que 8, pero no tanto como lo serían 16 bits de verdad.) Una imagen de 12 bits es capaz de almacenar 4.096 (212) valores tonales diferenciados. Uno podría pensar que por tanto, cada punto o f-stop de los 5 que conforman dicho rango será capaz de guardar unos 850 (4096/5) de dichos valores correlativos. Pero desgraciadamente, no es éste el caso. Lo que realmente sucede es que los datos pertenecientes al primer punto (el más brillante) consumirán 2048 del total de estos pasos; una mitad completa de los disponibles. ¿Por qué? Debido a que los chips CMOS y CCD son dispositivos lineales. Y por supuesto, cada f-stop registra la mitad de luminosidad que el anterior, y por tanto la mitad del espacio que resta. Esta tabla lo ilustra: Primer f-stop (tonos más brillantes) 2048 niveles Segundo f-stop (tonos brillantes) 1024 niveles disponibles Tercer f-stop (tonos medios) 512 niveles disponibles Cuarto f-stop (sombras) 256 niveles disponibles

Quinto f-stop (tonos más oscuros) 128 niveles disponibles.

Exposición Normal Histograma Centrado

Histograma a la Derecha

Este descubrimiento trae consigo una serie de lecciones importantes, siendo la más notable que si no utiliza el último quinto de la parte derecha del histograma para registrar parte de su imagen, estará desperdiciando de hecho una mitad de los niveles registrables por su cámara. No obstante, como todos sabemos (o Vd. debería saber a estas alturas) lo peor que hay en imagen digital es quemar las luces; tanto como si estuviese tirando

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

264

Luis Torres Freixenet

con diapositiva. Una vez que los ha quemado (ha sobrepasado la parte derecha del histograma) esos datos se han ido para nunca volver. La Lección Lo que ha de extraer de esta pequeña lección es que debe tender a calcular sus exposiciones de modo que apriete el histograma hacia la derecha, pero no hasta el punto de quemar los altos. Esto suele mostrarse como una alerta parpadeante en las pantallas de revisión de la mayoría de las cámaras. En ese caso, vaya un poco hacia atrás hasta que desaparezca. Lógicamente, cuando abra el fichero RAW en su programa de proceso RAW favorito, como Adobe Camera Raw, la imagen será demasiado clara. No hay problema. Utilice los controles deslizantes para modificar el nivel de brillo y contraste hasta que los datos del histograma se repartan equitativamente, y la imagen se vea bien. Con esto conseguirá una serie de cosas. La primera, maximizará la relación señal/ruido. La segunda, minimizará la posterización y el ruido que potencialmente pudiera aparecer en las regiones más oscuras de la imagen. Tenga en cuenta que para obtener los resultados apropiados deberá llevar a cabo dichas correcciones mientras trabaja en el espacio 16 bits (12 bits) de un conversor RAW. A diferencia de lo que algunos piensan, en modo RAW la cámara no realiza ningún proceso no-lineal. Todo el proceso no-lineal lo lleva a cabo el conversor RAW. Ésta es la razón por la que deberá tirar en RAW y reajustar después la imagen en el conversor RAW antes de exportarla a Photoshop. Haciendo esto estará maximizando el ancho de banda disponible del sistema completo. Otra de las razones para tirar en RAW siempre que sea posible. Tenga también en cuenta que al hacer esto estará reduciendo la sensibilidad ISO efectiva empleada para capturar la imagen, precisando de tiempos de obturación más lentos, o de mayores aperturas. Si está sosteniendo la cámara a mano, o fotografiando sujetos móviles, este inconveniente puede no valer la pena frente al nivel menor de ruido. Un experimento Esta técnica no es algo que tenga que emplear a diario necesariamente. Requiere un esfuerzo extra al fotografiar, y tanto esfuerzo como tiempo adicionales al postprocesar en el conversor RAW. Pero si le interesa asegurar el mayor ratio de señal/ ruido en una foto en particular, puede valer la pena. Si a pesar de todo piensa que esta técnica es ilógica, o algo vaga, he aquí una idea innovadora: compruébelo usted mismo.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

265

Prepare una fotografía con trípode; digamos que una escena estival típica, que incluya un cielo azul, nubes algodonosas y hierba verde. Mida como hace habitualmente y haga una foto. Revise el histograma. Ahora haga otro disparo sobreexponiendo a +1 o así, pero de modo que no sobreexponga los altos (las nubes por ejemplo). Asegúrese de que no haya nada en el fotograma que parpadee por sobreexposición, y que al mismo tiempo el histograma está todo lo desplazado a la derecha como sea posible. Cargue la fotografía “expuesta correctamente” en un conversor RAW, haga sus correciones habituales y mándelo a Photoshop. Cargue después su exposición-desplazada-hacia-la-derecha y haga lo mismo. Asegurese no obstante de que utiliza primero los controles de gamma, brillo y contraste del conversor RAW para normalizarlos. Cargue esta foto en Photoshop. Compare ambos. Fíjese en las áreas de sombra más oscura, buscando ruido o posterización. Compruebe si nota alguna diferencia. Si no la nota, no ha perdido nada con experimentar. Pero si sí lo percibe, acaba de aprender una nueva técnica que puede resultarle útil el día de mañana. Reflexiones posteriores Este artículo ha generado bastante discusión en la red, así como en el foro de discusión de Luminous Landscape. Uno de los peros que han surgido es que con la posible excepción de la Fuji S2 Pro, todas las demás DSLR actuales solo muestran histogramas globales basados en luminosidad, y no el brillo individual por canal. Esto es lo que Thomas Knoll tiene que decir al respecto... Thomas Knoll: Sólo uno o dos de los canales quemados (clipped) resulta problemático a veces. Con captura RAW no es tan pernicioso como con JPEG, dado que con RAW lo que debe importarle es quemar (clip) en el espacio de color nativo de la cámara, y no en el espacio de trabajo RGB (puesto que la conversión a espacio de trabajo tiene lugar después de los ajustes tonales en el conversor RAW). Hay muchos colores que saturan (clip) en RGB o incluso en Adobe RGB que no lo hacen en el espacio de color nativo de la cámara. La solución ideal sería que los fabricantes modificasen el indicador de sobreexposición de modo que parpadease en un color basado en alguno de los que constituyen el espacio de color nativo de la cámara, mejor que en la luminosidad. Esta es una de las razones por las que el histograma de Adobe Camera Raw está constituido por la superposición de los canales de color y no está basado únicamente en luminosidad.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

266

Luis Torres Freixenet

En la práctica, este problema no es tan serio, dado que los objetos más brillantes de una escena suelen ser neutros (muchas veces nubes blancas). Cuando no lo tenga claro, siempre podrá recurrir al bracketing y comprobar los histogramas de color resultantes para elegir con cuál trabajar. El gurú digital Ian Lyons tiene también algunos comentarios para esta técnica, profundizando en la comparación de la fotografía digital frente a ciertos aspectos de la exposición que damos por sentado y que tienen su origen en el trabajo con película. Ian Lyons: Básicamente, la exposición ideal es la que describe Michael: procure que el histograma esté todo a la derecha que sea posible sin que el indicador de sobreexposición parpadee en las zonas quemadas. La exposición ideal garantiza que contará con el máximo de niveles disponibles para describir su imagen sin perder detalles relevantes en las luces. Cuanto más se acerque a este ideal, más de estos niveles estarán empleándose en describir las sombras. Si subexpone una imagen hasta el punto de que las sombras se bloquean, que es lo que muchos hacen para proteger sus luces, necesitará abrirlas nuevamente para asegurar que la imagen final resulta como usted quiere. El problema con esta técnica es que sólo contamos con 128 niveles para las sombras. Necesitará emplearse a fondo en las curvas para abrir las sombras, encontrándose entonces con posterización, etc. Necesitamos desprendernos de los conceptos sobre exposición que tan bien nos has servido con los carretes. Un CCD/CMOS no es película, y no reacciona como tal en las regiones de luz/sombra. La exposición con película tiende a sobrepasar los límites (roll off) de las sombras o luces con suavidad. En el mundo digital, la captura es lineal, y no hay tal suavizado. Desafortunadamente (como Thomas ha señalado) el comportamiento de estos sensores no es perfecto, y podemos (lo hacemos con frecuencia) saturar uno o dos canales (quemándolos). Esto era un problema serio con la Canon D30; y la versión actual de Adobe Camera Raw simplemente no podía con estas tomas. Thomas sabe cuáles son mis pensamientos, y yo conozco los suyos. Merece la pena señalar que no he visto todavía una imagen RAW lineal de una Canon EOS D30/D60 o 10D que ocupase toda la escala, las he visto que casi, pero nunca toda. Esto significa que a pesar de todo, los programas existentes de conversión RAW pueden no cumplir sus necesidades. En cuanto a estas aplicaciones, tengo la seguridad de que las cosas mejorarán; en el ínterim urjo a la gente a examinar esta técnica. Recuerde que es muy probable que conserve el fichero CRW durante bastante tiempo. En realidad, es su análogo del negativo; no lo tire a la basura. Incluso si la oferta actual de programas de conversión no es capaz de tratar las luces quemadas, TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

267

las aplicaciones futuras sí lo harán. No obstante, NADA le permitirá recuperar el detalle perdido en las sombras. En este ejemplo, podrá ver cuánta información existe todavía en las luces altas de una imagen que los conversores actuales RAW dicen que está quemada. Esta técnica es prácticamente redundante, pero aún así debería facilitar su comprensión de qué cantidad de información retienen las zonas de luces. Hay quien piensa en la imagen digital como película transistorizada. No es este el caso. La explicación que sigue, de Bruce Lindbloom, le puede ayudar a comprender qué es lo que sucede realmente cuando emplee la técnica anterior... Bruce Lindbloom : En la fotografía basada en película, la parte de la escala correspondiente a las luces, está comprimida por la zona del hombro de la curva D/log E. A medida que se fotografían objetos más y más brillantes, el detalle de las luces se comprime más y más hasta que finalmente la película satura. Pero hasta ese punto, la compresión de las luces tiene lugar en una progresión gradual. Los sensores de estado sólido de las cámaras digitales se comportan de un modo distinto. Conforme la luz incide sobre un sensor, este responde acumulando o disipando una carga (dependiendo de la tecnología del sensor). Su comportamiento es aceptable justo hasta el punto de saturación máximo, en el que la respuesta cesa abruptamente. Los sensores no perdonan con un cese de respuesta gradual y progresivo como hace la película. Debido a esta diferencia, calcular la exposición empleando una tarjeta de 18% de gris (como se hace habitualmente con película) no funciona tan bien con una cámara digital. Obtendrá mejores resultados si expone de modo que el blanco más blanco de la escena se acerca, pero no llega, a la escala digital completa (255 para captura a 8bit, 65535 para captura a 16bit). Base la exposición en las luces con cámaras digitales, y en un tono medio (p. ej. tarjeta 18% de gris) con las de película. TIFF responde a la denominación en inglés “Tagged Image File Format” (formato de archivo de imágenes con etiquetas) se debe a que los ficheros TIFF contienen, además de los datos de la imagen propiamente dicha, “etiquetas” (metadatos) en las que se archiva información sobre las características de la imagen, que sirve para su tratamiento posterior. El formato TIFF fue desarrollado por Aldus y Microsoft, y es actualmente propiedad de Adobe Systems. La última revisión del formato es la número 6, del año 1992. Hay algunas extensiones, como las anotaciones que utiliza el Imaging de Microsoft, pero ninguna puede considerarse estándar. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

268

Luis Torres Freixenet

Podríamos decir que tenemos actualmente los siguientes grupos: —— TIFF para la revisión 6.0 —— TIFF G4, que es un tiff bitmap con la compresión establecida, limitada a imágenes bitonales. Por ejemplo indicar que el Government Printing Office (GPO) de EE.UU lo tiene como formato master para los ficheros bitonales. —— TIFF LZW que es un tiff bitmap con la compresión LZW hasta hace muy poco compresión sometida a patente (al igual que el .gif ) —— TIFF UNC que es un tiff bitmap sin compresión. Por ejemplo indicar que es considerado como master de conservación por el Florida Digital Archive —— TIFF/IT para imágenes de pre-impresión. Viene definido por la norma ISO 12639:2004 (es decir: “Tagged Image File Format / Image Technology”) es un estándar para el intercambio y envío de anuncios digitales y de páginas completas. Los ficheros TIFF/IT sólo contienen datos en mapa de bits (bitmap data), sin datos vectoriales. Los ficheros no han sido interpretados (rasterized) —aunque podrían haberlo sido— pero contienen 256 niveles de gris por canal.

Ahora bien lo habitual que podemos leer es el considerar el formato TIFF como el formato definido como “master digital” por excelencia. En una comparación con el formato tiff podríamos resumirla mediante el siguiente cuadro: RAW

TIFF

MÁXIMA CALIDAD DE IMAGEN

ALTA CALIDAD DE IMAGEN

ALTA CAPACIDAD DE MANIPULACIÓN POCA CAPACIDAD DE MANIPULACIÓN SIN PÉRDIDAS SIN PÉRDIDAS ALTA PROFUNDIDAD DE COLOR

PROFUNDIDAD DE COLOR ESTÁNDAR

ARCHIVOS DE TAMAÑO MEDIO

ARCHIVOS DE GRAN TAMAÑO

VELOCIDAD DE ALMACENAMIENTO MEDIA

VELOCIDAD DE ALMACENAMIENTO LENTA

Todas las cámaras disparan en RAW pero no todas las cámaras nos ofrecen la posibilidad de acceder a estos ficheros (recordemos que son los datos en bruto capturados por el sensor). De esta comparación, y de los datos aportados anteriormente podemos llegar a comprender porque los fotógrafos profesionales cuando tienen que realizar trabajos

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

269

de calidad con la tecnología digital optan sin ningún tipo de dudas por capturar en formato RAW. El debate de guardar como master digital el RAW o el TIFF se puede decidir (y eso lo debe hacer cada uno) preguntándose como responden estos formatos a los siete puntos enunciados al principio y luego en las posibilidades que su trabajo puede rendir según su organismo o entidad. No obstante la estabilidad del TIFF, la posibilidad de “incrustar” metadatos no fotográficos convierten al TIFF sin comprimir como el formato por excelencia para ser usado como master digital, pero siempre teniendo en cuenta las posibilidades de almacenamiento. El debate se podría retomar, por ejemplo, en el caso de una FOTOTECA que compra o recibe el legado de un fotógrafo actual (mayoritariamente digital). ¿Guardas el RAW o el TIFF?... Dentro de este ámbito la industria se encontró pronto con la necesidad de que los ficheros en color fueran “ligeros” y con una capacidad de representación visual de los colores (o grises) significativa y sobre todo escalable a voluntad por el usuario. En ese instante surgió el formato JPEG (Joint Photographic Experts Group). El uso de diferentes algoritmos para realizar la compresión permitió un rápido desarrollo de este formato. JPEG es abreviado muchas veces por JPG debido a que algunos sistemas operativos que no permiten extensiones de fichero con más de tres letras. Realiza una compresión con pérdida, de manera que al descomprimir la imagen no obtenemos exactamente la misma imagen que teníamos antes de la compresión. ¿Cómo trabaja jpeg? Una explicación sencilla sería el observar un paisaje de un bosque en el que podemos tener (por poner una cifra) 100 niveles de verdes diferentes. Si quisiéramos un jpeg muy comprimido tendríamos una imagen en lugar de con 100 niveles de verdes con 10. Cuanto más comprimamos más se reducirían los niveles de verde. El motivo no es otro que sustituir “elementos” que considera repetidos y que sean sustituidos por otros. Lógicamente no es una explicación científica pero sirve para que se pueda entender el funcionamiento interno del proceso de jpeg. Dicho de otra manera el sistema de compresión que usa JPEG se basa en reducir información promediándola en las zonas de degradado. Es decir que se calcula el valor de color de algunos píxeles en función del color de los píxeles que les rodean. Por esas características este formato es muy eficiente a la hora de almacenar imágenes que posean muchos degradados y matices de color. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

270

Luis Torres Freixenet

Aunque también es preciso tener en cuenta que es casi inútil cuando queremos guardar con este formato dibujos con grandes extensiones de colores planos y uniformes o con bordes muy definidos, definitivamente no se recomienda. Ese es uno de los motivos por el que una imagen bitonal (mapa de bits) no puede convertirse nunca en jpeg. El algoritmo de compresión JPEG se basa en dos defectos visuales del ojo humano, uno es el hecho de que es mucho más sensible al cambio en la luminancia que en la crominancia, es decir, notamos más claramente los cambios de brillo que de color. El otro es que notamos con más facilidad pequeños cambios de brillo en zonas homogéneas que en zonas donde la variación es grande, por ejemplo en los bordes de los cuerpos de los objetos. El algoritmo JPEG, transforma la imagen en cuadrados de 8×8 y luego almacena cada uno de estos como una combinación lineal o suma de los 64 recuadros que forman esta imagen, esto permite eliminar detalles de forma selectiva, por ejemplo, si una casilla tiene un valor muy próximo a 0, puede ser eliminada sin que afecte mucho a la calidad. Para comparar las diferencias entre el bloque original y el comprimido, se halla la diferencia entre ambas matrices, la media de sus valores absolutos, da una ligera idea de la calidad perdida. No dejan de ser la aplicación de unas fórmulas matemáticas u otras, por lo que siguiendo los principios establecidos en la normalización del jpeg podemos encontrar programas (fórmulas) más eficientes que otros. La gran ventaja de JPEG frente a otros formatos similares es el alto grado de homogeneidad conseguido y sobre todo en su escalabilidad. Pero todo avanza y JPEG no podía ser menos. El avance que está teniendo el llamado JPEG XR (JPEG 2000) está siendo tan importante que ya está planteando que esta evolución del jpeg podría convertirse en un interesante formato como master de conservación Pero ¿Cuál es la diferencia fundamental del JPEG2000? JPEG 2000 puede trabajar con niveles de compresión mayores a los de JPEG sin incurrir en los principales defectos del formato anterior con altas tasas de compresión: Generación de bloques uniformes y aspecto borroso. También se adapta mejor a la carga progresiva de las imágenes. Sus principales desventajas están en que tiende a emborronar más la imagen que JPEG incluso para un mismo tamaño de archivo (pero sin formar bloques), y que elimina algunos detalles pequeños y texturas, que el formato JPEG normal sí llega a representar. No obstante esto último el desarrollo mediante diferentes TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

271

Digitalización del Patrimonio Documental

patentes nos ofrece diferentes “soluciones” algunas con más calidad que otras. Y esto si que por ahora puede resultar un problema, debido a que no todos los programas o navegadores son capaces de trabajar/visionar estos ficheros. El formato JPEG2000 ha sido publicado como norma ISO/IEC 15444-1:2000 Un ejemplo del desarrollo sería el formato Musid. MrSID son las siglas de Multiresolution Seamless Image Database. MrSID se basa en poderosos algoritmos wavelet de codificación y potentes capacidades de descompresión. Está diseñado especialmente para que los profesionales de los GIS consigan plena portabilidad de imágenes masivas, gigantes. MrSID permite la visualización y manipulación instantánea de imágenes, tanto en local como en red, sin sacrificar la calidad de la imágen. Incluye características como multiresolución, descodificación selectiva, mosaicado y navegación en Internet. Precisamente este es el formato ideal para representar los fondos de las cartotecas, como por ejemplo la de la Library of Congress o el Instituto Cartográfico de Cataluña

MrSID se basa en una “arquitectura plana”, que maneja “bitplanes”. Un “bitplane” es la representación de un subconjunto de la imagen, codificada de forma óptima para un grado de calidad y resolución determinados. —— Una imagen MrSID es un conjunto de “bitplanes”. —— Todos los “bitplanes” son opcionales y combinables. Es posible conseguir una imagen de alta calidad incluso sin disponer de todos sus “bitplanes”. —— Una transacción de una imagen MRSID consiste en extraer y entregar sólo y unicamente los “bitplanes” necesarios para construir la vista requerida por el usuario (escena, escala y calidad visual), independientemente de las restricciones del ancho de banda.

Dejamos para el final dos formatos que pueden funcionar inicialmente con los mismos destinos: PDF y DjVu El formato de documento portátil (PDF) de Adobe fue inventado por Adobe Systems y perfeccionado durante 15 años, gracias a lo que le permite obtener y visualizar TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

272

Luis Torres Freixenet

información desde cualquier aplicación y en cualquier sistema informático. Actualmente se ha convertido en un estándar de facto, de manera que enviar un fichero en formato pdf “garantiza” que el receptor del mismo, esté donde esté podrá abrirlo. ¿Que dice Adobe del PDF? Veamoslo: Es un Formato abierto: es un estándar para el intercambio de información electrónico fiable, reconocido internacionalmente por empresas y organismos gubernamentales. Compatible con estándares de la industria, como PDF/A, PDF/X y PDF/E. Multiplataforma: se puede ver e imprimir en cualquier plataforma Macintosh, Microsoft® Windows®, UNIX® y múltiples plataformas móviles. Extensible: más de 1.800 vendedores en todo el mundo ofrecen soluciones basadas en PDF, que incluyen plug-in, consultorías, formación y herramientas de soporte. Fiable y robusto: el hecho de que haya más de 200 millones de documentos PDF circulando en la red hoy en día es la prueba de la cantidad de empresas que confían en este formato para obtener información. Mantenimiento de la integridad de la información: los archivos PDF de Adobe tienen el mismo aspecto y muestran la misma información que los archivos originales, como, por ejemplo, texto, dibujos, 3D, gráficos en color, fotos e incluso lógica empresarial, independientemente de la aplicación utilizada para crearlos. Seguridad de la información: firme electrónicamente o proteja con contraseña los documentos PDF de Adobe creados mediante el software Adobe Acrobat® 7.0 o Adobe LiveCycle™. Capacidad de búsqueda: Con funciones de búsqueda de texto para encontrar palabras, marcadores y campos de datos en los documentos. Accesible: los documentos PDF de Adobe colaboran con las tecnologías de asistencia para facilitar el acceso a la información a personas con discapacidades. Hasta aquí todo son bondades pero PDF presenta también algunos inconvenientes: El tratamiento que realiza de las imágenes (en jpeg) hace que para conseguir que el mismo pese poco la ratio de compresión tenga que ser muy alta, y esto en algunos entornos es conflictivo, por ejemplo en el campo del patrimonio documental y bibliográfico.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

273

Adobe presentó a principios del 2007 la especificación completa de su formato PDF en versión 1.7 a la Association for Information and Image Management, que se está poniendo manos a la obra para liberarla como un estándar ISO La medida de Adobe supone un verdadero impulso para uno de los formatos más utilizados actualmente a la hora de transmitir todo tipo de documentos: su Portable Document Format ya está en manos del organismo que se encargará de su publicación como un formato ISO abierto. La medida, según señalan en DesktopLinux, es la evolución lógica de una migración gradual de diversas versiones específicas del formato a estándares ISO, ya que PDF/Archive y PDF/Exchange ya lo son, mientras que PDF For Engineering y PDF for Universal Access están en vías de serlo muy pronto. Según Sarah Rosenbaum, directora de gesión de productos en Adobe, esto permitirá la adecuación de PDF en todo tipo de entornos de producción y archivado. En este importante anuncio Rosenbaum afirmó que el creciente aumento del interés por el formato abierto de documentos (ODF) ha sido también clave: “hay una tendencia cada vez mayor en el mercado hacia la normalización en formatos abiertos” No obstante, según ella esta medida no tiene nada que ver con el formato rival de Microsoft, el llamado Metro, más conocido por sus siglas: XPS (XML Paper Specification), y que está muy presente tanto en Windows Vista como en Office 2007, los dos desarrollos que se presentarán mañana de forma global, y no solo para usuarios empresariales. La evolución del mercado y de las necesidades propició la aparición del otro formato comentado: DjVu La tecnología de DjVu fue originalmente desarrollada por Yann Le Cun, Léon Bottou, Patrick Haffner y Paul G. Howard en los laboratorios de AT&T en 1996. DjVu es un formato fichero abierto Las especificaciones del formato y el código fuente de la biblioteca de referencia están publicadas y se encuentran disponibles. La propiedad de los derechos para el desarrollo comercial del software de codificación ha sido transferido a distintas compañías a través de los años, incluyendo AT&T y LizardTech. Los autores originales mantienen una implementación GPL llamada DjVuLibre. El el año 2002 el formato DjVu ha sido elegido por Internet Archive como formato en el cuál su proyecto “Million Book Project” proporciona libros escaneados de dominio público de forma online (conjuntamente con TIFF y PDF). DjVu trabaja dentro de un entorno wavelet por el que genera diferentes capas del documento digitalizado. A cada una de estas capas le aplica un formato de compresión determinado. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

274

Luis Torres Freixenet

Lógicamente el quid de la cuestión es lo que el formato interpreta que debe ir en cada capa. Así tenemos (como más importantes) la capa de visión global, la capa de texto y la capa de fondo. Una traslación completa de la complejidad del formato DjVu la podemos obtener en el documento elaborado por Leon Bottou.. Es necesario tener instalado el plugo de DjVu para poder acceder al documento, bien el de Lizardtech o bien el desarrollado por la comunidad “open source” llamado DjView 4.3 No obstante finalizo el debate entre PDF y DjVu con un ejemplo. Dov Isaacs, uno de los mayores expertos de Adobe creó (año 2001) un pdf con las siguientes características: —— —— —— —— —— —— —— —— ——

84 slides from PowerPoint Color graphics on every page 30 font faces subset embedded 17 line art drawings 30 screen shots 28 bitmaps (in addition to the screen shots) Four languages Looks great on-screen Prints like a champ

... y un tamaño de 1,14 Mb En febrero del 2002 Leon Bottou usando el mismo documento lo dejó en Djvu en 0,88 MB, conservando las mismas características. Tengo claro que PDF mantiene la delantera sobre Djvu un muchos aspectos, por ejemplo su uso e implantación masivo, pero no podemos desdeñar la grandes posibilidades que nos presenta DjVu gracias a la compresión wavelet. DjVU vs JPEG? El uso intenso de jpeg nos hace olvidar muchas veces que DjVu no deja de ser “un tipo de jpeg” pero mejorado. Uno de las cuestiones más prácticas es la conversión de documentos a Djvu asignándole el perfil “photo” de manera que perderemos las capas (si es una foto no tiene sentido crear una capa de texto, de fondo, etc). De esta manera obtenemos unas imágenes en Djvu (es decir en jpeg mejorado) con: TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

275

Digitalización del Patrimonio Documental

—— Calidad mucho más alta que JPEG´s realizados de modo similar, o aproximadamente con la mitad de tamaño para una calidad similar. —— Calidad superior en altas relaciones de compresión. Con degradados más realistas, sin los típicos artefactos digitales de “bloque”, y ninguna “solarización” del color. —— Aparece de manera muy rápida la imagen con alta progresividad. —— Muy rápido para mostrar el zoom o la decodificación. —— Uso de poca cantidad de memoria para la descompresión lo que facilita el visionado de las imágenes en ordenadores poco potentes.

Como las imágenes valen más que mil palabras os animo a comprobarlo directamente en este enlace ¿Cual puede ser el futuro? Las últimas tendencias nos muestran PDF´s que en realidad son DjVu. Es decir, creas un DjVu con su estructura de segmentación ( o capas) y manteniéndolas obtenemos un fichero con extensión PDF Algunos piensan que significará la desaparición de DjVu pero otros muchos pensamos que obtendremos toda la potencia en el tratamiento de los textos y de las imágenes de DjVu con toda la UNIVERSALIZACIÓN de PDF. Estaremos expectantes al resultado final. Por ahora los intentos comerciales existentes no logran dar el 100% de la potencia de DjVu en su traslación a PDF y presentan además un gran incoveniente ( a mi entender). Pretenden vendernos licencias de software limitadas por número de ficheros realizados, algo por lo que nunca pasaré. Lo bueno es que el futuro ya está aquí. 1. La Captura

Antes de comenzar decir que el proceso de captura debe estar tan normalizado que la única variable sea el documento. De manera que luces, factores de exposición, equilibrio de color, etc. esté siempre registrado para poder ofrecer y conseguir el mismo resultado independientemente del momento del día en el que realizamos la captura o del operador que ha intervenido. Dentro de unos principios generales (que serán los que aquí veremos) están las particularidades de cada dispositivo (hardware), de cada software, de cada operador y de cada institución. La tipología de los dispositivos de captura, en el caso de nuestras instituciones, la podríamos limitar a: —— —— —— —— ——

Cámaras digitales. Escáner plano (para opacos y translúcidos). Escáner de diapositivas/35mm Escáner vertical Escáner de microfilme. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

276

Luis Torres Freixenet

Teniendo en cuenta la limitación de tiempo y la adecuación práctica que se pretendía del curso nos centraremos fundamentalmente en los dos primeros. ¿Cuándo usamos un dispositivo u otro? El criterio siempre tiene que ser: “USAR EL MEDIO QUE ME OFREZCA MEJORES RESULTADOS SIN DAÑAR O PONER EN PELIGRO EL ORIGINAL” En la mayoría de los casos la cámara digital se nos presenta como el elemento más versátil, sobre todo en combinación con una mesa prensa-libros. En su contra hay que decir que se deben tener unos conocimientos mínimos de fotografía, sobre todo para solventar los problemas de iluminación que se pueden presentar. Vamos a enumerar una serie de cuestiones a tener en cuenta. a) Usar siempre que se pueda distancias focales igual o superiores a los 50mm. b) Las ópticas siempre deberán ser de calidad. Recordad que es el elemento que “filtra” la información sobre el que podemos actuar. El sensor digital será el que lleve la cámara, mientras que la óptica podremos intercambiarla. c) Como regla general evitar los zoom. d) Normalizar el trabajo. Todas las fases de la captura deberán ser parametrizadas, sólo así podemos garantizar un trabajo continuo y de calidad. e) La luz debe controlarse para garantizar una correcta iluminación, pero también para proteger los originales. f ) La captura la realizaremos siempre en formato RAW., esto sólo es posible con las cámaras digitales puesto que los escáneres no contemplan este formato. g) Incorporar en el inicio de la secuencia de la captura una cartela normalizada para control de color o niveles de grises. Gretamacbeth colorcheck, la de Kodak o la de Qcard h) Siempre que se pueda garantizar la captura del documento dentro de unas medidas fijas para facilitar posteriormente la función recortar de manera automática.

El uso del escáner plano, salvo modelos de alta gama, es mejor usarlos desde la ventana de PhotoShop y puede quedar limitado a:

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

277

Digitalización del Patrimonio Documental

—— Fondos (opacos o no) de tamaños adecuados al escáner y sin encuadernar.

Podríamos establecer, de manera resumida, el proceso de digitalizar de la siguiente manera, aunque es posible no tener que realizar todos estos pasos cada vez: 1. 2. 3. 4. 5. 6. 7. 8.

Insertar el original. Previsualizar. Recortar, rotar y voltear. Fijar la resolución y dimensiones de salida. Fijar el rango tonal y profundidad de bits. Ajustar el espacio de color y el equilibrio de color. Aplicar restauración y mejoras digitales. Realizar la digitalización final

De todas las maneras hay que acostumbrarse a realizar lo que yo denomino “Flujo de trabajo independiente de medios” El esquema sería el siguiente:

El esquema sería el siguiente: La motivación usual para crear imágenes maestras a gama completa es conservar la flexibilidad para múltiples medios, pero construir un archivo de imágenes maestras bien digitalizadas es una forma de prepararse para el futuro. Al no tener que volver a digitalizar las imágenes, estaremos listos para aprovechar nuevos enfoques o tratamientos que puedan surgir o podamos necesitar. ¿Qué es lo que podemos considerar una imagen maestra? Aquellas que tienen los ajustes necesarios, independientemente del medio o fin al que vayan a ser destinadas. Podemos apreciarlo mejor observando el siguiente esquema, en el que podemos ver los pasos mínimos e imprescindibles que deben ser ejecutados para considerar la

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

278

Luis Torres Freixenet

imagen como maestra. En alguna bibliografía podemos encontrar referencias a estos ficheros como “master”. De una forma más concreta podemos comentar que la valoración de los equipos de digitalización disponibles en el mercado se debe realizar teniendo en cuenta los siguientes parámetros: —— Precio de adquisición. —— Coste de mantenimiento. —— Independencia de proveedor, es decir, el estar lo menos posible “atado” a un único proveedor. —— Niveles de calidad obtenidos (resolución, fiabilidad, etc.) —— Versatilidad de los equipos, teniendo en cuenta los fondos a trabajar.

La ponderación de cada punto dependerá mucho de cada institución. De nada sirve ponerse unos niveles muy altos de calidad si eres incapaz de adquirir los instrumentos, pero tampoco sirve el realizar un trabajo muy amplio pero con unos niveles de calidad muy bajos. El grado de compromiso lo deberá concretar cada uno, pero siempre es preferible poco y bueno que mucho y malo. En nuestro caso hemos optado por: —— —— —— —— —— ——

una cámara Canon EOS 1Ds (11,5 mll píxeles). Objetivo Canon 50mm USM +macro. Columna Kaiser Prensa Libros Zeucthel Juegos de focos de Luz fría Tri-Lite Carta Kodak de escala de grises y/o color (Q-13 ó Q-14); Qpcard101 y Qpcard501. —— Espectrofotómetro EYE – ONE de GretagMacbeth —— ColorChecker DC, de GretagMacbeth. (5)

Con estos equipos, y tras las pruebas pertinentes, hemos determinado que podemos realizar capturas con un tamaño máximo de DINA2. La cámara permite realizar capturas de documentos mayores, pero las exigencias de resolución y calidad que nos hemos marcados establecen el tope en el mencionado DINA2 El avance de la tecnología digital es por todos comprendida. Por ejemplo, la cámara mencionada fue adquirida en diciembre del 2003, y era el tope de resolución dentro del segmento de las cámaras reflex. Hoy el mismo fabricante ha aumentado la resolución un 100% y ha mantenido el precio de adquisición. Y la tendencia es seguir aumentando la resolución...

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

279

Digitalización del Patrimonio Documental

Un instrumento muy importante es el uso de un espectrofotómetro digital. Este dispositivo nos permite calibrar de manera normalizada equipos de captura y de salida, estableciendo un perfil de color (ICC) que puede ser interpretado de forma correcta tanto para su uso en instrumentos de visualización (RGB) como en instrumentos de salida (CMYK). Es importante insistir en que el dispositivo que se adquiera sea un espectrofotómetro y no un colorímetro. El colorímetro sólo ofrece los datos de los colores, mientras que el espectrofotómetro realiza una curva espectral de los colores, los interpreta y ofrece una lectura más completa sobre las posibles desviaciones en cada color. Precisamente con estos materiales valiosos garantizar la fidelidad de color tanto para nuestros actuales usos como para los usos futuros es primordial si en algún momento queremos afrontar el tema que nosotros denominamos “facsímile digital” Este es uno de los campos en los que vamos a seguir trabajando más a fondo en los próximos años, puesto que actualmente en las tecnologías digitales el gran reto es el de la fidelidad del color. Pero también tenemos dos opciones más económicas: —— Usar cartas de color calibradas (IT8) y mediante software open source poder calibrar nuestros equipos y conseguir perfiles de color (ICC) de una manera más económica. (interesante ver el proyecto DOHM de la National Library of Australia). —— Usar las QPCARD 201 y el software gratuito que puedes descargar desde Internet

Técnicas y protocolos de actuación para la resolución de los diferentes problemas que la tipología de los documentos a capturar nos presentan. En el campo de la normalización ya hemos comentado como es posible, y creo que recomendable el trasladar lo ya establecido en los entornos de la microfilmación. Voy a relatar el protocolo de captura, con sus diferentes niveles. Aunque no de una manera exhaustiva creo que dará una idea de nuestra línea de trabajo. 1.1. Cuando tenemos en la Unidad de Sistemas de Reproducción de Docuementos (en adelante USRD) el original que va ha ser digitalizado éste llega a nuestro poder con los datos de identificación específicos. El documento ha tenido que ser revisado por la unidad a la que pertenece, trasladando toda la información relativa al mismo y a su estado de conservación: faltan hojas, ejemplar con problemas de conservación, etc.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

280

Luis Torres Freixenet

1.2. El operador realiza un repaso rápido del documento en el que determina fundamentalmente la escala de captura y las posibles dificultades que se va a encontrar. 1.3. Al igual que en la microfilmación se reducen las variables al máximo. En este caso la única variable es el documento. Esto quiere decir que disparamos siempre con las mismas condiciones de luminosidad, con el mismo diafragma, misma velocidad y mismo valor ISO de sensibilidad. El mantener estos parámetros fijos nos garantiza fiabilidad en los resultados. Una vez realizados los ajustes de foco, escala, iluminación procederíamos a realizar el primer disparo. El entorno digital, a diferencia de la microfilmación, no es obligatoriamente secuencial. Esto quiere decir que en cualquier momento podemos intercalar una captura (por repetición, por ausencia, etc.) sin tener que realizar complicadas actuaciones. 1.4. El primer disparo (nº 0000), junto con la “cubierta”, contiene la siguiente información: 1.4.1. Carta QPCARD101 ó QPCAR501 ó Carta de grises de Kodak (Q-13 ó Q-14) ó Mini-ColorChecker. 1.4.2. Escala gráfica. 1.4.3. Ficha del documento 1.5. El segundo disparo (nº 0001) sería el lomo 1.6. El tercer disparo (nº 0002) sería ya la “cubierta” sin los elementos de información antes descritos 1.7. El cuarto disparo (nº 0003) el resto del documento propiamente dicho hasta el final del mismo. Es fundamental el realizar la captura lo más precisa posible, todo lo que normalicemos en este momento nos evitará trabajo posterior de tratamiento. Actualmente con un operador experto estamos consiguiendo una media de 1000 disparos diarios a doble página. Esta cifra es sólo una orientación porque el patrimonio documental que estamos trabajando se caracteriza por ofrecernos pocas posibilidades de improvisación. Además hay que tener en cuenta que mantenemos la premisa de CALIDAD antes que cantidad. ¿Por qué capturamos la ficha del documento, la escala y la carta de grises? Todos los aquí presentes hemos oído hablar de los metadatos, y estaremos de acuerdo que estos son esenciales, pero pensamos que no es suficiente. Nuestro documentos digitales ya llevan incrustados todos los metadatos técnicos necesarios: fecha y hora de realización; diafragma, velocidad, sensibilidad ISO; objetivo, cámara, perfil de color, etc (EXIF). Pero nos inclinamos por la solución en la que cada documento digital de forma aislada, pueda contener en sí mismo toda la información necesaria como para TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

281

Digitalización del Patrimonio Documental

que pueda ser identificado sin tener que recurrir a elementos ajenos. Es la teoría del exceso de información que ya aplicamos en los rollos de microfilme de 35mm, por el que este exceso nunca es perjudicial. Ahora bien cuando estamos trabajando con nuestro Patrimonio Documental nos van surgiendo multitud de problemas que deben ser resueltos durante el proceso de la digitalización, pero de una manera normalizada, por ejemplo: —— Descubrimos que falta una página (o folio) en la secuencia original. Nuestra opción es incluir en el campo inferior de la captura el símbolo ISO 9878/1990 de microfilmación que nos indica esta incidencia. Lo contrario puede llevar al usuario final que esté observando en el futuro la digitalización que el operador ha podido tener un despiste y se ha olvidado de digitalizar una página. —— El documento presenta zonas de rotura. En primer lugar se debe colocar una hoja o cartulina blanca debajo. Con esto conseguimos dos cosas: por un lado mostrar claramente la zona degradada y por otro lado que la zona de texto posterior no dificulte la lectura. Se podría colocar el símbolo ISO adecuado. —— Capturamos siempre que es posible en lo que se denominaría estructura de COMIC o doble página. En esta secuencia normalizada de hojas, por ejemplo pasamos de un DINA3 a un DINA2 debido a la presencia de una carta real o de un mapa. La solución pasa por realizar la captura normalizada al tamaño que se estaba trabajando (DINA·3), en el que se aprecia que el documento desplegado queda visualmente fuera de campo (cortado). Posteriormente se realiza una captura específica del documento desplegado junto con una escala. Lógicamente esta segunda captura se insertará en su lugar correspondiente. Como es fácil de comprender esto es imposible de realizar en el microfilme por su estructura secuencial. Además para poder realizar esto hay que garantizar la estabilidad del color en todas las capturas.

Podríamos indicar más ejemplos pero creo que la intención se observa como clara. Hemos de dar al usuario final toda aquella información que no puede obtener debido a que no establece un contacto directo y físico con el original. Nuestro trabajo es proteger y difundir, y pienso que ninguna de estas dos funciones debe materializarse por separado. La conversión y el tratamiento. El software que usaremos será Photoshop vCS2 con los plug-gin para reconocer JPEG-2000y los ficheros RAW de las cámaras CANON comentadas. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

282

Luis Torres Freixenet

Un programa especifico para la función de recorte automático, creado por el propio Ayuntamiento. El software creado por CELARTEM (antes Lizardtech) para trabajar los djvu. Y por supuesto la capacidad permanente de ir buscando y probando todos los programas que localizamos vía Internet y que pensamos nos pueden ser útiles. Escáner Plano: Este tipo de dispositivos no pueden capturar en formato RAW. Deberemos tener creados perfiles para los diferentes tipos de documentos que tenemos que trabajar. La creación de perfiles es conveniente realizarlos junto con la calibración del equipo. El uso de un espectrofotómetro es primordial para un trabajo de calidad que pueda ser parametrizado. Es fundamental dedicar todo el tiempo necesario en un principio para ajustar detalles (balance de blancos, filtros de mejora, etc.), a la larga es tiempo ganado. Una buena opción es desactivar los controles del escaner y capturar con una de las cartas de color aquí comentadas. Posteriormente realizar todos los tratamientos y ajustes usando los valores de las cartas mencionadas. A la hora de preparar una secuencia de trabajo los primeros pasos deberán ser los relativos a recorte, giro y todos aquellos que no tengan que ver con tareas subjetivas (niveles, brillo, contraste, saturación, corrección de color, etc.) Salvo lo comentado todos los demás tratamientos con las imágenes son iguales a los que explicaremos en el apartado de cámara digital. Cámara Digital: Ya tenemos las imágenes capturadas y están en nuestro PC. El paso siguiente es trabajar con ellas para dejarlas de forma adecuada para su almacenamiento final (punto 7) o para su difusión (punto 8).

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

283

Digitalización del Patrimonio Documental

Tenemos los ficheros RAW. La particularidad que estos tienen es que nos permiten crear fácilmente una serie de perfiles aplicables, de manera repetida y controlada. Así conseguiremos siempre el mismo resultado, y lo que es mejor de manera automatizada. Una vez abiertos en Photoshop procederíamos a realizar, si se cree conveniente, los ajustes en NIVELES. Estos ajustes los realizaríamos dentro de una ACCIÓN (macro de Photoshop) de manera que luego podamos ejecutar lotes sobres las carpetas de ficheros o sobre los ficheros abiertos. Siempre es muy recomendable no eliminar los ficheros RAW hasta el final de la conversión-tratamiento, puesto que el momento que lleva más trabajo y complejidad es el de la captura. Actualmente nosotros nos inclinamos por no eliminar los ficheros RAW por considerarlos los verdaderos “negativos digitales”. A la hora de preparar una secuencia de trabajo los primeros pasos deberán ser los relativos a recorte, giro y todos aquellos que no tengan que ver con tareas subjetivas (niveles, brillo, contraste, saturación, corrección de color, etc.) Para poder corregir el color de manera uniforme en una secuencia de captura de un documento deberemos usar una referencia, tal y como ya habíamos comentado. En función del material de referencia podemos usar un método u otro. 1. KODAK: En primer lugar deberemos garantizar que la escala ha sido fotografiada en las mismas condiciones de luz que el/los documentos a corregir. Después crearemos una capa de ajuste (de curva o de niveles) y aplicaremos el cuentagotas blanco sobre el rectángulo blanco (A), luego con el cuentagotas negro sobre el rectángulo negro (19) y por último con el cuentagotas gris sobre el rectángulo gris medio (M). En algunos casos, sobre todo si no tenemos calibrado el monitor sólo usaremos el cuentagotas blanco y negro puro, no ejecutando el gris medio (M). 2. QCARD-101: 2.1 Colocar la QpCard 101 sobre el motivo asegurándonos que recibe el mismo tipo de luz que el sujeto principal y de que no haya brillos sobre la carta. 2.2 Seleccionar un balance de blancos adecuado al tipo de luz en la cámara. Evitar el modo “Auto” puesto que de lo contrario no podríamos garantizar los ajustes para todas las fotos de la secuencia. Esto es debido a que en modo “auto” la cámara seleccionaría cada vez una temperatura de color diferente. 2.3 Tome una imagen de referencia con la Qpcard sobre el motivo. Normalmente la primera foto de la serie. 2.4 Quite la Qpcard y tome las imágenes restantes en las mismas condiciones de luz. Por ejemplo, en el caso de un libro nosotros el disparo denominado 0 (cero) contiene la Qpcard101, una escala gráfica, la ficha del TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

284

Luis Torres Freixenet

documento y todo colocado sobre la portada del libro. El disparo 1 sería la portada ya sin ningún elemento de referencia. 2.5 Abra la imagen de referencia en Photoshop. Seleccione un trozo del cuadrado gris usando la herramienta de selección. Aplique un desenfoque gaussiano. Escoja Filtro>Desenfoque Gaussiano”. Escoja radio 10. Deseleccione la imagen. Seleccione una medida de muestra de 5x5 pixels en la herramienta cuentagotas. 2.6 Seleccione en el menú Imagen> Ajustes > Curvas. Seleccione el cuentagotas gris. Pinche en la referéncia gris de la Qpcard. La imagen se corregirá, siendo entonces los canales rojo, verde y azul de igual valor en el gris. Corrigiéndose automáticamente los demás colores. 2.7 Guardamos la curva creada seleccionando “Guardar” en el cuadro Curvas. Abra entonces el resto de imágenes pendientes y las corregiremos cargando la curva creada y aplicándola, bien de una en una, bien usando una acción creada para tal efecto.

El último paso puede ser el de aplicar una máscara de enfoque, pero debe quedar claro que su uso queda restringido al final del tratamiento. Si posteriormente a su uso realizamos ajustes del tipo NIVELES o CURVAS los resultados serían peores que los obtenidos inicialmente. Unos valores de Photoshop en la mascara de enfoque pueden ser los siguientes: A la izquierda el menú que encontraremos en Photoshop. Radio: Podemos empezar por usar la resolución de captura partida por dos. De manera que para 300 dpi usaríamos un Radio de 1,5. Cantidad: Entre 150 y 200.

Umbral: Este valor especifica a cuántos pasos tonales de distancia, en una escala de 0 a 255, tienen que estar esas muestras adyacentes antes de que el filtro las ajuste. Si el Umbral se fija en 3, por ejemplo, y los valores de punto de muestreo adyacentes son 122 y 124 (una diferencia de dos), no se verán afectados por el enfoque. Así que zonas de bajo contraste, aquellas con gradación suave, no se ven afectadas. La gradación permanece suave. El ajuste UMBRAL es fundamental para evitar los problemas relacionados con el moteado, el punteado y los artefactos que puede causar el enfoque. El almacenamiento La evolución de los dispositivos de almacenamiento en estos último dos años ha sido (y sigue siendo) de un ímpetu arrollador. TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

285

Digitalización del Patrimonio Documental

Por este motivo me inclino por dar un único consejo: Realizar las copias de seguridad en dos (o tres) tipos diferentes de soportes. En la USRD damos servicio a diferentes unidades: —— Archivo Municipal. —— Biblioteca Municipal. —— Hemeroteca Municipal.

El Archivo Municipal de Zaragoza hasta hace bien poco trabajaba con BRS, pero en diciembre del año 2004 adquirió el sistema ARCHIVO 3000. La biblioteca y la Hemeroteca funcionan con ABSYS. Esta disparidad de sistemas impide que la USRD pueda tener un único sistema integral de captura, dando lugar como se puede comprender a un mayor grado de dificultad. La estructura del Ayuntamiento de Zaragoza nos hace depender en todas las cuestiones tecnológicas del Centro Municipal de Informática (en adelante CMI). Este Centro es el que supervisa todas las adquisiciones de materiales informáticos (hardware y software). Recientemente hemos conseguido que el CMI ponga a nuestra disposición: —— un disco (unidad G:\) en red de 1 Tb con diferentes particiones. Las cuatro principales son: yy Archivo yy Biblioteca yy Hemeroteca yy USRD

—— un disco (unidad H:\) en red de 1 Tb para usarlo como depositario temporal mientras realizan las copias de seguridad a cinta digital. —— Disco externo de 6 Tb para copias de seguridad intermedias. (Lacie 4big Quadra, 1600€)

En las tres primeras del disco G:\ se encuentran lo que denominamos los ficheros de visualización (baja resolución y alta velocidad de visionado) y en la última carpeta se encuentran los originales (alta resolución). Antes de terminar el 2005 ya carecíamos de espacio en este disco duro, por lo que hemos procedido a la adquisición de dos discos intermedios: uno de 1,6 Tb y otro de 1 Tb. En febrero del 2008 se adquirió un sistema NAS con capacidad de 2,5 Tb. Todos estarán en la USRD pero no en RED. Esto es una solución temporal hasta que el CMI nos aporte una solución integral.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

286

Luis Torres Freixenet

Desde el CMI se está trabajando en darnos solución a este problema por lo que la línea a seguir es la que denominan “Soluciones de almacenamiento Jerarquizado” (HSM). Como ficheros de visualización nos hemos decantado mayoritariamente por el formato DjVu. Esto nos garantiza un alto nivel de compresión, un buen nivel de detalle y sobre todo una plataforma de visualización única para las diferentes unidades a las que damos servicio (archivo, biblioteca y hemeroteca). El CMI se encarga de realizar según sus propios protocolos de seguridad copia en DAT (cinta digital). Actualmente nuestros “masters” los tenemos en los siguientes formatos: —— JPG, escala de grises, nivel de compresión 9 (usando Photoshop vCS2) mayoritariamente para todos aquellos documentos provenientes de la digitalización del microfilme. —— RAW, color, para todos los documentos capturados con la estación digital comentada en este texto. —— TIFF grupo 6, color

Es muy interesante el atender a las recomendaciones sobre imagen estática, vectorial como de mapa de bits, del National Digital Information Infrastructure and Preservation Program de los Estados Unidos y liderado por la Biblioteca del Congreso. Aunque la mayoría de las veces la realidad de nuestros centros nos enfrenta ante un duro panorama. Todos estamos recibiendo en los últimos años una presión por lo digital que en algunos casos puede provocar situaciones irreversibles. Centrándonos en el apartado que estábamos comentando el plantear la creación de un archivo virtual requiere además de tener controlados los procesos de creación el disponer de la suficiente capacidad para almacenar toda esa información. Antes necesitábamos metros lineales de estanterías, ahora además necesitamos Gigabytes, Terabytes. Cuando planteamos las necesidades futuras no solemos encontrar respuestas demasiado generosas. Esto nos lleva a tener que adoptar decisiones en las que no te queda más remedio que sacrificar calidad final o asumir riesgos junto con mayores cargas de trabajo. Por este motivo nosotros actualmente estamos estableciendo como nuestro archivo master en los casos de fondos valiosos los ficheros en formato RAW. El RAW es un formato de archivo flexible, muy difundido en los entornos de fotografía digital. En el se utiliza un flujo de bytes que “describen” la información sobre el color de la imagen; cada píxel se describe en formato binario. Para entenderlo más TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

287

Digitalización del Patrimonio Documental

claramente, el formato RAW graba las imágenes en bruto, exactamente como llegan al sensor de la cámara digital, y no aplica ningún tipo de compresión ni modificación. Su mayor ventaja es que al no estar procesada la imagen ocupa aproximadamente la mitad que el TIFF. Además nos permite conseguir un equilibrio de color muy exacto, reducir el ruido y corregir errores de exposición (diafragma o velocidad). Además este formato captura en 12 bits (ni 8 ni 16) frente a los 8 bits de JPEG. Yo denomino al RAW como el “formato no formato”. Como era de esperar no todo son ventajas. (6) Su mayor inconveniente proviene de su naturaleza. Como hemos dicho captura lo datos en bruto tal y como llegan al sensor de la cámara. Esto quiere decir que estos ficheros deben ser procesados por un software que los reconozca. Además existe actualmente una guerra soterrada entre los grandes fabricantes de cámaras y los de software con el tema de los ficheros RAW. De este riesgo somos conscientes pero la realidad de nuestros recursos ha terminado por imponerse. Afortunadamente no estamos solos en este dilema y la comunidad internacional está moviéndose para intentar conseguir que los fabricantes no vayan cada uno por su lado (7). El trabajar con el formato RAW nos aporta también una serie de ventajas intrínsecas al propio formato. Por no alargarme en exceso recomiendo el acceso a la web de Michael Reichmann, de Luminous Landscape,en el cual colaboran Thomas Knoll (el de photosop) e Ian Lyons. De todas las maneras incorporo un documento word con la traducción de una discusión en el foro sobre la técnica de exponer con el histograma a la derecha. http://www.luminous-landscape.com/tutorials/understanding-series/u-raw-files. shtml Cómo es lógico el formato RAW es reconocible por el software que viene con la pro-

pia cámara, pero voy a citar otros programas de reconocido prestigio para trabajar con este formato: —— —— —— —— ——

Adobe Capture One http://www.phaseone.com/ Bibble http://www.bibblelabs.com/ Silverfast DCPro http://www.silverfast.com/show/silverfast-dcpro/en.html Pixmantec Raw Shooter http://www.outbackphoto.com/artofraw/raw_19/ essay.html —— dcRAW http://www.cybercom.net/~dcoffin/

Por ejemplo, ya he comentado que en la USRD disponemos de una Canon 1Ds de 11,5 mll de píxeles. Recientemente para trabajos de menos exigencia hemos adquirido una CANON 350 Ds de 8,5 mll de píxeles. Antes los ficheros RAW de la TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

288

Luis Torres Freixenet

primera cámara los trabajamos con Photoshop v.7.01, pues bien los ficheros RAW de la nueva cámara no pueden ser abiertos con esta versión de Photoshop tendríamos que actualizarnos a CS2 o bien usar el software específico que viene con la cámara. He comentado esto como ejemplo de la complejidad que supone trabajar con el formato RAW. Aunque ahora nos está permitiendo realizar más capturas, al disponer de espacio para poder ser guardadas, debemos tener bien establecido el protocolo de actuación para su conversión en los planes de seguridad a largo plazo. Y con esto entramos en el último punto de esta comunicación Si es importante el realizar las copias de seguridad no lo es menos llevar una política de vigilancia extrema de cara a la obsolescencia. Nos estamos refiriendo a la necesidad de migración de los datos de un tipo de soporte a otro. Con el paso del tiempo, los soportes de almacenamiento más novedosos siempre son más voluminosos y baratos en términos de megabytes que los soportes que reemplazan, dejando obsoletos a los antiguos soportes. Al final, y esto es lo que hay que evitar, podría llegar a ser imposible contratar servicio, soporte y suministros para el dispositivo que estamos utilizando. Podría llegar a convertirse en un gran problema si el hardware de ficheros tiene un problema o falla en el acto. Uno de los ejemplos más significativos son los inmensos ficheros de datos científicos de la NASA en la década de los 60. Almacenados en grandes bobinas de cinta magnética, los datos son ilegibles porque no existe ningún ordenador funcional que pueda leer las cintas, y los datos nunca se copiaron a un soporte más moderno. Hay que tener en cuenta que el problema de la obsolescencia digital se centra en tres cuestiones: —— —— —— ——

Sobre el propio hardware. Sobre los sistemas de almacenamiento. Sobre los formatos digitales. Control de calidad.

Una vez superada la última revisión pueden pasar al disco de red de 1Tb controlado desde el Centro Municipal de Informática (en adelante CMI). Con la serie de documentos valiosos realizamos una copia intermedia en DVD, a la que denominamos desde la USRD como copia de trabajo. Presenta las siguientes características: —— JPEG, color, nivel 10 de compresión (según Photoshop v.7.01).

Si es importante el realizar las copias de seguridad no lo es menos llevar una política de vigilancia extrema de cara a la obsolescencia. Hay que tener en cuenta la necesidad de migración de los datos de un tipo de soporte a otro. Con el paso del tiempo, los soportes de almacenamiento más novedosos TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

289

Digitalización del Patrimonio Documental

siempre son más voluminosos y baratos en términos de megabytes que los soportes que reemplazan, dejando obsoletos a los antiguos soportes. Al final, y esto es lo que hay que evitar, podría llegar a ser imposible contratar servicio, soporte y suministros para el dispositivo que estamos utilizando. Podría llegar a convertirse en un gran problema si el hardware de ficheros tiene un problema o falla en el acto. Desde la USRD en colaboración con el CMI establecemos un tope de tres años para realizar un repaso pormenorizado del estado en el que se encuentran nuestros fondos digitales (se entiende que los denominados masters). Tanto en su vertiente de software como de hardware. Actualmente la línea a seguir para el almacenamiento de los documentos digitales generados es la denominada Soluciones de Almacenamiento Jerarquizado (HSM) que permite en función de su nivel de acceso jerarquizar los dispositivos y las copias de seguridad. Que a nivel internacional se están haciendo esfuerzos para encontrar una solución al tema de la obsolescencia todos somos conscientes, citare dos ejemplos por su interés como por su tratamiento tan dispar: —— Por un lado tenemos el intento de crear un PDF permanente. Sería formato comprimido basado en PDF pero autocontenido, es decir, no necesita de un visor concreto (como el Acrobat Reader u otros similares). No permite encriptar y soporta metadatos. Todavía está en discusión --ISO/CD 19005-1-—— Por otro lado el artículo títulado “Ending Digital Obsolescente” de Ken Quick & Mike Maxwell, en el cual se plantea el uso del microfilme como elemento sustentador de la política de conservación de los ficheros digitales. Su trabajo aunque es sumamente interesante creo que no ha encontrado un desarrollo posterior.

Las exigencias de digitalización del Patrimonio Documental difieren en gran medida de las de entornos de oficinas y similares. Además de poder garantizar la mayor fidelidad de la imagen reproducida debemos garantizar que en el futuro éstas sean accesibles. Existe una necesidad imperiosa de trabajar de manera multidisciplinar sabiendo que la tecnología digital nos abre muchas puertas, pero que también nos convierte en esclavos de su propia evolución tecnológica. Evolución que por el ritmo que lleva bien podríamos denominar revolución. Anticiparse y planificar son las palabras claves, y naturalmente vale la pena, ya que de lo contrario se perdería todo lo realizado hasta ese momento. Estoy de acuerdo con vosotros en que es un problema, pero sabiendo la naturaleza del problema es más fácil solucionarlo. Toda institución que crea ficheros digitales tiene que tener una forma de migrar continuamente sus archivos de soportes obsoletos y sin soporte al soporte actual. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

290

Luis Torres Freixenet

En lugar de pensar en los ficheros de imágenes como un almacén de datos estacionario, podemos pensar en ellos como en una tribu nómada que puede sobrevivir al paso de los años sólo si sabe moverse en busca de mejores territorios de caza. 4 La Difusión Estamos llegando al final y he dejado de una manera intencionada este apartado. El motivo principal de esto es que muchas veces se pasa por alto la importancia que tiene lo que yo denomino “la difusión”. En la USRD siempre hemos dicho que nuestra misión es conservar y difundir, y por este orden. Y precisamente el entorno digital ayuda de manera muy importante a que esta difusión pueda llegar a todos los ciudadanos. Antes de continuar quiero citar un texto: “En una democracia, los registros y documentos que constituyen nuestros archivos pertenecen a los ciudadanos, dar acceso rápido y eficaz a los mismos no es un servicio anecdótico. Cuando se consigue gestionar esta documentación eficazmente, estamos dando la oportunidad a ciudadanos concretos, a instituciones educativas, a las administraciones públicas a que los utilicen. Debemos implicarnos “agresivamente” en educar e informar a nuestros usuariosclientes sobre los servicios que ofrecemos y sobre los fondos a los que debemos dar acceso. Las nuevas tecnologías están facilitando poder acercarnos a todos los posibles usuarios en sus casas, escuelas, universidades, y puestos de trabajo, estén donde estén. En colaboración con las diferentes administraciones a todos los niveles, con las universidades, con corporaciones y colectivos, utilizaremos estos nuevos medios para hacer llegar nuestros archivos a la gente sin importar donde se encuentren y promoveremos el valor educativo y científico de nuestros fondos documentales hasta el punto de conseguir que los integrantes de la comunidad educativa y científica se impliquen en un proyecto común”. – Traducción libre de la introducción al objetivo estratégico nº 2 del documento Ready access to Essential evidence: The strategic Plan of the National Archives and Records Administration (NARA): 1997-2007 .- http://www.archives.gov/

Este texto resume de una manera muy gráfica lo que pienso debe ser nuestro planteamiento. Desde el momento en que pongamos a disposición de todos los ciudadanos, sin ningún tipo de distinción, el patrimonio documental que salvaguardamos estaremos haciendo honor al término de función pública. Se deben desterrar las políticas que yo denomino “de cortijo” en relación al acceso de los fondos documentales. Es triste comprobar como todavía permanecen en activo comportamientos de “esto no lo difundo porque si lo hago alguien lo descubrirá y se llevará la gloria, y esta debe ser sólo mía”. No obstante lo comentado del proyecto NARA también hay que defender la trazabilidad de los documentos digitales realizados por nuestras institución, de manera TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice

291

Digitalización del Patrimonio Documental

que en todo momento se pueda saber que esas imágenes han sido realizadas por nosotros. Un elemento muy interesante para esa función es la incorporación de “marcas de agua” o filigranas (watermarks) en las imágenes. Estas garantizan la integridad del documento unitario Teniendo en cuenta todo lo expuesto resultará obvio el comentar que si son importantes todos los pasos anteriores el de la difusión no lo es menos. De este último paso dependerá en buena parte la valoración final que los usuarios realicen de nuestra tarea. Si pensamos en una difusión destinada a ellos, también será lógico que la manera de difundirlos cubra sobre todo sus necesidades. Un planteamiento muy útil es contar con la colaboración de los propios usuarios, ya que muchas veces no coincidimos institución y usuarios en dar el mismo significado a la palabra “utilidad”. Todos los esfuerzos que realicemos para ofrecer una imagen nítida, fidedigna y útil (entre otros muchos parámetros) serán pocos. Desde la USRD hemos apostado por el uso de nuevos formatos (DjVu) que creemos ofrecen rapidez de consulta, calidad y versatilidad. Sólo el tiempo nos dirá si hemos acertado o errado en la solución adoptada. A pesar de las innegables ventajas que presenta el formato DjVu para su uso en Internet e intranet, seguimos trabajando para que el mismo adopte elementos que a nuestro juicio pueden facilitar la consulta. Por ejemplo, mejoras en las opciones de impresión, en las de retoque pre-programadas, etc. Estas mejoras son, por ejemplo, visibles en el visor desarrollado de manera independiente (recordemos que el formato es open source) y se denomina WinDjView-0.5. La traducción a este estupendo visor se puede encontrar en Comics en formato Djvu La Biblioteca Digital Intentar abarcar toda la problemática de las bibliotecas digitales rebasaría con mucho la pretensión de este documento. Fundamentalmente por dos motivos: —— Por el espacio que necesitaríamos. —— Por no ser mi especialidad.

De una manera sencilla podríamos indicar que las tendencias presentes en el panorama internacional de Bibliotecas Digitales se decantan por dos opciones: —— Visualización de las imágenes que conforman el “libro”, es decir, fotos —— Visualización de la transcripción del texto que forma el libro. Como ejemplo TEI (Text Encoding for Interchange). —— Tendríamos la opción intermedia que nos ofrece el acceso a ambas posibilidades.

Pero ¿qué es TEI? Las Normas del Text Encoding Initiative (TEI) están dirigidas a cualquier persona que quiera intercambiar información almacenada en un formato TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

292

Luis Torres Freixenet

electrónico. En ellas se enfatiza el intercambio de información textual, pero también se hace referencia a otras formas de información como son las imágenes y el sonido. Las Normas son del mismo modo aplicables a la creación de nuevos recursos y al intercambio de los ya existentes (8) El esquema METS es un estándar para la codificación de los metadatas descriptivos, administrativos, y estructurales con respecto a objetos dentro de una biblioteca digital, usando el XML schema language de la World Wide Web Consortium. Este estándar es mantenido por Network Development and MARC Standards Office de la Biblioteca del Congreso (EE.UU.) y está siendo aceptado como una iniciativa de la Digital Library Federation. 5. Conclusiones La primera, y espero que comprensible, es que resulta muy difícil comprimir más de 20 años de experiencia. He intentado dar los datos suficientes sobre todos los pasos que integrarían una cadena de digitalización, como es lógico no están todos ni están del todo desarrollados. Vuestra iniciativa, pruebas y tentativas serán las que os ofrezcan los mayores avances. Sólo os puedo comentar tres cosas: —— En entornos digitales aquello que no se practica se olvida muy rápidamente. —— Es muy importante el control de calidad en las imágenes digitales obtenidas. —— Cuando se “externaliza” la digitalización ésta debe ser lo que yo denomino un producto cerrado. Es decir, que el trabajo resultante nos llegue ya finalizado de manera que (por ejemplo) sólo tengamos que trasladar los ficheros de visualización al entorno web y los master a su lugar correspondiente. Es una trampa conseguir más ficheros a costa de realizar nosotros sobre ellos tratamientos posteriores. Normalmente el volumen de trabajo nos acabaría desbordando. —— Estoy a vuestra disposición, mi dirección de correo electrónico es [email protected]

Espero que el resultado final del aprendizaje de este tema sea que bullan en vuestros pensamientos mil y una aplicaciones de lo aquí visto. Todos los enlaces que aparecen a continuación han sido revisados a 7 de octubre del 2008.

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

293

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

294

Luis Torres Freixenet

TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

295

Podemos apreciar un detalle del Libro de Actas nº 5, folio 5 recto

Detalle en bruto tras salir del escáner de microfilme. TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

296

Luis Torres Freixenet

Detalle tras aplicarle la mascara de enfoque según los parámetros marcados en el texto: Radio; 1,5/Cantidad: 200/ Umbral: 2 Notas: 1.- Negroponte, Nicholas.- , “El mundo digital” 2.- Metadata Encoding & Transmisión Standard (Mets) www.loc.gov/standards/mets 3.-.http://www.quesabesde.com/noticias/1_2023 4.-http://www.adobe.com/products/dng/main.html HASSELBLAD PRESENTA SU PRIMER RESPALDO DIGITAL DE 39 MEGAPÍXELES 39 Millones de píxeles parecen haberse convertido en una nueva meta y Hasselblad ha querido en la carrera con su nuevo CFH-39, el nuevo respaldo de la saga CFH se presenta en dos versiones: como dispositivo independiente que puede ser empleado con diferentes cuerpos de formato medio, o bien integrado con la cámara H2D. Al igual que el resto de respaldos, el CFH-39 asume las características propias del Sistema H. Así, tanto el respaldo como la cámara disponen de las prestaciones necesarias para asegurar su portabilidad: pantalla de 2,2 pulgadas, ranura para tarjetas CompactFlash y batería. TRIA Nº 15. 2009 I.S.S.N. 1134-1602 Anterior

Siguiente

Buscar

Índice Digitalización del Patrimonio Documental

297

Las imágenes en formato RAW de 16 bits capturadas por el dispositivo pueden almacenarse también en un disco externo de hasta 80 GB o descargarse directamente en un ordenador. Entre las opciones que se incluyen en el nuevo modelo, destaca la función denominada Digital APO Correction (DAC). Basándose en los metadatos registrados durante la toma, es posible realizar una corrección automática de la imagen de modo que -según Hasselblad- se optimiza el rendimiento de la óptica empleada y se minimizan las posibles aberraciones cromáticas. 5.- http://intl.i1color.com/ y http://www.gretagmacbeth.com/ 6.- http://www.luminous-landscape.com/tutorials/understanding-series/u-rawfiles.shtml 7- http://www.openraw.org/ 8.- TEI lite: Una introducciçon al Text Encoding for Interchange.- Documento no: TEI U 5.- Traducido por Manuel Sánchez Quero, Universidad de Alicante http:// www.tei-c.org/Lite/teiu5_sp.html

TRIA Nº 15. 2009 I.S.S.N. 1134-1602

Anterior

Siguiente

Buscar

Índice

Anterior

Siguiente

Buscar

Índice

Archivo y Gestión de Imágenes Digitales Javier Trujillo Giménez Consultor en Gestión Documental [email protected]

Anterior

Siguiente

Get in touch

Social

© Copyright 2013 - 2025 MYDOKUMENT.COM - All rights reserved.