Guías Breves 1 - Archivo Nacional de Costa Rica

Transcripción

Guías Breves 1 - Archivo Nacional de Costa Rica
ICA-PAAG. Guías breves
1
Título: El archivo de imágenes digital
Autor: David Iglésias i Franch. Centre de Recerca i
Difusió de la Imatge (CRDI)
ICA – Photographic and Audiovisual Archives Group (PAAG)
Dirección: Joan Boadas i Raset
Coordinación: David Iglésias i Franch
Autor: David Iglésias i Franch. Centre de Recerca i Difusió de la Imatge
(CRDI)
Publicación: Abril 2014
2
1- El archivo de imágenes digital
0. Introducción
A finales del siglo XX la fotografía química se vio desplazada por la tecnología digital,
lo que significó la configuración de un nuevo escenario. Este nuevo marco para la
fotografía supuso el advenimiento de cambios importantes desde el punto de vista
tecnológico, social y cultural. La custodia de la imagen digital por parte de los archivos
representa un reto tecnológico pero también metodológico. Para el archivero resulta
fundamental entender el objeto de custodia, la imagen digital, y saber adaptar-se
adecuadamente a las exigencias de su entorno. Esta guía pretende establecer las
bases para avanzar en este proceso.
1. Conceptos básicos
Imagen raster o bitmap
Imagen formada por una matriz de píxeles, cada uno
ubicación concreta dentro de esa matriz. Píxel es
picture element. Es el elemento más pequeño
representación propia. Es un concepto matemático,
representación analógica de los dispositivos.
con un valor determinado y una
la contracción de los términos
de una imagen raster con
pero tiene su traducción en la
Resolución espacial
Número de muestras que componen la imagen. Cuando la referencia es la pulgada
hablamos de ppi (pixels per inch), dpi (dots per inch) o lpi (lines per inch). En
fotografía, el concepto de resolución se refiere a la capacidad por parte de una imagen
de representar el detalle, consecuencia del tratamiento de las frecuencias espaciales
en el proceso de captura. El cálculo del detalle se consigue por la interpretación de la
MTF, concepto válido para la fotografía química y la digital. La MTF consiste en el
cálculo de la respuesta de frecuencia espacial de un sistema de imagen y se explica
por el contraste en relación con las bajas frecuencias, partiendo de la idea de que las
altas frecuencias significan mayor detalle.
Profundidad
Número de bits para representar un píxel de la imagen (1 bit, 8 bits, 16 bits). En el
momento en que la carga eléctrica se transforma en valores numéricos, mediante el
conversor analógico - digital (ADC), en la operación que se conoce como cuantización,
es cuando se decide la profundidad de bit, es decir, el número de bits que representan
cada píxel. A mayor número de bits, mayores posibilidades de representar los valores
tonales de la imagen, pero también, mayor volumen del archivo final. Así pues,
podemos decir que la profundidad de bit determina los tonos que se pueden
representar entre los dos extremos de máxima y mínima luminosidad. Por ejemplo, 1
bit permite representar únicamente una imagen en blanco o negro; 4 bits permiten la
representación de hasta 16 tonos, un número del todo insuficiente para mostrar tono
continuo y que es el motivo que propicia la apariencia de bandas en la imagen. Es a
partir de 8 bits que la visualización de la imagen presenta una gradación de tonos
correcta. Habría que pensar siempre en 16 bits para las imágenes destinadas a la
conservación permanente y sobre todo para todas aquellas sobre las que se tenga que
-2–
hacer un trabajo posterior de procesado, como pueden ser las imágenes que van a ser
publicadas.
Color
La representación genérica del color se produce a partir de la codificación de los
valores resultantes del proceso del demosaicing. El modelo RGB pertenece al
sistema de color aditivo que se forma por la suma de los diferentes colores primarios:
rojo, verde y azul. Se utiliza en monitores, proyectores, cámaras y escáneres. Este
modo puede transformarse a CMY, sistema de color que se forma por la substracción
de determinada luz por parte de un objeto. Los colores primarios substractivos son el
cian, el magenta y el amarillo, complementarios de los aditivos primarios. Se utiliza en
la impresión, donde se añade el negro (key color), en lo que conocemos como modelo
CMYK. Para el color digital, el concepto clave es el de gestión del color que consiste
en un conjunto de tareas para la homogeneización en la interpretación del color con el
objetivo dotar de significado específico a los números RGB y CMYK para poder
mantener la consistencia del color original. Para ello se crearon los perfiles de color,
espacio de relación de los valores RGB o CMYK con los valores representados en los
modelos de color independientes de dispositivos, como son los modelos CIE XYZ y
CIE Lab. Puede describir un dispositivo específico o un espacio de color abstracto.
Los espacios de color abstracto más populares son el sRGB, espacio con una gama
de color limitada diseñado para la web y por lo tanto para ser visualizado en pantalla, y
el Adobe RGB (1998), diseñado para la reproducción en CMYK pero desde valores
RGB, con una gama que puede representar el 50% del espacio CIELab. Para los
dispositivos, el estándar de referencia son los Perfiles ICC. Se trata de perfiles
estándares creados por el Internacional Color Consortium pensados para la
descripción de gamas de escáneres, cámaras digitales, monitores e impresoras.
Calidad de imagen
Los conceptos explicados anteriormente son básicos para entender la imagen digital
pero para analizar la imagen digital en términos cualitativos necesitamos introducir
otros conceptos que puedan ayudar a centrar nuestra atención en la calidad de los
píxeles. Hemos mencionado la resolución, en referencia a la capacidad de
representar el detalle, pero el atributo más importante de la imagen y el más decisivo
en la valoración del observador es el tono. Su valoración es compleja pero se puede
hacer una valoración objetiva a partir del conocimiento del rango dinámico, los desvíos
de luz y de la OECF (Opto Electronic Conversion Function), que pone en relación las
densidades ópticas del original con los valores numéricos de la imagen digitalizada.
Junto con el tono, el color es el otro factor cualitativo de mayor importancia, ya que el
ojo humano es un excelente juez del color.
Existen otros conceptos importantes relacionados con la calidad de imagen. El rango
dinámico que es la ratio de los valores tonales comprendidos entre el punto más
luminoso y el punto más oscuro de una escena que pueden ser capturados por parte
de un escáner o una cámara. El balance de blancos que consiste en afinar el punto
blanco de la cámara en función del tipo de luz. El color de la luz viene determinado por
la temperatura de color, que varía en función de las longitudes de onda que forman
una determinada luz (la luz puede tener un predominio de rojo, de verde, de amarillo o
azul, según la longitud de onda predominante). El ruido que consiste en la presencia
de fluctuaciones aleatorias no deseadas en una imagen. Inevitable en la recepción de
una señal por parte de un dispositivo electrónico. Las causas que lo provocan son la
sensibilidad del sistema, el tiempo de exposición y la temperatura. Para medir el ruido
de un aparato electrónico se pone en relación la señal recibida con el ruido obtenido,
lo que se conoce como SNR (Signal to Noise Ratio). Por último, los artefactos que
-3–
son el conjunto de alteraciones de la imagen que comprometen de alguna manera el
nivel de calidad. El ruido es de por si un artefacto como también lo es el aliasing que
se produce cuando la ratio del muestreo es insuficiente para la frecuencia espacial de
la imagen digitalizada y se manifiesta con la presencia de información inexistente en el
original analógico (normalmente píxeles de color) en los contornos de los elementos
que forman la imagen.
2. Formatos gráficos
Los formatos son las estructuras que dan significado a la consecución de bits que
forman un determinado recurso digital y, en consecuencia, permiten su representación
en un entorno tecnológico concreto. Se diferencian dos tipos principales: los formatos
raster (bitmap) que se representan a partir de una matriz de píxeles y los formatos
vectoriales, que representan objetos a partir de figuras geométricas. Los primeros son
los propios de la fotografía.
Existen diferentes estructuras para los formatos raster, pero generalmente cuentan
siempre con un encabezamiento, que contiene los metadatos, y el conjunto de datos
bitmap, es decir, la información de cada píxel que forma la imagen. El nivel de
metadatos puede variar mucho en función del formato, pero en todos los casos existe
un mínimo de información que permite identificar la versión del formato y representar
la imagen en determinados entornos.
Los formatos son un elemento clave para el archivo digital ya que contienen tanto los
valores de la imagen como los valores de su representación. Por esta razón, es
fundamental entender la lógica de su estructuración, el nivel de información que llevan
asociada, las prestaciones que ofrecen al software y las características que favorecen
su preservación. El compromiso de custodiar imagen digital nos obliga a un
conocimiento importante del objeto de nuestro trabajo y, en este sentido, los formatos
gráficos ocupan un espacio determinante.
Explicamos a continuación los formatos que tienen un mayor protagonismo en el
ámbito archivístico: TIFF, JPEG y JPEG2000.
TIFF
Formato creado por la compañía Aldus Corporation en 1986, en un intento de superar
la inexistencia de un estándar para la imagen. En 1987 pasó a manos de Adobe que
elaboró nuevas versiones: la 4.0 en 1987, la 5.0 en 1988, y la 6.0 en 1992. En estos
años el formato se ha consolidado como estándar de facto y ha sumado múltiples
prestaciones (las extensiones). La apuesta por crear un estándar de formato RAW
supuso la aparición del DNG y la necesidad de superar la barrera de los 4 Gb ha dado
lugar al BigTiff. Pero a pesar de las nuevas utilidades del formato, la versión de
referencia sigue siendo la de 1992.
Características más destacadas:
 Descripción de imágenes bitonales, escala de grises, paleta de color y color
verdadero.
 La aplicación de un sistema de compresión es opcional. Acepta diferentes
sistemas, como el LZW, RLE o el JPEG.
 Compatible con alta profundidad, 16 bits.
 Está diseñado para ser extensible y para poder evolucionar según las
nuevas necesidades que van surgiendo.
-4–






Permite la inclusión ilimitada de información privada o específica
(metadatos).
Las versiones 5 y 6 son compatibles con la mayoría de aplicaciones.
La estructura de este formato tiene la particularidad de que contiene los
directorios donde se almacenan las etiquetas (metadatos) de la imagen.
Metadatos. Los elementos obligatorios del TIFF básico para imágenes en
escala de grises o color real corresponden únicamente a 11-12 de los 32
totales, sin contar los correspondientes a las extensiones.
El TIFF es un estándar de facto, el TIFF / IT es un estándar ISO
12639:2004 y el TIFF / EP es un estándar ISO 12234-2.
Especificaciones técnicas publicadas en:
http://partners.adobe.com/public/developer/en/tiff/TIFF6.pdf
JPEG
Las especificaciones técnicas del JPEG lo definen como "una familia de algoritmos de
codificación-decodificación para imágenes de tono continuo con una arquitectura de
flujo de datos para guardar y describir los datos comprimidos". Por tanto, esta
definición nos aclara que el JPEG no se trata propiamente de un formato sino de unos
sistemas de compresión para imágenes de tono continuo. Pero bajo la denominación
común de JPEG encontramos los formatos desarrollados por el Joint Photographic
Experts Group (JPEG) para facilitar al flujo de datos del JPEG el intercambio dentro un
amplio abanico de plataformas tecnológicas y aplicaciones con el objetivo de ser
altamente compatibles con todo tipo de aplicaciones y de entornos. Entre estos
formatos se encuentran el JPEG_EXIF, el JFIF, el SPIFF y el JTIP.
Características más destacadas:
- Descripción de imágenes en escala de grises y color verdadero.
- En la compresión estándar transforma los valores RGB en YCbCr. En el caso
de la escala de grises utiliza únicamente el componente Y.
- Existen cuatro modalidades: JPEG secuencial (básico), JPEG progresivo,
JPEG jerárquico, JPEG sin pérdidas (sin compresión).
- La compresión se basa en el DCT y conlleva pérdidas reinformación. Las
aplicaciones permiten determinar la ratio de compresión que se aplica, que
puede ir desde 12:1 hasta 100:1.
- No es compatible con alta profundidad, 16 bits, a excepción del JPEG con
compresión sin pérdidas.
- Los metadatos que incluye el formato JFIF son mínimos, nada comparable a
las altas prestaciones del JPEG-EXIF. Los metadatos técnicos se incluyen en
las marcas APP0. Las marcas adicionales son ignoradas por las aplicaciones
que no las reconocen y, por tanto, pueden igualmente interpretar el formato y
en consecuencia mostrar la imagen. Esta circunstancia facilita que el formato
sea altamente compatible.
- Estándar ISO 10918-1.
- Especificaciones técnicas publicadas en http://www.jpeg.org/public/jfif.pdf
JPEG 2000
El formato fue desarrollado por el Joint Photographic Experts Group (JPEG) con el fin
de superar los puntos débiles del formato JPEG y aportar nuevas funcionalidades a los
ficheros de imagen. El primer borrador de las primeras especificaciones se publicó en
1999 y desde entonces se han ido desarrollando las 12 partes que constituyen la
familia JPEG2000, caracterizada por su forma de codificación. Los valores que aporta
-5–
el formato han hecho que algunas instituciones patrimoniales apostaran por su
adopción en detrimento de otros formatos con más tradición en el ámbito del
patrimonio, sobre todo el TIFF. Su implantación es lenta y se encuentra lejos del
predominio que tiene en otros ámbitos, como en el de la imagen médica. Aunque es
compatible con buena parte del software de edición de imágenes, tiene problemas de
compatibilidad con navegadores Web.
Características más destacadas:
- Descripción de imágenes bitonales, escala de grises, paleta de color y color
verdadero.
- Compresión wavelet (DWT - Discrete Wavelet Transform), con o sin pérdidas
(opcional).
- Compatible con alta profundidad, 16 bits.
- Permite almacenar múltiples resoluciones en un solo archivo.
- Permite crear diferentes resoluciones en determinadas zonas de la imagen,
función muy apreciada para las imágenes médicas.
- Procesado lento, por su complejidad. Esto hace que no haya sido adoptado
masivamente por la industria de las cámaras digitales.
- En las bajas y medias resoluciones, la calidad no es superior al JPEG.
- En las altas resoluciones evita el efecto de blogs, pero en contrapartida pierde
definición.
- El estándar está formado por 12 partes. Las partes del formato aplicables a la
imagen fotográfica son: JP2_FF, JPEG 2000 Parte 1; JPX_FF, JPEG 2000
Parte 2; JPM_FF, JPEG 2000 Parte 6
- La estructura de la familia JPEG 2000 se basa siempre en el JP2 (básico) que
es extensible. El componente básico de la estructura se conoce con el nombre
de caja que al mismo tiempo incluye diferentes tipos de campos. Las cajas
pueden contener datos de la imagen o metadatos.
- Existen un mínimo de metadatos obligatorios, como son los datos básicos de la
imagen y las informaciones referentes al color. No obstante, se trata de un
formato extensible que puede dar cabida a metadatos en XML y diferentes
esquemas como el IPTC o el Dublin Core, entre otros.
- Estándar ISO / IEC 15444-1.
- En principio, el JP2 es libre de patentes, aunque se trata una situación no
aclarada del todo.
- Especificaciones técnicas publicadas on-line, pero son de pago. Existe sin
embargo una versión del borrador de las especificaciones del año 2000
accesibles en: http://www.jpeg.org/public/fcd15444-1.pdf
3. Metadatos
Los metadatos son: "información estructurada que describe, explica, localiza o al
menos facilita la recuperación, uso, o la gestión de una fuente de información. A
menudo se definen los metadatos como datos sobre datos o información sobre
información" (NISO, 2001). Por lo tanto, los metadatos no se limitan a los tradicionales
campos descriptivos del archivo sino que tienen un alcance más amplio. Cuando
hablamos de metadatos, hablamos también de la información técnica que almacenan
automáticamente los ficheros electrónicos para ser operativos en un entorno
informático determinado y, también, para documentar aspectos que pueden ser de
interés para la edición de la imagen, como pueden ser los valores de captura.
-6–
Explicamos a continuación algunos de los estándares más significativos de la imagen
digital: el EXIF, el IPTC y el XMP. Aunque no se desarrolle en esta guía, para los
metadatos técnicos es imprescindible consultar el diccionario de metadatos para la
imagen fija, el ANSI / NISO Z39.87
EXIF
El formato EXIF (Exchangeable Image File Format for Digital Still Cameras) es un
formato estándar creado por la industria de las cámaras fotográficas, concretamente
por el JEITA (Japan Electronics and Information Technology Industries Association) y
el CIPA (Camera and Imaging Products Association) para facilitar la comunicación de
los archivos gráficos en diferentes entornos tecnológicos y sobre todo para mejorar la
calidad de impresión de unos ficheros de procedencias muy diversas. Si bien se trata
de un formato gráfico, su principal valor está en el conjunto de metadatos de captura
que incorporan. Trabaja en base a dos formatos: JPEG para imágenes comprimidas y
TIFF para imágenes sin compresión. En ambos casos, el EXIF describe un conjunto
de etiquetas TIFF, según el formato descrito en la versión 6.0, y para aquellas
informaciones referentes a cámara que no se contemplan en el TIFF, incluye
metadatos en un directorio propio, diferenciado del directorio de los metadatos TIFF y
también del directorio de los metadatos GPS.
Actualmente prácticamente todas las cámaras digitales trabajan con este formato. El
objetivo del Exif es el de guardar y estructurar los metadatos técnicos de la captura a
partir de los parámetros de configuración utilizados por la cámara. Estos metadatos
serán de utilidad para cualquier procesado posterior de datos, sea para su
visualización y edición en pantalla o para la impresión. Son metadatos imprescindibles
para la optimización de la imagen por parte de cualquier software.
IPTC
El International Press Telecommunications Council (IPTC) ha tenido un papel
destacado en el impulso para la creación de metadatos documentales vinculados a
ficheros de imagen. En 1990 definieron un esquema, llamado el IIM (Information
Interchange Model), un formato envoltorio creado para la transmisión de noticias en
texto y en imagen. A partir del IIM se crearon los encabezamientos IPTC que fueron
adoptados e incluidos por Adobe en Photoshop con la tecnología Image Resource
Block. Posteriormente, en 2001, se sustituyó esta tecnología por el XMP y se crearon
dos esquemas nuevos para la fotografía: primero el IPTC Core (2004) y luego el IPTC
Extension (2007), ambos exclusivos del XMP.
El esquema IPTC Core permite gestionar los bloques de información referentes al
contacto, a los contenidos, a la descripción de la imagen y al copyright. El IPTC Core
asocia los metadatos con los esquemas DC, Photoshop, Adobe Rights Management y
IPTC IIM. De hecho la relación con el esquema IPTC IIM hace que incluya la mayoría
de metadatos del original IIM. Hay que tener presente que los metadatos IIM están
generados en el ámbito periodístico y que muchos de ellos no son significativos para el
archivo fotográfico. El IPTC Extension es resultado de los requerimientos de incluir
metadatos adicionales al esquema inicial por parte de los profesionales de la
fotografía, por la necesidad de gestionar determinadas informaciones del flujo de
negocio, como pueden ser las informaciones relacionadas con la gestión de derechos.
Cuenta con un nivel de compatibilidad de software más bajo respecto al Core, pero se
trabaja con datos más especializados.
-7–
XMP
El XMP (Adobe’s Extensible Metadata Platform) es un estándar para la creación,
procesamiento e intercambio de metadatos. Ofrece una tecnología de etiquetado que
permite crear nuevos metadatos e insertarlos en los mismos ficheros. Se trata de
datos XML, almacenados utilizando un subconjunto del W3C Resource Description
Framework (RDF). Esto es especialmente interesante para la industria informática ya
que el software y los dispositivos pueden incluir información propia en los mismos
ficheros. Lo es también para los archivos por la posibilidad de incluir metadatos
propios y debidamente codificados en los contenedores XMP. Además estos
metadatos están embebidos en los ficheros en el caso de los formatos TIFF, JPEG,
JPEG2000, DNG, PSD y PNG. En los otros formatos, se crea un archivo de metadatos
independiente. XMP define cuatro bloques de metadatos principales, el DC y tres de
propios, más los blocs especializados: Adobe PDF, Photoshop, Camera Raw y Exif. La
inclusión del DC en las propiedades principales la convierte en una tecnología de gran
utilidad para la comunicación entre diferentes plataformas.
La aportación principal del XMP es su extensibilidad y la posibilidad de codificar estos
metadatos adicionales en base a estándares. Incluso puede hacerse con metadatos
creados por los propios archivos, que no necesariamente tienen que formar parte de
ningún estándar codificado.
En estos tres estándares, EXIF, IPTC y XMP, es muy importante señalar que son
estándares codificados en RDF. Este esquema establece relaciones para la
descripción y la clave en estas relaciones es la existencia de un Namespace. Los
namespaces son URIs (Uniform Resource Identifiers), identificadores de recursos, que
cuentan con nombre propio. La codificación de metadatos interpretables para las
máquinas está totalmente vinculada al concepto de la Web semántica y por lo tanto
tiene un gran valor para potenciar la interoperabilidad.
4. Preservación
La preservación digital consiste en asumir una serie de tareas para que la imagen
digital continúe siendo accesible en el futuro. En este proceso están implicados los
materiales objetos de preservación, las herramientas tecnológicas y los técnicos con
responsabilidades sobre el asunto.
El problema de la preservación reside en la interpretación de la imagen y por esta
razón tenemos que empezar por identificar las causas que dificultan esta
interpretación. Lukas Rosenthaler (Focal Encyclopedia, 2007) estableció una
categorización de causas sobre la obsolescencia de los ficheros: error en la lectura de
los bits, error en la lectura del formato, pérdida de metadatos. En base a esta
categorización, se puede establecer que la preservación de las imágenes estará en
función del deterioro de los soportes y la obsolescencia de los formatos, del hardware
y del software. Por tanto, las estrategias que se puedan idear para la preservación
deberán tener en cuenta estos tres aspectos.
Soportes
La fragilidad de los soportes informáticos es algo que todos hemos experimentado.
Para asegurar la permanencia de los datos y como primera premisa, podemos decir
que hay que duplicar datos, cambiar los soportes periódicamente y verificar la
integridad de los datos contenidos. Esta estrategia se inicia con la selección del
soporte de preservación. La guía para la selección de soportes elaborada por el
-8–
Archivo Nacional del Reino Unido [A. Brown, 2008] aporta unos criterios que pueden
ser útiles para la selección. Se basa en la valoración de la longevidad, la capacidad, la
viabilidad, la obsolescencia, el coste y la susceptibilidad.
Formatos
Los formatos son un elemento central en la estrategia de preservación. La posibilidad
de acceder a los bits contenidos en un determinado soporte no asegura la
visualización de la imagen. Es necesario que los datos que la forman sean
interpretables por el software y el hardware de soporte. Esto significa reconocer el
formato en el que se estructuran los datos y las especificaciones técnicas que dan
significado a estos datos. Este es probablemente el gran reto de la preservación digital
ya que la evolución tecnológica dificulta la pervivencia de los archivos y su
transformación y actualización no es siempre fácil de asumir. Por eso es importante
contar con estrategias que minimicen el riesgo de la obsolescencia. Las estrategias
más habituales son: el trabajo con formatos estándares, la migración hacia nuevos
formatos y nuevas versiones y la gestión consistente de metadatos para la
preservación. En cuanto a la elección de formatos estándares, contamos con los
criterios fijados en la guía para la selección de formatos elaborada por el Archivo
Nacional del Reino Unido [A. Brown, 2008] donde se consideran los siguientes
aspectos: ubicuidad, sostenibilidad, divulgación, documentación,
estabilidad,
propiedad intelectual (patentes), metadatos, complejidad, interoperabilidad y viabilidad.
La migración es una de las funciones más importantes de la preservación. Consiste
en una transformación de los datos de imagen para pasarlos de un formato original
cualquiera a un formato de archivo vigente. De esta manera nos aseguramos trabajar
con unas estructuras informativas sostenibles sobre las que podemos tener un mayor
control de su evolución. El TIFF y el JPEG2000 figuran entre los formatos de
preservación más aceptados por los archivos.
Metadatos
Los metadatos son un elemento importante en la elección de formatos estándares y en
la posterior migración, pero además se pueden convertir en el foco de la estrategia, ya
que en ellos encontramos las claves interpretativas de ficheros y, por tanto, la
posibilidad de mantenerlos vigentes. Esta cuestión ha sido ampliamente considerada y
existe abundante literatura sobre el tema. PREMIS (Preservation Metadata
Implementation Strategies) es un diccionario de metadatos que tiene como objetivo la
preservación de los documentos electrónicos en general y, por tanto, también la
fotografía digital. Los metadatos técnicos coinciden en buena parte con las del Z39.87,
pero PREMIS contiene otros tipos de metadatos orientados exclusivamente a la
preservación.
Hardware y software
Hemos comentado las estrategias dirigidas a las imágenes, pero también debemos
tener en cuenta las estrategias sobre el entorno tecnológico: el hardware y el software.
Una de las estrategias es la de preservar la tecnología. Se trata de mantener en
funcionamiento los ordenadores, las pantallas, los sistemas operativos y los
programas que forman el entorno tecnológico en que se ha creado una imagen digital
en un momento determinado. De esta manera se asegura que los datos que
conforman el objeto digital sigan siendo vigentes. La otra estrategia es la de la
emulación que consiste básicamente en recrear, en base a software, un entorno
tecnológico ya superado. Puede dirigirse al hardware, el sistema operativo o a
aplicaciones concretas. Tiene la ventaja de que no se produce ningún tipo de
intervención sobre el archivo de imagen y, por tanto, se evitan los riesgos implícitos en
-9–
cualquier transformación. La estrategia va adquiriendo protagonismo y está presente
en muchos proyectos de preservación digital que desarrollan herramientas para este
fin.
5. Conclusiones
Esta guía ofrece los contenidos básicos para entender la imagen digital con el objetivo
de facilitar su gestión en el ámbito del archivo. La idea fundamental de la imagen
digital reside en el hecho de que contiene tanto la información de cada píxel de la
imagen como aquella que permite interpretar los contenidos en diferentes dispositivos:
una cámara, una pantalla o una impresora. No hacen falta intermediarios más allá de
aquellos que impone la naturaleza digital: hardware, software, especificaciones
técnicas, etc. Este contexto tecnológico que permite visualizar, editar o imprimir
imágenes no parece tener límites definidos. Cualquier funcionalidad añadida puede ser
integrada en un objeto digital. Ahí reside principalmente el rol del archivo que cuenta
con el potencial informativo de los metadatos. Éstos son los grandes protagonistas en
la gestión de los fondos de imágenes digitales, porque están implicados en casi todas
las funciones del archivo y principalmente en la preservación y la recuperación de la
información.
- 10 –
Bibliografía y Webgrafía
ANSI/NISO Z39.87. Data dictionary – technical metadata for digital still images. NISO,
2006. http://djvu.org/docs/Z39-87-2006.pdf
Arms, Caroline, R.; Carl Fleischhauer. Digital formats: factors for sustainability,
functionality, and quality. Washington: Library of Congress, 2005.
http://memory.loc.gov/ammem/techdocs/digform/Formats_IST05_paper.pdf
Exchangeable image file format for digital still cameras: Exif version 2.3. JEITA, 2010.
http://www.cipa.jp/english/hyoujunka/kikaku/pdf/DC-008-2010_E.pdf
Extensible Metadata Platform (XMP) Specification: Part 1, Data Model, Serialitzation
and Core Properties. Adobe, 2012.
http://www.adobe.com/content/dam/Adobe/en/devnet/xmp/pdfs/XMPSpecificationPart1.
pdf
Extensible Metadata Platform (XMP) Specification: Part 2, Additional Properties.
Adobe, 2012.
http://www.adobe.com/content/dam/Adobe/en/devnet/xmp/pdfs/XMPSpecificationPart2.
pdf
Extensible Metadata Platform (XMP) Specification: Part 3, Storage in Files. Adobe,
2012.
http://www.adobe.com/content/dam/Adobe/en/devnet/xmp/pdfs/XMPSpecificationPart3.
pdf
Frey, Franziska. Measuring quality of digital masters. A: Guides to quality in visual
resource imaging. Council on Library and Information Resources, 2000.
http://www.diglib.org/pubs/dlf091/dlf091.htm#visguide4
Iglésias Franch, David. La definición de un mapa de información conceptual para el
archivo fotográfico. En: 12es Jornades Imatge i Recerca. Girona: Ajuntament de
Girona, 2012. P. 111-120. http://www.girona.cat/sgdap/docs/vu23efriglesias.pdf
International Press Telecommunication Council, IPTC PhotoMetadata White Paper
2007, 2010: http://www.iptc.org/std/photometadata/0.0/documentation/IPTCPhotoMetadataWhitePaper2007_11.pdf
PRONOM – National Archives [UK], 2002.
http://www.nationalarchives.gov.uk/PRONOM
(Registro online de formatos de ficheros y del software utilizado para estos formatos).
- 11 –

Documentos relacionados