Guías Breves 1 - Archivo Nacional de Costa Rica
Transcripción
Guías Breves 1 - Archivo Nacional de Costa Rica
ICA-PAAG. Guías breves 1 Título: El archivo de imágenes digital Autor: David Iglésias i Franch. Centre de Recerca i Difusió de la Imatge (CRDI) ICA – Photographic and Audiovisual Archives Group (PAAG) Dirección: Joan Boadas i Raset Coordinación: David Iglésias i Franch Autor: David Iglésias i Franch. Centre de Recerca i Difusió de la Imatge (CRDI) Publicación: Abril 2014 2 1- El archivo de imágenes digital 0. Introducción A finales del siglo XX la fotografía química se vio desplazada por la tecnología digital, lo que significó la configuración de un nuevo escenario. Este nuevo marco para la fotografía supuso el advenimiento de cambios importantes desde el punto de vista tecnológico, social y cultural. La custodia de la imagen digital por parte de los archivos representa un reto tecnológico pero también metodológico. Para el archivero resulta fundamental entender el objeto de custodia, la imagen digital, y saber adaptar-se adecuadamente a las exigencias de su entorno. Esta guía pretende establecer las bases para avanzar en este proceso. 1. Conceptos básicos Imagen raster o bitmap Imagen formada por una matriz de píxeles, cada uno ubicación concreta dentro de esa matriz. Píxel es picture element. Es el elemento más pequeño representación propia. Es un concepto matemático, representación analógica de los dispositivos. con un valor determinado y una la contracción de los términos de una imagen raster con pero tiene su traducción en la Resolución espacial Número de muestras que componen la imagen. Cuando la referencia es la pulgada hablamos de ppi (pixels per inch), dpi (dots per inch) o lpi (lines per inch). En fotografía, el concepto de resolución se refiere a la capacidad por parte de una imagen de representar el detalle, consecuencia del tratamiento de las frecuencias espaciales en el proceso de captura. El cálculo del detalle se consigue por la interpretación de la MTF, concepto válido para la fotografía química y la digital. La MTF consiste en el cálculo de la respuesta de frecuencia espacial de un sistema de imagen y se explica por el contraste en relación con las bajas frecuencias, partiendo de la idea de que las altas frecuencias significan mayor detalle. Profundidad Número de bits para representar un píxel de la imagen (1 bit, 8 bits, 16 bits). En el momento en que la carga eléctrica se transforma en valores numéricos, mediante el conversor analógico - digital (ADC), en la operación que se conoce como cuantización, es cuando se decide la profundidad de bit, es decir, el número de bits que representan cada píxel. A mayor número de bits, mayores posibilidades de representar los valores tonales de la imagen, pero también, mayor volumen del archivo final. Así pues, podemos decir que la profundidad de bit determina los tonos que se pueden representar entre los dos extremos de máxima y mínima luminosidad. Por ejemplo, 1 bit permite representar únicamente una imagen en blanco o negro; 4 bits permiten la representación de hasta 16 tonos, un número del todo insuficiente para mostrar tono continuo y que es el motivo que propicia la apariencia de bandas en la imagen. Es a partir de 8 bits que la visualización de la imagen presenta una gradación de tonos correcta. Habría que pensar siempre en 16 bits para las imágenes destinadas a la conservación permanente y sobre todo para todas aquellas sobre las que se tenga que -2– hacer un trabajo posterior de procesado, como pueden ser las imágenes que van a ser publicadas. Color La representación genérica del color se produce a partir de la codificación de los valores resultantes del proceso del demosaicing. El modelo RGB pertenece al sistema de color aditivo que se forma por la suma de los diferentes colores primarios: rojo, verde y azul. Se utiliza en monitores, proyectores, cámaras y escáneres. Este modo puede transformarse a CMY, sistema de color que se forma por la substracción de determinada luz por parte de un objeto. Los colores primarios substractivos son el cian, el magenta y el amarillo, complementarios de los aditivos primarios. Se utiliza en la impresión, donde se añade el negro (key color), en lo que conocemos como modelo CMYK. Para el color digital, el concepto clave es el de gestión del color que consiste en un conjunto de tareas para la homogeneización en la interpretación del color con el objetivo dotar de significado específico a los números RGB y CMYK para poder mantener la consistencia del color original. Para ello se crearon los perfiles de color, espacio de relación de los valores RGB o CMYK con los valores representados en los modelos de color independientes de dispositivos, como son los modelos CIE XYZ y CIE Lab. Puede describir un dispositivo específico o un espacio de color abstracto. Los espacios de color abstracto más populares son el sRGB, espacio con una gama de color limitada diseñado para la web y por lo tanto para ser visualizado en pantalla, y el Adobe RGB (1998), diseñado para la reproducción en CMYK pero desde valores RGB, con una gama que puede representar el 50% del espacio CIELab. Para los dispositivos, el estándar de referencia son los Perfiles ICC. Se trata de perfiles estándares creados por el Internacional Color Consortium pensados para la descripción de gamas de escáneres, cámaras digitales, monitores e impresoras. Calidad de imagen Los conceptos explicados anteriormente son básicos para entender la imagen digital pero para analizar la imagen digital en términos cualitativos necesitamos introducir otros conceptos que puedan ayudar a centrar nuestra atención en la calidad de los píxeles. Hemos mencionado la resolución, en referencia a la capacidad de representar el detalle, pero el atributo más importante de la imagen y el más decisivo en la valoración del observador es el tono. Su valoración es compleja pero se puede hacer una valoración objetiva a partir del conocimiento del rango dinámico, los desvíos de luz y de la OECF (Opto Electronic Conversion Function), que pone en relación las densidades ópticas del original con los valores numéricos de la imagen digitalizada. Junto con el tono, el color es el otro factor cualitativo de mayor importancia, ya que el ojo humano es un excelente juez del color. Existen otros conceptos importantes relacionados con la calidad de imagen. El rango dinámico que es la ratio de los valores tonales comprendidos entre el punto más luminoso y el punto más oscuro de una escena que pueden ser capturados por parte de un escáner o una cámara. El balance de blancos que consiste en afinar el punto blanco de la cámara en función del tipo de luz. El color de la luz viene determinado por la temperatura de color, que varía en función de las longitudes de onda que forman una determinada luz (la luz puede tener un predominio de rojo, de verde, de amarillo o azul, según la longitud de onda predominante). El ruido que consiste en la presencia de fluctuaciones aleatorias no deseadas en una imagen. Inevitable en la recepción de una señal por parte de un dispositivo electrónico. Las causas que lo provocan son la sensibilidad del sistema, el tiempo de exposición y la temperatura. Para medir el ruido de un aparato electrónico se pone en relación la señal recibida con el ruido obtenido, lo que se conoce como SNR (Signal to Noise Ratio). Por último, los artefactos que -3– son el conjunto de alteraciones de la imagen que comprometen de alguna manera el nivel de calidad. El ruido es de por si un artefacto como también lo es el aliasing que se produce cuando la ratio del muestreo es insuficiente para la frecuencia espacial de la imagen digitalizada y se manifiesta con la presencia de información inexistente en el original analógico (normalmente píxeles de color) en los contornos de los elementos que forman la imagen. 2. Formatos gráficos Los formatos son las estructuras que dan significado a la consecución de bits que forman un determinado recurso digital y, en consecuencia, permiten su representación en un entorno tecnológico concreto. Se diferencian dos tipos principales: los formatos raster (bitmap) que se representan a partir de una matriz de píxeles y los formatos vectoriales, que representan objetos a partir de figuras geométricas. Los primeros son los propios de la fotografía. Existen diferentes estructuras para los formatos raster, pero generalmente cuentan siempre con un encabezamiento, que contiene los metadatos, y el conjunto de datos bitmap, es decir, la información de cada píxel que forma la imagen. El nivel de metadatos puede variar mucho en función del formato, pero en todos los casos existe un mínimo de información que permite identificar la versión del formato y representar la imagen en determinados entornos. Los formatos son un elemento clave para el archivo digital ya que contienen tanto los valores de la imagen como los valores de su representación. Por esta razón, es fundamental entender la lógica de su estructuración, el nivel de información que llevan asociada, las prestaciones que ofrecen al software y las características que favorecen su preservación. El compromiso de custodiar imagen digital nos obliga a un conocimiento importante del objeto de nuestro trabajo y, en este sentido, los formatos gráficos ocupan un espacio determinante. Explicamos a continuación los formatos que tienen un mayor protagonismo en el ámbito archivístico: TIFF, JPEG y JPEG2000. TIFF Formato creado por la compañía Aldus Corporation en 1986, en un intento de superar la inexistencia de un estándar para la imagen. En 1987 pasó a manos de Adobe que elaboró nuevas versiones: la 4.0 en 1987, la 5.0 en 1988, y la 6.0 en 1992. En estos años el formato se ha consolidado como estándar de facto y ha sumado múltiples prestaciones (las extensiones). La apuesta por crear un estándar de formato RAW supuso la aparición del DNG y la necesidad de superar la barrera de los 4 Gb ha dado lugar al BigTiff. Pero a pesar de las nuevas utilidades del formato, la versión de referencia sigue siendo la de 1992. Características más destacadas: Descripción de imágenes bitonales, escala de grises, paleta de color y color verdadero. La aplicación de un sistema de compresión es opcional. Acepta diferentes sistemas, como el LZW, RLE o el JPEG. Compatible con alta profundidad, 16 bits. Está diseñado para ser extensible y para poder evolucionar según las nuevas necesidades que van surgiendo. -4– Permite la inclusión ilimitada de información privada o específica (metadatos). Las versiones 5 y 6 son compatibles con la mayoría de aplicaciones. La estructura de este formato tiene la particularidad de que contiene los directorios donde se almacenan las etiquetas (metadatos) de la imagen. Metadatos. Los elementos obligatorios del TIFF básico para imágenes en escala de grises o color real corresponden únicamente a 11-12 de los 32 totales, sin contar los correspondientes a las extensiones. El TIFF es un estándar de facto, el TIFF / IT es un estándar ISO 12639:2004 y el TIFF / EP es un estándar ISO 12234-2. Especificaciones técnicas publicadas en: http://partners.adobe.com/public/developer/en/tiff/TIFF6.pdf JPEG Las especificaciones técnicas del JPEG lo definen como "una familia de algoritmos de codificación-decodificación para imágenes de tono continuo con una arquitectura de flujo de datos para guardar y describir los datos comprimidos". Por tanto, esta definición nos aclara que el JPEG no se trata propiamente de un formato sino de unos sistemas de compresión para imágenes de tono continuo. Pero bajo la denominación común de JPEG encontramos los formatos desarrollados por el Joint Photographic Experts Group (JPEG) para facilitar al flujo de datos del JPEG el intercambio dentro un amplio abanico de plataformas tecnológicas y aplicaciones con el objetivo de ser altamente compatibles con todo tipo de aplicaciones y de entornos. Entre estos formatos se encuentran el JPEG_EXIF, el JFIF, el SPIFF y el JTIP. Características más destacadas: - Descripción de imágenes en escala de grises y color verdadero. - En la compresión estándar transforma los valores RGB en YCbCr. En el caso de la escala de grises utiliza únicamente el componente Y. - Existen cuatro modalidades: JPEG secuencial (básico), JPEG progresivo, JPEG jerárquico, JPEG sin pérdidas (sin compresión). - La compresión se basa en el DCT y conlleva pérdidas reinformación. Las aplicaciones permiten determinar la ratio de compresión que se aplica, que puede ir desde 12:1 hasta 100:1. - No es compatible con alta profundidad, 16 bits, a excepción del JPEG con compresión sin pérdidas. - Los metadatos que incluye el formato JFIF son mínimos, nada comparable a las altas prestaciones del JPEG-EXIF. Los metadatos técnicos se incluyen en las marcas APP0. Las marcas adicionales son ignoradas por las aplicaciones que no las reconocen y, por tanto, pueden igualmente interpretar el formato y en consecuencia mostrar la imagen. Esta circunstancia facilita que el formato sea altamente compatible. - Estándar ISO 10918-1. - Especificaciones técnicas publicadas en http://www.jpeg.org/public/jfif.pdf JPEG 2000 El formato fue desarrollado por el Joint Photographic Experts Group (JPEG) con el fin de superar los puntos débiles del formato JPEG y aportar nuevas funcionalidades a los ficheros de imagen. El primer borrador de las primeras especificaciones se publicó en 1999 y desde entonces se han ido desarrollando las 12 partes que constituyen la familia JPEG2000, caracterizada por su forma de codificación. Los valores que aporta -5– el formato han hecho que algunas instituciones patrimoniales apostaran por su adopción en detrimento de otros formatos con más tradición en el ámbito del patrimonio, sobre todo el TIFF. Su implantación es lenta y se encuentra lejos del predominio que tiene en otros ámbitos, como en el de la imagen médica. Aunque es compatible con buena parte del software de edición de imágenes, tiene problemas de compatibilidad con navegadores Web. Características más destacadas: - Descripción de imágenes bitonales, escala de grises, paleta de color y color verdadero. - Compresión wavelet (DWT - Discrete Wavelet Transform), con o sin pérdidas (opcional). - Compatible con alta profundidad, 16 bits. - Permite almacenar múltiples resoluciones en un solo archivo. - Permite crear diferentes resoluciones en determinadas zonas de la imagen, función muy apreciada para las imágenes médicas. - Procesado lento, por su complejidad. Esto hace que no haya sido adoptado masivamente por la industria de las cámaras digitales. - En las bajas y medias resoluciones, la calidad no es superior al JPEG. - En las altas resoluciones evita el efecto de blogs, pero en contrapartida pierde definición. - El estándar está formado por 12 partes. Las partes del formato aplicables a la imagen fotográfica son: JP2_FF, JPEG 2000 Parte 1; JPX_FF, JPEG 2000 Parte 2; JPM_FF, JPEG 2000 Parte 6 - La estructura de la familia JPEG 2000 se basa siempre en el JP2 (básico) que es extensible. El componente básico de la estructura se conoce con el nombre de caja que al mismo tiempo incluye diferentes tipos de campos. Las cajas pueden contener datos de la imagen o metadatos. - Existen un mínimo de metadatos obligatorios, como son los datos básicos de la imagen y las informaciones referentes al color. No obstante, se trata de un formato extensible que puede dar cabida a metadatos en XML y diferentes esquemas como el IPTC o el Dublin Core, entre otros. - Estándar ISO / IEC 15444-1. - En principio, el JP2 es libre de patentes, aunque se trata una situación no aclarada del todo. - Especificaciones técnicas publicadas on-line, pero son de pago. Existe sin embargo una versión del borrador de las especificaciones del año 2000 accesibles en: http://www.jpeg.org/public/fcd15444-1.pdf 3. Metadatos Los metadatos son: "información estructurada que describe, explica, localiza o al menos facilita la recuperación, uso, o la gestión de una fuente de información. A menudo se definen los metadatos como datos sobre datos o información sobre información" (NISO, 2001). Por lo tanto, los metadatos no se limitan a los tradicionales campos descriptivos del archivo sino que tienen un alcance más amplio. Cuando hablamos de metadatos, hablamos también de la información técnica que almacenan automáticamente los ficheros electrónicos para ser operativos en un entorno informático determinado y, también, para documentar aspectos que pueden ser de interés para la edición de la imagen, como pueden ser los valores de captura. -6– Explicamos a continuación algunos de los estándares más significativos de la imagen digital: el EXIF, el IPTC y el XMP. Aunque no se desarrolle en esta guía, para los metadatos técnicos es imprescindible consultar el diccionario de metadatos para la imagen fija, el ANSI / NISO Z39.87 EXIF El formato EXIF (Exchangeable Image File Format for Digital Still Cameras) es un formato estándar creado por la industria de las cámaras fotográficas, concretamente por el JEITA (Japan Electronics and Information Technology Industries Association) y el CIPA (Camera and Imaging Products Association) para facilitar la comunicación de los archivos gráficos en diferentes entornos tecnológicos y sobre todo para mejorar la calidad de impresión de unos ficheros de procedencias muy diversas. Si bien se trata de un formato gráfico, su principal valor está en el conjunto de metadatos de captura que incorporan. Trabaja en base a dos formatos: JPEG para imágenes comprimidas y TIFF para imágenes sin compresión. En ambos casos, el EXIF describe un conjunto de etiquetas TIFF, según el formato descrito en la versión 6.0, y para aquellas informaciones referentes a cámara que no se contemplan en el TIFF, incluye metadatos en un directorio propio, diferenciado del directorio de los metadatos TIFF y también del directorio de los metadatos GPS. Actualmente prácticamente todas las cámaras digitales trabajan con este formato. El objetivo del Exif es el de guardar y estructurar los metadatos técnicos de la captura a partir de los parámetros de configuración utilizados por la cámara. Estos metadatos serán de utilidad para cualquier procesado posterior de datos, sea para su visualización y edición en pantalla o para la impresión. Son metadatos imprescindibles para la optimización de la imagen por parte de cualquier software. IPTC El International Press Telecommunications Council (IPTC) ha tenido un papel destacado en el impulso para la creación de metadatos documentales vinculados a ficheros de imagen. En 1990 definieron un esquema, llamado el IIM (Information Interchange Model), un formato envoltorio creado para la transmisión de noticias en texto y en imagen. A partir del IIM se crearon los encabezamientos IPTC que fueron adoptados e incluidos por Adobe en Photoshop con la tecnología Image Resource Block. Posteriormente, en 2001, se sustituyó esta tecnología por el XMP y se crearon dos esquemas nuevos para la fotografía: primero el IPTC Core (2004) y luego el IPTC Extension (2007), ambos exclusivos del XMP. El esquema IPTC Core permite gestionar los bloques de información referentes al contacto, a los contenidos, a la descripción de la imagen y al copyright. El IPTC Core asocia los metadatos con los esquemas DC, Photoshop, Adobe Rights Management y IPTC IIM. De hecho la relación con el esquema IPTC IIM hace que incluya la mayoría de metadatos del original IIM. Hay que tener presente que los metadatos IIM están generados en el ámbito periodístico y que muchos de ellos no son significativos para el archivo fotográfico. El IPTC Extension es resultado de los requerimientos de incluir metadatos adicionales al esquema inicial por parte de los profesionales de la fotografía, por la necesidad de gestionar determinadas informaciones del flujo de negocio, como pueden ser las informaciones relacionadas con la gestión de derechos. Cuenta con un nivel de compatibilidad de software más bajo respecto al Core, pero se trabaja con datos más especializados. -7– XMP El XMP (Adobe’s Extensible Metadata Platform) es un estándar para la creación, procesamiento e intercambio de metadatos. Ofrece una tecnología de etiquetado que permite crear nuevos metadatos e insertarlos en los mismos ficheros. Se trata de datos XML, almacenados utilizando un subconjunto del W3C Resource Description Framework (RDF). Esto es especialmente interesante para la industria informática ya que el software y los dispositivos pueden incluir información propia en los mismos ficheros. Lo es también para los archivos por la posibilidad de incluir metadatos propios y debidamente codificados en los contenedores XMP. Además estos metadatos están embebidos en los ficheros en el caso de los formatos TIFF, JPEG, JPEG2000, DNG, PSD y PNG. En los otros formatos, se crea un archivo de metadatos independiente. XMP define cuatro bloques de metadatos principales, el DC y tres de propios, más los blocs especializados: Adobe PDF, Photoshop, Camera Raw y Exif. La inclusión del DC en las propiedades principales la convierte en una tecnología de gran utilidad para la comunicación entre diferentes plataformas. La aportación principal del XMP es su extensibilidad y la posibilidad de codificar estos metadatos adicionales en base a estándares. Incluso puede hacerse con metadatos creados por los propios archivos, que no necesariamente tienen que formar parte de ningún estándar codificado. En estos tres estándares, EXIF, IPTC y XMP, es muy importante señalar que son estándares codificados en RDF. Este esquema establece relaciones para la descripción y la clave en estas relaciones es la existencia de un Namespace. Los namespaces son URIs (Uniform Resource Identifiers), identificadores de recursos, que cuentan con nombre propio. La codificación de metadatos interpretables para las máquinas está totalmente vinculada al concepto de la Web semántica y por lo tanto tiene un gran valor para potenciar la interoperabilidad. 4. Preservación La preservación digital consiste en asumir una serie de tareas para que la imagen digital continúe siendo accesible en el futuro. En este proceso están implicados los materiales objetos de preservación, las herramientas tecnológicas y los técnicos con responsabilidades sobre el asunto. El problema de la preservación reside en la interpretación de la imagen y por esta razón tenemos que empezar por identificar las causas que dificultan esta interpretación. Lukas Rosenthaler (Focal Encyclopedia, 2007) estableció una categorización de causas sobre la obsolescencia de los ficheros: error en la lectura de los bits, error en la lectura del formato, pérdida de metadatos. En base a esta categorización, se puede establecer que la preservación de las imágenes estará en función del deterioro de los soportes y la obsolescencia de los formatos, del hardware y del software. Por tanto, las estrategias que se puedan idear para la preservación deberán tener en cuenta estos tres aspectos. Soportes La fragilidad de los soportes informáticos es algo que todos hemos experimentado. Para asegurar la permanencia de los datos y como primera premisa, podemos decir que hay que duplicar datos, cambiar los soportes periódicamente y verificar la integridad de los datos contenidos. Esta estrategia se inicia con la selección del soporte de preservación. La guía para la selección de soportes elaborada por el -8– Archivo Nacional del Reino Unido [A. Brown, 2008] aporta unos criterios que pueden ser útiles para la selección. Se basa en la valoración de la longevidad, la capacidad, la viabilidad, la obsolescencia, el coste y la susceptibilidad. Formatos Los formatos son un elemento central en la estrategia de preservación. La posibilidad de acceder a los bits contenidos en un determinado soporte no asegura la visualización de la imagen. Es necesario que los datos que la forman sean interpretables por el software y el hardware de soporte. Esto significa reconocer el formato en el que se estructuran los datos y las especificaciones técnicas que dan significado a estos datos. Este es probablemente el gran reto de la preservación digital ya que la evolución tecnológica dificulta la pervivencia de los archivos y su transformación y actualización no es siempre fácil de asumir. Por eso es importante contar con estrategias que minimicen el riesgo de la obsolescencia. Las estrategias más habituales son: el trabajo con formatos estándares, la migración hacia nuevos formatos y nuevas versiones y la gestión consistente de metadatos para la preservación. En cuanto a la elección de formatos estándares, contamos con los criterios fijados en la guía para la selección de formatos elaborada por el Archivo Nacional del Reino Unido [A. Brown, 2008] donde se consideran los siguientes aspectos: ubicuidad, sostenibilidad, divulgación, documentación, estabilidad, propiedad intelectual (patentes), metadatos, complejidad, interoperabilidad y viabilidad. La migración es una de las funciones más importantes de la preservación. Consiste en una transformación de los datos de imagen para pasarlos de un formato original cualquiera a un formato de archivo vigente. De esta manera nos aseguramos trabajar con unas estructuras informativas sostenibles sobre las que podemos tener un mayor control de su evolución. El TIFF y el JPEG2000 figuran entre los formatos de preservación más aceptados por los archivos. Metadatos Los metadatos son un elemento importante en la elección de formatos estándares y en la posterior migración, pero además se pueden convertir en el foco de la estrategia, ya que en ellos encontramos las claves interpretativas de ficheros y, por tanto, la posibilidad de mantenerlos vigentes. Esta cuestión ha sido ampliamente considerada y existe abundante literatura sobre el tema. PREMIS (Preservation Metadata Implementation Strategies) es un diccionario de metadatos que tiene como objetivo la preservación de los documentos electrónicos en general y, por tanto, también la fotografía digital. Los metadatos técnicos coinciden en buena parte con las del Z39.87, pero PREMIS contiene otros tipos de metadatos orientados exclusivamente a la preservación. Hardware y software Hemos comentado las estrategias dirigidas a las imágenes, pero también debemos tener en cuenta las estrategias sobre el entorno tecnológico: el hardware y el software. Una de las estrategias es la de preservar la tecnología. Se trata de mantener en funcionamiento los ordenadores, las pantallas, los sistemas operativos y los programas que forman el entorno tecnológico en que se ha creado una imagen digital en un momento determinado. De esta manera se asegura que los datos que conforman el objeto digital sigan siendo vigentes. La otra estrategia es la de la emulación que consiste básicamente en recrear, en base a software, un entorno tecnológico ya superado. Puede dirigirse al hardware, el sistema operativo o a aplicaciones concretas. Tiene la ventaja de que no se produce ningún tipo de intervención sobre el archivo de imagen y, por tanto, se evitan los riesgos implícitos en -9– cualquier transformación. La estrategia va adquiriendo protagonismo y está presente en muchos proyectos de preservación digital que desarrollan herramientas para este fin. 5. Conclusiones Esta guía ofrece los contenidos básicos para entender la imagen digital con el objetivo de facilitar su gestión en el ámbito del archivo. La idea fundamental de la imagen digital reside en el hecho de que contiene tanto la información de cada píxel de la imagen como aquella que permite interpretar los contenidos en diferentes dispositivos: una cámara, una pantalla o una impresora. No hacen falta intermediarios más allá de aquellos que impone la naturaleza digital: hardware, software, especificaciones técnicas, etc. Este contexto tecnológico que permite visualizar, editar o imprimir imágenes no parece tener límites definidos. Cualquier funcionalidad añadida puede ser integrada en un objeto digital. Ahí reside principalmente el rol del archivo que cuenta con el potencial informativo de los metadatos. Éstos son los grandes protagonistas en la gestión de los fondos de imágenes digitales, porque están implicados en casi todas las funciones del archivo y principalmente en la preservación y la recuperación de la información. - 10 – Bibliografía y Webgrafía ANSI/NISO Z39.87. Data dictionary – technical metadata for digital still images. NISO, 2006. http://djvu.org/docs/Z39-87-2006.pdf Arms, Caroline, R.; Carl Fleischhauer. Digital formats: factors for sustainability, functionality, and quality. Washington: Library of Congress, 2005. http://memory.loc.gov/ammem/techdocs/digform/Formats_IST05_paper.pdf Exchangeable image file format for digital still cameras: Exif version 2.3. JEITA, 2010. http://www.cipa.jp/english/hyoujunka/kikaku/pdf/DC-008-2010_E.pdf Extensible Metadata Platform (XMP) Specification: Part 1, Data Model, Serialitzation and Core Properties. Adobe, 2012. http://www.adobe.com/content/dam/Adobe/en/devnet/xmp/pdfs/XMPSpecificationPart1. pdf Extensible Metadata Platform (XMP) Specification: Part 2, Additional Properties. Adobe, 2012. http://www.adobe.com/content/dam/Adobe/en/devnet/xmp/pdfs/XMPSpecificationPart2. pdf Extensible Metadata Platform (XMP) Specification: Part 3, Storage in Files. Adobe, 2012. http://www.adobe.com/content/dam/Adobe/en/devnet/xmp/pdfs/XMPSpecificationPart3. pdf Frey, Franziska. Measuring quality of digital masters. A: Guides to quality in visual resource imaging. Council on Library and Information Resources, 2000. http://www.diglib.org/pubs/dlf091/dlf091.htm#visguide4 Iglésias Franch, David. La definición de un mapa de información conceptual para el archivo fotográfico. En: 12es Jornades Imatge i Recerca. Girona: Ajuntament de Girona, 2012. P. 111-120. http://www.girona.cat/sgdap/docs/vu23efriglesias.pdf International Press Telecommunication Council, IPTC PhotoMetadata White Paper 2007, 2010: http://www.iptc.org/std/photometadata/0.0/documentation/IPTCPhotoMetadataWhitePaper2007_11.pdf PRONOM – National Archives [UK], 2002. http://www.nationalarchives.gov.uk/PRONOM (Registro online de formatos de ficheros y del software utilizado para estos formatos). - 11 –