Publicación - IBERO-NBIC @ Inicio
Transcripción
Publicación - IBERO-NBIC @ Inicio
Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud. JORDI AGUILÓ LLOBET ANA MARÍA FREIRE VEIGA DIANA DE LA IGLESIA JIMÉNEZ VICTORIA LÓPEZ ALONSO ALEJANDRO PAZOS SIERRA 2013 Ficha Editorial AGUILÓ LLOBET, Jordi FREIRE VEIGA, Ana María DE LA IGLESIA JIMÉNEZ, Diana LÓPEZ ALONSO, Victoria PAZOS SIERRA, Alejandro Ilustración y Maquetado: Ana María Freire Veiga / Candela Rodríguez Suárez. I.S.B.N.-10: 84-15413-18-1 I.S.B.N.-13: 978-84-15413-18-9 Reservados todos los derechos. De conformidad con lo dispuesto en el artículo 534 bis del Código Penal vigente, podrán ser castigados con penas de multa y privación de libertad los que, sin la preceptiva autorización, reprodujeran o plagiaran, en todo o en parte, una obra literaria, artística o científica fijada en cualquier tipo de soporte. Edita Ciencia y Tecnología para el Desarrollo (CYTED) Amaniel, 4 - 28015 Madrid Tel.: 91 5316213 Fax: 91 5227845 [email protected] www.cyted.org Copyright: Ciencia y Tecnología para el Desarrollo (CYTED) Imprime: Tórculo Comunicación Gráfica. A Coruña I.S.B.N.-10: 84-15413-18-1 I.S.B.N.-13: 978-84-15413-18-9 Depósito Legal.: C 1979-2013 Prólogo Escribir el prólogo del fin de una Red, tiene un cierto carácter contradictorio. Desde 2009 hasta 2012 he tenido el placer de ver evolucionar a la Red Iberoamericana de Tecnologías Convergentes en Salud (IberoNBIC). Su germen fue plantado en 2009 por CYTED, que financió cada uno de sus pasos a lo largo de los cuatro años de duración de la Red, y a la que me gustaría agradecer sinceramente toda la confianza que ha depositado en nuestro trabajo. Desde sus orígenes hasta ahora, fuimos varios países iberoamericanos los que colaboramos para establecer un camino conjunto en investigación. Cada grupo de investigación aportaba una rama distinta pero que conseguimos encajar perfectamente, lo que nos permitió utilizar las Tecnologías de la Información y las Comunicaciones como una herramienta para mejorar la investigación en Salud. La colaboración con otras redes de investigación nos permitió ampliar nuestro espectro de actuación al ámbito energético (Red NanoRoadmap) o especializarlo, como en el caso de la Red Gallega de Investigación en Cáncer Colorrectal (REGICC). Siempre hemos intentado mantener un contacto cercano entre los diferentes grupos constituyentes, estableciendo reuniones anuales en las que opinábamos sobre los proyectos que estaban en proceso y se generaban nuevas ideas para continuar trabajando. Esto siempre ha generado un clima de acercamiento entre todos los participantes, y al fin y al cabo, las relaciones interpersonales son fundamentales para desarrollar un buen trabajo. Este prólogo abre las puertas al último recopilatorio de trabajos de la Red: Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud. Me gustaría destacar y agradecer la inmensa colaboración por parte del Hospital Italiano de Buenos Aires, sede de nuestra última reunión y en la que organizamos las contribuciones de este libro. En su homenaje, hemos inspirado la portada del libro en la bandera argentina. Como cierre de este prólogo, me gustaría agradecer a cada uno de los grupos de investigación el trabajo que han dedicado como miembros de esta Red. Aunque esta etapa de financiación se haya cerrado, estoy seguro de que continuaremos trabajando de cerca para impulsar algo tan importante como es el ámbito de la Salud. Alejandro Pazos IP Red Iberoamericana de Tecnologías convergentes en Salud (Ibero-NBIC) Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Índice Infraestructura de investigación y formación en Bioinformática en Costa Rica e Istmo Centroamericano. Allan Orozco Laboratorio de investigación en Bioinformática (BREL) Red Centroamericana de Bioinformática (BIOCANET) Universidad de Costa Rica, Escuela de Medicina (Costa Rica) Ricardo Boza Universidad de Costa Rica, Escuela de Medicina (Costa Rica) Regional PACS over the Cloud. Luís A. Bastião Silva Carlos Costa José Luis Oliveira Universidade de Aveiro – DETI / IEETA (Portugal) Retos Actuales en el Acceso y la Gestión de la Información Biomédica. Diana de la Iglesia Miguel García-Remesal Guillermo de la Calle David Pérez-Rey Víctor Maojo Universidad Politécnica de Madrid (España) Ana Freire Universidad de A Coruña (España) Sistema de Información basado en Imagen en un Servicio de Hemodinámica. Francisco J. Nóvoa Lola Traba Marcos Martinez-Romero Universidad de A Coruña (España) Certificado de Informática Médica para Puerto Rico: Una experiencia de colaboración panamericana. Alvaro Margolis Francisco Joglar Sofía García Antonio López Arredondo 9 21 33 43 67 7 8 Red Ibero-NBIC EviMed Corp. (Uruguay y Puerto Rico) Fernán González Bernaldo de Quirós Analía Baum Hospital Italiano de Buenos Aires (Argentina) Antonio Fernández Regional Extension Center, Ponce School of Medicine (Puerto Rico) William R. Hersh Oregon Health Sciences University (Estados Unidos) Application of CellDesigner to the Selection of Anticancer Drug Targets: Test Case using P53. Raúl Isea Johan Hoebeke Fundación Instituto de Estudios Avanzados (Venezuela) Rafael Mayo CIEMAT (España) Fernando Alvarez Sección Biomatemática, Facultad de Ciencias, Montevideo (Uruguay) David S. Holmes Center for Bioinformatics and Genome Biology, Fundación Ciencia para la Vida y Facultad de Ciencias Biologicas, Universidad Andrés Bello, Santiago (Chile) 75 Las Tecnologías de la Información y las Comunicaciones como instrumento para la promoción de la autonomía y participación de personas con Lesión Medular. Alejandra Morán Tenreiro Thais Pousada García 83 Betania Groba González Jorge Pintos Ruiz Laura Nieto Riveiro Javier Pereira Loureiro Centro de Informática Médica y Diagnóstico Radiológico (IMEDIR). Universidad de A Coruña (España) Medicina personalizada: un legado de promesas por resolver y de nuevos desafíos para la Informática Biomédica. Isabel Hermosilla Gimeno Ana Belen Marinas Gonzalez Mª Carmen Ramírez Sanchez-Paniagua Victoria López-Alonso Unidad de Bioinformática. Instituto de Salud Carlos III. Madrid. (España) 95 Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Infraestructura de investigación y formación en Bioinformática en Costa Rica e Istmo Centroamericano Allan Orozco Ricardo Boza Laboratorio de investigación en Bioinformática (BREL) Red Centroamericana de Bioinformática (BIOCANET) Universidad de Costa Rica, Escuela de Medicina [email protected] Universidad de Costa Rica, Escuela de Medicina [email protected] RESUMEN Actualmente, la Bioinformática es un área emergente de gran importancia y apoyo en las biociencias moleculares. Pero para fundamentar un soporte técnico adecuado con amplia eficiencia y rendimiento es necesario el diseño e implementación de ciertas infraestructuras de biocomputación con el fin de gestionar y dar solución a los diversos procesos y tareas requeridas en dicho campo. Costa Rica, siendo uno de los países centroamericanos de mayor capacidad en términos de producción científica en la región, ha marcado el liderazgo para impulsar adicionalmente esta área científica, mediante una infraestructura basada en red, mejorando así la creación de nuevos proyectos de investigación y formación entre científicos del istmo, y emprendiendo una nueva sinergia de gran impacto en las ciencias genómicas computacionales de la zona. Palabras clave Bioinformática, Nanotecnología, Omics, NGS, microarrays, infraestructura, red, nodos, clúster, web services. 1. INTRODUCCIÓN Actualmente, la Bioinformática es una ciencia que adquiere, almacena, organiza, procesa, gestiona y distribuye ingentes cantidades de datos e información de carácter biológico mediante equipos y programas muy sofisticados de computación. La bioinformática como disciplina científica maneja más datos e información que cualquier otra área conocida hasta el momento. Dentro de su composición integral está constituida por una dinámica muy compleja de datos, información y conocimientos provenientes de áreas y subáreas de ciencias como la biología, informática, física, química, farmacia, electrónica, bioestadística, matemática, agronomía y medicina [11]. Dentro de las áreas de atención de la Bioinformática están las llamadas biociencias moleculares (Biotecnología, Biomedicina, Bioquímica, Biología molecular) y sus respectivas sub-áreas denominadas “OMICS” (derivado del latín –oma- que significa “conjunto o masa”) y en donde podemos citar 9 10 Red Ibero-NBIC como ejemplos de “ciencias ómicas” entre otras: Genómica, Proteómica, Metabolómica, Transcriptómica, Epigenómica, Metagenómica, Nutrigenómica, etc. Estas ciencias fundamentalmente se encargan del estudio, relación y generación de datos y anotaciones relacionadas con genes, proteínas, biomoléculas y redes metabólicas con el propósito de comprender mejor el funcionamiento y estabilidad de los distintos organismos (Fig. 1). Por tanto, la Bioinformática emplea distintas herramientas informáticas, técnicas, métodos, algoritmos y bases de datos especializadas que facilitan el análisis de los diferentes resultados obtenidos mediante vía experimental. Por ejemplo, el estudio de la expresión del cáncer en términos clínicos es posible efectuarlo mediante microarrays de expresión (placas donde su superficie tienen una colección de microagujeros dispuesta en modo de matriz) donde sus resultados son analizados con sistemas bioinformáticos modulares. Por consiguiente, un bioinformático es un tipo de profesional capaz de combinar técnicas y tecnologías informáticas de alto rendimiento aplicadas a los distintos problemas provenientes del campo de ciencias moleculares de la vida [1, 3, 4, 11]. Figura 1. Diagrama Bioinformática. integral de la Hoy en día, la Biología ha evolucionado hacia una ciencia de información de equipos automáticos, donde su principal objeto de estudio es la molécula del ADN. Un ejemplo asociado, es la lectura masiva de la información de los genomas (totalidad de la información genética de los organismos) de las especies mediante secuenciadores automáticos (máquinas de lectura ultrarápidas de nucleótidos del ADN: Adenina, Timina, Citosina y Guanina) de nueva generación – NGS (Next Generation Sequencing)- con el fin de conocer la organización y estructura del código de la vida de las especies. Sin el uso de la bioinformática sería prácticamente imposible comprender las complejas relaciones existentes entre sus componentes genómicos a nivel estructural o funcional. Por otro lado, en el campo de la salud, y para el estudio de las enfermedades humanas, la bioinformática posee herramientas muy importantes para la toma de decisiones en el diagnóstico, predicción y tratamiento de las mismas desde un punto de vista molecular. Además, por ejemplo, su apoyo es fundamental para el diseño de fármacos en la nueva era de la llamada “medicina personalizada”. En el mundo científico del momento hay una creciente necesidad para el desarrollo de productos y servicios bioinformáticos asociados a las áreas “OMICS”, con un mercado asociado en constante crecimiento que ofrece nuevas ventanas y oportunidades emergentes. De acuerdo a RNCOS (Industry Research Solutions, 2012) la Bioinformática tiene proyecciones de mercado de 9,5 billones de dólares para el año 2015 [13]. Los avances de la Bioinformática también han dado lugar al desarrollo de nuevas sub disciplinas derivadas. La Biología de Sistemas es una de estas, y tiene como fin estudiar componentes moleculares y su dinámica en los circuitos metabólicos de los organismos. Esto se ha logrado mediante modelaciones y simulaciones computacionales, para comprender, validar y predecir mejor el comportamiento del sistema biológico real investigado. Ahí es donde precisamente la Biología Sintética mediante el empleo de la Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Bioinformática, Biología de Sistemas e Ingeniería genética proporciona los fundamentos elementales para diseñar y ejecutar procesos, tareas y respuestas virtualizadas de un sistema biológico representativo de manera “in silico”. Por tanto, estas acciones sintéticas son realizadas al mejor estilo de la “ingeniería de legos” para efecto de una construcción efectiva de la bioestructura funcional y/o el descubrimiento de moléculas de interés no existentes en la naturaleza. Es decir, existen las suficientes herramientas bioinformáticas para crear microorganismos a la carta “genómicamente” simulados mediante un computador que luego se pueden “replicar” en los laboratorios experimentales, comportándose estos componentes como una especie de computadora programable. En el pasado, las investigaciones de Hodgkin y Huxley (fallecido en mayo 2012) les permitieron ganar el Premio Nobel de Medicina en 1963 a través de la modelación de los mecanismos iónicos de los potenciales de acción de una membrana celular. Para ello, utilizaron en parte analogías con las Leyes de Kirchhoff (Circuitos eléctricos) para simular matemáticamente el comportamiento biológico estudiado. Hace poco más de 2 años (2010), investigadores del Instituto Craig Venter (EEUU), lograron diseñar una biocomputadora con fragmentos de ADN, obtuvieron su síntesis y unión para luego ensamblar un genoma completo, transfiriéndolo luego a una célula viviente. Esta célula integró el nuevo genoma (descartándose el original) que luego codificaba proteínas procedentes de la expresión del genoma artificial. Ahora, los recientes ganadores del Premio Nobel de Medicina 2012 han obtenido su reconocimiento por los estudios pioneros en la reprogramación funcional de células madre (La Bioinformática y Biología de sistemas empleando procesos sintéticosjugó técnicamente un papel relevante). La Biología de sistemas está evolucionando y ahora se establecen simulaciones sintéticas sobre la activación o pagado de genes, expresión y regulación, mediante operadores de estado y formas lógicos que son muy semejantes a nivel funcional cuando se construye un diagrama eléctrico o electrónico (un equivalente a la ingeniería de control pero celular), estableciendo redes metabólicas con funciones y respuestas específicas para un sistema molecular programado. Por tanto, estos “circuitos genéticos lógicos” permiten diseñar microorganismos artificiales (armados con la explosión del uso de los inventarios biobricksfragmentos de genes intercambiables-) pre-programados para varios fines. Por ejemplo, esto permite programar una síntesis y caracterización dirigida del material genético combinado y así obtener una funcionalidad con diversas respuestas sintéticas particulares para posibles usos industriales. 2. AVANCES DE LA BIOINFORMÁTICA EN COSTA RICA Dentro de los avances de Costa Rica en Bioinformática con impacto para la región centroamericana podemos citar algunos hechos: Ha sido Co-Fundadora de SOIBIO (Sociedad Iberoamericana de Bioinformática), en Cancún México en el 2010 con apoyo de la ISCB (International Society of Computational Biology), la organización más importante del mundo en Bioinformática, con sede en California, EEUU y ha sido el fundador del primer nodo EMBNET europeo en centroamerica (2006). Ha diseñado y ejecutado los primeros cursos de Bioinformática en carreras como Medicina, Agronomía, Farmacia, Odontología, Biología, Biotecnología e Informática en Costa Rica. Ya para finales del 2011, la Escuela de Medicina 11 12 Red Ibero-NBIC de la Universidad de Costa Rica (UCR) inauguró un importante clúster (conglomerado de computadoras, bautizado como Nelly) con ayuda local del Ministerio de Ciencia (MICIT) y Comercio (COMEX) y colaboración internacional de la Fundación de Supercomputación de Castilla y León (España) y Microsoft (EEUU). Así mismo, se fundó en 2011, la Red Nacional y Centroamericana de Bioinformática y Biocomputación Molecular (Fig. 2) con el fin de integrar proyectos y servicios en toda la región. Además, ha participado en Redes de Software y Tecnologías Convergentes del CYTED (Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo) tales como FREEBIT (Software libre en Biomedicina) e IBERO-NBIC (Tecnologías Convergentes en Bioinformática, Biomedicina Computacional y Nanoinformática). Por otra parte, el Programa de Ciencias Biomédicas de la Universidad de Costa Rica (UCR), abrió en 2012, el primer máster de Bioinformática y Biología de sistemas de toda la región centroamericana. Y en marzo 2012, se celebró el primer Congreso Centroamericano de Bioinformática y Biología de Sistemas de toda la región (organizado por la Escuela de Medicina-Universidad de Costa Rica y EARTH), que contó con el apoyo de Universidades, Organizaciones, Ministerios de Gobierno e Instituciones (nacionales e internacionales). Así mismo se logró dar soporte en Guatemala, a través de la aprobación de un proyecto por SENACYT (Secretaria Nacional de Ciencia y Tecnología) en junio 2012 con ayuda de investigadores asociados a la Red Centroamericana de Bioinformática y de la Universidad de Valle, logrando de esta forma la aprobación del primer proyecto nacional guatemalteco dirigido al mejoramiento de la Bioinformática local y regional. Figura 2. Red Nacional de Bioinformática a partir de BIOCANET. 3. INFRAESTRUCTURA DE INVESTIGACIÓN Y FORMACIÓN EN RED BIOINFORMÁTICA Con el fin de fortalecer las acciones anteriormente descritas, en 2011 se formó la Red Centroamericana de Bioinformática (BIOCANET) con el fin de consolidar fuertemente los cimientos para incubar proyectos y formación genómica que requerían bioinformática de muy alto nivel [7,8]. Actualmente, su nodo central se encuentra localizado en San José, Costa Rica, en el Laboratorio de Bioinformática, de la Escuela de Medicina de la Universidad de Costa Rica. Por tanto, el desarrollo de una infraestructura en red de cooperación de servicios biocomputacionales (Biocanet), ha permitido al momento una mayor integración en la investigación y desarrollo de tecnología en Bioinformática asociada al desarrollo de proyectos en biodiversidad, biotecnología, medicina molecular, genómica, proteómica y OMICS en la región centroamericana. Esta red ha tenido tres pilares fundamentales de Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud acción en: Biodiversidad, Ambiente y Biociencias Moleculares. Estas tres grandes áreas tienen como capa integradora de soporte tecnológica: la Bioinformática y Biología Computacional. [7, 8, 9, 10,12]. Actualmente la infraestructura de la RED BIOCANET está compuesta con profesionales que provienen de instituciones como: Universidad de Costa Rica, Universidad EARTH, Universidad del Valle, Universidad Autónoma de Honduras, Universidad Rafael Landívar, Instituto Smithsoniano de Panamá, Instituto de Ciencia y Tecnología Agropecuaria (ICTA) y Cengicaña de Guatemala [12]. o o o o 3.1 Objetivo general infraestructura en RED de la Desarrollar una red estable de cooperación de servicios biocomputacionales, investigación y desarrollo de tecnología en Bioinformática asociados al desarrollo de proyectos en biodiversidad, biotecnología, medicina molecular, genómica, proteómica y OMICS en general en la región centroamericana Otros o o 3.1.1 Objetivos específicos o o o o Analizar y procesar información biológica en HPC en RED cooperativa de intercambio y procesamiento. Procesamiento de flujos de trabajo y web services. Desarrollar software y servicios Web en Bioinformática y Biología molecular computacional de una manera consorciada mediante la utilización de una red integrada. Desarrollar áreas convergentes y periféricos como la nanogenómica computacional y control espacial en modelos dinámicos de seguimiento integrado en genómica comparativa. Impulsar el desarrollo de la Bioinformática en la NanoBiotecnología de sistemas moleculares como indicadores de control ambiental. Desarrollar talleres, congresos y cursos de formación en el área de la Bioinformática. Estimular la creación de cálculo bioinformático en nube (Cloud Biocomputing). Desarrollar modelos de control genómico diferenciales en el monitoreo y control de la biodiversidad de la zona centroamericana (Monitoreo de datos y sensores remotos). o o Desarrollar e implementar investigación en medicina molecular de la zona. Impulsar el desarrollo de la Bioinformática traslacional en la medicina clínica. Impulsar el desarrollo de la Bioinformática en la genómica vegetal industrial. Impulsar el desarrollo de la Bioinformática en la genómica y proteómica marina en los ecosistemas centroamericanos. 3.2 Beneficiarios y usuarios de la infraestructura en RED Los usuarios de la RED son profesionales e investigadores provenientes de áreas como 13 14 Red Ibero-NBIC la Biotecnología, Genética, Biología Molecular, médicos moleculares, microbiólogos Biólogos, expertos en biodiversidad, bioquímicos, agrónomos, ingenieros, etc. En general usuarios que provienen de las ciencias exactas, naturales y de la salud de la zona centroamericana y externa. El principal beneficiario ha sido el sector de investigación centroamericano, siendo adicionalmente un estímulo para aumentar su potencial de publicación conjunto en revistas del alto nivel de impacto (Fig. 3). La estrategia de trabajo facilita la dinámica Academia- Empresa y Gobierno entre los países (Fig. 4). La iniciativa cuenta con el apoyo del Ministerio de Ciencia y Tecnología de Costa Rica (Gobierno de Costa Rica), Rectoría de Universidad de Costa Rica (clúster), Universidad EARTH y de empresas como Microsoft Research de EEUU (clúster) y MSF de CA. módulos programáticos) en el clúster NELLY, localizado en el Centro de Informática de la Universidad de Costa Rica: o o o o o o o o Figura 3. Plataforma biocomputacional para uso aplicado en formación e investigación mediante conexión a Red Clara (América Latina y Europa), nodo central: Costa Rica. El grupo de Costa Rica (Laboratorio BREL) es el nodo central de la RED CENTROAMERICANA DE BIOINFORMATICA. Dentro de sus funciones principales iniciales está coordinar actividades generales de la RED. Así mismo gestiona y ejecuta las siguientes acciones generales (organizados y numerados por M1: Sistema de gestión de registro de proyectos conjuntos. M2: Sistema de gestión de registro de producciones científicas conjuntas. M3: Sistemas de gestión de información y bases de datos biológicas y bioinformáticas. M4: Registros de actividades de formación y colaboraciones de la región y externas. M5: Repositorio de Web Services y herramientas “mirrors” de procesamiento (procesamiento de genotipado y ADN). M6: Herramientas de control estadístico de ejecución de los servicios. M7: Acceso a los registros de monitoreo de las especies centroamericanas como objetos genéticos (diversidad genética y dinámica aéreo-espacial). M8: Disponer de modelos de predicción en medio ambiente y biodiversidad relacionados con computación sostenible para uso de la RED y externos autorizados. 3.3 Proyectos adjuntos a la infraestructura BiocaNET A continuación se hace una descripción de algunos de los proyectos operados en la infraestructura centroamericana por cada país participante [12]: Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud 3.3.1 Caracterización molecular de los genes CFTR, SPINK 1, PRSS1, ATP7B en Centroamérica (Nodo Costa Rica) La pancreatitis crónica, infertilidad masculina, el asma con infecciones recurrentes, la rinitis, fibrosis quística y enfermedad de Wilson, son enfermedades comunes y de alta incidencia en las poblaciones centroamericanas. El grupo costarricense realiza la caracterización molecular de los genes CFTR, SPINK1 y PRSS1 en estas enfermedades en diferentes poblaciones centroamericanas con el objetivo de conocer la epidemiología molecular genética, poblacional y evolutiva de estos genes en el área centroamericana. Se emplean técnicas avanzadas de bioinformática para el análisis de datos biológicos. 3.3.2 Desarrollo de catálogo de web services en bioinformática (Nodo Costa Rica) Desarrollo de catálogo de web services en Bioinformática para medicina molecular para utilizar abiertamente por distintos grupos de investigación en Centroamérica mediante Sistemas Galaxy y EMBOSS (Red Mundial de Bioinformática) [2, 9, 11, 12], formación [5,6] y sistemas de trazabilidad biológica [5]. Fig 4. Proyectos y actividades de Bioinformática entre Academia, Empresa y Gobierno en Costa Rica. 3.3.3 Fortalecimiento de la utilización de la bioinformática aplicada en la genética que contribuye a aumentar la competividad agrícola de guatemala (Nodo Guatemala) Objetivo general: Fortalecer la capacidad nacional en bioinformática aplicada a la genética que contribuya al aumento de la competitividad agrícola de Guatemala. Este ha sido un proyecto aprobado por SENACYT (Secretaria Nacional de Ciencia y Tecnología) en junio 2012. Guatemala, por sus condiciones edafoclimáticas, geológicas y geográficas forma parte de uno de los centros de diversidad más ricos del mundo. Su megadiversidad es conservada de diversas formas, entre las cuales se puede mencionar a las reservas públicas y privadas (91 áreas protegidas nacionales cuya extensión es 15 16 Red Ibero-NBIC aproximadamente de 3,000,000 de hectáreas, equivalente al 28% del territorio nacional) y los bancos de germoplasma (nacionales como el BANSEFOR, ICTA, o internacionales CIAT, SVALBARD). Guatemala ha logrado desarrollar altos niveles de productividad agrícola en cultivos como la caña de azúcar (tercer exportador mundial), cardamomo, hule y banano. Así mismo, Guatemala es el proveedor de hortalizas para Centroamérica y el Sur de México. Sin embargo, existen retos que Guatemala debe enfrentar para satisfacer las demandas inherentes al país. Entre estos retos, algunos que tienen más incidencia en los sistemas naturales y agrícolas del país, son la inseguridad alimentaria; la vulnerabilidad de zonas geográficas frente a catástrofes naturales, efectos del cambio climático y la falta de implementación de regulaciones ambientales. Por tanto, algunas acciones que analicen la diversidad genética (inventarios y colectas de especímenes, análisis de genética de poblaciones, estudios filogeográficos) o que estudien las relaciones ecológicas de los organismos con elementos bióticos (patógenos, polinizadores) o abióticos (inundaciones, sequías, heladas, etc.) permitirán elaborar planes de mejoramiento genético que aunados con planes de conservación ambiental, permitirán un mejoramiento del entorno y de la calidad de vida de las personas. Por consiguiente, la bioinformática constituye una herramienta que facilitará la recopilación, análisis y divulgación de información generada en estos temas, y contribuirá al fortalecimiento de los procesos de desarrollo agrícola del país en dos grandes grupos: Producción Agrícola o Para la creación de una plataforma virtual que contenga la base de datos genómica de los cultivos agrícolas más importantes en el país para facilitar de esta forma el intercambio y acceso de información entre investigadores y académicos. Agrobiología o Para generar investigación con el fin de preservar la calidad biológica de los productos agrícolas y sus respectivos balances naturales basado en la búsqueda de especies resistentes, el manejo no agresivo del suelo y la utilización de biocidas naturales. 3.3.4 Sistemas de vigilancia epidemiológicos en enfermedades cromosómicas/génicas, cáncer e infertilidad humana (Nodo Nicaragua) El nodo local de Nicaragua como parte de la Red Centroamericana de Bioinformática (BIOCANET) ha enfocado sus esfuerzos iniciales en el desarrollo de sistemas de vigilancia epidemiológicos en enfermedades cromosómicas/ génicas, cáncer e infertilidad humana. Esto con el fin de implementar la genómica epidemiológica en la medicina clínica con el apoyo de la informática biomédica. Mención de posibles proyectos vinculantes (Colaborativos en RED) Cáncer Gástrico (CIS). Enfermedades cromosómicas (UNAN-León). Infertilidad Masculina (CIS). Partners Universidad Carolina del Norte (UNC), Chapel Hill, USA. Universidad Autónoma de Madrid (UAM), España. Programa Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Latinoamericano para la Estandarización del Análisis Seminal (PLEAS). Universidades de Uppsala y Umea, Suecia. 3.3.5 Bioinformática visual (Nodo Honduras) Honduras es un país que cuenta con una gran diversidad de ecosistemas contando con una de las mayores reservas de Centroamérica como lo es la Biosfera del Rio Plátano, y uno de los arrecifes de coral más importantes del mundo como es Las Islas de la Bahía. La Universidad Nacional Autónoma de Honduras es la institución de que hasta el día de hoy tienen la responsabilidad de dirigir la educación superior en dicho país; que a pesar de realizar investigaciones microbiológicas de enfermedades tropicales, y en el campo de la farmacología etnobotánica, así como en otras áreas, no había contado con una plataforma tecnológica actualizada en bioinformática; lo cual a su vez había retrasado el uso de herramientas informáticas en las facultades del área de la salud. Gracias a una iniciativa de la DIRECCION EJECUTIVA DE GESTION DE TECNOLOGIA creada durante el proceso de reforma de la UNAH (20052011) y con apoyo de ASDI, esta institución cuenta hoy con una de las plataformas telemáticas más potentes de las universidades nacionales, con un DATA CENTER de nivel corporativo y con capacidades de trasferencias de datos entre 2 y 10 gigabits con los diferentes centros regionales universitarios distribuidos por todos el país. Proyectos emprendidos en áreas como: Bioinformática visual (Estructuras moleculares), Genómica Visual [14], Procesamiento de datos en dinámica molecular (Data Center) y datos biológicos. Training en Bioinformática en modelación molecular. 3.3.6 Sistemas integrados de información biológica (Nodo Panamá) El Instituto Smithsonian de Investigaciones Tropicales (STRI, por sus siglas en inglés) en Panamá - la única dependencia de la Institución Smithsonian situada fuera de los Estados Unidos - se dedica a enriquecer el conocimiento sobre la diversidad biológica de los trópicos. Lo que empezó en 1923 como una pequeña estación de campo en la isla de Barro Colorado de la antigua Zona del Canal de Panamá, representa hoy día una de las principales instituciones de investigación del mundo. Las instalaciones de STRI pueden brindar una oportunidad única para estudios ecológicos a largo plazo en los trópicos y son utilizadas intensivamente por unos 900 científicos visitantes que llegan cada año procedentes de instituciones académicas y de investigación de los Estados Unidos y el mundo entero. Los científicos residentes de este grupo y nodo de la red han proporcionado una mejor comprensión de los hábitats tropicales, al tiempo que han entrenado a cientos de biólogos especialistas en el trópico. Entre las áreas de trabajo del grupo de panamá podemos citar: Biodiversidad OMICS de la Biodiversidad (Sistemas integrados de información biológica): o Terrestres: aves, anfibios, reptiles. o Peces de agua dulce. o Ecosistemas. 17 18 Red Ibero-NBIC Biociencias y Medicina molecular o Enfermedades (biomarcadores moleculares y biología de sistemas). o Búsqueda de químicos naturales con actividad medicinal. o Ambiente y Sostenibilidad. o Modelación y dinámica de las especies de la zona. o Modelación computacional de cambios de la diversidad genética y economía. o Modelación del cambio climático, contaminación y salud. o Modelación de cambios relacionado a cambios de uso de la tierra. Finalmente, es importante mencionar la gran colaboración y dinámica presentada por todos los participantes para llevar ésta infraestructura biocomputacional de investigación y formación a ser una de las primeras infraestructuras líderes de América Latina en Bioinformática y Biología computacional en red. El reto a futuro es mejorar e incrementar la capacidad de la infraestructura general e introducir nuevas temáticas como la integración de nuevas áreas temáticas de la Nanobiotecnología molecular como área de aplicación de la Bioinformática. 4. AGRADECIMIENTOS A la Escuela de Medicina de la Universidad de Costa Rica y al Laboratorio de Bioinformática (BREL), a los aportes de la Red Centroamericana de Bioinformática, MICIT, CONICIT, COMEX, RED CLARA y CEE (Comunidad Económica Europea), NBIC CYTED, FREE-BIT CYTED, SOIBIO, EMBNET, FCSC (ESPANA), INB (ESPANA), MICROSOFT (EEUU), ISCB (EEUU) y la empresa Indromics (www.indromics.com) del grupo empresarial TECAPRO (Costa Rica) e iniciativa AUGE (Universidad de Costa Rica). Una agradecimiento especial al Programa estrategia siglo XXI de la Academia Nacional de Ciencias de Costa Rica a través de su Red ticotal, por reconocer como talento destacado internacional del mes de octubre 2012 al primer autor de la nota y NBIC- CYTED por permitir un espacio de publicación y apoyo general. Finalmente al programa de Doctorado en Biociencias Moleculares de la Universidad Autónoma de Madrid, España. 5. REFERENCIAS [1] Cox Jeffrey. 2009. Biotech under Barack. Nature Biotechnology 27, 237244. [2] Dawn Field et al. 2006. Open Software for Biologist: from famine to feast. Nature Biotechnology 24, 801-803. [3] Orozco A. 2007. Strategic Aspect by technological for the academic and business development of the bioinformatics in Costa Rica and Central America Regions. BMC Bioinformatics. London, UK.1-3. [4] Orozco A. 2005. Bioinformática: Un mundo de oportunidades. SSI (with support of Harvard Business School, EEUU). Vol 5 INCAE, 1-3. [5] Orozco A. 2006. Mendoza C. Bovine Trace to the traceability of beef. Embnet. News (Sweden) V 14 N2 10-11. [6] Orozco A. 2009. International Society of Computational Biology, Conference Bioinformatics: Bioinformatics Education, Curriculum Development, Challenges and Opportunities, Bamako, Africa. [7] Orozco A, Jiménez S, Morera J. 2012. BiocaNET: A platform applied in clinical genomic medicine in Central America, European Conference on Computational Biology (ECCB), Basel, Switzerland. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud [8] Orozco A, Jiménez S, Morera J. 2012. BiocaNet: Central American Bioinformatics Network. International Society of Computational Biology (ISCB), California, EEUU. [9] Orozco A. 2012. Bioinformatics software development in Central America: A growth alternative in education and computer technology on the molecular modeling of protein and DNA virtual structures field, ISCB- Latin America, Santiago, Chile. [10] Orozco A. 2012. Infraestructuras en investigación y formación en Bioinformática en Costa Rica e istmo Centroamericano [Diapositiva 15], Tecnologías NBIC en Salud, NBICCYTED. Buenos Aires, Argentina. [11] Orozco A. 2012. La Bioinformática y su importancia en Costa Rica. Diario la nación, San José, Costa Rica, 25 de septiembre 2012, pág 29A. [12] Orozco et al. 2011. Propuesta científica de Red Centroamericana de Bioinformática. BIOCANET, Escuela de Medicina, Universidad de Costa Rica, 35 p. [13] RNCOS (Industry Research Solutions). 2012, Bioinformatics Market Outlook to 2015, EEUU. 17 p. [14] Matte-Tailliez, O. Toffano-Nioche, C. Ferey, N. Kepes, F. Gherbi, R 2006. Immersive Visualization for Genome Exploration and Analysis. Information and Communication technologies 2, 3510-3515. 19 20 Red Ibero-NBIC Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Regional PACS over the Cloud Luís A. Bastião Silva, Carlos Costa, José Luis Oliveira Universidade de Aveiro – DETI / IEETA, Portugal Abstract. The production of medical images tremendously increased in the last decade, imposing several difficulties to storage and distribution. The installation, maintenance and utilization of these systems are still a burden due to their heavy structures, typically supported by centralized computational resources. Computing devices and Internet access are now available anywhere and at anytime, creating new opportunities to share and use online resources. This new reality created an excellent opportunity for telemedicine, telework and collaborative work environments. This chapter described the design and implementation of a Regional PACS (Picture Archive and Communication System) with standard remote access. The central repository is supported by a document centric database and the data access is based on routing mechanisms over a cloud infrastructure. Keywords: PACS, DICOM, medical imaging, telemedicine, teleradiology, Cloud computing. 1. INTRODUCTION Over the past two decades, the healthcare sector has been adopting technologies and information systems to support diagnoses, treatment and patient care. Medical imaging is not an exception and this segment produces huge amounts of information and takes advantage of new technologies to aid in the imaging diagnosis. Healthcare institutions worldwide have adopted PACS for enterprise access to medical images, relying on DICOM standards for data exchange. Those images are stored in central repositories and, to support data produced, healthcare institutions maintain datacentres with large gigabytes of information, even petabytes. The medical imaging production increased in the last decade and nowadays PACS is an indispensable tool in the digital imaging laboratories [1, 2]. They are typically supported by centralized and heavy computational solutions with high installation and maintenance costs. On the other hand, computing devices and Internet access are now available anywhere and at anytime, creating new opportunities to share and use online resources. A tremendous amount of ubiquitous computational power, such as Google and Amazon, and an unprecedented number of Internet resources and services, such as email and storage, are used every day as a normal commodity. Also, Internet bandwidth is plentiful, which allows online data storage and time-efficient remote access from anywhere [3]. So the major idea is that we can get from the Internet Cloud, in a self-service model, things that we are used to relying on a central computer and services for. 21 22 Red Ibero-NBIC In this chapter, we start presenting a developed Open Source PACS that is able to store large amounts of data in a scalable manner and provides an enhanced query/retrieve. Moreover, the communications over a wider domain of independent medical institutions is not well standardized. So, a DICOM-compliant bridge was developed for extending and sharing DICOM services across healthcare institutions without requiring complex network setups or dedicated communication channels. This DICOM routing mechanism is supported on the public Cloud services and follows Web 2.0 paradigm due to using the HTTP channel [4]. The solution provides a transparent application for the end-user that supports DICOM Storage and Query/Retrieve services, issuing this way the interoperability with devices adopted by the medical community. 2. BACKGROUND 2.1. PACS and DICOM standard Nowadays, the use of medical imaging systems in healthcare institutions is unquestionable, even in small medical imaging centres. Thus, it is necessary to endow these medical institutions with digital storage and visualization devices to improve the physician’s workflow. However, acceptance of new technologies in the healthcare sector remains a challenge due to clinical staff barriers against the digital era. The conventional paper and film-based operation was part of the traditional workflow and changing to digital images was pointed out as “losing control” as doctors must ensure that procedures are under their control [5]. Nevertheless, changes in IT caused an ongoing revolution in radiology and, in general, all medicine. As a result, workflows were speeded up and costs were reduced, with a significant financial impact on healthcare institutions. Many technologies developed for the healthcare sector have contributed to improve diagnosis and support for clinical decisions. One of the important changes was in management of digital radiology modalities, e.g. X-Rays, Computed Tomography (CT), Magnetic Resonance (MR), Ultrasounds (US) and so on. Healthcare institutions have purchased more acquisition devices, with higher resolution and larger image data size. The amount of images produced by acquisition devices has increased and, consequently, the medical image repository has to scale up in order to support such a growing volume of medical studies. PACS encompasses several hardware, communication networks and software technologies for the acquisition, distribution, storage and analysis of digital images in distributed environments [5]. The main components are: image acquisition and scanning devices, storage archive units, display workstations and databases with patient records. All those components communicate through the network, contributing to the integrated system. DICOM (Digital Image and Communication in Medicine) is an international standard that defines the file format and directory structure needed for offline communication. In addition, the communication protocols and packet semantics are described to support network operations between medical imaging devices. DICOM standard not only grants basic connectivity between imaging devices, but also supplies guidelines for workflow in an imaging department. Nowadays, it is a major contributor to the exchange of structured medical imaging data and almost all medical imaging manufacturers are following the DICOM rules. The real world has direct representation in DICOM standard. DICOM Information Model (DIM) [6] represents the items that match real objects and describes their relationship. These relations are quite important to organize the information systems. DICOM has the following hierarchy: Patient-StudySeries-Image. The hierarchy reproduces real life entities, i.e. a patient can have multiple examinations, and these examinations may be from different modalities. Each modality uses Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud different protocols and may produce a different number of images. A unique key is assigned to each level of hierarchy. This is very important to identify the Patient, Study, Series and Image. PatientID identifies the patient level. At the study level, Study Instance UID is used. Series Instance UID is the unique id at the series level. Finally, each DICOM object is instanced with a SOP (Service Object Pair) Instance UID – image level. DICOM protocol is quite important for interoperability between medical devices. This protocol works over TCP/IP granting a reliable connection between actors. It follows the same structure of DICOM objects and, in the network, encapsulates messages as TLV (Tag Length Value) elements. There are many concepts involved in the protocol, but we will address just the service layer, i.e. exchanged messages. Over the protocol layer, DICOM has several services that follow a client/server architecture. In the DICOM scenario, there are server unities, named Service Class Provider (SCP), and clients, designed as Service Client User (SCU). A DICOM equipment can have different roles, i.e. SCP or SCU, depending on the type of device. For instance a modality that produces images is responsible for storing the image in the archive server. Thus, a modality is considered a SCU because it uses a service. On the other hand, the archive is a SCP because offers a service. Each DICOM device has an Application Entity Title (AETitle) that identifies the DICOM device. DICOM is a protocol over TCP/IP, thus AETitle is an addressing mechanism that works similarly to IP and port in the lower layer of the network stack. To communicate with a DICOM device, the first step is to purpose an exchange of information, called DICOM association. In this procedure, devices negotiate several parameters for the association, such as, what kind of information will be transferred, how it is encoded and the duration of the association. After the negotiation, the service commands are executed between SCU and SCP to perform the service goal. 2.2. Shared and collaborative telemedicine services PACS presents significant advantages over traditional analogical systems based on film and also creates an excellent opportunity for telemedicine, telework and collaborative work environments. Although medical digital imaging has brought many benefits, it also presents new challenges for storing, indexing and sharing data [5]. Currently, most devices in medical institutions follow the DICOM standard to communicate, store and visualize information. In theory, DICOM standard solved all issues regarding communication between different collaborators, but several gaps remain in real environments, mainly in inter-institutional cooperation, which are barriers to “many-tomany” collaborations [7] [8-10] [11]. Telemedicine and teleradiology have become increasingly important in the healthcare delivery system. The evolution of this model allows a reduction in duplication of exams and streamlining of healthcare services among hospitals. Telemedicine requires computers able to gather and transfer patient information, examination results and diagnostic reports [5]. Teleradiology is one of the most important cooperative areas in medicine. It is a subset of telemedicine that is mainly used when medical centres cannot afford specialists from all areas and make use of outsourced services, including reporting of examinations. In some areas, there are rural clinics, community hospitals or small centres with technicians and acquisition devices to perform examination of specific modalities, for 23 24 Red Ibero-NBIC instance, computer radiology (CR) or magnetic resonance (MR). However, they do not have enough radiologists, i.e. specialist physicians, to report all these exams. In those cases, remote reporting is quite common practice. Furthermore, the availability of teleradiology facilitates obtaining a second opinion, which in some cases might be very important. Another important aspect is the reduction of the reading cycle time from acquisition until the report is completed. There are also other user cases, for instance, tele-work scenarios, where healthcare professionals need to have remote access to the medical repositories and information systems of their institutions. 3. MATERIALS AND METHODS In the last years, we developed a new PACS archive named Dicoogle1 that replaces traditional relational database engine by an indexing mechanism. This approach allows more flexible queries over DICOM objects metadata. Moreover, this framework allows us to create a DICOM network over the WAN (Wide Area Network), potentiating scenarios of shared PACS archives that can be accessed anytime and anywhere. 3.1. PACS with Indexing Engine Traditionally, a PACS infrastructure relies in a relational database engine, such as, Oracle or SQL Server to management the DIM (DICOM Information Model). In opposition, Dicoogle [12] is a PACS system that relies on an indexing engine instead. It follows a documented centric model and, for each DICOM image, creates a new entry. This approach does not require new schemes to indexing new fields of the DICOM metadata. The Dicoogle platform is an open source project developed in Java and planned to run in any common operating system. The system is based on Apache Lucene [13, 14], a public 1 www.dicoogle.com domain document-indexing engine that requires reduced installation and maintenance effort. These characteristics, associated with its robustness and simplicity, make it very used in a large variety of applications, including Wikipedia. The implementation of DICOM standard functionalities is supported by the DCM4CHE library [15, 16], a SDK that is used to extract DICOM data elements from persistent objects and to implement the Storage SCP and Query/Retrieve SCP services [17]. The decoded DICOM information is parsed and indexed by a Lucene server according to programmed rules. The Dicoogle user has several possibilities to configure the indexed elements: only DIM fields, all DICOM object attributes and all (or part of) mandatory fields from specific IOD (Information Object Definition) image modality [18]. Finally, Dicoogle uses the JAI ImageIO toolkit [19] to display the medical image thumbnails, improving the usability of the system. 3.1.1. Indexing Metadata In what we believe to be a breakthrough approach, Dicoogle uses a database with a more agile indexing and retrieving mechanism [20]. With this solution, any document type can be indexed, besides storage and searching of traditional DICOM information model fields. In this way, it is possible to add all other DICOM textual data elements without the need to create new fields, new tables, and new relations that would be necessary in the database approach. There are recent reports about DICOM metadata repository [21, 22]. The system described in [22] allows the extraction, process and display of information. It uses a conventional database infrastructure to store data and (tries to) extracts 200 fields. Comparatively, our approach is a truly PACS containing metadata information in opposite to the [22] system, a separate database contains no image and where the patients are not identified. Moreover, Dicoogle can automatically extract, indexing and store all Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud metadata detected in modality DICOM header, including private DICOM attribute tags, without re-engineering or reconfiguration needs. modality worklist, visualization software or web portal interface. Besides PACS archive data, Dicoogle can also index DICOM data from other sources (email, ftp, http, etc.). It includes a file system monitor interface where all events (file creation, change, deletion, etc.) are intercepted, and according to the kind of data, specific indexing actions will be triggered. Dicoogle allows the indexing of DIM Fields, a set of or all DICOM attributes, and additional metadata that can be used in association with each file. These parameters can be customized to answer specific user requirements. In general, users do not need complete knowledge of the structure of the DICOM images to retrieve the wanted information. However, skilled users can finetune search sentences to improve the quality of retrieved results. 3.1.2. Building Indexes To create indexes, Dicoogle works in two phases. The first time the application is executed, it is necessary to scan all files in the computer. During this process, all detected DICOM files are indexed with Lucene [13], much as happens with the files received by standard Storage SCP service. Once the complete scan is finished, the application turns into a “steady state” mode (file system watch), where it is only necessary to detect incremental file changes (create, update and delete). On the other hand, Dicoogle can also work as a traditional PACS solution. In this case, we just need to configure an external DICOM viewer to visualize the selected images. The simplicity of this solution fits well with the requirements of a small imaging center. In an enterprise PACS, Dicoogle can also be used as an image storage archive without affecting existent third services, for instance, the Figure 1: Dicoogle architecture: components and interfaces 3.1.3. DICOM services supported on search engine The Dicoogle DICOM Query/Retrieve service uses the Lucene indexer to extract the desired information. It applies a specific boolean expression using the indexed DIM fields. For each C-FIND Request [4] (i.e., the DICOM query command), it builds a query using specific keywords such as PatientName, StudyDate, Modality, or other DIM fields. For instance, “PatientName: FELIX* AND StudyDate: [20090101 TO 20090131] AND Modality:CT”. The query result will include the location of DICOM persistent objects and all other DICOM tags that were indexed. The set of search results are used to build the answer DIM model. For instance, if C-FIND Request level is Study, it creates a list of studies filtered by Study Instance UID with a structure containing the study and patient mandatory fields for C-FIND Response. The DICOM retrieve service is based on CMOVE command [4]. Dicoogle uses the Study Instance UID keyword to interrogate 25 26 Red Ibero-NBIC the indexer and to identify the DICOM files location that must be sent to the remote host. The standard DICOM C-FIND query mechanism only uses DIM fields as search criteria to extract information from Dicoogle repository. However, the extended version of developed query mechanism can also use all indexed tags, allowing more detailed and powerful searches. Moreover, it is possible to do a free text search over all indexed document. 3.2. Building a remote access to PACS The DICOM standard communications layer is not frequently used in interinstitutional interaction due to its own limitation. In practice, each hospital is an independent island, unable to establish standard communications with other hospital infrastructures. The integration of medical repositories, i.e. PACS archives like Dicoogle, from different institutions is an ad-hoc process, which has several barriers to surmount in deployment. Moreover, telework based on desktop diagnostic imaging software can be difficult due to restriction in accessing medical repositories outside the institution. In this paper, we present a solution that creates an easy way to establish inter-institutional medical imaging services, namely shared processes and integration of repositories, a solution supported on Cloud computing services. Cloud providers offer a high quality of service, measured in uptime availability and long term scalability. Our solution takes advantage of Cloud services to provide remote search functionalities and exchange of medical images between different locations. However, communication between the components of digital medical laboratories is mainly carried out through DICOM. Nevertheless, Cloud resources are only accessible through web services. Thus, DICOM forwarding services between different sites is not straightforward. The main advantage of the proposed solution is that it runs on top of cloud services and follows the web 2.0 paradigm, i.e. services are available anywhere and anytime through HTTP connections. DICOM protocol runs over TCP/IP protocol and contains its own addressing model through the AETitle that identifies the medical device [23]. Due to network filter restrictions (i.e. firewalls), this communication does not perform well in WAN (Wide Area Network) scenarios. Thus, it is not compatible with the Web 2.0 paradigms and some networks only support HTTP/HTTPS access, filtering the remaining protocols. To extend communication to different institutions, the proposed approach takes advantage of the DICOM addressing mechanism to route the information to the correct location (i.e. AETitle is the DICOM address mechanism). DICOM relay over the cloud [24] uses public Cloud infrastructure as a relay communication mechanism to support information forwarding among the involved entities through these routes. Nonetheless, several Cloud services provide different API (Application Programming Interface), and they are not compatible with each other. Thus, the initial assumption depends on a particular provider. In order to tackle the issue, we developed a middleware to Cloud blobstore (storage - associative memories) and notification systems (asynchronous message-based communication) with a plugin-based mechanism that provides a Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud transparent interface to the Cloud providers. As result, the solution can be used with other cloud service provider, avoiding being locked to any specific seller and avoiding availability problems. DICOM node supporting several services. Finally, the Router communication does not require opening any additional firewall service. It only uses HTTP or HTTPS communication from inside to outside, which is commonly available in institutions. The proposed DICOM relay service has two main goals: grant secure and reliable connection between players and create an easy solution to access internal medical repositories “anytime and anywhere”. Our architecture (Figure 2) contains two main components: DICOM Bridge Router and DICOM Cloud Router, which we will explain in more detail, further on in this section. 3.2.2. DICOM Bridge Router The DICOM Bridge Router (Bridge) works as a relay mechanism between different DICOM Cloud Routers dispersed over several locations. This component works in partnership with the Cloud public providers but it does not store medical data, only having a small cache mechanism to support the forwarding of ciphered data between routers. The vast amount of information that flows in the WAN network is uploaded/downloaded to the Cloud providers. DICOM Bridge Router is an important part of the architecture because it stores information about all devices (i.e. routing tables - AETitles) and corresponding services supported. Moreover, it has accounts from routers and a list of Cloud provider credentials that routers can use to store temporary information, i.e. intransit data. It needs to be always available over the Internet because routers need to write information in the Bridge to support communications. It can be deployed in several places like, for instance, in a private Cloud, detained by a medical institution, or in a public Cloud provider. 3.2.1. DICOM Cloud Router The DICOM Cloud Router (Router) is located inside institutions Intranet and has the main responsibility of handling DICOM services and forwarding messages to the correct remote place. The forwarding of DICOM messages is based on the AETitle that identifies the medical device. Real world objects were mapped directly in the DICOM standard, for instance DICOM equipment is represented as a “Device” in the defined concepts of the standard. The Router supports multiple devices (i.e. as many as are online in the WAN DICOM network), each one with a different AETitle and transfer syntaxes (i.e. data codification supported). Furthermore, each medical institution or isolated DICOM network that wants to share services in the WAN DICOM network needs to run, at least, a Router inside the local network that will be seen as a standard Network management is supported by a temporary information system and the Bridge is accessible through the web service mechanism (RESTful). It provides the credentials to validate authorized routers, AETitle of the 27 28 Red Ibero-NBIC Internet Radiologis t at home HTTP DICOM Bridge Router Cloud providers HTTP HTTP DICOM C-STORE Modalities Router B Router A Hospital A DICOM C-STORE Dicoogle PACS DICOM C-FIND/ C-MOVE DICOM C-STORE Workstations Hospital B DICOM C-FIND/ C-MOVE Workstations Modalities Figure 2: Architecture of the solution: Router in the boundary makes the communication between the DICOM devices and Cloud computing DICOM networks and credentials to access the Cloud provider. Only users registered (an authenticated) in this entity can access the DICOM WAN Network. The Bridge is considered the main component of the architecture because it manages the relay service, storing only a reduced amount of information during the dataflow. Moreover, as we explain later, it stores the session key used to cipher the DICOM messages of an association. So it should be deployed in a trustworthy location to safeguard the proposed architecture. Nevertheless, it is exclusively used as a controller/registry entity and has no contact with query/response messages or transferred images. The institution’s data is securely uploaded/downloaded via public cloud providers, using point-to-point encryption mechanism implemented by two Router entities. 3.3. Service initiation To provide DICOM services across hospitals’ private networks, an initial process is necessary to allow communications between two or more private networks. The router initial steps, performed at startup, are: 1. Validate the Router account credentials; 2. Load the list of LAN DICOM services to share with WAN; 3. Load available services from other private networks (accessible via WAN); 4. Start DICOM services; 5. Subscribe to the Cloud association channel and wait for new associations. In fact, the DICOM relay service only works effectively after account validation, to avoid unauthorized users access to shared resources (step 1). Each working Router needs to be authenticated by the Bridge. The validation of the Router is performed with a username and a password. Once successfully authenticated, it will retrieve a session token that will be used to support network operations, i.e. forward DICOM messages. The token has an associated time-life and messages with expired tokens will be refused. Each Router Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud needs to register (i.e. publish) the services to be shared with other institutions (step 2). This information relating to DICOM services available in the Intranet must be configured by the local PACS manager and stored in the routing table of the local Router. Next, this information is widely spread to other routers via the Bridge. Receiving reference to a new service X, provided by a Router Y, forcing all other Routers to launch this service X on the respective Intranet. In the synchronization process, a Router provides its information to the shared DICOM domain through the Bridge and also receives the list of AETitles and transfer syntaxes of all other routers connected (step 3). This procedure joins the local routing tables with the external tables. Afterwards, the Router identifies the AETitles providing services (i.e. servers), starting to provide all those services to the local network (step 4). The Router runs a DICOM device per AETitle and one single AETitle can support more than one DICOM service, e.g. Storage (i.e. upload of DICOM studies), C-FIND (i.e. search over DICOM repositories) or C-MOVE (i.e. download of DICOM studies). Thus, the Router can be contacted by the same IP-Port address and it will distinguish requests by the destination AETitle (step 5). Subscription is carried out through the notification systems that Cloud providers are offering nowadays. This service allows Routers waiting for new connections from remote institutions to be notified. 4. RESULTS This section presents two use cases that can be achieved with the proposed solution. The first one is a study about extraction of knowledge from DICOM repositories using Dicoogle. The second is a Regional PACS with WAN DICOM communications. 4.1. Knowledge extraction using Dicoogle Dicoogle contains several key features that offer new ways of looking in metadata of images for retrospective assessments. These can be used in statistically oriented management and reporting tasks or wideranging clinical studies requiring, for example, dose metrics. We used a dataset of a small hospital to study the quality of data [25]. For instance, the CR query ([Modality:"CR"]) returns a data sample from 13772 patients (7816 women, 5950 men and 6 records with “PatientSex = O”), which corresponded to 41832 images. Moreover, it is possible to analyse tags with X-Ray exposure parameters, like for instance, “Sensitivity” in Computer Radiology (Figure 3). Figure 3: Sensitivity dispersion for the “C.C. DRT” mammograms performed in 2008. Due to the capability to Dicoogle to index all tags of DICOM metadata, it is possible to measure and search in tags that was not possible in traditional PACS. This statistic studies are fundamental to improve radiology department efficiency and professional practices. 29 30 Red Ibero-NBIC 4.2. Regional PACS We deployed Dicoogle PACS and DICOM Cloud Router in two diagnostic centers. These centers have several acquisition devices with CT, CR and US modalities. There is only one central Dicoogle archive, located in a private datacenter, shared by those institutions. Our bridge is deployed over a private Cloud. DICOM Cloud Router performs the inter-site access to the regional PACS. On the other hand, using those routers, physicians are able to report from several places anytime and anywhere. Table 1 shows the number of images that were stored in PACS in a monthly. Table 1: Number of images stored in October 2012 CR CT US Total 7096 49948 28120 105992 5. Dicoogle with DICOM relay service offers a secure and easy to deploy an inter-institution repository with facilitated access. It does not need complex setups to start communicating with external repositories, allowing interoperability with any DICOM standard device. Besides, the required infrastructure is not excessive because it supports its main resources on the Cloud. Acknowledges The research leading to these results has received funding from Fundação para a Ciência e Tecnologia (FCT) under grant agreement PTDC/EIA-EIA/104428/2008 and SFRH/BD/ 79389/2011. References 1. Costa C, Oliveira JL, Silva A, Ribeiro VG, Ribeiro J: Design, development, exploitation and assessment of a Cardiology Web PACS. Comput Methods Programs Biomed 2009, 93(3):273-282. 2. Prepare for Disasters & Tackle Terabytes When Evaluating Medical Image Archiving. In.: A Frost & Sullivan Healthcare Article. http://www.frost.com.; 2008. 3. Rosenthal A, Mork P, Li MH, Stanford J, Koester D, Reynolds P: Cloud computing: a new business paradigm for biomedical information sharing. J Biomed Inform 2010, 43(2):342-353. 4. Bennett S, Bhuller M, Covington R: Architectural Strategies for Cloud Computing. In.: Oracle White Paper; 2009. 5. Huang HK: PACS and imaging informatics: Basic Principles and Applications, 2nd edn. New Jersey: Wiley & Blackwell, Hoboken; 2010. CONCLUSIONS The presented solution explains how to build a Regional PACS, that can be accessed anytime and anywhere. This approach allows DICOM standard communication between different medical devices located in distinct institutions. The proposed architecture allows the creation of a federate DICOM network located over distinct medical institutions, creating a unique view of all resources. Indeed, other solutions exist, for instance, VPN and email. However, the former mechanism demands bureaucratic setups and time-consuming actions and the latter does not offer any privacy regarding the email provider. Furthermore, access to PACS archives located in remote locations only requires an Internet connection with HTTP access like any other Web 2.0 application. This solution supports DICOM Storage and Query/Retrieve, the most relevant services to interact with medical imaging laboratories. However, in the future, other minor services might be supported by the platform. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud 6. 7. 8. 9. NEMA NEMA-: Digital Imaging and Communications in Medicine (DICOM) - Part 3. In: Information Object Definitions. Hernandez JA, Acuna CJ, de Castro MV, Marcos E, López M, Malpica N: Web-PACS for multicenter clinical trials. Information Technology in Biomedicine, IEEE Transactions on 2007, 11(1):87-93. Yang C, Chen C, Yang M: Implementation of a medical image file accessing system in coallocation data grids. Future Generation Computer Systems 2010. Sharma A, Pan T, Cambazoglu BB, Gurcan M, Kurc T, Saltz J: VirtualPACS--a federating gateway to access remote image data resources over the grid. J Digit Imaging 2009, 22(1):1-10. 10. Liu BJ, Zhou MZ, Documet J: Utilizing data grid architecture for the backup and recovery of clinical image data. Comput Med Imaging Graph 2005, 29(2-3):95-102. 11. Chen C, Wang W: Implementation of a Medical Image File Accessing System on Cloud Computing. In: Computational Science and Engineering (CSE) - 2010; Hong Kong, China. 12. Costa C, Ferreira C, Bastião L, Ribeiro L, Silva A, Oliveira JL: Dicoogle-an open source peer-topeer pacs. Journal of Digital Imaging 2011, 24(5):848-856. 13. Apache SF: Lucene Index Server http://lucene.apache.org. In. 14. Gospodnetic O, Hatcher E: Lucene in Action: Hanning; 2004. 15. dcm4che: sourceforge project: http://sourceforge.net/projects/dcm4 che/. 16. Warnock MJ, Toland C, Evans D, Wallace B, Nagy P: Benefits of Using the DCM4CHE DICOM Archive Journal of Digital Imaging - Springer New York 2007, 20 Supplement 1:125-129. 17. DICOM-P4: Digital Imaging and Communications in Medicine (DICOM), Part 4: Service Class Specifications. In.: National Electrical Manufacturers Association; 2007. 18. DICOM-P3: Digital Imaging and Communications in Medicine (DICOM), Part 3: Information Object Definitions. In.: National Electrical Manufacturers Association; 2007. 19. SUN: JAI ImageIO Project, https://jai-imageio.dev.java.net/. In. 20. Costa C, Freitas F, Pereira M, Silva A, Oliveira JL: Indexing and retrieving DICOM data in disperse and unstructured archives. International Journal of Computer Assisted Radiology and Surgery Springer 2009, 4(1):71-77. 21. Vano E, Martinez D, Fernandez JM, Ordiales JM, Prieto C, Floriano A, Ten JI: Paediatric entrance doses from exposure index in computed 31 32 Red Ibero-NBIC radiography. Phys Med Biol 2008, 53(12):3365-3380. 22. Kallman HE, Halsius E, Olsson M, Stenstrom M: DICOM Metadata repository for technical information in digital medical images. Acta Oncol 2009, 48(2):285-288. 23. DICOM-P7: Digital Imaging and Communications in Medicine (DICOM), Part 7: Message Exchange. In.: National Electrical Manufacturers Association; 2009. 24. Silva LAB, Costa C, Oliveira JL: DICOM relay over the cloud. International Journal of Computer Assisted Radiology and Surgery 2012:1-11. 25. Santos M, Bastião L, Costa C, Silva A, Rocha N: DICOM and Clinical Data Mining in a Small Hospital PACS: A Pilot Study. ENTERprise Information Systems 2011:254-263. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Retos Actuales en el Acceso y la Gestión de la Información Biomédica Diana de la Iglesia Miguel García-Remesal Guillermo de la Calle Depto. Inteligencia Artificial Depto. Inteligencia Artificial Depto. Inteligencia Artificial Facultad de Informática Facultad de Informática Facultad de Informática Universidad Politécnica de Madrid Universidad Politécnica de Madrid Universidad Politécnica de Madrid Madrid, España Madrid, España Madrid, España [email protected] [email protected] [email protected] David Pérez-Rey Ana Freire Víctor Maojo Depto. Inteligencia Artificial Departamento de Tecnologías de la Depto. Inteligencia Artificial Facultad de Informática Información y las Comunicaciones. Facultad de Informática, Universidad Politécnica de Madrid Universidad de A Coruña. Universidad Politécnica de Madrid Madrid, España A Coruña, España Madrid, España [email protected] [email protected] [email protected] 1. INTRODUCCIÓN Las tecnologías emergentes NBIC (Nano-BioInfo-Cogno) ofrecen soluciones innovadoras en el ámbito de la biomedicina mediante la aplicación de nuevos conocimientos de carácter multidisciplinar [1]. Los datos subyacentes a este nuevo conocimiento son numerosos, a veces inconexos, de carácter distribuido y heterogéneo, y plantean nuevos desafíos para su integración con el conocimiento biomédico ya existente. Dicha explosión de datos se ha visto a su vez favorecida por el descenso de precios, tanto en los dispositivos para el almacenaje de datos como en los dispositivos de carácter biomédico. El rápido desarrollo en la cantidad y variedad de datos, unido al alto grado de especialización y multidisciplinaridad existente en las áreas de biología y medicina, demuestra la necesidad de nuevos enfoques que nos permitan tanto recuperar la información deseada como estructurarla e integrarla de manera que se facilite el acceso a la misma. Por esta razón, durante los últimos treinta años, la organización y anotación de datos biomédicos de forma estructurada ha ganado un creciente interés. Aparte de la necesidad de creación de nuevas infraestructuras adaptadas al intercambio y la computación distribuida de los datos y resultados existentes, también es necesario un cambio de mentalidad para promover la utilización de un lenguaje común y estandarizado, así como para dar soporte a la creación de comunidades científicas con objetivos de investigación e intereses comunes. En este sentido, la integración de las Tecnologías de la Información y la Comunicación (TIC) en diversas áreas científicas –como la nanomedicina, la biomedicina y la ciencia cognitiva— juega un rol fundamental, pero se debe afrontar como una iniciativa a largo plazo que presenta numerosos retos aún por resolver. La implantación directa de métodos computacionales en cualquier área científica como, por ejemplo, la biomedicina, no es posible, sino que resulta necesario formar y educar previamente a biólogos, médicos, y personal clínico en el uso de las Tecnologías de la Información. 33 34 Red Ibero-NBIC En el ámbito de la salud, la dificultad de transferir el conocimiento disponible a nivel biológico para su utilización en el contexto clínico –campo denominado “investigación translacional”— es un problema directamente relacionado con la incapacidad de gestionar la información existente. El Grupo de Informática Biomédica de la Universidad Politécnica de Madrid trabaja activamente en temas relacionados con la gestión y la integración de datos, tanto de origen biomédico como nanomédico [2, 3]. En este capítulo se resumirá el trabajo realizado por el grupo durante los últimos años en estos temas, proporcionando una visión global de los retos y dificultades que se han encontrado a la hora de desarrollar estrategias para el acceso y la gestión de la información generada durante la investigación en biomedicina. 2. GESTIÓN DE INFORMACIÓN La complejidad de la información biomédica requiere que, para su análisis, sea necesaria la gestión de datos heterogéneos a gran escala. En este contexto, el valor de cualquier dato es mucho mayor cuando existe una forma de integrarlo con otros datos. Se puede lograr este objetivo mediante el uso de las TIC, disponiendo de la combinación necesaria de tipos de datos y experiencia, encapsulando el conocimiento del dominio –en un recurso software como una base de datos, una ontología, etc.— para posteriormente combinar dicho conocimiento y crear un entorno de análisis de datos ad-hoc. Para este fin, es necesario el uso de estrategias flexibles que permitan interconectar software de diversas fuentes y de carácter muy heterogéneo, facilitando el intercambio de información entre las mismas. En el ámbito de la biomedicina, la existencia de repositorios que integran datos clínicos, genómicos, patológicos, imágenes, etc., supone un reto que se afronta mediante diversas técnicas, herramientas y métodos informáticos, especialmente aquellos desarrollados en el área de la Inteligencia Artificial. Por ejemplo, los modelos de dominio son críticos para la interoperabilidad y el intercambio de datos biomédicos. Un enfoque para la integración es a través de la anotación de múltiples corpus de datos utilizando vocabularios controlados u ontologías. Desafortunadamente, el éxito de este enfoque en el área de la biomedicina ha dado lugar a una proliferación de ontologías, que a su vez supone un obstáculo para la integración de los datos [4]. Iniciativas como el Standards & Interoperability Framework (http://wiki.siframework.org) constituyen importantes esfuerzos para esta modelización de dominios. También es necesario afrontar los problemas derivados del carácter distribuido de la información biomédica. La Web ha supuesto un cambio drástico en nuestra manera de organizar y acceder a la información, pero las carencias existentes en las herramientas software siguen siendo el factor limitante para tener acceso a todo ese conocimiento. El éxito de dicho acceso depende, en muchos casos, de la habilidad de los investigadores a la hora de identificar, extraer, integrar y consultar los diferentes recursos disponibles. Los buscadores Web genéricos nos permiten buscar documentos pero no enlazan de forma directa con la estructura y el contenido de bases de datos ni nos proporcionan el soporte necesario para tomar determinadas decisiones durante nuestras búsquedas. En cuanto al acceso a publicaciones científicas –fuente principal de información para la investigación—, los registros bibliográficos – como PubMed o ISI Web of Knowledge— están proporcionando, a través de sus sitios web, nuevas herramientas que facilitan el acceso electrónico a los textos completos, incluyendo gráficos y figuras, así como a los vínculos entre las publicaciones y repositorios de datos o de materiales complementarios, aumentando considerablemente la cantidad de información disponible. A este hecho hay que añadir que, gracias a la expansión de la Web durante los últimos años, hemos de considerar como datos potencialmente relevantes aquellos generados durante la investigación –recogidos Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud en publicaciones y otros medios científicos—, pero también otro tipo de información o datos “ortogonales” como, por ejemplo, aquellos publicados en redes sociales, generados durante las búsquedas en Internet, etc. Desafortunadamente, en muchos casos, a pesar de que los datos existen, no están disponibles. Cabe citar la creación, en 2003, del movimiento “open access”, que fomenta la implantación de un nuevo modelo de publicación científica de "acceso libre", como así se recoge en el Bethesda Statement on Open Access Publishing (http://www.earlham.edu/~peters/fos/bethesda. htm) y en la Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities (http://oa.mpg.de/lang/enuk/berlin-prozess/berliner-erklarung/). Aunque algunos editores se han resistido a aplicar los principios del acceso libre, muchos otros han respondido aumentando el acceso a los archivos y el desarrollo de servicios relacionados con búsquedas bibliográficas [5]. 2.1 Información estructurada: bases de datos y repositorios Cada día es mayor el número de estudios de investigación cuyos resultados son registrados de forma electrónica en repositorios o bases de datos, especialmente en el ámbito de la biología molecular. Estas bases de datos reúnen, de forma estructurada, información de distintos tipos proveniente de distintas fuentes, y suelen ser accesibles a través de la Web. Debido a los requisitos existentes en cuanto a logística, regulaciones y análisis de datos, no siempre es posible acceder y gestionar esta información de forma centralizada. Por ejemplo, los datos pueden pertenecer a pacientes de múltiples instituciones o, incluso, dentro de una misma institución, los datos pueden ser analizados por diferentes laboratorios, por razones de instrumentación. En la actualidad, se emplean enfoques híbridos para facilitar la gestión y el análisis de datos distribuidos [6]. El reto actual en la gestión de información estructurada es la integración de las diversas fuentes de datos existentes, las cuales presentan formatos, interfaces y tipos de datos muy variados. El problema de la heterogeneidad en las bases de datos se aplica por igual a datos clínicos, que describen pacientes, y a datos biológicos, que caracterizan nuestro genoma. Las bases de datos suelen ser heterogéneas con respecto a los modelos y esquemas de datos empleados, los lenguajes de consulta que soportan y las terminologías que reconocen. Los sistemas de bases de datos heterogéneas intentar unificar bases de datos dispares, proporcionando esquemas conceptuales uniformes –que resuelven las heterogeneidades en la representación— y servicios de consulta sobre los datos integrados. La investigación en esta área aplica una amplia variedad de técnicas de gestión de bases de datos y de conocimiento, incluyendo el modelado semántico, la creación de ontologías, la traducción y optimización de consultas, y la asignación de correspondencias entre terminologías. En la actualidad, los sistemas de integración de bases de datos heterogéneas se aplican en ámbitos como la biología molecular, los sistemas de información hospitalarios y la portabilidad de aplicaciones biomédicas. 2.2 Información no estructurada: texto libre Sólo pequeñas partes del conocimiento biomédico son accesibles de forma estructurada, es decir, a través de bases de datos y otros repositorios con formato definido. Por lo general, la información que contienen estas bases de datos ha sido extraída manualmente de documentos y, de la misma forma, se ha insertado y organizado en bases de datos gracias al trabajo de expertos en el área. Sin embargo, la gran mayoría de los conocimientos biomédicos publicados en la literatura, no se encuentran disponibles en dichas bases de datos biomédicas. 35 36 Red Ibero-NBIC Dado el gran volumen de datos generados durante la investigación que son publicados en revistas y otros medios científicos, la anotación manual de la literatura no es posible. Las técnicas de procesamiento de lenguaje natural permiten la adquisición y extracción automática de conocimiento a partir de datos biomédicos, así como el procesamiento y estructuración de textos para convertir la información contenida en ellos en datos interpretables computacionalmente. En relación con la extracción de información de corpus textuales, al contrario que en los enfoques clásicos –en los cuales se usan sistemas basados en reglas o enfoques puramente estadísticos [7]— en la actualidad existe una tendencia hacia la utilización de enfoques híbridos, combinando así la detección de patrones textuales con el uso de técnicas de aprendizaje automático [8, 9]. Estos enfoques híbridos proporcionan una mayor eficiencia (en términos de precisión y cobertura) que la proporcionada por la aplicación de los métodos simples. En relación con las técnicas de aprendizaje automático más utilizadas, se tiende a usar un enfoque semi-supervisado, en contraposición a los métodos de aprendizaje automático supervisado que se han utilizado previamente. Los nuevos enfoques que se están desarrollando para minería de textos biomédicos dependen, en su mayoría, de la existencia de un corpus previamente anotado [10] (Figura 1). Dicho corpus, comúnmente llamado “estándar de oro”, es la base para el aprendizaje de patrones o modelos durante la fase de entrenamiento, así como para evaluar y comparar el rendimiento de los algoritmos desarrollados. Figura 1 - Anotación de textos biomédicos según el rol del anotador Además de los objetivos de carácter general presentados anteriormente, el procesamiento de lenguaje natural en el ámbito biomédico puede tener muy diversas aplicaciones, como por ejemplo: Extracción de información de la historia clínica electrónica de pacientes en la que, por lo general, parte de los datos están en forma narrativa no estructurada (en vez de organizados en campos) Resumen de textos y artículos de forma automática Traducción de textos biomédicos automáticamente Selección/reclutamiento de pacientes para ensayos clínicos Etc. Durante años se han desarrollado técnicas para el procesamiento del lenguaje natural con el objetivo de recuperar y extraer dicha información textual de forma automática. Sin embargo, las estrategias y sistemas desarrollados para tal efecto aún no han cumplido sus objetivos de precisión. La principal fuente de dificultades en el procesamiento del lenguaje natural proviene de la ambigüedad [11]: existen múltiples interpretaciones de las estructuras del lenguaje y, por tanto, la necesidad de gestionar la variabilidad en las expresiones lingüísticas. En el ámbito biomédico, además, surgen otros problemas como la ambigüedad de los acrónimos y las abreviaturas. En particular, en el dominio de la biología molecular se Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud presentan ejemplos muy específicos de este tipo de problema a la hora de representar genes, ya que un solo identificador puede referirse a más de un gen, tanto dentro de la misma especie como en organismos dispares [12]. Por otra parte, en el contexto de la biomedicina se pueden diferenciar dos ámbitos: el clínico (ciencia aplicada) y el biológico (ciencia experimental). Como hemos visto anteriormente, el dominio de la biología se caracteriza por la disponibilidad de grandes cantidades de datos bien definidos y estructurados que se pueden utilizar, casi sin restricción, como entradas para la ejecución de métodos computacionales y algoritmos. En el ámbito clínico, en cambio, solo está disponible una cantidad limitada de datos para fines de investigación, y éstos generalmente se recogen en descripciones textuales en lenguaje natural. Esta diferenciación también influye en las características sintácticas y semánticas de los textos que describen ambos dominios. Mientras que los textos clínicos están dominados por la presencia de sustantivos –dada su naturaleza descriptiva, en la que abundan numerosos conceptos y definiciones—, en los textos de carácter biológico es habitual que predominen los verbos –debido a que, por lo general, se describen acciones (procesos celulares, reacciones metabólicas, etc.). Los objetivos a la hora de extraer información también son distintos en ambos dominios. Por ejemplo, en los textos clínicos, existe una creciente motivación por detectar referencias temporales y eventos [13]. La mayor parte de los textos clínicos en lenguaje natural suelen contener referencias a pasado, presente y futuro, relacionadas con eventos que se describen en el propio texto y que es necesario diferenciar. Una de las estrategias seguidas en la actualidad es la de detectar la fecha de creación del documento que se somete a análisis y establecer así el tiempo exacto de cada uno de los eventos que aparecen descritos en el documento. De esta manera, se pueden cuantificar y ordenar en el tiempo los distintos hechos y eventos. En relación con el análisis y la anotación de corpus textuales de documentos clínicos, el Grupo de Informática Biomédica ha desarrollado una nueva herramienta, CDAPubMed [14], que facilita la construcción de consultas durante el proceso de recuperación de la literatura científica relacionada con historia clínica electrónica (Electronic Health Records o EHRs). El objetivo de esta herramienta es utilizar el contenido de los EHRs para proporcionar información adicional, mejorando y personalizando las búsquedas en la literatura biomédica. De esta manera, CDAPubMed puede ayudar a médicos, investigadores y otros usuarios a recuperar las publicaciones centradas en sus pacientes. Cuando un usuario realiza una búsqueda de un EHR y una enfermedad, la herramienta propone una serie de palabras clave como filtro de los resultados (Figura 2). Para lograr este objetivo, CDAPubMed ejecuta dos tareas principales: (i) el análisis automático del EHR para identificar los términos relevantes para la posterior recuperación de la literatura, y (ii) la generación de consultas para facilitar la recuperación de las publicaciones relacionadas con el EHR. CDAPubMed es accesible públicamente a través de Internet (http://porter.dia.fi.upm.es/cdapubmed/). Figura 2 – Interfaz de la herramienta CDAPubMed [14] 37 38 Red Ibero-NBIC inventario de recursos de Informática Médica eMIR2 [17], disponible en: http://edelman.dia.fi.upm.es/eMIR2/i ndex.php. Estos repositorios se crean y actualizan, a partir del análisis de la literatura científica existente en el área, mediante la aplicación de técnicas de minería de textos y de procesamiento de lenguaje natural. Dichas técnicas permiten extraer la información deseada de forma semiautomática. 3. REPOSITORIOS DE HERRAMIENTAS Y OTROS RECURSOS Al igual que ocurre con los datos, el acceso a herramientas informáticas de apoyo a la investigación biomédica y nanomédica también es limitado. Generalmente existe más de una herramienta adecuada para llevar a cabo una tarea de investigación concreta. Sin embargo, en algunos casos, los investigadores desconocen la existencia de estas herramientas, lo cual impide que puedan beneficiarse de su uso. La búsqueda manual de un tipo concreto de herramienta es una ardua tarea en la que, por lo general, es necesario emplear una gran cantidad tiempo. Estos recursos son accesibles en su mayoría a través de la Web. Navegar por Internet no requiere un conocimiento especializado en informática ni en los lenguajes utilizados para hacer consultas pero, generalmente, los investigadores solo encuentran datos de interés cuando acceden a una gran cantidad de sitios Web, interactuando con diversas interfaces para extraer los diferentes tipos de datos y poder proceder a su análisis. Por tanto, cada vez es más necesario mantener un registro que permita localizar todos los datos y herramientas existentes de una manera rápida y eficaz. Otros índices e inventarios de recursos biomédicos como, por ejemplo, iTools (http://cms.loni.ucla.edu/iTools/index .aspx), BioCatalogue (http://www.biocatalogue.org/) y el índice del European Bioinformatics Institute (http://www.ebi.ac.uk/). Para proporcionar acceso al catálogo de recursos se ha desarrollado una aplicación web que permite realizar búsquedas inteligentes basadas en la funcionalidad de los recursos, la categoría o el dominio de aplicación de los mismos, mediante una interfaz de uso intuitivo. Dentro del marco del proyecto europeo INBIOMEDvision (FP7-ICT-270107), el Grupo de Informática Biomédica ha desarrollado un catálogo de recursos de genotipo-fenotipo, accesible públicamente vía Internet (http://www.inbiomedvision.eu/phen-gen.html). Para la creación de dicho catálogo, se han consultado e integrado distintas fuentes de información (Figura 3): Literatura científica publicada en el área durante los últimos 5 años (2007-2011). Informes científicos de los distintos eventos celebrados en el marco del proyecto INBIOMEDvision [15]. El inventario de recursos bioinformáticos BIRI [16], disponible en http://www.gib.fi.upm.es/biri/, y el Figura 3 – Resumen del proceso de generación del catálogo de recursos del proyecto INBIOMEDvision a partir de diversas fuentes Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud 4. TÉCNOLOGÍAS PARA EL INTERCAMBIO DE INFORMACIÓN La gestión, descripción y publicación de datos biomédicos requiere, de manera cada vez más urgente, el desarrollo de estrategias para el intercambio de información entre distintos individuos, instituciones y puntos geográficos. En este contexto cabe destacar el rol actual de redes sociales, herramientas web, foros, wikis, entornos colaborativos y, en general, de las tecnologías Web 2.0, a la hora de facilitar la comunicación entre investigadores –tanto a nivel individual como de grupo—, proporcionando un marco común para el desarrollo de trabajos de investigación cooperativos [18, 19]. En la actualidad, se están desarrollando diversas iniciativas en este sentido como, por ejemplo, el entorno colaborativo WikiGenes [20], la plataforma de intercambio y desarrollo comunitario de recursos i2b2 [21] y la librería digital ArXiv [22]. También ha proliferado el uso de blogs y redes sociales –como Twitter [23] o LinkedIn— enfocadas al debate y a la divulgación científica. Existen, a su vez, numerosas plataformas para el intercambio de documentos entre investigadores, como es el caso de la plataforma ResearchGate (http://www.researchgate.net/). Esta red social está principalmente orientada a la difusión de publicaciones científicas, las cuales son proporcionadas por los propios autores a través de un entorno web de carácter colaborativo. Como ya se mencionaba en la introducción de este capítulo, otro de los puntos clave para el intercambio de datos científicos entre distintas instituciones y grupos de investigación es el desarrollo y uso de estándares. Los estándares y procedimientos para gestión de datos facilitan significativamente la utilización eficiente de las bases de datos disponibles y, a su vez, sirven como mecanismo de evaluación de las necesidades existentes, por parte de los investigadores, de datos y modelos, así como de herramientas de almacenaje e intercambio. En las distintas áreas que se pueden enmarcar dentro de las tecnologías convergentes NBIC – informática médica, Bioinformática, neuroinformática, nanoinformática, etc.— no se da una carencia en el propio desarrollo de estándares. Al contrario, en el ámbito biomédico existen numerosas terminologías y vocabularios con el objetivo de normalizar y estandarizar los datos, procesos y resultados utilizados y generados durante la investigación sobre: historia clínica –Health Level Seven (HL7) [24], RxNorm [25]—, investigación médica experimental –LOINC [26]—, enfermedades –SNOMED RT [27] o ICD (http://www.who.int/classifications/icd/en)—, procesos a nivel celular –SBML [28]—, imagen médica –DICOM [29]—, etc. Sin embargo, también se observa una clara tendencia a la generación de nuevos estándares o tipos de datos sin tener en cuenta los ya existentes. Es decir, los investigadores suelen diseñar sus propias terminologías, formatos, etc. en vez de analizar y reutilizar los que han sido previamente desarrollados por otros investigadores. Por otra parte, se dan problemas en la normalización de datos: los bioinformáticos aplican procesos de normalización mediante la conversión de medidas y unidades de tal forma que, en ocasiones, se pierde información. Resulta obvio pensar que la estandarización global de los datos y sistemas disponibles en biomedicina, basada en el consenso de todos las partes interesadas (industria, academia, usuarios finales, etc.), constituye el requisito principal para alcanzar la interoperabilidad de dichos datos y sistemas. 5. CONCLUSIONES Gracias a los recientes avances en genómica, farmacogenómica y biología de sistemas, hoy en día se generan grandes cantidades de datos genotípicos y fenotípicos provenientes de individuos de todo el mundo. La creación de 39 40 Red Ibero-NBIC nuevos modelos de análisis, minería y gestión de datos biomédicos, facilitada por la constante evolución de las Tecnologías de la Información, ha fomentado el desarrollo de la medicina predictiva, preventiva y personalizada. El objetivo final es implicar a los pacientes en la gestión de su propia información [30]. Sin embargo, y a pesar de los continuos esfuerzos que se han realizado durante los últimos años para mejorar la transparencia en la publicación de datos médicos y biológicos, aún existe un alto porcentaje de información y un gran número de herramientas que no son de acceso público. Esto, a su vez, afecta a la reproducibilidad de los datos ya publicados, impidiendo que los investigadores puedan tanto validar como utilizar los resultados de experimentos previos. En la actualidad, existen algunas iniciativas – como las citadas en este capítulo— que están favoreciendo la difusión de conjuntos de datos biomédicos y herramientas computacionales bajo una licencia de código libre, así como de metodologías y técnicas informáticas y herramientas educativas. Fomentar este tipo de estrategias es la única forma de aprovechar todo el potencial que reside en los datos biomédicos de los que disponemos en la actualidad. 6. AGRADECIMIENTOS El trabajo de los autores en este área de investigación ha sido financiado parcialmente por la Comisión Europea a través de los proyectos ACTION-Grid (FP7-224176) e INBIOMEDvision (FP7–270107), por el Ministerio de Economía y Competitividad de España a través de los proyectos FIS/AES (PS09/00069), RETICS COMBIOMED (RD07/0067/0006), Ibero-NBIC CYTED (209RT0366), Ministerio de Ciencia e Innovación (Proyecto TIN2009-14203), por el Consejo Social de la Universidad Politécnica de Madrid y por la Comunidad de Madrid. 7. REFERENCIAS [1] Martin-Sanchez, F. y Maojo, V. 2009. Biomedical informatics and the convergence of Nano-Bio-Info-Cogno (NBIC) technologies. Yearb Med Inform. (2009), 134-42. [2] Maojo, V., Fritts, M., de la Iglesia, D., Cachau, R.E., Garcia-Remesal, M., Mitchell, J.A. y Kulikowski, C. 2012. Nanoinformatics: a new area of research in nanomedicine. Int J Nanomedicine. 7 (24 julio2012), 3867-90. [3] Maojo V., Martín-Sánchez F. et al. 2010. The ACTION-Grid White Paper: Linking Biomedical Informatics, Grid Computing and Nanomedicine. ACTION-Grid Consortium (aprobado por la Comisión Europea). http://www.actiongrid.eu/index.php?url=whitepaper. [4] Maojo V., Crespo J., García-Remesal M., de la Iglesia D., Pérez-Rey D. and Kulikowski C. 2011. Biomedical ontologies: toward scientific debate. Methods Inf Med. 50, 3 (21 Marzo 2011), 203-16. [5] Davis, P.M. y Walters, W.H. 2011. The impact of free access to the scientific literature: a review of recent research. J Med Libr Assoc. 99(3) (Julio 2011), 20817. [6] Bellazzi, R., Diomidous, M., Sarkar, I.N., Takabayashi, K., Ziegler, A. y McCray, A.T. 2011. Data analysis and data mining: current issues in biomedical informatics. Methods Inf Med. 50(6), 536-44. [7] Glaab, E., Bacardit, J., Garibaldi, J.M. y Krasnogor, N. 2012. Using rule-based machine learning for candidate disease gene prioritization and sample classification of cancer gene expression data. PLoS One. 7(7), e39932. [8] Cohen, K.B. y Hunter , L. Natural language processing and systems biology. 2004. In: Dubitzky W, Azuaje F, editors. Artificial Intelligence Methods and Tools for Systems Biology. Norwell, MA: Springer; 2004, 147–173. [9] Mitchell, J.B. 2004. Informatics, machine learning and computational medicinal Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud chemistry. Future Med Chem. 3(4) (marzo 2011), 451-67. [10] Neves, M. y Leser, U. 2012. A survey on annotation tools for the biomedical literature. Brief Bioinform. (18 diciembre 2012). [En prensa]. [11] Stevenson, M. y Guo, Y. 2010. Disambiguation in the biomedical domain: the role of ambiguity type. J Biomed Inform. 43(6) (diciembre 2010), 972-81. [12] Hirschman, L., Yeh, A., Blaschke, C. y Valencia, A. 2005. Overview of BioCreAtIvE: critical assessment of nformation extraction for biology. BMC Bioinformatics. 6(Suppl 1) (24 mayo 2005),S1. [13] Miwa, M., Thompson, P., McNaught, J., Kell, D.B. y Ananiadou, S. 2012. BMC Bioinformatics. 2012;13: 108. [14] Perez-Rey, D., Jimenez-Castellanos, A., Garcia-Remesal, M., Crespo, J. y Maojo, V. 2012. CDAPubMed: a browser extension to retrieve EHR-based biomedical literature. BMC Med Inform Decis Mak. 12 (5 abril 2012), 29. [15] Shublaq, N. 2012. Strategic Report on Genotype-Phenotype Resources in the European Union. Bruselas , 5 octubre 2011. Disponible en: http://www.inbiomedvision.eu/PDF/Repor t-GenotypePhenotype-FINAL.pdf [16] de la Calle, G., García-Remesal, M., Chiesa, S., de la Iglesia, D. y Maojo, V. 2009. BIRI: a new approach for automatically discovering and indexing available public bioinformatics resources from the literature. BMC Bioinformatics. 10 (7 octubre 2009), 320. [17] de la Calle, G., García-Remesal, M., Nkumu-Mbomio, N., Kulikowski, C. y Maojo, V. 2012. e-MIR2: a public online inventory of medical informatics resources. BMC Med Inform Decis Mak.12 (2 agosto 2012), 82. [18] Costa, F.F. 2012. Social networks, webbased tools and diseases: implications for biomedical research. Drug Discov Today. (24 octubre 2012). [En prensa]. [19] Kohane, I.S. y Altman, R.A. 2005. Healthinformation altruists – a potentially critical resource. New Engl J Med. 353 (2005), 2074-7. [20] Hoffmann, R. 2008. A wiki for the life sciences where authorship matters. Nat Genet. 40 (9) (Septiembre 2008),1047-51. [21] Butte, A.J., Kohane, I.S. 2006. Creation and implications of a phenome-genome network. Nature Biotechnology. 24 (1), 55-62. [22] Ginsparg, P. 2011. ArXiv at 20. Nature. 476(7359) (10 de agosto 2011), 145-7. [23] Diep, F. 2011. Parsing the Twitterverse. Scientific American Magazine (Agosto 2011). Disponible en: https://www.scientificamerican.com/article .cfm?id=parsing-the-twitterverse. [24] Dolin, R.H., Alschuler, L., Beebe, C., Biron, P.V., Boyer, S.L., Essin, D., Kimber, E., Lincoln, T., Mattison, J.E. 2001. The HL7 Clinical Document Architecture. J Am Med Inform Assoc. 8(6) (Noviembre-Diciembre 2001), 55269. [25] Bennett, C.C. 2012. Utilizing RxNorm to support practical computing applications: capturing medication history in live electronic health records. J Biomed Inform. 45(4) (agosto 2012), 634-41. [26] McDonald, C.J., Huff, S.M., Suico, J.G., Hill, G., Leavelle, D., Aller, R., Forrey, A., Mercer, K., DeMoor, G., Hook, J., Williams, W., Case, J. y Maloney, P. 2003. LOINC, a universal standard for identifying laboratory observations: a 5year update. Clin Chem. 49(4) (Abril 2003), 624-33. 41 42 Red Ibero-NBIC [27] Spackman, K.A., Campbell, K.E. y Côté, R.A. 1997. SNOMED RT: a reference terminology for health care. Proc AMIA Annu Fall Symp., 640-4. [29] Mildenberger, P., Eichelberg, M. y Martin, E. 2002. Introduction to the DICOM standard. Eur Radiol. 12(4) (abril 2002), 920-7. [28] Hucka, M., Finney, A., Sauro, H.M., Bolouri, H., Doyle, J.C., Kitano, H. et al. 2003. The systems biology markup language (SBML): a medium for representation and exchange of biochemical network models. Bioinformatics. 19(4) (1 marzo 2003), 524-31. [30] Sarradon-Eck A, Mancini J, Genre D, Sakoyan J, Desclaux A, Julian-Reynier C. How to share results of clinical trials with study participants?. Med Sci (Paris), Spec No 1. 28 marzo 2012), 33-6. Líneas estratégicas de las 43 Tecnologías de la Información y las Comunicaciones en Salud Sistema de Información basado en Imagen en un Servicio de Hemodinámica Francisco J. Nóvoa Lola Traba IMEDIR Research Center. Campus Elvina S/N Edificio Serv. Centrales de Investigación University of A Coruna 034-981-167000-2669 IMEDIR Research Center. Campus Elvina S/N Edificio Serv. Centrales de Investigación University of A Coruna 034-981-167000-2669 [email protected] [email protected] Marcos Martinez-Romero IMEDIR Research Center. Campus Elvina S/N Edificio Serv. Centrales de Investigación University of A Coruna 034-981-167000-2667 [email protected] ABSTRACT Las patologías asociadas al corazón constituyen uno de los mayores problemas de salud en el mundo occidental. De entre ellas, la oclusión coronaria es una de las enfermedades de mayor relevancia, debido a su índice de mortalidad y morbilidad. Ante síntomas evidentes de problemas cardiovasculares, la técnica de diagnóstico más utilizada es la angiografía. Dicho estudio permite al clínico observar el flujo sanguíneo en las arterias coronarias, detectando los estrechamientos acusados o “estenosis”. En función de la severidad, extensión y ubicación de las estenosis, el clínico realiza el diagnóstico del paciente, define un tratamiento y establece el pronóstico de la enfermedad. En muchos casos, los clínicos observan las secuencias de imágenes y, en función de su conocimiento empírico, toman las decisiones oportunas. La implantación de la radiología digital, la información asociada a los pacientes, el creciente número de estudios de imagen que se realizan y la necesidad de disponer de un acceso rápido y eficaz a esta información de forma ubicua, ha puesto de manifiesto la importancia de los sistemas de información en este ámbito clínico. En este trabajo, se presenta un sistema de información de apoyo a la toma de decisión clínica de cardiopatías basado en estudios de angiografía. El sistema desarrollado proporciona varias herramientas de adquisición, almacenamiento y acceso remoto a los estudios angiográficos, la posibilidad de realizar una o varias segmentaciones de los vasos coronarios desde las diferentes perspectivas de las imágenes digitales, y la posibilidad de construcción de un modelo arterial artificial que permite cuantificar la información angiográfica, permitiendo de este modo el establecimiento de un diagnóstico y una prognosis más precisos. La principal innovación que aporta este trabajo es proporcionar al clínico un marcador (“score”) que no está basado en la experiencia del especialista, ya que a partir de la información cuantitativa extraída de las angiografías. Categorías y Descriptores de Materia I.4.6 [Procesamiento de Imágenes y Visión Artificial]: Segmentación – Detección de bordes y funciones, y Crecimiento de Regiones. 44 Red Ibero-NBIC J.3 [Aplicaciones de Computadora]: Ciencias de la Vida y Médicas – Sistemas de Información Médica Términos Generales I.4.6 [Procesamiento de Imágenes y Visión Artificial]: Segmentación – Detección de bordes y funciones, y Crecimiento de Regiones. J.3 [Aplicaciones de Computadora]: Ciencias de la Vida y Médicas – Sistemas de Información Médica Palabras Clave Sistema de Información, segmentación, angiografía estenosis, marcador, pronóstico 1. DICOM, coronaria, INTRODUCCIÓN Las patologías asociadas al corazón constituyen uno de los mayores problemas de salud en el mundo occidental. De entre ellas, las enfermedades cardiovasculares, entre las que se encuentra la oclusión coronaria severa, son las de mayor relevancia debido a que representan el 53% del total de las enfermedades cardíacas, presentan un alto índice de mortalidad (1 de cada 5 muertes producidas por enfermedad) y morbilidad elevados, según un estudio realizado, por T. Thom en EE.UU. en el año 2003 [14]. La observación de estas arterias es de vital importancia en la elaboración del diagnóstico de estas enfermedades. Para ello, se realizan estudios que permiten al clínico observar el flujo sanguíneo en las arterias coronarias, detectando las estenosis. En función de la severidad, extensión y ubicación de los estrechamientos, el clínico realiza el diagnóstico del paciente, define un tratamiento y establece el pronóstico de la enfermedad [12]. En la actualidad, la técnica de diagnóstico más implantada en este momento y la que se utiliza ante síntomas evidentes de problemas cardiovasculares es la angiografía obtenida mediante cateterismo. Una angiografía es un procedimiento en el que se utiliza un contraste y rayos X para observar como fluye la sangre por las arterias y, en el caso de la angiografía coronaria, las arterias que irrigan el corazón. Habitualmente, la angiografía coronaria se efectúa conjuntamente con un cateterismo cardíaco [7]. Este procedimiento se realiza para obtener información diagnóstica sobre el corazón o los vasos sanguíneos, o para brindar tratamiento en ciertos tipos de enfermedades cardíacas [7]. El cateterismo cardíaco se puede para examinar las arterias por medio de una técnica de rayos X llamada fluoroscopia. La fluoroscopia permite la visualización inmediata ("en tiempo real") de las imágenes de rayos X en una pantalla y suministra un registro permanente del procedimiento. El resultado es una secuencia de imágenes radiográficas del corazón, obtenidas desde diferentes proyecciones. Dicho estudio permite que el clínico observe el flujo sanguíneo en las arterias coronarias, detectando los estrechamientos acusados existentes en las mismas o estenosis. Cada episodio proporciona como resultado un estudio angiográfico [12]. En los sistemas angiográficos modernos se utiliza como soporte único la imagen digital. Las imágenes pueden ser examinadas en tiempo real y almacenadas en un CD-ROM o en una base de datos usando el protocolo DICOM. Típicamente, lo que se obtienen son secuencias de imágenes con una resolución de 512 x 512 píxeles y 256 niveles de gris, a razón de 12,5 imágenes por segundo. Además, existe la posibilidad de almacenar información adicional acerca de las condiciones de la exposición (ángulo de la toma, tipo de contraste, etc.), del paciente (nombre, edad, peso, etc.) y sobre los resultados de la prueba, todo de forma conjunta con la secuencia de la angiografía. El nuevo estándar DICOM incluye la posibilidad de almacenar imágenes a una resolución de 1024x1024 píxeles con 12 bits de niveles de gris, lo que aumenta Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud notablemente la resolución a la que se pueden almacenar las imágenes [3]. Las unidades hospitalarias que tratan este tipo de enfermedades son las unidades de cardiología intervencionista. El Complejo Hospitalario Universitario de A Coruña (CHUAC) es el hospital público más importante de la ciudad de A Coruña, siendo el centro de referencia para un área geográfica en la que viven alrededor de 500.000 habitantes. Su Unidad de Cardiología Intervencionista realiza una media de 3.000 cateterismos anuales [11] por lo que es un entorno ideal para instalar el sistema de información desarrollado en este trabajo. 1.1 Descripción del proceso de intervención Un paciente es enviado a la Unidad de Cardiología Intervencionista para que su árbol coronario sea estudiado (y en muchos casos también tratado) o bien por un cardiólogo o bien por el Servicio de Urgencias. En ambos casos la Historia Clínica del paciente se encuentra almacenada en el Sistema de Información Hospitalaria (HIS). Antes de realizar la intervención, el médico genera la información referente a los datos del paciente que se va almacenar en el estudio angiográfico DICOM, a partir de datos extraídos automáticamente del HIS. Para cada intervención o cateterismo se genera un código único, denominado “Número de Cateterismo” que identificar de forma inequívoca dicho estudio. Además, el estudio queda vinculado al Número de Historia Clínica del paciente en el HIS. A continuación, selecciona el catéter que será utilizado para introducir el contraste en las arterias coronarias. Existen múltiples tipos y fabricantes de catéteres que, por lo tanto, presentan diferentes propiedades. Sin embargo, para el sistema de información solamente es necesario conocer el tipo de catéter según la “escala francesa” (French Scale), que determina el diámetro de dicho catéter. Es relevante conocer esta característica y almacenarla en el sistema de información, puesto que se utiliza en el proceso de calibrado de la imagen, debido a que el catéter es el único elemento físico del que se conocen sus dimensiones “a priori”. Ya en el quirófano, y una vez colocado insertado el catéter, el médico introduce el contraste y realiza una secuencia de radiografías a una velocidad constante, que oscila entre de 12,5 y los 25 fotogramas por segundo según el dispositivo de adquisición, lo que permite en la práctica verlas de forma continua en formato vídeo. Con el fin de visualizar completamente el árbol coronario, estas secuencias se toman desde diferentes proyecciones o ángulos. Mientras se efectúan estas radiografías el médico las observa, pudiendo apreciar el flujo sanguíneo a través de las arterias, lo que le permite tomar decisiones instantáneas, basadas en sus conocimientos y experiencia. Cuando ha finalizado la intervención, todo el estudio es almacenado en un CD y guardado en un archivo (armario físico), quedando a disposición del servicio para ser consultado de nuevo en casos complejos o para realizar labores de seguimiento del enfermo. Tal y como se ha comentado anteriormente, la mayor parte de los dispositivos de generación de angiografías actuales implementan el estándar DICOM 3, (Storage SCU), con lo que poseen la capacidad de enviar estos estudios a un servidor de almacenamiento DICOM (Storage SCP). Por facilitar la práctica diaria de los clínicos, cualquier sistema de información de imagen debe adquirir los estudios directamente desde los dispositivos de angiografía, eliminando la necesidad de almacenarlos en CD. 45 46 Red Ibero-NBIC 2. ESTADO DEL ARTE El pronóstico de la enfermedad coronaria depende en gran medida de la severidad y de la afectación arterial coronaria. La angiografía coronaria constituye, junto con la determinación de la función ventricular izquierda, el factor de predicción más potente para realizar el pronóstico a largo plazo en pacientes con enfermedades coronarias. A finales de los 70, se realizaron una serie de estudios para comparar el tratamiento farmacológico con la revascularización quirúrgica [6,8,13], que utilizaban como criterio para establecer el pronóstico del paciente el número de vasos y la porción de estos que estaba afectada por estenosis. Estos estudios aportaron una excelente información acerca del valor pronóstico de la extensión de la enfermedad coronaria, estableciendo el número de vasos enfermos como uno de los factores clave para decidir el pronóstico a largo plazo y por lo tanto decidir que tratamiento aplicar al paciente. La clasificación de los pacientes con enfermedad coronaria según el número de vasos afectados es útil en la práctica clínica, pero no refleja fielmente la cantidad de miocardio isquémico. Así, un paciente con enfermedad de 3 vasos puede presentar las estenosis en las porciones distales mientras que otro puede tener afectadas las porciones proximales y en ambos casos la cantidad de miocardio en riesgo es muy distinta aunque los dos presenten enfermedad de tres vasos. Tampoco tiene el mismo significado una estenosis en una arteria muy grande que en otra poco desarrollada; por ejemplo, una estenosis en la arteria coronaria derecha afecta a distinta proporción de miocardio si la arteria es dominante que si no lo es. Se conoce bien que la severidad y localización de las estenosis son marcadores pronósticos, asociándose a una peor supervivencia las estenosis más severas y localizadas en las porciones proximales de las arterias coronarias [1]; es decir, a mayor cantidad de miocardio en riesgo, peor pronóstico. Se han propuesto sistemas de puntuación de riesgo que valoran la localización de las estenosis, puntuándose más las estenosis localizadas proximalmente en un intento de discriminar mejor el riesgo que con la clasificación basada en el número de vasos. Se observó que el sistema de puntuación ofrecía más información sobre el pronóstico en comparación con el número de vasos enfermos [2]. Este sistema de puntuación, aunque más refinado, adolece de las mismas limitaciones que la clasificación basada en el número de vasos afectados, ya que el desarrollo de las arterias y sus ramas es diferente en cada paciente. Sin embargo, este es el método de valoración más extendido y el utilizado en el hospital de referencia, por no existir otro método más adecuado. El sistema ideal sería aquel que pudiera determinar que proporción del árbol coronario (porcentaje coronario “en riesgo”) se encuentra distal a las estenosis hemodinámicamente significativas (>70 %). Consistiría en medir el volumen total del árbol coronario y después el volumen distal a las estenosis severas, incluyéndose de este modo en el análisis el desarrollo de cada arteria o cada rama y consiguiéndose un valor directamente relacionado con el tejido miocárdico que se verá afectado y con la consiguiente afectación cardiaca. El sistema de información que se obtiene como resultado de la realización de este trabajo proporciona este marcador pronóstico (porcentaje coronario “en riesgo”) a partir del estudio angiográfico practicado al paciente. Para obtener el “score” es necesario adquirir los estudios angiográficos, almacenarlos de forma eficiente, disponer de un software de visualización, segmentación y etiquetado, construir el modelo arterial con los datos extraídos de las segmentaciones realizadas desde diferentes proyecciones y, finalmente, determinar la posición y la severidad de las estenosis existentes. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud 3. OBJETIVOS El objetivo de este trabajo fue diseñar un sistema de información de asistencia a la toma de decisiones clínicas en el ámbito de la estenosis coronaria. Cada una de las partes que componen el sistema han sido evaluadas mediante la realización de pruebas de validación y rendimiento en un entorno real. La implantación del sistema de información en el servicio de hemodinámica de un hospital de referencia avala la consecución del objetivo . almacenadas en el sistema, los clínicos podrán realizar las operaciones pertinentes para calcular el valor del “score”. Los objetivos específicos son: x x x x x x x Adquisición de estudios angiográficos. Acceso a los estudios angiográficos. Segmentación interactiva del árbol coronario Etiquetado Construcción del modelo arterial artificial Determinación del “score” Implantación del sistema de información en el servicio de hemodinámica de un hospital de referencia, para avalar su funcionamiento. 4. SISTEMA DESARROLLADO Para alcanzar los objetivos propuestos se ha desarrollado un sistema de información cuya arquitectura funcional se puede observar en la Figura 1, que representa todos los subsistemas o bloques funcionales que forman el sistema completo. El objetivo final de este trabajo es proporcionar un “score” que ayude a los hemodinamistas a pronosticar un problema de estenosis. Por ello, el sistema de información ha de ser capaz de adquirir y almacenar las imágenes que componen los estudios angiográficos. A partir de las imágenes Figura 1. Arquitectura Funcional del sistema de información. 4.1 Subsistema de Acceso a Datos. El subsistema de “Acceso a Datos” facilita la interacción con el sistema de almacenamiento, tanto para introducir nuevos estudios en el sistema, como para el acceso a los que ya están almacenados. Este subsistema, denominado SMIIS (Secure Medical Information Service), aporta una interfaz común de acceso a los datos almacenados, de forma que, la información adquirida desde orígenes heterogéneos, pueda ser accedida desde todas las herramientas del subsistema de explotación. Desde el punto de vista del subsistema de adquisición, el subsistema de acceso proporciona una interfaz de entrada única que permite homogeneizar la información recibida desde diferentes dispositivos y soportes. La única restricción que debe cumplirse es que la información proporcionada a este subsistema cumpla el estándar DICOM. El subsistema obtiene estos archivos DICOM y despliega su contenido en una base de datos estructurada. 47 48 Red Ibero-NBIC Desde el punto de vista del subsistema de explotación, este subsistema permite un acceso rápido y eficiente a los datos almacenados y evita que las herramientas de explotación tengan que obligatoriamente interpretar el estándar DICOM. Este subsistema facilita el desarrollo de nuevas aplicaciones de explotación, brindando los servicios de acceso a datos que éstas podrían necesitar. Las funciones subsistema son: que implementa este x x Interpretación de archivos DICOM. Almacenamiento eficiente y transparente del contenido de los archivos DICOM. x Acceso a la información contenida en los archivos DICOM, previamente desplegada. Para llevar a cabo estas funciones se utiliza una base de datos relacional cuyo modelo de datos se puede ver en la Figura 2. Se ha utilizado el modelo de datos definido por los Modelos de Información de DICOM. diferentes orígenes. Con el objeto de proporcionar persistencia a dichos datos, la información contenida en los ficheros DICOM originales se almacena en una base de datos. Los orígenes de datos pueden ser muy diferentes: dispositivos generadores de angiografías de diferentes fabricantes (Siemens, General Electric, AGFA), PACS también de diferentes proveedores, o incluso información almacenada en soportes de almacenamiento secundario, como CDs. El único requisito clave que deben cumplir los estudios es que deben cumplir el estándar DICOM 3. La Unidad de Cardiología Intervencionista del CHUAC, que es el ámbito de implantación del sistema, se dispone de tres angiógrafos DICOM y de un gran archivo de estudios en soporte óptico, por lo que es necesario disponer de dos módulos dentro del subsistema de adquisición. El primero de ellos permite la adquisición de los estudios a través de una red de comunicaciones TCIP/IP de los estudios angiográficos. El segundo facilita la adquisición de estudios a partir de los ficheros DICOM almacenados en un CD. 4.2.1 Adquisición a través de dispositivos médicos Figura 2. Diagrama Entidad-Relación del Modelo de Datos del subsistema. 4.2 Subsistema de Adquisición de la Información Clínica. Este subsistema permite adquirir la información que se va a utilizar como base en el asesoramiento al clínico. En este caso, el sistema adquiere estudios angiográficos que cumplen el estándar DICOM 3 desde El sistema cuenta con un módulo que permite el establecimiento de comunicaciones DICOM y acepta el envío de las angiografías procedentes de los dispositivos de angiografía. Una vez recibidos los estudios, éstos se pasan al subsistema de acceso a datos para que los almacene de forma persistente. Una vez almacenado el estudio en el “buffer” de entrada, el subsistema de acceso a datos es el responsable de procesar posteriormente esta información y almacenarla. La comunicación entre ambos subsistemas es asíncrona, lo que quiere decir que el subsistema de adquisición ubica los estudios en un área de almacenamiento temporal y estos son procesados a posteriori por el subsistema de acceso. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Debido a que el punto por el que las imágenes entran en el sistema es único y está estandarizado, los nuevos equipos que lleguen al hospital se integrarán sin necesidad de adaptar el sistema existente. Para cumplir con la como la legislación española vigente y seguir la recomendación de seguridad X.800 [15] es necesario que las comunicaciones entre el sistema de información y los equipos de angiografía pueda ser segura. Es por esto que fue necesario implementar dos módulos separados para gestionar las comunicaciones DICOM: el primero, denominado SDUL (Secure Dicom Upper Layer) que se encargase de establecer un canal de comunicaciones seguro y el segundo, denominado DISCUS (DIcom SeCUre Server) que se encarga de el intercambio de comandos y ficheros DICOM, haciendo uso de los servicios proporcionados por SDUL. El Servicio de Hemodinámica del CHUAC cuenta con una gran cantidad de información histórica almacenada en CD. Para introducir estos estudios angiográficos históricos en el sistema de información es necesario proporcionar una vía de entrada específica. En este caso se requiere que el sistema permita que un usuario pueda examinar los estudios contenidos en el soporte de almacenamiento secundario y seleccionar la información que quiere introducir en el sistema. Por ello se ha desarrollado otro módulo de adquisición para soportes de almacenamiento secundario, cuya implementación recibe el nombre de DISTA (DIcom STorage Application). Las funciones que implementa este SDUL son: x x x Servicios de capa superior definidos en DICOM Primitivas de comunicación DICOM Secure Server Intercambio datos con entidades DICOM x Implementación de Servicios de Seguridad DISCUS proporciona los mecanismos necesarios para la realización de los servicios DICOM de verificación, almacenamiento, Consulta/Recuperación y Listas de Trabajo de la Modalidad como SCP (proveedor de servicio). Debe ser capaz también de actuar como SCU (usuario de servicio) en el caso del almacenamiento, pues es un requisito del servicio de recuperación. Las funciones que implementa este módulo son x x Servicios de almacenamiento y de verificación. Se proporcionan los mecanismos para la realización de los servicios DICOM C-ECHO, CSTORE, QUERY/RETRIEVE y WORKLIST. Seguridad en las transmisiones, a través de las funciones proporcionadas por SDUL 4.2.2 Adqusición desde soportes de Almacenamiento Secundario DICOM (DIcom STorage Application) Mediante esta herramienta, el usuario puede seleccionar un estudio concreto, examinar cada una de las proyecciones que contiene el estudio como vídeos individuales y, dentro de cada una de las proyecciones, los fotogramas de interés. Además, la puede vincular la información del nuevo estudio con un paciente existente o facilita una interfaz para crear un nuevo paciente. Las funciones implementadas son: x x Carga de la información DICOM contenida en un soporte de almacenamiento secundario. Visualización la información DICOM contenida en el CD. 49 50 Red Ibero-NBIC x Selección de la información relevante. 4.3 Subsistema de Explotación Una vez que los estudios están almacenados de forma centralizada, es necesario cuantificar la información contenida en ellos. Mediante la segmentación del árbol coronario del paciente, utilizando diferentes proyecciones, se puede estimar su volumen arterial e, indicando el punto de estenosis, se puede calcular el porcentaje y el volumen del árbol afectado. El subsistema de “Explotación” facilita el trabajo con los estudios de angiografía, proporcionando funcionalidades básicas como la selección y visualización de fotogramas, función cinematográfica, “zoom”, variación de brillo y contraste. Además, incorpora herramientas que permiten que el médico seleccione fotogramas de distintas proyecciones de un estudio, y en cada uno de ellos realice la segmentación de las arterias coronarias, pudiendo utilizar diferentes técnicas. Adicionalmente, en caso de que existan, el clínico establece los puntos de estenosis y su grado de severidad. A partir de las segmentaciones realizadas este subsistema permite construir una representación del árbol arterial coronario, a partir del cual se estimará el volumen del árbol coronario y el porcentaje del mismo afectado por estenosis, que es el marcador pronóstico buscado. Este subsistema consta de dos módulos (ver Figura 1). El primero de ellos, VISIOM, es un software genérico que, por una parte interactúa con el subsistema de acceso a datos y, por otra, proporciona el soporte a las diferentes herramientas de explotación que se integran en el sistema. El objetivo fundamental de este módulo es proporcionar una interfaz común entre todas las posibles herramientas de segmentación, etiquetado y reconstrucción, y el subsistema de acceso a datos. El segundo módulo consiste en un conjunto herramientas que proporciona los mecanismos necesarios para representar de virtualmente el árbol coronario y posteriormente realizar el cálculo del “score”, alcanzando así uno de los objetivos principales de este trabajo. 4.3.1 VISIOM Para que el sistema de información sea extensible, es decir, que pueda incorporar nuevas herramientas de segmentación basadas en algoritmos diferentes, nuevos mecanismos de representación del árbol coronario o nuevos métodos de estimación del volumen arterial coronario; está dotado de un módulo que permite el acceso a cualquier posible herramienta al subsistema de acceso a datos. Dicho módulo se denomina VISIOM (Visor de Imágenes para un Sistema de InformaciÓn Médica). Las funcionalidades implementadas por este módulo son: x x Acceso a los servicios proporcionados por el subsistema de acceso a datos. Capacidad de ejecución de herramientas heterogéneas. 4.3.2 Herramienta de Segmentación La herramienta de segmentación representa la parte final del proceso y es la que permite alcanzar el objetivo final de trabajo: proporcionar unmarcador que asista en la toma de decisiones en pacientes con dolencias coronarias. Para ello, el especialista usa las imágenes que pertenecen a diferentes proyecciones de un estudio angiográfico, segmenta las arterias coronarias significativas en cada proyección, las etiqueta manualmente, indica la ubicación y la severidad de las estenosis existentes y, finalmente, utiliza dichos segmentos para crear una representación virtual del árbol coronario. Por lo tanto, el subsistema dimensiona un modelo de árbol coronario artificial genérico [5], utilizando información extraída de las imágenes angiográficas. También permite el acceso a los estudios ya realizados. Desde este subsistema se puede hacer el seguimiento de los pacientes, Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud accediendo a los estudios completos realizados con anterioridad, obteniendo en cada caso, segmentaciones, ubicación de estenosis, modelo arterial artificial, volumen coronario total, volumen coronario afectado por estenosis y porcentaje de árbol coronario afectado por estenosis. Esta información es de especial relevancia en el caso de los pacientes que son sometidos a varias intervenciones separadas en el tiempo. algoritmos de “tracking” o seguimiento arterial y de crecimiento de regiones. Para dotar de persistencia a este subsistema, se efectuaron cambios en el modelo de datos del Subsistema de Acceso, obteniéndose el resultado que se puede ver en la Figura 3. Las funciones que implementa este módulo son: x Utilización los servicios proporcionados por el módulo VISIOM. x Visualización de las imágenes angiográficas recuperadas. x Calibrado las imágenes, es decir, establecimiento de la relación píxeles/milímetros cuadrados que presenta la imagen. x Extracción del árbol coronario mediante varios mecanismos de segmentación. x Etiquetado de los segmentos extraídos de cada imagen. x Identificación de las estenosis en los segmentos arteriales etiquetados. x Construcción de una representación lógica de un modelo virtual del árbol arterial en estudio. x Estimación el volumen total del árbol coronario y el porcentaje afectado por una estenosis. Se han implementado dos métodos de segmentación diferentes, basados en los Figura 3. Modelo de datos del sistema de información. Modelo conceptual. 4.3.2.1 Funcionamiento de las Herramientas de Segmentación El funcionamiento del proceso de creación del modelo arterial artificial, mediante la segmentación del árbol coronario, utilizando información obtenida de múltiples proyecciones del estudio, se describe utilizando un diagrama de estados que se puede ver en la Figura 4. 51 52 Red Ibero-NBIC Figura 4. Diagrama de estados detallado del proceso completo de creación de un modelo arterial artificial. Además, se detallan las funcionalidades que El usuario se encuentra en el primer estado al aporta el sistema de información y se detallan inicar la herramienta para analizar una cuales son los avances que supone en secuencia de imágenes. En este estado, se comparación con el sistema de acceso a los pueden observar todas las imágenes de la estudios actuales. También, se evalúan las secuencia seleccionada. A contiunación, se capacidades de segmentación y etiquetado del elige la imagen que se va a segmentar. Como sistema, incidiendo no sólo en las primer paso de la segmentación, se debe herramientas de segmentación implantadas, realizar la calibración de la imagen. sino en la capacidad del sistema para integrar Una vez que los vasos han sido nuevas herramientas de forma sencilla. segmentados pueden ser etiquetados, Además, se han realizado pruebas de identificando cada uno de los segmentos validación informática de las herramientas de arteriales que posteriormente formarán parte segmentación ya disponibles, basada en de la reconstrucción virtual. En el caso de seguimiento y basada en crecimiento de existir estenosis, se debe identificar en este regiones, mediante la comparación de las momento, indicando su ubicación y severidad. medidas realizadas por dos usuarios Por último, se realiza la reconstrucción del independientes. Finalmente, se relata cual es modelo arterial seleccionando los segmentos la funcionalidad aportada por la herramienta adecuados desde las diferentes proyecciones. de construcción del árbol arterial artificial y como éste proporciona una serie de valores de 5. RESULTADOS interés diagnóstico, entre ellos, el más En este apartado, se exponen los resultados relevante a nivel clínico es el porcentaje del obtenidos para cada uno de los objetivos árbol arterial afectado por una o varias establecidos en el inicio de este trabajo. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud estenosis, que es el “score” que se pretendía proporcionar a los clínicos en los objetivos. 5.1 Adquisición de Estudios Angiográficos. En el caso del sistema implantando en el CHUAC, estos estudios pueden provenir de dos fuentes diferentes: x Dispositivos de angiografía Siemens, Philips o General Electric, que envían el estudio al sistema a través de red, utilizando DICOM 3. En este caso se utiliza el módulo DISCUS x Estudios de angiografía DICOM almacenados en CD, para lo que se utiliza el módulo DISTA. 5.1.1 DISCUS DIcom SeCUre Server (DISCUS) es el el módulo de adquisción de estudios a través de red. Se realizaron pruebas de validación utilizando dos aplicaciones auxiliares: JDicom y DCMTK. JDicom [4] es un conjunto de aplicaciones DICOM desarrolladas en Java. En concreto, se ha utilizado la aplicación StorageSCU, que realiza las funciones de cliente (SCU) para la validación de los servicios de verificación y almacenamiento. DCMTK [3] es una colección de librerías y aplicaciones que implementan gran parte del estándar DICOM. Incluye software para enviar y recibir imágenes por red y, al contrario que JDicom, puede hacerlo utilizando el protocolo TLS. Para evaluar el rendimiento del servidor DISCUS se han realizado una serie de pruebas de transmisión, comprobando los tiempos de adquisición para un total de 65 series, obtenidas de estudios generados por diferentes dispositivos de angiografía. La infraestructura utilizada para realizar las comunicaciones fue una red de datos TCP/IP sobre tecnología FastEthernet “fulldúplex”, que cumplía los estándares IEEE 802.3u y IEEE 802.3x. Las pruebas fueron realizadas en diferentes días, dentro de un horario donde los parámetros de utilización de la red estaban dentro de sus valores habituales. El cliente utilizado para realizar el envío de los estudios fue “JDicom Storage SCU 1.7.35”. Se pudo concluir que existe una relación directa entre los tiempos de transmisión y el tamaño de las series, y que la conexión para el envío de datos consume una cantidad relativamente baja del ancho de banda total disponible en el enlace, lo que permitiría la realización de múltiples conexiones simultáneas con el servidor. Los valores medios de los parámetros medidos en la transmisión de cada serie se pueden observar en la Tabla I. Tabla I. Pruebas de Rendimiento DISCUS Nº Serie Promedio Tiempo de Transmisión 11.611 ms Paquetes 16.391 Tamaño Medio Paq (bytes) 988,52 bytes Tamaño Total Mbits/seg 16.227.468 bytes 16,20 Mbps Utilización de la red 16,20% 53 54 Red Ibero-NBIC Área de Pacientes Área de Estudios Coincidencias con Figura 5. Interfaz de la Herramienta DISTA Figura 6. Pantalla de visualización de un estudio en DISTA. Líneas estratégicas de las 55 Tecnologías de la Información y las Comunicaciones en Salud 5.1.2 DISTA La aplicación, como se puede ver en la Figura 5, muestra los datos del paciente, entre otros su “Nombre” y el identificador de su “Historia Clínica”; la información relevante del estudio cargado en memoria y nombres de paciente ya registrados en la base de datos cuyos nombres se asemejan al paciente propietario del archivo cargado. Los estudios pueden ser cargados de forma individual, es decir archivo a archivo, o de forma conjunta, cargando con una sola orden todos los archivos del directorio indicado. Este módulo permite examinar el contenido de estudios angiográficos ubicados en un sistema de almacenamiento secundario y, a continuación, acceder a las distintas proyecciones almacenadas de cada estudio, mediante una nueva ventana donde se muestran todas las proyecciones del estudio, tal y como se puede ver en la Figura 6. Cuando se pasa con el ratón por encima de alguna de estas miniaturas se muestra información adicional en la parte superior derecha en lo que se denomina “Panel de Información”. Puede observarse una proyección concreta en modo “cine” utilizando los botones “Play”, “Pause” y “Stop” ubicados en el “Panel de Información” (ver Figura 7). En ese momento aparece emplazado en una nueva pestaña un vídeo que muestra la secuencia animada de las distintas imágenes. Una vez que se han seleccionado las proyecciones que se desean almacenar en la base de datos, es necesario pulsar el botón “Almacenar en BD” (ver Figura 7) para que la información contenida en dichas proyecciones se guarde en la base de datos. Se realizaron pruebas de carga en memoria desde el soporte de almacenamiento secundario de 65 series de imágenes, pertenecientes a diferentes estudios. Los valores medios de los resultados obtenidos se pueden ver en Tabla II. 5.1.3 SMIIS SMIIS es la implementación del subsistema encargado de proporcionar una interfaz común de acceso a los datos almacenados tanto a los diferentes módulos funcionales, que se ubican en el subsistema de adquisción de datos, como a las diferentes herramientas que se encuentran en el subsistema de explotación. Tabla II. Tiempos y tasas de envío a base de datos. Nº de la Serie Tamaño Total Tiempo de envío a la BD desde DISCUS Tasa de envío a la BD desde DISCUS Tiempo de envío a la BD desde DISTA Tasa de envío a la BD desde DISTA Promedio 16.227.468 bytes 21.252 ms 5,70 Mbps 13.536 ms 9,90 Mbps 56 Red Ibero-NBIC Figura 7. Pantalla de animación en DISTA. SMIIS realiza sus funciones de forma transparente para el clínico, es decir, el usuario interactúa tanto con los módulos de adquisición como con los de explotación, sin la necesidad de conocer como el sistema proporciona la persistencia a la información que contiene. Se muestra en la Tabla II el tiempo necesario para enviar los estudios angiográfcios a la base de datos a través de SMIIS, tanto desde DISCUS como desde DISTA. Para ello, se enviaron 65 series pertenecientes a diferentes estudios, utilizando como vía de entrada tanto DISCUS como DISTA. Es importante resaltar que estos tiempos y tasas de envío hacen referencia al proceso de envío de las series una vez que han sido cargadas en memoria tanto por DISCUS como por DISTA. Los tiempos y tasas de carga en memoria de estas series pueden ser vistos en la Tabla I y en la Tabla II. 5.2 Segmentación y etiquetado El tercer y cuarto objetivos específicos del presente trabajo proponían dotar al sistema de herramientas de segmentación interactiva del árbol coronario y un mecanismo para proceder al etiquetado manual de cada uno de los segmentos arteriales, respectivamente. Para alcanzar dichos objetivos se desarrollado una herramienta, “Hemotool”, que utilizando Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud como base la funcionalidad de VISIOM, la extiende incorporando mecanismos de segmentación, etiquetado y reconstrucción arterial. La mayor aportación que realiza VISIOM es la posibilidad de incorporar nuevos algoritmos de segmentación y etiquetado a la herramienta “Hemotool” sin la necesidad de modificar esta última, debido a su diseño e implementación abiertos. El sistema de información actual cuenta con dos estrategias para realizar la extracción del árbol arterial de un fotograma. La primera de ellas está basada en un algoritmo de “tracking” o “seguimiento” y la segunda se basa en un algoritmo de crecimiento de “regiones”. 5.2.1 Herramienta de Segmentación y Etiquetado. “Hemotool”. A continuación, se elige el tipo de técnica de segmentación a usar. En este momento se dispone de dos opciones: x Técnica basada en un algoritmo de seguimiento. x Técnica basada en un algoritmo de crecimiento de regiones. Además, existe una nueva pestaña en la pantalla, en la que se encuentra el modelo que se utilizará posteriormente para realizar la construcción del modelo arterial artificial del árbol coronario. Este modelo es común para todas las proyecciones. Todos los segmentos identificados en las distintas secuencias aparecerán en esta ventana de la aplicación. 5.2.1.1 Sesión basada en Tracking Arterial. Una vez cargada la imagen deseada es necesario pulsar en el botón de Para comprender los resultados aportados por el sistema, se detalla el funcionamiento de la herramienta “Hemotool”. Una vez seleccionada la proyección del estudio de angiografía, el primer paso del proceso de segmentación es elegir la imagen más adecuada para la identificación de las arterias. Esta tarea se lleva a cabo tal y como se puede ver en la Figura 10. 1. 2. 3. En la parte central, a la izquierda, aparece la imagen que está siendo tratada en este momento. En la parte central, a la derecha de la imagen, aparece el panel que permite realizar las operaciones definidas para el paso de la sesión en el que se encuentre la herramienta. En la parte inferior aparecen las miniaturas de todas las imágenes que contiene la secuencia. Seleccionando cualquiera de ellas, ésta se cargará y aparecerá en la parte izquierda de la pantalla, es decir, en el panel principal. Figura 8. Calibración. “Identificación de Segmentos” para empezar la segmentación. Esta sesión utiliza para la segmentación del árbol coronario una técnica que, indicando el principio del vaso y su 57 58 Red Ibero-NBIC dirección, recorre identificarlo. el vaso y permite Cuando al algoritmo llegua a una condición de parada, el usuario puede extender el árbol arterial segmentado. Para añadir nuevas ramas, debe iniciar de nuevo el proceso de segmentación, como en el paso anterior, marcando el punto de inicio a continuación de una zona segmentada. El usuario también puede borrar los segmentos no deseados. Una vez segmentados los vasos de interés (ver Figura 10), el usuario debe guardar la segmentación del árbol arterial obtenida, de forma que esté disponible para el resto de los pasos de la sesión. Con la imagen ya segmentada se puede proceder al etiquetado de los distintos segmentos. Como se muestra en la Figura 10, en este paso aparecen 2 pestañas en la parte derecha de la pantalla: Figura 9. Segmentación. x El usuario puede modificar los parámetros de la aplicación que crea conveniente introduciendo los datos en los cuadros de texto que se encuentran en el panel “Parámetros”, situado en la parte derecha de la ventana. Antes de empezar la segmentación propiamente dicha, es necesario realizar la calibración de la herramienta. Para ello se debe seleccionar el catéter utilizado, puesto que es el único artefacto del que se conocen sus dimensiones previamente. Una vez elegido, se marcan dos puntos, uno a cada lado del catéter en la imagen. La herramienta detecta los bordes del catéter y establece la relación píxeles / milímetros cuadrados de la imagen en base a ella (Figura 8). El proceso de segmentación comienza cuando el usuario marca el punto donde quiere iniciar la segmentación y un segundo punto para indicar la dirección de avance del algoritmo. Utilizando estos valores, el algoritmo avanza recorriendo el árbol arterial y determina que puntos de la imagen pertenecen a dicho árbol (ver Figura 9. Segmentación.). x Etiquetar: En esta pestaña se permite elegir la dominancia que presenta el paciente. Se puede indicar si el segmento presenta estenosis. También permite elegir la etiqueta con la que se quiere identificar un segmento. Existen dos formas de realizar esta elección: o Utilizar la lista desplegable que contiene todos los nombres de los segmentos que se encuentran en el árbol coronario, dependiendo de la dominancia. o Utilizando el esquema que aparece debajo de la lista desplegable. Este permite elegir la etiqueta pinchando sobre el esquema en el lugar donde se encuentre el segmento representado. Lista de Etiquetados: Esta pestaña muestra los distintos segmentos etiquetados hasta el momento. Permite guardar o borrar los segmentos seleccionados. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Una vez se hayan etiquetado todos los segmentos, se seleccionan los segmentos que se quieren guardar. En ese momento, esos segmentos ya están disponibles en la pestaña de representación del árbol para ser asignados al modelo del arterial. A continuación, se puede identificar la ubicación y severidad de las distintas estenosis que se observen. Cuando se han identificado todas las estenosis, finaliza la sesión de segmentación y etiquetado basada en “tracking” arterial. Figura 10. Segmentación y Etiquetado. 59 Red Ibero-NBIC Interus uario 10000 9000 8000 Us uario 1 60 7000 6000 5000 4000 3000 2000 2000 3000 4000 5000 6000 7000 8000 9000 10000 Usua rio 2 Tabla III. Representación gráfica de la correlación lineal de los resultados obtenidos por el Usuario 1 y el Usuario 2. Se han medido 59 casos de forma doble y ciega por cada uno de los usuarios. Para garantizar que la herramienta de segmentación basada en técnicas de seguimiento es estable y proporciona resultados repetibles e independientes del usuario, se han llevado a cabo una serie de pruebas. Dos usuarios independientes han realizado una medición doble y ciega de la arteria circunfleja en una colección de 59 imágenes diferentes, obteniendo como resultado de cada medición el número de píxeles pertenecientes a dicha arteria, tal y como se puede observar en la Figura 10. Para evaluar los resultados obtenidos se ha utilizado, en primer lugar, el coeficiente de correlación interclases con el objeto de estimar la repetibilidad de los resultados de un mismo usuario. Para establecer la validez y fiabilidad del método de medida, en este caso la herramienta de segmentación basada en “tracking”, se ha utilizado el coeficiente de correlación de concordancia, aplicado a los resultados obtenidos por ambos usuarios [10]. Los coeficientes de correlación interclases obtenidos son UI1 = 0,9918 y UI2 = 0,9686. Estos valores próximos a uno, que representa el grado de acuerdo máximo, indican que las mediciones son repetibles en gran medida, aún cuando el usuario realice las pruebas en momentos diferentes y sin conocer si ha realizado previamente la misma medición. El coeficiente de correlación de concordancia, obtenido como consecuencia de la comparación de los resultados obtenidos en las mediciones realizadas por el Usuario 1 y el Usuario 2 (ver Tabla III), es UC = 0,9766 avala la validez y fiabilidad de la medida. 5.2.1.2 Sesión basada en Crecimiento de Regiones. Esta sesión utiliza para la segmentación del árbol coronario una técnica que, indicando un punto semilla y los límites de crecimiento del algoritmo, reconoce segmentos arteriales. Antes de empezar la segmentación, propiamente dicha, es necesario realizar la calibración de la herramienta, que se lleva cabo del mismo modo que en el caso de “tracking” arterial y el preprocesado de la imagen, que mejora los resultados que se obtienen mediante las segmentación basada en este método. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Para realizar la segmentación, se elige un punto semilla inicial y el algoritmo va añadiendo a la región todos los puntos vecinos que tienen un nivel de gris similar. El margen que define si el color es similar es la “Tolerancia”, que se puede cambiar en caso de que los resultados de la segmentación no sean los esperados. Para limitar el proceso de crecimiento se puede indicar los límites del segmento arterial (ver Figura 11). Una vez reconocidos todos los segmentos es necesario guardarlos pulsando “Guardar Segmentos” para continuar con la secuencia de pasos de la sesión, tal y como se puede ver en la Figura 11. Se han llevado a cabo una serie de pruebas para garantizar que la herramienta de segmentación basada en técnicas de crecimiento de regiones es estable y proporciona resultados repetibles e independientes del usuario. Dos usuarios independientes han realizado una medición doble y ciega de la arteria circunfleja en una colección de 59 imágenes diferentes, obteniendo como resultado de cada medición el número de píxeles pertenecientes a dicha arteria. Para evaluar los resultados obtenidos se ha utilizado, en primer lugar, el coeficiente de correlación interclases con el objeto de estimar la repetibilidad de los resultados de un mismo usuario. Para establecer la validez y fiabilidad del método de medida, en este caso la herramienta de segmentación basada en crecimiento de regiones, se ha utilizado el coeficiente de correlación de concordancia, aplicado a los resultados obtenidos por ambos usuarios [10]. Los coeficientes de correlación interclases obtenidos son UI1 = 0,9311 y UI2 = 0,9472 (ver Tabla IV). Estos valores próximos a uno, que representa el grado de acuerdo máximo, indican que las mediciones son repetibles en gran medida, aún cuando el usuario realice las pruebas en momentos diferentes y sin conocer si ha realizado previamente la misma medición. Sin embargo, estos valores, pese a mostrar un alto grado de acuerdo, no son tan positivos como en el caso de segmentación basada en seguimiento. El coeficiente de correlación de concordancia, obtenido como consecuencia de la comparación de los resultados obtenidos en las mediciones realizadas por el Usuario 1 y el Usuario 2, es UC = 0,9221, lo que avala la validez y fiabilidad de la medida, pese a que, como en los coeficientes de correlación interclases, el resultado obtenido es ligeramente peor en comparación con la segmentación basada en “tracking”. 5.3 Construcción del Modelo Arterial Artificial. El quinto objetivo específico planteado al comienzo de la elaboración de este trabajo, era la construcción de un modelo arterial artificial personalizado para cada paciente, extrayendo la información necesaria de las imágenes pertenecientes al estudio angiográfico practicado. 61 62 Red Ibero-NBIC Figura 11. Segmentos reconocido por "Crecimiento de Regiones". Por esto, una vez segmentado el árbol completo o la porción de árbol a estudiar, la herramienta “Hemotool” permite etiquetar cada uno de los segmentos arteriales, que pasarán a estar disponibles en el proceso de reconstrucción del modelo arterial artificial. Los procesos de segmentación y etiquetado se pueden realizar tantas veces como sea necesario, siempre sobre imágenes de un mismo estudio, en diferentes proyecciones y utilizando diferentes algoritmos si se desea. El resultado es un conjunto de segmentos arteriales que pueden ser utilizados para realizar la construcción de un modelo arterial artificial, dimensionado en función de los datos extraídos de las imágenes del estudio. 5.3.1 Creación del modelo de árbol coronario. Cuando se han identificado todos los segmentos, se puede crear el modelo árbol coronario, tal y como se puede observar en la Figura 12: x A la izquierda, aparecen varias tablas. Cada una de ellas pertenece a una proyección de las utilizadas para identificar los segmentos. En estas tablas se muestran las etiquetas de los segmentos identificados en cada proyección acompañados por la longitud del segmento. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud x x se muestra la información adicional en la tabla y se refleja en la imagen de la parte inferior. Cuando se añade un segmento, la información de este aparecerá reflejada en la tabla de la derecha y se iluminará su correspondiente en el “Árbol de BARI” situado debajo. Cuando se elimina sucede lo contrario. En el centro, se indica la dominancia del paciente y debajo de esta aparecen tres botones. Estos botones permiten “Añadir” segmentos al modelo. “Eliminar” segmentos del modelo y “Guardar” el modelo de manera permanente en la base de datos. Es posible añadir comentarios a la reconstrucción creada utilizando el cuadro de texto “Comentarios”. Y, en la parte derecha, una representación del modelo en forma de tabla donde se presentan todos los segmentos posibles en el modelo según la dominancia del paciente. Según añaden segmentos al modelo, Cuando el modelo está completo, se debe pulsar el botón “Guardar” para almacenarlo de manera persistente en base de datos. Al guardar un modelo por primera vez, aparece un cuadro de diálogo que permite asignarle un nombre al modelo. Por último, la opción “Exportar” permite volcar los datos que se muestran en la tabla de la derecha a un fichero de texto. Tabla IV. Representación gráfica de la correlación lineal de los resultados obtenidos por el Usuario 1 y el Usuario 2. Se han medido 59 casos de forma doble y ciega por cada uno de los usuarios. InterUs uario 9000 Us uario 1 8000 7000 6000 5000 4000 3000 3000 4000 5000 6000 7000 Usua rio 2 8000 9000 10000 63 64 Red Ibero-NBIC La creación de un modelo de árbol coronario normal o de referencia es una tarea que ha sido objeto de numerosos estudios, siendo uno de los más referenciados el realizado por J. Theodore Dodge Jr. en los años 80 [5]. Pero a pesar de que la mayor parte de los árboles coronarios tienen una estructura común, la variabilidad de su forma y tamaño es muy descendente anterior izquierda y arteria circunfleja. En este trabajo, se utiliza la clasificación de las arterias coronarias de BARI, como elemento de referencia para definir la estructura base de un árbol coronario. Cualquier corazón, independientemente de la dominancia que presente, puede ser Figura 12. Pantalla para la construcción del modelo. importante. Tanto es así que los clínicos clasifican al individuo objeto del estudio en función de la dominancia del árbol arterial, que puede ser izquierda, derecha y balanceada. La dominancia es un factor de clasificación del árbol arterial que se determina en función del tamaño de las arterias principales: la arteria coronaria derecha y la arteria coronaria izquierda, que a su vez se divide en arteria representado genérica. mediante esta estructura Partiendo de un grafo teórico de referencia, que representa el árbol coronario y asignando el valor del volumen de sangre teórico albergado por dicho segmento, se obtiene una aproximación virtual del árbol coronario del paciente. El volumen de cada segmento es estimado a partir de la información extraída del estudio angiográfico. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud El elemento clave en el proceso de construcción del modelo virtual es que el clínico puede seleccionar, para cada segmento del árbol arterial artificial, información extraída de diferentes proyecciones, quedando a elección del clínico la selección de en que proyección se ve en verdadera magnitud el segmento arterial, evitando de esta forma el efecto del acortamiento visual. 5.3.2 Porcentaje del árbol coronario en riesgo como marcador pronóstico Un marcador pronóstico o “score” es una variable que guarda relación con la propensión de un individuo a padecer una enfermedad en un determinado grado. encuentran agrupados, es sencillo realizar el trabajo de seguimiento de un individuo que haya sido intervenido en varias ocasiones. Además, el sistema incorpora una herramienta que permite acceder a los datos de cada estudio almacenados en la base de datos, de forma que el clínico pueda ver toda esta información de forma intuitiva. Dichos datos pueden ser exportados también a ficheros externos con un formato compatible con los paquetes de tratamiento estadístico más utilizados. 6. BIBLIOGRAFÍA 1. ACC/AHA/ACP-ASIM “Guidelines for the Management of Patients With Chronic Stable Angina. A Report of the American College of Cardiology/American Heart Association Task Force on Practice Guidelines (Committee Management of Patients with Chronic Stable Angina)”. J Am Coll Cardiol, vol. 33, pp. 2092-2197, 1999. 2. R.M. Califf, H.R.I Phillips, M.C. Hindman et al. “Prognostic value of a coronary artery jeopardy score.” J Am Coll Cardiol, vol. 5, pp. 1055– 63. 1999 3. DICOM Software made By Offis – DCMTK – DICOM Toolkit, [en línea]. [Último acceso 30/04/2007]. URL disponible: http://dicom.offis.de/dcmtk.php.en Proporcionando esta información para una cohorte lo suficientemente significativa de casos, debidamente aleatorizados y seleccionados, se puede probar que dicho marcador pronóstico es válido. 4. “Digital Imaging and Communications in Medicine,” Nacional Electrical Manufacturers Association. 2007. USA. [en línea] [Último acceso 30/04/2007]. URL disponible: http://medical.nema.org. 5.3.3 5. J.T. Dodge Jr., B.G. Brown, E.L. Bolson and H.T. Dodge. “Intrathoracic Spatial of Specified Coronary Segments on the Normal Human Heart. Applications in quantitative arteriography, assessment of En este caso, el personal de la Unidad de Cardiología Intervencionesta del CHUAC ha propuesto estudiar el porcentaje de afectación del árbol coronario por una o varias estenosis como un nuevo marcador pronóstico o “score”, a la hora de calcular el riesgo de accidente coronario que sufre un determinado individuo Con el objetivo de validar el “score” propuesto, el sistema de información proporciona para cada modelo arterial virtual, construido a partir de la información obtenida desde imágenes pertenecientes a distintas proyecciones del estudio, el porcentaje de árbol coronario en riesgo o afectado por estenosis, entre otros valores. Explotación de los datos El médico puede acceder al modelo virtual creado y a los datos generados en el mismo posteriormente. Debido a que todos los estudios realizados a un mismo paciente se 65 66 Red Ibero-NBIC regional risk and contraction, and anatomic display,” Circulation, vol. 78, no 5, November 1988. 6. M. Emond, M.B. Mock, K.B. Davis, et al. “Long-term survival of medically treated patients in the Coronary Artery Surgery Study (CASS) Registry,” Circulation vol. 90, pp. 2645–57, 1994. 7. Enciclopedia médica en español. Medline Plus. [en línea] URL disponible: http://www.nlm.nih.gov/medlineplus/spa nish/ency/article/003876.htm 8. Group European Coronary Surgery Study. “Coronary-artery bypass surgery in stable angina pectoris: survival a two years,” Lancet, vol.1, pp. 889-93, 1979 9. Sitio Web oficial de las aplicaciones JDICOM. [en línea] [Último acceso 31/01/2007]. URL disponible en: http://www.tiani.com/JDicom. 10. A. Martín, J. de Dios. “Bioestadística para las Ciencias de la Salud”. Madrid. Capitel Ediciones, 2004. 11. Memoria anual 2003. Complejo Hospitalario Universitario Juan Canalejo. Xunta de Galicia. 12. P.J. Scanlon, D.P. Faxon, A.M. Audet, B. Carabello, G.J. Dehmer, K.A. Eagle, R.D. Legako, D.F. Leon, J.A. Murray, S.E. Nissen, C.J. Pepine, R.M. Watson, J.L. Ritchie, R.J. Gibbons, M.D. Cheitlin, T.J. Gardner, A. Garson Jr., R.O. Russell Jr, T.J. Ryan and S.C. Smith Jr. “ACC/AHA guidelines for coronary angiography: A report o f the American College of Cardiology/American Heart Association Task Force on Practice Guidelines (Comitee on Cornoray Angiography) developed in collaboration with the Society for Cardiac Angiography and Interventions” J. Am. Coll. Cardiol. no. 133, pp. 1756-1824. 1999. 13. T. Takaro, H.N. Hultgren, M.J. Lipton and K.M. Detre. “The VA cooperative randomized study of surgery for coronary arterial occlusive disease. II. Subgroup with significant left main lesions,” Circulation, vol. 54 (suppl III), pp. 107117. 14. T. Thom, N. Haase, W. Rosamond, V.J. Howard, J. Rumsfeld, T. Manolio, Z. Zheng, K. Flegal, C. O’Donnell, S. Kittner, D. Lloyd-Jones, D.C. Goff, Jr, Y. Hong, Members of the Statistics Committee and Stroke Statistics Subcommittee, R. Adams, G. Friday, K. Furie, P. Gorelick, B. Kissela, J. Marler, J. Meigs, V. Roger, S. Sidney, P. Sorlie, J. Steinberger, S. Wasserthiel-Smoller, M. Wilson and P. Wolf. “Heart Disease and Stroke Statistics—2006 Update: A Report From the American. Heart Association Statistics Committee and Stroke Statistics Subcommittee.” Circulation no 113, pp 85-151. 2006. 15. “International Telecommunication Union, ITU-T Recommendation X.800. Redes de comunicación de datos: Interconexión de Sistemas Abiertos (ISA), Seguridad, Estructura y Aplicaciones”. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Certificado de Informática Médica para Puerto Rico: Una experiencia de colaboración panamericana Alvaro Margolisa, Francisco Joglara, Fernán González Bernaldo de Quirósb, Analía Baumb, Antonio Fernándezc, Sofía Garcíaa, Antonio López Arredondoa, William R. Hershd a EviMed Corp. (Uruguay y Puerto Rico) Hospital Italiano de Buenos Aires (Argentina) c Regional Extension Center, Ponce School of Medicine (Puerto Rico) d Oregon Health Sciences University (Estados Unidos) b [email protected] RESUMEN En este artículo se describe la adaptación para Puerto Rico del programa educativo 10x10, un certificado universitario sobre sistemas de información en Salud. El programa 10x10 fue inicialmente desarrollado por la Universidad de Oregón, luego adaptado para Latinoamérica por el Hospital Italiano de Buenos Aires. Puerto Rico se encuentra en una intersección entre Estados Unidos y Latinoamérica, tanto en términos de gobierno, como en el sistema de Salud, cultura e idioma. Por lo tanto, se consideró adecuado re-adaptar el programa educativo a Estados Unidos, en español, teniendo en cuenta las realidades señaladas y la experiencia de EviMed en el desarrollo de actividades combinadas, presenciales y a distancia, para Puerto Rico y otros países de América Latina. Fueron cuarenta profesionales de Puerto Rico quienes realizaron la primera edición del certificado durante los meses de agosto a diciembre de 2012. El mismo fue apoyado por el Regional Extension Center para Puerto Rico y las Islas Vírgenes, y auspiciado por la American Medical Informatics Association (AMIA). Palabras clave: Educación en informática médica, Puerto Rico, América Latina, Colaboración internacional. 1. ANTECEDENTES Citando al Presidente de los Estados Unidos, Barack Obama, en su discurso de enero de 2009: “Para mejorar la calidad de nuestro sistema de Salud al mismo tiempo que disminuir su costo, vamos a hacer las inversiones inmediatas necesarias, de manera de asegurar que en los próximos cinco años, todos los registros clínicos de Estados 67 68 Red Ibero-NBIC Unidos de América estén computarizados… No va solamente a ahorrar miles de millones de dólares y miles de puestos de trabajo – Ahorrará vidas.” Es así que la actual Administración de Gobierno en Estados Unidos creó el programa HITECH (Health Information Technology for Economic and Clinical Health), parte de la American Recovery and Reinvestment Act (ARRA) que asignó 40 mil millones de dólares a la ONC (Office of the National Coordinator for Health IT) para crear incentivos al uso significativo de la tecnología de la información en Salud, a través de: – Adopción del Registro Clínico Electrónico (RCE) – Intercambio de información en Salud (IIS) – Infraestructura, donde se destacan los Regional Extension Centers – 60 en todo el país (uno de ellos en la Escuela de Medicina de Ponce, en Puerto Rico) Sin embargo, para llevar adelante esta visión, se vuelve sumamente necesario poder contar con suficientes profesionales con formación y experiencia en sistemas de información en Salud, que luego integren equipos multidisciplinarios. Estos profesionales son clínicos (médicos, enfermeros), administradores, profesionales de expedientes médicos y de informática, y deben comprender esta temática y poder así conducir el cambio. Para ello, son fundamentales los líderes clínicos en roles de enlace, para gestionar el cambio de sus colegas en forma eficaz. Debido a que este tipo de proyectos involucra un componente importante de cambio cultural, sin la participación de líderes clínicos, la experiencia demuestra que aumentan las posibilidades de fracaso. Para este rol, la American Medical Informatics Association creó el programa 10x10, un certificado universitario que aborda la formación inicial de profesionales, para estar capacitados y poder participar en proyectos de informatización clínica. La Universidad de Oregón fue la primera en ponerlo en práctica (1), y posteriormente – junto al Hospital Italiano de Buenos Aires – fue adaptado a la realidad latinoamericana y traducido al español (2). Dicho certificado ha sido exitosamente aplicado en forma masiva para proyectos de informatización de gran escala, en otros países distintos de Argentina (3). Con el objetivo de que el programa 10x10 fuese significativo para Puerto Rico, debía adaptarse su contenido, de manera de contemplar aspectos particulares del sistema de Salud, regulatorios y gubernamentales, así como también tomar en cuenta aspectos particulares de la cultura, y variaciones del español en dicho Estado. Con esta finalidad, se usó el modelo que EviMed ya había aplicado en Puerto Rico para otras actividades educativas (4,5), que implicaba la integración de actividades sincrónicas y asincrónicas, presenciales y a distancia, el conocimiento de la realidad local y sus necesidades, la integración de líderes e instituciones locales, la adecuación consiguiente del diseño y programa educativo, y la certificación con validez local. Figura 1.- Encuentro de los Directores del Curso en San Juan de Puerto Rico Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Es de destacar que tanto el Hospital Italiano de Buenos Aires como la Empresa EviMed forman parte de la Red Ibero-NBIC de la Cooperación Española, lo cual facilitó los encuentros entre los equipos de ambas instituciones para este proyecto. Objetivos: 1. Reconocer los desafíos de la Informática Médica como nueva disciplina: * Fundamentar la necesidad del procesamiento sistemático de la información en la salud 2. DISEÑO DEL CURSO * Identificar los beneficios y restricciones de la tecnologías de información en la salud Como primera etapa, se determinaron las necesidades locales (del curso en sí y de sus contenidos), con el apoyo de expertos de Puerto Rico. A partir de ello, y como se mencionó anteriormente, el contenido fue adaptado a la situación de dicho Estado, al igual que la metodología educativa. * Conocer métodos y abordajes para la interoperabilidad regional y el cuidado compartido Se agregaron contenidos acerca del Sistema de Salud de los Estados Unidos, el programa HITECH (y los consiguientes incentivos económicos para el uso significativo del registro clínico electrónico), los sistemas de codificación actualmente usados en los Estados Unidos, al igual que la legislación federal sobre privacidad, en particular HIPAA. De esta manera, se modificaron y actualizaron los materiales de estudio y los escenarios de casos, al mismo tiempo que se agregaron ponencias sobre dichos tópicos en el evento presencial de inicio del curso. Se debieron contemplar las diferencias en el uso del idioma español entre los distintos países. 2. Reconocer las características de gestión y flujo de la información en la institución de salud y las principales El programa que se implementó combinaba un evento presencial inicial con cuatro meses de actividades a distancia vía Internet, sincrónicas y asincrónicas, individuales y en pequeños grupos. La experiencia fue pensada con una extensión de 155 horas de estudio, entre los meses de agosto y diciembre de 2012. (Ehealth, aplicaciones de telemática en salud e intercambio de información entre las organizaciones) propuestas para solucionar sus deficiencias: * Identificar los componentes de un sistema de información en el ámbito de la salud en sus diferentes niveles (local, regional y nacional) * Explicar por qué varios sistemas computacionales clínicos fallaron y cómo contribuye el profesional de la salud a que eso suceda * Documentar en forma apropiada y dar cuenta de los principios de administración de datos en salud, incluida la capacidad de utilizar sistemas de codificación. 3. Reconocer al trabajo en equipo como pauta fundamental para lograr estrategias de implementación en los sistemas clínicos de información. Temario: A continuación sigue un detalle del diseño del curso: Los contenidos se organizaron en cinco módulos temáticos, los cuales a su vez, se presentan en diferentes capítulos. 69 70 Red Ibero-NBIC Módulo 1: El Sistema de Salud y los Sistemas de Información. Capítulo 1 “Introducción a los Sistemas de Salud” Capítulo 2 “Informática en Salud como disciplina” Capítulo 3 “Introducción a los Sistemas de Información en Salud” Capítulo 4 “Componentes y Capas de los Sistemas de Información” Módulo 2: Integración de Sistemas Heredados (Legacy) Capítulo 5 “Componente Computacional y Ciclo del Software” Capítulo 6 “Capa Intermedia Interoperabilidad” Capítulo 7 “Estándares en Salud” Capítulo 8 “Capa Administrativa”, e Capítulo 9 “Sistemas Departamentales” Módulo 3: Sistemas Clínicos de Información Capítulo 10: “El registro clínico en las Instituciones de salud” Capítulo 11: “Soluciones de registro clínico electrónico” Capítulo 12: “Certificación de HCE y políticas de incentivos para su adopción” Módulo 4: Gestión de los datos clínicos Capítulo 18: “Inteligencia de negocios en Instituciones de Salud” Capítulo 19: “Sistemas de información orientados al control de pacientes con enfermedades crónicas” Capítulo 20: “Salud Pública y Vigilancia Epidemiológica” Módulo 5: Manejo del cambio Capítulo 21: “Manejo del Cambio” Capítulo 22: “Gestión de Proyectos y Liderazgo” Metodología de estudio El entorno educativo está basado en un modelo pedagógico de aprendizaje colaborativo, en el que docentes y estudiantes interactúan utilizando como soporte Internet. El curso tiene una modalidad semi-presencial, con un evento presencial al inicio del curso y actividades a través de Internet durante cuatro meses. Se puede acceder al entorno digital sin restricción horaria, de acuerdo con la disponibilidad de los participantes y hasta la fecha de finalización de las actividades. Capítulo 13: “Ingreso de datos en la HCE y Servicios Terminológicos” Capítulo 14: “Sistema de Ayuda para la toma de decisiones o CDSS” Capítulo 15: “Registros Personales de Salud” Capítulo 16: “Seguridad y Normativas” Capítulo 17: “Telemedicina” Figura 2.- Interface que muestra parte del entorno de educación a distancia Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Materiales de aprendizaje Los materiales educativos incluyen: Clases: Disponibles en una versión para su lectura en línea y otra versión que el estudiante puede descargar y/o imprimir. Dicho material es elaborado por el equipo docente del curso y procesado pedagógicamente, presentando un desarrollo de contenidos de acuerdo a la estructura temática del curso. Materiales de lectura: Disponibles habitualmente en español y en algunos casos en inglés, pudiendo ser de lectura obligatoria u optativa y destinado a ampliar y/o profundizar los contenidos planteados en las clases. Actividades de aprendizaje: Pueden consistir en participaciones en los foros, realización de ejercicios o tareas, discusión de casos, lectura de bibliografía ampliatoria sobre un tema o visita a sitios web de interés. Encuentros sincrónicos: Tres encuentros sincrónicos a lo largo del curso a través de una pizarra virtual permiten consolidar la interacción entre alumnos y docentes. Certificado de aprobación Para la certificación, se requiere título universitario de grado. Cumpliendo con este requisito y aprobando las actividades obligatorias establecidas por el equipo docente, se emite un certificado con la nota final por el Instituto Universitario del Hospital Italiano de Buenos Aires . Figura 3.- Captura de pantalla del primer encuentro sincrónico Aulas virtuales En el espacio virtual de este curso, se forman grupos de alumnos guiados por un tutor que acompaña, orienta y anima el proceso individual de aprendizaje y fomenta las interacciones de aprendizaje colectivo. Para ello, se dispone de diversas herramientas de comunicación que facilitan el diálogo entre docentes y alumnos. Evaluación La evaluación se realiza a través de Cuestionarios de auto evaluación, actividades (análisis de casos, resolución de problemas) y un Examen final a través de Internet. Figura 4.- Organización de un modulo de aprendizaje 71 72 Red Ibero-NBIC Se entrega, además, un certificado de la entidad promotora del 10x10: American Medical Informatics Association, en convenio con la Oregon Health Science University. Este certificado de una reconocida institución estadounidense es de relevancia en el Estado de Puerto Rico. Los resultados del curso en sí (participación, finalización, satisfacción, aprendizajes), serán evaluados cuando se completen los períodos de examen disponibles, luego del primer trimestre de 2013. 4. CONCLUSIONES Y PLANES FUTUROS Figura 5.- Certificado que emite la Asociación Americana de Informática Médica a quienes aprueban el curso 3. RESULTADOS La adaptación del curso 10x10 en español para una audiencia estadounidense Puerto Rico fue posible y resultó útil para los participantes y las instituciones donde los mismos trabajan. Para 2013, se planea repetir el curso en el segundo semestre, ampliando la matrícula a más centros hospitalarios, donde la capacitación de sus equipos de proyecto de informatización es particularmente útil y para los cuales el programa de incentivos económicos comenzará a ser aplicado durante este año. AGRADECIMIENTOS Cuarenta alumnos, provenientes de toda la Isla de Puerto Rico tomaron el curso. Su formación está detallada en la tabla 1: Agradecemos el apoyo de la red Ibero-NBIC de la Cooperación Española Tabla 1: Antecedentes de los cursantes. Área Número % Administración 12 30 Ciencias de la computación 15 37.5 Medicina y Enfermería 10 25 Comunicación y educación 3 7.5 BIBLIOGRAFÍA [1] Hersh W, Williamson J. Educating 10,000 informaticians by 2010: the AMIA 10x10 program. Int J Med Inform. 2007 May-Jun; 76(5-6):37782. [2] P. Otero; W. Hersh; D. Luna; F. González Bernaldo de Quirós (2010). A medical informatics distance-learning course for Latin Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud America - translation, implementation and evaluation. Methods of Information in Medicine, 49: 310-315. [3] Margolis A, Vero A, Bessonart L, Barbiel A, Ferla M. Health information systems training for a countrywide implementation in Uruguay. Yearb Med Inform. 2009; :153-7. [4] Margolis A, Santiago B, Martínez E, Dapueto J, Lorier L, Fernández Z, Forster T, Miranda N, Muñoz C, López A. Four-year Collaboration in CME Among Latin American Institutions. CME Congress, Toronto, Canada, May 2012. [5] Margolis A. Marco conceptual y lecciones aprendidas sobre educación médica continua a distancia. Capítulo de libro “Manual de salud electrónica para directivos de servicios y sistemas de salud”; Javier Carnicero y Andrés Fernández, editores. Sociedad Española de Informática en Salud (SEIS) y Comisión Económica para América Latina y el Caribe (CEPAL), 2013. Aceptado para su publicación. 73 74 Red Ibero-NBIC Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Application of CellDesigner to the Selection of Anticancer Drug Targets: Test Case using P53. Raúl Isea12, Johan Hoebeke1, Rafael Mayo2, Fernando Alvarez3 and David S. Holmes4* 1 Fundación Instituto de Estudios Avanzados, Valle de Sartenejas, Baruta 1080, Venezuela; 2 CIEMAT, Av. Complutense de Madrid 22, Spain; 3 Sección Biomatemática, Facultad de Ciencias, Montevideo 11400, Uruguay; 4 Center for Bioinformatics and Genome Biology, Fundación Ciencia para la Vida and Facultad de Ciencias Biologicas, Universidad Andrés Bello, Santiago, Chile. ABSTRACT Cancer is a disease involving many genes, consequently it has been difficult to design anticancer drugs that are efficacious over a broad range of cancers. The robustness of cellular responses to gene knockout and the need to reduce undesirable side effects also contribute to the problem of effective anticancer drug design. To promote the successful selection of drug targets, each potential target should be subjected to a systems biology scrutiny to locate effective and specific targets while minimizing undesirable side effects. The gene p53 is considered a good candidate for such a target because it has been implicated in 50% of all cancers and is considered to encode a hub protein that is highly connected to other proteins. Using P53 as a test case, this paper explores the capacity of the systems biology tool, CellDesigner, to aid in the selection of anticancer drug targets and to serve as a teaching resource for human resource development. 2 Keywords Cancer, systems biology, drug target, cancer therapy, p53, Mdm2, CellDesigner. 1. Over the past decade, there has been a significant decrease in the rate that new anticancer drug candidates are being translated into effective therapies in the clinic. In particular, there has been a worrying rise in late-stage attrition in phase 2 and phase 3 [1]. Currently, the two single most important reasons for this attrition, each of which account for 30% of failures are (i) lack of efficacy and (ii) clinical safety or toxicology. These late-stage attrition rates are at the heart of much of the relative decline in productivity of the pharmaceutical industry resulting in significant financial setbacks. In Corresponding author. D.H ([email protected]), R.I ([email protected]). INTRODUTION 75 76 Red Ibero-NBIC addition, because many patents on the current generation of marketed drugs will expire from 2010 onward, pharmaceutical companies will face the first fall in revenue in four decades. With advances in human genome biology and the advent of personalized medicine, new opportunities for the discovery of drug targets are arising. The fundamental challenge of anticancer therapy is the need for agents that eliminate cancer cells with a therapeutic index that is safely tolerated by the patient. However, the selection of suitable anticancer drug targets is complicated by the fact that over 100 genes have been shown to be involved in the disease, rendering it necessary to develop multiple therapies. In addition, the cell shows a remarkable degree of robustness, in which impairment of the functions of some genes by mutation or drug targeting can be rescued by the action of other genes. For example, using genetic engineering techniques to knock out the function of over 40% of the approximately 6000 yeast genes one-by-one has little effect on cell growth in rich medium [2, 3]. The transcription factor P53 is encoded by a tumor suppressor gene that can arrest the cell cycle and facilitate apoptosis. P53 functions as a sensor of upstream signals that reflect DNA-damage and cellular stresses such as hypoxia, providing protection against tumor growth, and the action of oncogenes (Myc, Ras, E1A, ß-catenin) [4, 5]. These signals activate latent p53 by enhancing its DNA-binding activity and increasing its stability, resulting in increased levels of 10100x of the protein. Since enhanced levels of p53 lead to cell cycle-arrest and apoptosis, it is of critical importance that normal cells keep their p53 levels low. This can be accomplished by destabilization of P53 by interaction with the protein Mdm2. Interaction with Mdm2 causes export of P53 from the nucleus to the cytoplasm where it is targeted for proteosomal degradation by interaction with a P53-specific E3 ubiquitin [6]. The gene encoding Mdm2 is activated by P53 but at a time that is relatively late in the cell cycle providing a window of time where P53 can function. P53 has been considered a suitable target for anticancer therapies because of its widespread implication in about 50% of all cases of cancer [7-9]. It is also a node protein with extensive interaction partners (a hub) and high turnover rate [10]. As such, its function may not easily be replaced by other proteins (knockout inviable) [10]. Several strategies have been explored in attempts to stabilize P53 by preventing or diminishing its interaction with Mdm2 [11-18]. The long term objective is to improve the efficacy of P53 to promote cell apoptosis in cancer cells. Given the promise of this approach and the substantial body of mathematical modeling and experimental evidence describing the cellular oscillations of the P53Mdm2 pair, we decided to explore the use of CellDesigner, as a tool for evaluating the network consequences of eliminating the interaction of Mdm2 with P53. CellDesigner can visualize, model and simulate biochemical networks and can integrate with existing databases such as KEGG, PubMed, BioModels [19]. 2. METHODS 2.1 Systems parameters The parameters that describe the initial states and oscillatory nature of the p53-Mdm2 interaction in the normal cell were obtained by combining information from several sources [20-23]. These parameters allow the partial differential equations that govern the system to be derived: wx x {x wt E x [ D x x D k y x y D y D o o y [Eq. 2] y x yo E x[ D y o x xk yo [Eq. 3] [Eq. 1] Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Equations 1 describes the negative feedback loop (defined as x) for P53 in which its activity decreases with time according to the mass-action binding of Mdm2 to P53 resulting in P53 ubiquitination and subsequent proteasomal degradation. Equation 2 describes the transcriptional activity of p53 (defined as y), depending on an initial value and a production rate that decreases with time as Mdm2 activity increases. Equation 3 describes the transcriptional activity of Mdm2 (yo) which decreases from an initial value because of the negative feedback loop imposed by parameters described in the second equation. For these equations, the variables are derived from [21] the initial values of the variables are: x (0.20), y (0.10), and yo (0.20). The other parameters are: Dk is the rate of Mdm2-independent degradation of P53 and the P53-dependent Mdm2 production rate (0); Dy is the Mdm2 degradation rate (0.8); Ex is the P53 production rate (0.9); E y is the P53-dependent MDM2 production rate (1.1); Do is the maturation rate (0); k is the P53 threshold for degradation by MDM2 (0.0001) and [ is equal to 1. On addition of a drug that completely eliminates the P53Mdm2 interaction, factors are added to the x and yo equations, where G is the drug concentration (0.17 arbitrary units). 2.2 Pathways and Use of CellDesigner Pathways describing the interaction of P53 with Mdm2 were uploaded from KEGG [24] into CellDesigner using the intuitive interface comprised of graphical notation, model description and an application integration environment as described [19, 2527]. 3. RESULTS Two network models for the interaction of P53 and Mdm2 were generated by CellDesigner. The first network illustrates the negative feedback loop that models the experimentally observed time-delayed oscillatory nature of both P53 and Mdm2 (Fig. 1A). The second network introduces a drug-induced inhibition of the interaction between P53 and Mdm2 that in turn impedes the ubiquitination of P53 and its subsequent degradation by proteosomes (Fig. 1B). The drug is hypothetical and is assumed to cause significant inhibition of the P53/Mdm2 interaction. Using parameters described in Methods and the networks shown in Fig. 1, CellDesigner was used to predict fluctuations of P53 and Mdm2 for 400 min in normal cells (Fig. 2A) and for 200 min in cells with the drug application (Fig. 2B). The application successfully predicted the time-delayed, oscillatory profiles of the interacting partners in the normal cell with the characteristic 20 min periodicity of fluctuation (Fig. 2A) and predicted a damping out of both P54 and Mdm4 after the addition of the drug (Fig. 2B) that has been observed in mathematical models [29, 30]. 4. DISCUSSION The time-delayed, oscillatory behavior of P53 and Mdm2 in the normal cell has been observed experimentally [29] and has been modeled theoretically [28, 30-33]. In addition, mathematical models have been developed that predict damping-out of concentrations of P53 following the perturbation of the interaction of P54 with Mdm2 via a naturally occurring mutation [38] or after treatment with the small molecule inhibitor Nutlin-3 [36]. The problem with these theoretical models is that they are essentially “static”. CellDesigner is also able to successfully model the behavior of P54 and Mdm2 in the normal cell (Figs. 1A and 2A) and can also predict damping out when a theoretical drug 77 78 Red Ibero-NBIC that prevents P54/Mdm2 interaction is introduced into the system (Figs 1B and 2B). Figure 1: Model of the interaction of P53 with Mdm2 and the resulting perturbations in the system predicted by CellDesigner in the absence (A) or presence (B) of a hypothetical drug that blocks the interaction between the two proteins. P53* = P53 precursor, Mdm2* = Mdm2 precursor, P53(Mdm2) = p53dependent Mdm2 production rate, Mdm2(P53) = Mdm2-dependen p53 production rate. However, in contrast to the previous models, CellDesigner integrates pathway visualization with analysis using Systems Biology Markup Language [38], providing a more dynamic model of cellular processes through the incorporation of gene expression data, subcellular localization information, time-dependent behavior, chemical reactions, kinetic equations etc. a one stop shopping environment. Also, because CellDesigner is open source, custom designed plug-ins can be added when required. CellDesigner has been used to predict suitable drug targets for for methicillin-resistant bacteria [39], but this is the first time that it has been used to examine anti-cancer targets. Because it is open source and manageable in a user-friendly fashion, we have found CellDesigner to be an excellent aid for teaching systems biology at the undergraduate and graduate level. Figure 2: Prediction of the changes in the amount (amplitude in arbitrary units) of P53 and Mdm2 per cell as a function of time without (A) and with (B) addition of a hypothetical drug that blocks the interaction of the two proteins. The curves were generated using the flow diagram shown in Figure 1. Other open source services similar to CellDesigner include PathwayStudio [40], Cytoscape [41], VisANT [42], BiologicalNetworks [43] and Teranode Pathway Analytics (available at www.teranode.com/). As increasing abundance of experimental data from highthroughput experimental biology becomes available and as the cost, efficiency and accuracy of this data improves, greater emphasis will be put on systems biology applications such as Celldesigner and others for connecting vast amounts of data and but also capturing usable knowledge in the form of biologically valid relations that research scientists can apply. The modeling of the P53/Mdm2 interaction network presented here represents a simplistic first step for evaluating Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud anticancer drug targets by CellDesigner. But it should serve as the starting point for several interesting lines of further inquiry including the evaluation of the interactions of P53 with Akt [44], p14ARF and ATM [20], Pten and Pip3 [45] and other members of its interactome. This information needs to be explored in order to provide a more comprehensive understanding of the potential of the P53/Mdm2 interaction as a anticancer drug target. [4] W.S El-Deiry, The p53 pathway and cancer therapy, Cancer Journal 11 (1998) 229-236. [5] D.P. Lane, T.R. Hupp, Drug discovery and p53, Drug Discovery Today 8 (2003) 347-355. [6] G. Asher, J. Lotem, L. Sachs, C. Kahana, and Y. Shaul, Mdm-2 and ubiquitin-independent p53 proteasomal degradation regulated by NQO1, PNAS 99 (2002) 1312513130. 5. [7] H. Jeong, S.P. Mason, A.L. Barabasi, and Z.N. Oltvai, Lethality and centrality in protein networks, Nature 411 (2001) 41–42. [8] J.B. Pereira-Leal, B. Audit, J.M. Peregrin-Alvarez, C.A. Ouzounis, An exponential core in the heart of the yeast protein-interaction network, Mol Biol Evol 22 (2005) 421–425. [9] N.N. Batada, L.D. Hurst, M Tyers Evolutionary and physiological importance of hub proteins, PLoS Comput Biol 2 (2006) e88. [10] Y. Liu and M. Kulesz-Martin, p53 protein at the hub of cellular DNA damage response pathways through sequence-specific and non-sequencespecific DNA binding, Carcinogenesis 22 (2001) 851-860. [11] L.T. Vassilev, B.T. Vu, B. Graves, et al. In vivo activation of the p53 pathway by small-molecule antagonists of MDM2. Science 303 844-848 (2004). [12] S. Shangary and S. Wang, SmallMolecule Inhibitors of the MDM2p53 Protein-Protein Interaction to Reactivate p53 Function: A Novel Approach for Cancer Therapy, Annual ACKNOWLEDGES Work supported by Fondecyt 1090451, DI-UNAB 15-06/I and a Microsoft Sponsored Research Award. Annual Operative Plan of Fundación Instituto de Estudios Avanzados IDEA. This project was carried out under the auspices of the Virtual Institute of Integrative Biology, a shared environment for e-Science. 6. REFERENCES [1] I. Kola and J. Landis, Can the pharmaceutical industry reduce attrition rates?, Nature Reviews Drug Discovery 3 (2004) 711-716. [2] P. Uetz, L. Giot, G. Cagney, T.A. Mansfield, R.S. Judson, et al., A comprehensive analysis of protein– protein interactions in Saccharomyces cerevisiae, Nature 403 (2000) 623– 627. [3] H. Moriya, Y. Shimizu-Yoshida, and H. Kitano, In vivo robustness analysis of cell division cycle genes in Saccharomyces cerevisiae, PLoS Genet 2 (2006) e111. 79 80 Red Ibero-NBIC review of pharmacology toxicology, 49 (2009) 223-241. [13] [14] [15] P. Chène, Inhibition of the p53MDM2 Interaction: Targeting a Protein-Protein Interface, Mol Cancer Res 2 (2004) 20 C.F. Cheok and D.P. Lane, New developments in small molecules targeting p53 pathways in anticancer therapy, Drug Development Research 69 (2008) 289 – 296. W. Wang, W.S. El-Deiry, Targeting p53 by PTD-mediated transduction, Trends in Biotechnology 22 (2004) 431-434. [16] A.V. Gudkov, Therapeutic Strategies Based on Pharmacological Modulation of p53 Pathway, 2 (2005) 225-242. [17] C. Klein and L.T. Vassilev, Targeting the p53–MDM2 interaction to treat cancer, British Journal of Cancer 91 (2004) 1415–1419. [18] H.R. Lawrence, Z. Li, M.L. Yip, S.S. Sung, N.J. Lawrence, M.L. McLaughlin, G.J. McManus, M.J. Zaworotko, S.M. Sebti, J. Chen, W.C. Guida, Identification of a disruptor of the MDM2-p53 protein-protein interaction facilitated by highthroughput in silico docking, Bioorg Med Chem Lett. 19 (2009) 37563759. [19] [20] [21] variability in the p53 system. Molecular Systems Biology, 2 (2006) 33. and A. Funahashi, A. Jouraku, Y. Matsuoka and H. Kitano, Integration of CellDesigner and SABIO-RK, In Silico Biology 7 (2007) 10. C.J. Proctor and D.A Gray, Explaining oscillations and variability in the p53-Mdm2 system, BMC Systems Biology 2 (2008) 75. N. Geva-Zatorsky, N. Rosenfeld, S. Itzkovitz, R. Milo, A. Sigal, E. Dekel, T. Yarnitzky, Y. Liron, P. Polak, G. Lahav, U. Alon, Oscillations and [22] R.L. Bar-Or, R. Maya, L.A. Segel, U. Alon, A.J. Levine, and M. Oren, Generation of oscillations by the p53Mdm2 feedback loop: A theoretical and experimental study, PNAS 97 (2000) 11250-11255. [23] G. Lahav, Oscillations by the p53Mdm2 feedback loop, Adv Exp Med Biol., 641 (2008) 28-38. [24] M. Kanehisa, S. Goto, S. Kawashima, Y. Okuno, and M. Hattori, The KEGG Resource for Deciphering the Genome, Nucleic Acids Research 32 (2004) D277-D280. [25] A. Funahashi, N. Tanimura, M. Morohashi, and H. Kitano, CellDesigner: a process diagram editor for gene-regulatory and biochemical networks, BIOSILICO 1 (2003) 159-162. [26] H. Kitano, A. Funahashi, Y. Matsuoka, and K. Oda, Using process diagrams for the graphical representation of biological networks, Nat. Biotechnol. 23 (2005) 961-966. [27] A. Funahashi, Y. Matsuoka, A. Jouraku, M. Morohashi, N. Kikuchi, H. Kitano, CellDesigner 3.5: A Versatile Modeling Tool for Biochemical Networks, Proceedings of the IEEE 96 (2008) 1254 – 1265. [28] X. Cai, and Z.M. Yuan, Stochastic modeling and simulation of the p53MDM2/MDMX loop, J. Comput. Biol. 16 (2009) 917-933. [29] D.A. Hamstra, M.S. Bhojani, L.B. Griffin, B. Laxman, B.D. Ross, A. Rehemtulla, Real-time evaluation of p53 oscillatory behavior in vivo using bioluminescent imaging, Cancer Res. 66 (2006) 7482-7489. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud [30] W. Abou-Jaoudé, D.A. Ouattara, M. Kaufman, From structure to dynamics: frequency tuning in the p53-Mdm2 network I. Logical approach, J. Theor. Biol. 258 (2009) 561-577. [31] K. Puszyński, B. Hat, and T. Lipniacki , Oscillations and bistability in the stochastic model of p53 regulation, J. Theor. Biol. 254 (2008)452-465. [32] E. Batchelor, C. S. Mock, I. Bhan, A. Loewer, G. Lahav, Recurrent initiation: a mechanism for triggering p53 pulses in response to DNA damage, Mol Cell. 30 (2008) 277289. [33] A. Ciliberto, B. Novak, and J.J. Tyson, Steady states and oscillations in the p53/Mdm2 network. Cell Cycle, 4 (2005) 488-493. [34] L. Ma, J. Wagner J, J.J. Rice, W. Hu, A.J. Levine, and G.A. Stolovitzky , A plausible model for the digital response of p53 to DNA damage, Proc Natl Acad Sci U S A. 102 (2005)14266-14271. [35] W. Hu, Z. Feng, L. Ma, J. Wagner, J.J. Rice, G. Stolovitzky, and A.J. Levine, A single nucleotide polymorphism in the MDM2 gene disrupts the oscillation of p53 and MDM2 levels in cells, Cancer Res. 67(2007) 2757-2765. [36] L.T. Vassilev, B.T. Vu, B. Graves, et al., In vivo activation of the p53 pathway by small-molecule antagonists of MDM2, Science 303 (2004) 844-848. [37] S. Shangary, and S. Wang, SmallMolecule Inhibitors of the MDM2p53 Protein-Protein Interaction to Reactivate p53 Function: A Novel Approach for Cancer Therapy, Annu Rev Pharmacol Toxicol. 49 (2009) 223-241. [38] M. Hucka, A. Finney, H.M. Sauro, H. Bolouri, J.C. Doyle, H. Kitano, et al., The Systems Biology Markup Language (SBML): A Medium for Representation and Exchange of Biochemical Network Models. Bioinformatics, 9(4):524–531, 2003. [39] I. Autiero, S. Costantini, and G. Colonna, Modeling of the bacterial mechanism of methicillin-resistance by a systems biology approach, PLoS One 4 (2009) e6226. [40] A. Nikitin, S. Egorov, N. Daraselia, and I. Mazo. Pathway studio - the analysis and navigation of molecular networks, Bioinformatics 19 (2003) 2155–2157. [41] P. Shannon, A. Markiel, O. Ozier, N.S. Baliga, J.T. Wang, D. Ramage, N. Amin, B. Schwikowski, and T. Ideker, Cytoscape: a software environment for integrated models of biomolecular interaction networks, Genome Research 13(2003) 24982504. [42] L. Strömbäck, V. Jakoniene, H. Tan and P. Lambrix, Representing, storing and accessing molecular interaction data: a review of models and tools, Briefings in Bioinformatics 7 (2006) 331-338. [43] M. Baitaluk et al., Pathsys: integrating molecular interaction graphs for systems biology, BMC Bioinformatics, 7 (2006) 55. [44] K.B. Wee, U. Surana, and B.D. Aguda, Oscillations of the p53-Akt network: implications on cell survival and death, PLoS One, 4 (2009) e4407. 81 82 Red Ibero-NBIC [45] F. Vazquez and P. Devreotes, Regulation of PTEN function as a PIP3 gatekeeper through membrane interaction, Cell Cycle, 5 (2006) 1523-1527. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Las Tecnologías de la Información y las Comunicaciones como instrumento para la promoción de la autonomía y participación de personas con Lesión Medular Alejandra Morán Tenreiro Master en Ciencias de la Salud [email protected] Betania Groba González Terapeuta Ocupacional Laura Nieto Riveiro Terapeuta Ocupacional [email protected] [email protected] Javier Pereira Loureiro Thais Pousada García Jorge Pintos Ruiz Dra. Ciencias Salud Ingeniero Informático Dr. Informática [email protected] [email protected] [email protected] Centro de Informática Médica y Diagnóstico Radiológico (IMEDIR) Facultad de Ciencias de la Salud. Universidade da Coruña Tlf: +34.981167000 - 5870 ABSTRACT La Clasificación Internacional de la Discapacidad, del Funcionamiento y de la Salud (CIF) establece la condición de discapacidad y lo aborda desde una perspectiva positiva, definiendo las capacidades que cada persona puede realizar. Las Tecnologías de la Información y las Comunicaciones (TIC) pueden ser un buen instrumento para eliminar algunas de las barreras que a veces se encuentran las personas con discapacidad. En este trabajo se presenta un ejemplo de como el uso del programa In-TIC puede mejorar de forma general la actividad y participación de las personas con discapacidad y más concretamente las personas que han sufrido una lesión medular. Se han desarrollado una serie de interfaces específicos utilizando In-TIC que facilitan el acceso y uso de portales de Internet como son las redes sociales, acceso a ocio, banca o la compra on-line. Este instrumento es de descarga gratuita y pretende mejorar la integración social de las personas con discapacidad mediante la adaptación del ordenador a las capacidades e intereses de cada persona Palabras Clave Participación y actividad, Web 2.0, redes sociales, TIC, In-TIC, Discapacidad, Lesión Medular, CIF 1. DISCAPACIDAD Y SALUD La Clasificación Internacional del Funcionamiento, de la Discapacidad y de la Salud (CIF) define la discapacidad como un término genérico que abarca deficiencias, limitaciones de la actividad y restricciones a la participación. Según esta clasificación, los problemas asociados a una patología pueden implicar las funciones y estructuras corporales 83 84 Red Ibero-NBIC y la participación en las actividades de la vida diaria. Además, describe que los estados de salud y el desarrollo de la discapacidad son modificados por factores contextuales, tanto a nivel personal como ambiental (Figura 1). Es decir, la discapacidad es un proceso complejo que conlleva la necesidad de diseñar intervenciones múltiples, sistémicas y adaptadas a cada persona y su contexto. apoyo ilimitado son “obstáculos discapacitantes” que contribuyen a las desventajas que experimentan las personas con discapacidad. Según el Informe Mundial sobre la Discapacidad, las principales desventajas que perciben estas personas se relacionan con el bienestar y la salud, la educación, la situación socioeconómica y la participación en la comunidad [1]. Atendiendo a dicho informe, y en concreto en relación a la insuficiencia de recursos dentro del contexto rehabilitador, se fomenta un deterioro del estado general de salud de esta población, así como limitaciones en las actividades, restricciones a la participación y peor calidad de vida. Figura 1.- Interacción entre los componentes de la CIF La discapacidad forma parte de la condición humana, ya que se prevé que prácticamente el total de la población mundial sufrirá algún tipo de discapacidad transitoria o permanente en algún momento de su vida y, las que lleguen a la senilidad, experimentarán dificultades crecientes de funcionamiento. Según estudios del año 2010, se estima que más de mil millones de personas viven con algún tipo de discapacidad, es decir, alrededor del 15% de la población mundial. Esta cifra es superior a las estimaciones previas de la Organización Mundial de la Salud, correspondientes al año 1970, que eran de aproximadamente un 10% [1]. Esta creciente prevalencia se debe a los avances tecnológicos y científicos en aspectos de prevención, atención prehospitalaria y manejo de complicaciones en el trascurso de graves patologías y al envejecimiento de la población. Esto implica a su vez, el incremento de los problemas crónicos de salud asociados a procesos de discapacidad (trastornos mentales, enfermedades cardiopulmonares, diabetes o cáncer). Las visiones estereotipadas, la escasez de financiación y recursos, las barreras físicas o el La carente inclusión educativa y laboral, implica el fracaso escolar y una menor participación económica por parte de las personas con discapacidad y, por ello, una mayor tasa de pobreza en estos casos. Esta falta de recursos y oportunidades en la vida comunitaria conducen a la dependencia de estas personas y, por tanto, a la privación de su autonomía, de realizar sus ocupaciones de vida y de participar como un ser activo en la sociedad. Para superar los obstáculos referidos, sería necesario el desarrollo de políticas sociosanitarias inclusivas, una mayor financiación y prestación de servicios, promover el diseño universal, la participación social de las personas con discapacidad y la investigación en este ámbito.. 2. ABORDAJE DE LA LESIÓN MEDULAR: IMPORTANCIA DE LA PARTICIPACIÓN La lesión medular (LM) es un proceso patológico ocasionado por un trastorno de las estructuras nerviosas alojadas en el canal medular, que puede originar la pérdida o alteración de la movilidad, de la sensibilidad o del sistema nervioso autónomo [2]. Dicha pérdida o alteración conlleva diversas consecuencias psicosociales para la persona y Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud su entorno, siendo así generadora importantes procesos de discapacidad. de Con la implementación de la Clasificación Internacional del Funcionamiento, de la Discapacidad y de la Salud (CIF), se ha dado paso al diseño de procesos de atención y rehabilitación multidimensionales e interdisciplinares que trascienden de los aspectos funcionales y permiten alcanzar verdaderos procesos de inclusión social. Es decir, la valoración de las personas afectadas por una lesión medular debe incluir no sólo aspectos relativos a la condición de salud, sino los relacionados con el funcionamiento de las personas en su vida diaria y la posibilidad de seguir participando activamente en su entorno social [3]. Tras la rehabilitación en las fases aguda y postaguda centradas, en mayor medida, en los cuidados intensivos físicos, la inclusión en la comunidad es el objetivo principal de la siguiente fase rehabilitadora de las personas con lesión medular [4]. En esta última, la actividad y la participación, definidas respectivamente como “la realización de una tarea o acción” y “acto de involucrarse en una situación vital”, no sólo dependen del funcionamiento físico de la persona, sino también de los facilitadores y de las barreras que existen en el entorno social y físico de una comunidad [5]. La magnitud de las consecuencias sociales en la vida diaria de una persona con LM, hasta el momento, se ha evaluado de manera inexhausta. Sin embargo, existe una importante necesidad de proporcionar información sobre la participación de estas personas en el contexto de la rehabilitación a largo plazo, así como de sus restricciones, entendidas como “problemas que puede experimentar una persona al involucrarse en situaciones vitales [5]. Este último dato, se justifica con la información recogida en la literatura científica. En ella, diversos autores coinciden en que la gravedad de una lesión medular no es el mejor indicador de los resultados a largo plazo [6][7][8]. Los investigadores afirman que, mientras el nivel y el grado de lesión permiten predecir la independencia en actividades de la vida diaria, ciertas complicaciones médicas o la mortalidad, no pueden hacerlo con la percepción del estrés, la angustia emocional, la estabilidad marital, el empleo, el bienestar percibido o con la satisfacción y calidad de vida (CDV). En su lugar, estos resultados sí pueden estar influenciados por factores diversos como el apoyo familiar, la productividad, la estabilidad financiera, la educación o el ambiente físico y social, es decir, aspectos relacionados con la participación, influenciados por el contexto ambiental y personal. En vista de ello, en la actualidad, se plantea la hipótesis de que dichos aspectos tienen un impacto potencial sobre el estado de salud en casos de lesión medular, convirtiéndose en una necesidad clave e importante en la que intervenir e investigar, teniendo en cuenta la perspectiva de las propias personas, contrastando así con la visión externa que se suele valorar de los procesos de discapacidad. 3. EL PROYECTO IN-TIC En la actualidad, es indudable que el contexto virtual y las Tecnologías de la Información y las Comunicaciones (TIC) influyen en nuestras vidas. En muchos casos facilitan el desempeño de actividades de la vida diaria, educación, trabajo, ocio o participación social de los ciudadanos: realizar por Internet una búsqueda de empleo, consultar nuestros movimientos bancarios, solicitar una beca, utilizarlo como fuente de ocio, contactar con familiares o amigos, etc. De la misma forma, utilizando las TIC de una forma adecuada, pueden convertirse en una herramienta que genere autonomía personal. Para que esto sea posible es necesario tener en cuenta en el diseño y desarrollo de la tecnología los procesos de aprendizaje, las necesidades y capacidades de las personas con discapacidad. 85 86 Red Ibero-NBIC In-TIC, Integración de las Tecnologías de la Información y las Comunicaciones en las personas con diversidad funcional, es una iniciativa que utiliza la tecnología en beneficio de las personas con discapacidad, facilitando el acceso y uso del ordenador. Mediante la creación y personalización de teclados virtuales es posible que estos usuarios puedan manejar cómodamente el ordenador, acceder a Internet, comunicarse, ejecutar aplicaciones específicas, juegos, etc. y, así, aumentar su grado de autonomía personal. También puede ser utilizado como comunicador tanto en ordenadores convencionales como portátiles o Tablets Windows o Android [9] [10]. Figura 2.- Pantalla principal de la página web del Proyecto In-TIC Las posibilidades terapéuticas y de aplicación del software In-TIC son múltiples, dada la posibilidad de la máxima personalización de los teclados o interfaces creados, en función de las habilidades y prioridades de cada usuario. La interacción con el ordenador se facilita, además, por la posibilidad de integrar diferentes ayudas técnicas o dispositivos de apoyo (Hardware) como emuladores de ratón, pulsadores o pantallas táctiles, en combinación con el programa In-TIC. Esta iniciativa, que lleva activa desde el año 2007, se concreta en dos aplicaciones gratuitas x que facilitan la comunicación y el acceso y uso independiente del ordenador y de dispositivos móviles a todas las personas, contemplando diferentes tipos de necesidades, tanto a nivel físico y sensorial, como psíquico e intelectual. Las aplicaciones son: x In- TIC PC: aplicación para ordenador. x In-TIC móvil: aplicación para dispositivos móviles o tablets. Ambas aplicaciones se pueden descargar gratuitamente desde la página web del proyecto: www.intic.udc.es (Figura 2). Figura 3.- Ejemplo de un teclado virtual para facilitar la comunicación El proyecto es fruto de la colaboración entre la Fundación Orange y el Grupo RNASA-IMEDIR de la Universidade da Coruña. Durante toda la fase de desarrollo e investigación se ha contado con la colaboración de ASPACE Coruña, el Centro de Día de Cruz Roja de A Coruña, ASPANAES y ASPRONAGA, abordando el proyecto desde el inicio de la mano de los propios usuarios. Los teclados virtuales de In-TIC persiguen tres objetivos concretos: 1. Facilitar la comunicación, utilizando los recursos de voz sintetizada que poseen los ordenadores. En la Figura 3 se muestra un teclado virtual diseñado para comunicación. La persona con dificultades para el habla, al realizar una pulsación sobre los botones, reproducirá un mensaje con voz sintetizada y/o desplegará otras opciones de comunicación [11]. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud 2. Facilitar el acceso y uso del ordenador. En la Figura, se muestra un teclado que posibilita, de manera simplificada, acceder a distintos programas del ordenador e Internet (Microsoft Office Word, Microsoft Internet Explorer, Reproductor Multimedia, etc.). botón “Escribir” que cambian dinámicamente en función de lo que el usuario necesita realizar con el ordenador. Para este caso se han creado dos teclados básicos para escribir con letras mayúsculas y letras minúsculas. Ambos teclados pueden tener activada o desactivada la predicción de las palabras. La predicción es un sistema por el cual In-TIC propone las palabras más probables que el usuario desea escribir en base a las primeras teclas pulsadas de cada nueva palabra. El algoritmo para las propuestas se basa en la frecuencia de uso de cada palabra. Así, cuanto más se utilice una palabra, antes será propuesta por el sistema. Figura 4.- Teclado específico de acceso al ordenador Al hacer clic sobre cualquiera de los botones diseñados, se accede a los teclados específicos asociados a cada uno de ellos. Como ejemplo, en la Figura 5, se muestra la red de teclados del Desde cualquiera de los teclados básicos de letras, es posible activar un teclado para escribir con números o símbolos. Además, también se ha creado un teclado específico para mostrar las funciones más habituales de Word, como son la selección de todo el documento como bloque, poner el texto en negrita, disminuir o aumentar el tamaño de fuente, Figura 5.- Esquema de teclados de acceso a Microsoft Word 87 88 Red Ibero-NBIC más persona m má ááss funcional func fu ncio io on naal al d dee llaa pe ers rsona pa ppara raa qque ue ppueda ueda ue da activarlo manera sencilla (dependiendo aac cti t vaarrllo d dee man aan neerra se enc nciillllllaa (dep nci pen ndi dieen ndo o ddee Figura 7- En esta imagen se observa un ejemplo del sistema de barrido de In-TIC. Un haz de luz (naranja) ilumina uno a uno los botones, hasta que la persona selecciona el deseado su capacidad para el movimiento se colocará en el mentón, codo, pié, etc.). Cuando esté activado el sistema de barrido, en la pantalla se visualizará un haz de luz (en el caso de In-TIC es de color naranja) y cuando éste ilumine el botón deseado, la persona activará el pulsado (Figura 7). Figura 6.- Ejemplo de un teclado para anticipar las actividades que se van a realizar En base a cada caso, el programa In-TIC te permite escoger entre tres tipos de barrido (Barrido de tres pasos, Secuencial y Dirigido) y configurar el tiempo de barrido y el retorno o “vuelta atrás”. copiar/pegar/cortar texto, acceder al menú de formato de fuente y la opción de deshacer. Este teclado también permite moverse por el texto o los menús con los botones del cursor, el tabular y el Enter. 3. Favorecer la predictibilidad y estructuración temporal a través de horarios, agendas y secuencias (Figura 6). Para seleccionar estos botones se puede hacer de manera convencional, utilizando el teclado y el ratón habituales del ordenador, o bien, como se ha mencionado anteriormente, utilizando otro tipo de hardware (pantallas digitales que permitan la selección directa, pulsadores, ratones controlados con el movimiento de los ojos o de la cabeza, etc.). En el caso concreto de los pulsadores, es necesario que el software que se utiliza tenga incorporado el sistema de barrido. Esto es así porque un pulsador es un botón que emula una función determinada del ratón (por ejemplo el clic, el doble clic, etc.) pero no emula el movimiento. El pulsador se coloca en la parte Perfil de Administrador Perfil de usuario final Figura 8.- Pantalla de In-TIC que da acceso al perfil de administrador y al perfil del usuario final En la actualidad, la aplicación presenta dos perfiles (Figura 8): x Perfil administrador: Espacio en el que los profesionales pueden crear y personalizar los teclados virtuales x Perfil del usuario final: Integrado por 7 ejemplos para facilitar de forma genérica la comunicación y el acceso al ordenador. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Entre los ejemplos de In-TIC existe un bloque específico para personas con Trastornos del Espectro del Autismo denominado Módulo TEA y compuesto por teclados virtuales, agendas y actividades especialmente diseñadas y testeadas por y para estas personas. A continuación, se describe el proyecto “PARTICIPA” en el cual se ha diseñado, desarrollado e implementado un bloque de teclados virtuales específicos a través de In-TIC para personas con lesión medular alta, ya que, a diferencia de las personas con Trastornos del Espectro del Autismo, el proyecto In-TIC, hasta la actualidad, no había diseñado un perfil de usuario especialmente para este colectivo. Además, en el caso concreto de las personas con lesión medular alta, en lo que se refiere al software, no existe ningún programa gratuito adaptado a sus necesidades y capacidades. 4. EL PROYECTO PARTICIPA El proyecto “PARTICIPA” es un desarrollo específico basado en In-TIC para favorecer o promocionar la autonomía de las personas que presentan una discapacidad o un trastorno mental severo, con el objetivo de promover su inclusión social y laboral. Ha sido desarrollado en colaboración con la Unidad de Lesión Medular del Complejo Hospitalario Universitario de A Coruña y con el apoyo de la Fundació Agrupació Mutua, a través de la IV Convocatoria de Premios del año 2011, en el ámbito de la discapacidad. El proyecto vincula el potencial de las Tecnologías de la Información y las Comunicaciones (TIC) con el ámbito de las personas con lesión medular (LM) y el impacto que suponen en su vida diaria, en la autonomía personal y en la calidad de vida. El material empleado para su desarrollo ha sido el software In-TIC para PC (http://www.intic.udc.es/), imágenes con licencia libre (http://www.proicons.com/) y recursos de voz sintetizada para ordenador. El objetivo del proyecto PARTICIPA ha sido diseñar, crear y probar una serie de usuarios InTIC compuestos por interfaces que faciliten el acceso al ordenador, centrándose en mejorar el grado de autonomía personal de las personas con Lesión Medular para favorecer la actividad y participación, tal y como se conceptualizan desde la CIF. Para alcanzar dicho objetivo, el teclado principal diseñado presenta siete botones que agrupan actividades que fomenten la autonomía de personas que presenten lesión medular alta: relaciones sociales, educación y empleo, actualidad y opinión, eventos, viajes, compras on-line y manejo de la banca electrónica (Figura 9). Figura 9.- Teclado principal para la promoción de la Actividad y Participación 89 90 Red Ibero-NBIC Figura 10.- Esquema del funcionamiento de los teclados de la primera sección Los contenidos de los teclados desarrollados se han implementado basándose en la CIF. Siguiendo esta clasificación y su codificación el proyecto intenta facilitar las siguientes actividades de las personas con lesión medular alta: En la Figura 10 se detalla un ejemplo del funcionamiento dinámico que ocurre entre los teclados que se han desarrollado y los correspondientes enlaces entre ellos. estándar, pero el teclado se diseñaría en base a los intereses y gustos del usuario. 4.1 Relaciones sociales Al pulsar el primer botón del teclado principal (Figura 9), se accederá a un segundo teclado (Figura 11), con diferentes opciones, como son redes sociales, correo electrónico y Skype. A continuación se detalla las oportunidades y posibilidades de cada sección y el funcionamiento individual de alguno de los teclados diseñados, a los cuales se accede a partir del principal, mostrado en la Figura 9. Así, una persona, con realizar una pulsación sobre cada uno de los botones, tendrá acceso a más opiniones o a un recurso de Internet y un subteclado para manejarlo. La pulsación se realizará en combinación con el hardware que mejor se adapte a las necesidades y capacidades de la persona (pulsadores y sistema de barrido, ratones controlados con el movimiento de la cabeza, de los ojos o de ratones controlados por aspiración y soplo). Cabe destacar, también, que el diseño y las opciones mostradas son extraídos de un modelo Figura 11.- Subteclado del primer botón. Incluye acceso a redes sociales, al correo electrónico y a Skype La opción de “Redes sociales”, permite usar Facebook y Twitter. Al hacer clic en cualquiera de las dos opciones, se le posibilita al usuario acceder a su cuenta de dichas redes sociales y a Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Figura 12.- Ejemplo de acceso a Facebook y teclado con opciones básicas un teclado específico para manejarlas (Figura 12). Este teclado específico posibilita con el clic sobre el botón deseado que la persona pueda visualizar y usar la página principal y su perfil de Facebook, así como, acceder a sus amigos, mensajes y notificaciones. Figura 13.- Página de acceso al correo electrónico de Gmail y teclado para manejarlo Al realizar una pulsación sobre el botón “escribir mensaje” del teclado de Facebook se consigue abrir directamente una ventana para escribir el mensaje y un teclado virtual para poder escribirlo y manejarse entre las opciones. Figura 14.- Teclado con opciones de manejo del correo electrónico A parte de facilitar el acceso y uso de redes sociales para la comunicación escrita, los teclados desarrollados permiten emplear el correo electrónico, en este caso configurado para el acceso a Gmail (Figura 13). Al pulsar este botón, al igual que las redes sociales, se ejecuta la página de correo electrónico de Gmail y un teclado específico para manejarlo (Figura 14). Una vez que la persona se ha autenticado con su nombre de usuario y contraseña, se pueden realizar múltiples acciones de manera simplificada e intuitiva. Algunas de estas acciones son navegar por las carpetas del correo electrónico (Recibidos, Enviados y Borradores), buscar, abrir, responder, reenviar o enviar emails, suprimir mensajes o guardar borradores. Además, contiene una columna en tono gris en la cual está integrada con botones con acciones más genéricas: abrir sesión, cerrar sesión, salir del buscador, salir de redactar mensaje o cerrar página. 4.2 Eventos Esta sección incluye páginas que permiten el acceso a recursos en la comunidad. Este tipo de recursos se encuadran en el constructo de la CIF “Vida comunitaria, social y cívica”, y en concreto, en la parte de ocio y tiempo libre, entendido como participar en cualquier tipo de juego, actividad recreativa o de ocio. 91 92 Red Ibero-NBIC d750 d760 d770 d8 d810 d825 d830 d840 d845 Figura 15.- Ejemplo de una página web para buscar recursos de ocio Algunos ejemplos serían acceder a través de la tecnología y de los teclados diseñados a actividades de relajación, diversión o entretenimiento; buscar y manejar información sobre galerías de arte, museos, cines, música o teatros; o participar en aficiones o leer como hobbie. En la captura mostrada en la Figura 15, se muestra un ejemplo de esta sección, en la cual está abierta una página de eventos y un teclado para poder visualizar, reservar y manejar las posibilidades de la web al pulsar sobre cada uno de los botones. Tabla 1.- Relación de los capítulos de la CIF y su codificación con los teclados desarrollados en el Dominio de Actividades y participación d1 d177 d3 d325 d345 d350 d360 d4 d470 d6 d620 d7 d710 d720 d740 Aprendizaje y aplicación del conocimiento Tomar decisiones Comunicación Comunicación-recepción de mensajes escritos Mensajes escritos Conversación Utilización de dispositivos y técnicas de comunicación Movilidad Utilización de medios de transporte Vida doméstica Adquisición de bienes y servicios Interacciones y relaciones interpersonales Interacciones interpersonales básicas Interacciones interpersonales complejas Relaciones formales d860 d865 d9 d910 d920 Relaciones sociales informales Relaciones familiares Relaciones íntimas Áreas principales de la vida Educación no reglada Formación profesional Educación Aprendizaje (preparación para el trabajo) Conseguir, mantener y finalizar un trabajo Transacciones económicas básicas Transacciones económicas complejas Vida comunitaria, social y cívica Vida comunitaria Tiemplo libre y ocio El diseño de este último teclado corresponde a los desarrollados para el resto de botones del teclado principal (Figura 3), los cuales permiten navegar por las páginas ofrecidas como ejemplo y en relación al resto de categorías de la CIF: Movilidad, Aprendizaje y aplicación del conocimiento, Vida doméstica, Vida Económica, Educación y Empleo (Tabla 1). De esta forma se consigue mejorar la calidad de vida de las personas con LM al generar herramientas inclusivas que potencien su desempeño en las distintas áreas ocupacionales (ABVD, AIVD, educación, trabajo, juego, ocio, participación social), favoreciendo su autonomía personal, su comunicación y su participación social. Toda la información del proyecto PARTICIPA y la descarga gratuita de las interfaces diseñadas están disponibles en la página web http://www.imedir.udc.es/participa/. 5. AGRADECIMIENTOS Este trabajo ha sido desarrollado gracias al apoyo recibido por la Fundación Orange Gracias también a la financiación obtenida por la Fundació Agrupació Mutua a través de su convocatoria anual de premios nacionales de accesibilidad 2011. Parte del trabajo también ha sido apoya económicamente por la Xunta de Galicia a través de las ayudas para la consolidación y Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud estructuración de unidades de investigación competitivas del Sistema Universitario de Galicia 2011 y 2012, parcialmente cofinanciadas por el Fondo Europeo de Desarrollo Regional (FEDER). Ref. CN CN2011/034, CN2012/211 y CN 2012/217 Queremos también agradecer el apoyo y colaboración de la Unidad de Lesión Medular del Complejo Hospitalario Universitario de A Coruña, especialmente al Doctor Antonio Montoto Márquez y al Doctor Antonio Rodríguez Sotillo 6. REFERENCIAS [1] Wold Health Organization (WHO), 2011. World report on disability. Malta: WHO. URL disponible http://www.who. int/ disabilities/world_report/2011/en/index.ht ml. Acceso 12/12/2012 [2] Sapru HN. 2002. Spinal Cord: Anatomy, Physiology and Pathophysiology. En: Spinal Cord Medicine, Kirshblum S, Campagnolo DI, Delisa JA. Ed. Lippincott Williams and Wilkins, Philadelphia. 6-30. [3] Henao-Lema CP, Pérez-Parra JE. Lesiones medulares y discapacidad: revisión bibliográfica. Aquichan, 10- 2 (Agosto 2010). 157-172. [4] Scelza WM, Kirshblum SC, Wuermser LA, Ho CH, Priebe MM, Chiobo AE, 2007. Spinal cord injury medicine: Community reintegration after spinal cord injury. Arch Phys Med Rehabil, 88 (Supl 1) (March 2007) 71-75. DOI= 10.1016/j.apmr.2006.12.004 [5] Wold Health Organization (WHO), 2001. International Classification of Functionating Disability and Health (ICF). Genova: WHO. URL disponible (español) http://www.imsersomayores.csic.es/docum entos/documentos/oms-clasificacion01.pdf. Acceso 12/12/2012 [6] Dijkers M, 1998. Community integration: conceptual issues and measurement approaches in rehabilitation research. Top Spinal Cord Injury Rehabil, 4 (Jun 1998),1-15. DOI= 10.1310/BJJA-201845KL-0VTL [7] May LA, Warren S, 2002. Measuring quality of life of persons with spinal cord injury: external and structural validity. Spinal Cord, 40. (July 202) 341-50. DOI= 10.1038/sj.sc.3101311 [8] Kennedy P, Lude P, Taylor N, 2006. Quality of life, social participation, appraisals and coping post spinal cord injury: a review of four community samples. Spinal Cord, 44 (feb 2006) 95105. DOI= 10.1038/sj.sc.3101787 [9] Grande González R, Pereira Loureiro J, Pousada García T, Groba González B, Pazos Sierra A, 2008. Proyecto In-TIC para la accesibilidad y usabilidad de las TIC en personas con diversidad, Terapia ocupacional: Revista informativa de la Asociación Profesional Española de Terapeutas Ocupacionales, 47. (Diciembre 2008) 78-85. [10] Centro IMEDIR. Centro de Informática Médica y Diagnóstico Radiológico de la Universidad de A Coruña (IMEDIR), 2012). Manual PC de Usuario In-TIC. Universidade de A Coruña. URL Disponible en http://www.intic.udc.es. Acceso 30/12/2012 [11] TP García, JP Loureiro, BG González, LN Riveiro, AP Sierra, 2011. The Use of Computers and Augmentative and Alternative Communication Devices by Children and Young With Cerebral Palsy. Assistive Technology 23 (3). (Sep 2011) 135-149. DOI= 10.1080/10400435.2011.588988 93 94 Red Ibero-NBIC Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Medicina personalizada: un legado de promesas por resolver y de nuevos desafíos para la Informática Biomédica Isabel Hermosilla Gimeno, Ana Belen Marinas Gonzalez, Mª Carmen Ramírez Sanchez-Paniagua, Victoria López-Alonso [email protected], [email protected], [email protected], [email protected] Unidad de Bioinformática - Instituto de Salud Carlos III Majadahonda, España RESUMEN La medicina personalizada busca la predicción, prevención y tratamiento de las enfermedades dirigiéndose a las necesidades de cada individuo. Las nuevas tecnologías a nivel molecular están siendo cruciales en el inicio de la medicina personalizada, sin embargo será necesario desarrollar nuevos enfoques para la normalización y la integración de toda la información utilizando herramientas de Informática Biomédica (IBM), siempre respetando los marcos éticos y reglamentarios. Esta revisión presenta algunos de los retos informáticos que son necesarios para que los avances presentados por la medicina 4P (personalizada, preventiva, predictiva y participativa) comience a poder ser una realidad en la práctica clínica. Palabras clave Informatica Biomedica, Tecnologías convergentes, Medicina personalizada 1. INTRODUCCIÓN La medicina personalizada se presenta como un modelo consecuencia de la evolución de la buena práctica clínica y que gradualmente se está incorporando en la práctica médica estándar. Sin embargo, son muy pocos los ejemplos que encontramos de medicina personalizada, asociados por ejemplo a patologías de cáncer, ó a respuesta al tratamiento con medicamentos especificos [1,2] (Figura 1). Tres sesiones científicas Think Tank fueron organizadas en junio y octubre de 2011 por el proyecto de la Comisión Europea INBIOMEDvision [3], para evaluar cual sería la mejor manera de conectar la Bioinformática y la Informática Médica con el fin de mejorar el desarrollo de nuevos descubrimientos e innovaciones en medicina personalizada y garantizar una mejor prestación de la atención médica a los pacientes en la práctica clínica. Las conclusiones y recomendaciones de cada una de estas sesiones se recogen en tres informes estratégicos accesibles desde la 95 96 Red Ibero-NBIC página web del proyecto [4,5.6]. Estos informes destacan: x necesidad de reutilización de los datos clínicos para mejorar la investigación biomédica x la vinculación de los datos genómicos con los datos fenotípicos x la utilidad de la biología de sistemas en clínica, en particular para el descubrimiento de fármacos personalizados. Figura 2. Retos de la Informática Biomédica (IBM) que deben realizarse para llegar a una medicina personalizada. 2. DESARROLLOS EN INFORMÁTICA BIOMÉDICA PARA UTILIZAR DATOS GENÓMICOS EN SALUD Figura 1. Ejemplos de medicina personalizada utilizados en la actualidad [7]. Estas reuniones han constituido un primer paso para definir qué desarrollos relativos a la informática biomédica son necesarios para incentivar la medicina personalizada (Figura 2). En este artículo presentamos estos desarrollos para: x Utilizar datos genómicos en salud x Desarrollar sistemas de toma de decisiones basados en medicina de sistemas. x Integrar datos de la Historia Clínica Electrónica Las técnicas "ómicas" como la secuenciación del genoma completo o el transcriptoma de un tumor, pueden constituir la base de modelos informáticos utilizable en la práctica clínica [8]. Si bien la Bioinformática se encarga del desarrollo de algoritmos para representar, almacenar y analizar los datos básicos biológicos, incluyendo la secuencia de ADN, la expresión del ARN, proteómica y estudios metabólicos dentro de las células, es necesario hablar de bioinformática translacional [9,10,11,12] para utilizar estos datos en salud integrándolos con información acerca de pacientes, enfermedades, síntomas, pruebas de laboratorio, informes de patología, imágenes clínicas y medicamentos (Figura 3). Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud Figura 3. La integración de datos “omicos” con datos clínicos y ambientales impulsa nuevos desarrollos en Informática Biomédica. Existen varios trabajos publicados que utilizan la secuenciación completa del genoma para el estudio de enfermedades [13,14]. Para que la información genómica sea considerada y utilizada en clínica en adición al resto de los datos fisiológicos y médicos que son esenciales para el diagnóstico médico es importante como primeras medidas lograr: 1. Almacenamiento e interpretación de los datos obtenidos de las tecnologías ómicas de alto rendimiento. Podemos secuenciar genomas enteros (6 mil millones de bases) y exomas (2% del genoma que se transcribe), con costos cada día más económicos así como medir con precisión las variaciones genéticas utilizando por ejemplo microarrays de expresión, sin embargo esta información es muy difícil de poder utilizarla en la práctica clínica [15]. Es necesario en primer lugar, desarrollar instalaciones para el intercambio rápido y el almacenamiento de toda esta información y en algunos casos imponer restricciones de confidencialidad adicionales que deberán utilizarse. En segundo lugar es crucial el desarrollo de interfaces adecuadas adaptadas a las necesidades individuales de los profesionales en clínica. 2. Anotación detallada del genoma humano Disponer de una completa anotación del genoma es uno de los objetivos que están en 97 98 Red Ibero-NBIC desarrollo en la actualidad, para lo cual se necesitan algoritmos que permitan la asociación de variantes genéticas con resultados clínicamente importantes como son el riesgo de padecer una enfermedad, el pronóstico y la respuesta terapéutica. Hoy en día los datos genéticos de los pacientes son consultados sólo para casos de diagnóstico y tratamientos muy específicos, y sólo en algunos centros médicos. Por ejemplo, análisis de mutaciones en genes específicos o exones se utiliza para ayudar al asesoramiento genético en enfermedades tales como la fibrosis quística o cáncer de mama [16]. Recientemente utilizando la secuencia del genoma de un hombre de 40 años de edad con una historia familiar de enfermedad cardiaca, se evaluó su riesgo de padecer enfermedades comunes, utilizando la información disponible de alelos genéticos asociados con enfermedades y evaluando la respuesta anticipada a diversos medicamentos [17]. 2.1. Evaluación computacional de biomarcadores para el diagnóstico molecular y pronóstico. El diseño más habitual para encontrar marcadores genéticos de enfermedades es comparar un conjunto de casos con un conjunto de controles recogidos para la misma población (estudios denominados GWAS) [18]. Para este tipo de estudios se necesitan métodos de selección para por ejemplo elegir los modelos multifactoriales que equilibren la tasa de falsos positivos, el poder estadístico y requerimientos computacionales de la búsqueda de los marcadores genéticos (análisis de componentes principales, reducción de la dimensionalidad multifactorial…) [19]. En un trabajo reciente utilizando minería de datos el Consorcio Wellcome Trust ha publicado un documento en el que 14.000 casos de siete enfermedades comunes fueron comparados con 3.000 controles compartidos en un análisis GWAS con 500.000 SNPs. Encontraron 24 asociaciones independientes para las siete enfermedades, y además presentan los datos disponibles para el desarrollo y perfeccionamiento de métodos adicionales de análisis GWAS [20]. Se están desarrollando clasificadores de diagnóstico que pueden identificar subclases de enfermedades con diferentes pronósticos o sensibilidades terapéuticas. Los primeros trabajos en este área se centraron en datos de Figura 4: Recursos accesibles de información clínica, bioinformática y conjunta. Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud expresión con complejos análisis de resultados para poder utilizarse de forma relativamente rápida y precisa en clínica [21]. Es importante también recoger datos sobre la exposición a posibles factores de riesgo no genéticos como es el caso de los factores ambientales [22]. La bibliografía incluye un número muy elevado de los avances metodológicos en la detección y evaluación de los biomarcadores y la aplicación de estos métodos para ayudar a comprender la enfermedad. Por lo tanto, es importante utilizar minería de datos para representar formalmente esta información en bases de datos que permitan búsquedas automatizadas. Recientemente Raychaudhuri et al. [23] demostraron que la minería de textos podría ser utilizada para crear un conjunto de genes candidatos para la enfermedad de Crohn y la esquizofrenia. 3. RETOS DE INFORMÁTICA BIOMÉDICA PARA DESARROLLAR SISTEMAS DE TOMA DE DECISIONES BASADOS EN MEDICINA DE SISTEMAS. En los últimos años se han comenzado a desarrollar un conjunto de recursos con el fin de integrar datos biológicos y clínicos, algunos ejemplos de los cuales se presentan en la Figura 4. Una revisión de los métodos computacionales y tecnologías utilizadas en la biología de sistemas revela que muchas de las herramientas se usan en los dos campos. Los algoritmos de aprendizaje automático se utilizan ampliamente en ambos dominios para descubrir patrones en conjuntos de datos. Del mismo modo utilizando la minería de texto se aplican técnicas para extraer información útil en repositorios de un gran número de datos. 3.1. Métodos de aprendizaje automático. Los métodos de aprendizaje automático se pueden utilizar para descubrir patrones estadísticos en conjuntos de datos como la Historia Clínica Electrónica (HCE) y estudios ómicos (genómica, proteómica, metabolómica…). Estos métodos son muy adecuados para por ejemplo establecer correlaciones no lineales entre subcategorías de pacientes. Se pueden agrupar en métodos supervisados (Naive Bayes, redes neuronales artificiales, máquinas de vectores soporte, arboles de decisión…) y no supervisados (algoritmos de clustering) [24]. 3.2. Minería de texto La minería de texto y los métodos de extracción automática de información han sido ampliamente utilizados en la informática médica, pero son relativamente nuevos en los sistemas biológicos [25, 26]. Especialmente el uso de la minería de texto para el uso secundario de HCE [27, 28]. Obtener información estructurada sobre los fenotipos de pacientes desde un texto clínico generalmente requiere un vocabulario controlado, como nomenclatura y ontologías (SNOMED CT, UMLS…). 4. INFORMATICA BIOMEDICA PARA INTEGRAR DATOS DE LA HISTORIA CLÍNICA ELECTRÓNICA 4.1. Información Ómica y la Historia Clínica Electrónica (HCE) El desarrollo de tecnologías de alto rendimiento permite tener datos moleculares de pacientes disponibles para analizar y estudiar su uso en los entornos clínicos. La información genética y los datos moleculares de los pacientes debe ser introducida en la HCE y los médicos deben ser 99 100 Red Ibero-NBIC capaces de entender, analizar e integrar la información fenotípica y los datos clínicos que se incluyen en el expediente médico. Para lograr esto, ya hay un estándar disponible (HL7-GTR), y se necesita desarrollar nuevos estándares que ayudarán en el proceso de toma de decisiones diagnóstico para avanzar en el pronóstico, las medidas de prevención y los tratamientos terapéuticos personalizados, lo que apoya el cambio hacia la Medicina Predictiva, Preventiva y Personalizada (PPPM) [1, 9, 29]. La historia clínica electrónica es una valiosa herramienta para los médicos e investigadores. Uso de la información incluida en la HCE permite estudiar y desarrollar sistemas de apoyo a las decisiones clínicas, y ofrece valiosos datos para la investigación clínica y básica (comorbilidades, la estratificación de pacientes, las interacciones con medicamentos...) [30]. Los datos recogidos en la HCE se pueden utilizar, por ejemplo, para facilitar la selección de pacientes con ciertas características para estudios posteriores, o para enriquecer la descripción fenotípica disponible de los pacientes en estudios de investigación en curso [31]. La extracción de los datos de la HCE es útil no sólo para la medicina personalizada, sino también para la epidemiología. Puede servir para el establecimiento de nuevas reglas para estratificaciones de los pacientes y para descubrir correlaciones desconocidas entre enfermedades [32]. 4.2. Factores limitantes y posibles soluciones para la integración de los datos ómicos en la HCEs Antes de poder reconocer la existencia de la medicina verdaderamente personalizada, hay que almacenar, procesar, analizar, visualizar e interpretar esta gran cantidad de datos genómicos, moleculares y celulares disponibles con el fin de evaluar los efectos funcionales de la variación genética. Finalmente, es necesaria la integración de los datos para tener información sobre cómo éstos influyen en los fenotipos observados antes de que la información pueda ser de utilidad para la práctica clínica y la toma de decisiones. Los datos genómicos y otros datos ómicos, tal como los perfiles de expresión de génica ya están disponibles para algunos pacientes Figura 5. Ejemplo de los principales desarrollos y de los problemas encontrados para poder llevar la medicina personalizada a la práctica clínica Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud proporcionando más información a los médicos en el proceso de toma de decisiones clínicas. Sin embargo, actualmente la mayoría de las estructuras de HCE en uso no están diseñadas para albergar este tipo de información compleja, o grandes cantidades de datos, y muchos de los problemas surgen cuando se intenta utilizar estos datos en los sistemas de apoyo de decisión clínica. Consideraciones técnicas para la integración exitosa de datos moleculares en la HCE se han discutido en la literatura [30]. La información incluida en la HCE es valiosa para mejorar la atención clínica y para avanzar en la investigación médica. En este sentido, la necesidad de proteger y anonimizar los datos del paciente es un tema importante y presenta un verdadero desafío para la minería de datos de los registros de los pacientes para extraer datos e información estructurada. Al proporcionar la información del paciente para su uso en investigación, tanto los médicos como los pacientes deben estar seguros del correcto tratamiento de la confidencialidad, la seguridad y la protección de los datos. Para obtener información útil de la HCE la información contenida en ellos debe ser completa y exacta, e incluir estándares para ayudar a la minería de la información de manera eficiente, sin posibilidad de confusión. Se necesita promover el desarrollo y evaluación de herramientas NLP (Natural Language Processing) que sean capaces de extraer la información necesaria. Los datos de la HCE pueden incluir texto libre, datos de laboratorio, archivos de imagen, etc. La heterogeneidad de la información y de los datos en las HCEs contrasta con los datos estructurados incluidos en las base de datos, siendo un problema añadido a la minería de datos. Así, las ontologías y la normalización son importantes para facilitar la traducción de los términos bioinformáticos y la información de los datos moleculares a un lenguaje común que pueda ser fácilmente comprendido por ambos investigadores biomédicos y bioinformáticos. Aunque ya se han desarrollado muchos estándares, para el entorno clínico como HL7 o para la terminología como SNOMED, LOINC o HUGO, todavía no hay consenso acerca de cuáles usar y ninguno de ellos se emplea ampliamente en la comunidad científica. CONCLUSIONES Con el fin de llevar a resultados significativos en el campo de la medicina personalizada, se requiere una coordinación internacional a gran escala y en concreto en importantes aspectos relativos a la IBM (Figura 5). Hay un largo camino aún por recorrer, pero los pasos más importantes ya están teniendo lugar. Entre las numerosas recomendaciones en éste sentido los investigadores biomédicos deben ser conscientes, y enfocar sus investigaciones a poder aplicarse en la práctica clínica [34-38]. Durante los próximos cinco a diez años debe generarse infraestructura, que sea sostenible, para el establecimiento y desarrollo de ontologías y herramientas de minería de texto para el apoyo conjunto en biomedicina y clínica siempre teniendo presente que los datos sanitarios son confidenciales y personales, lo cual plantea sin duda, cuestiones de seguridad, privacidad y ética importantes. 5. AGRADECIMIENTOS Queremos agradecer a la Red CYTED “IberoNBIC” por financiar esta publicación, al proyecto RTA2008-00098-C02 (Ministerio de Ciencia e innovación, España) y al proyecto europeo “INBIOMEDvision” por financiar el trabajo de I. Hermosilla y de A. Marinas y a la Red COMBIOMED por financiar el trabajo de Carmen Ramirez. 101 102 Red Ibero-NBIC 6. REFERENCIAS [1] Golubnitschaja, O., Costigliola, V. EPMA. General report & recommendations in predictive, preventive and personalised medicine 2012: white paper of the European association for predictive, preventive and personalised medicine. EPMA J. 2012, 3:14. [2] Ginsburg, G.S. and Willard, H.F. (2009) Genomic and personalized medicine: foundations and applications. Transl. Res. 154, 277-287. [3] INBIOMEDvision http://www.inbiomedvision.eu webpage. [4] INBIOMEDvision Consortium. Strategic Report on Genotype-Phenotype Resources in the European Union. http://www.inbiomedvision.eu/PDF/ReportGenotypePhenotype-FINAL.pdf [5] INBIOMEDvision Consortium. Strategic Report on the Re-use of Clinical Information for Research in the European Union. http://www.inbiomedvision.eu/PDF/ReportReuse-ClinicalInfo-Research-FINAL.pdf [6] INBIOMEDvision Consortium. Strategic Report for Translational Systems Biology and Bioinformatics in the European Union, http://www.inbiomedvision.eu/PDF/ReportTranslationalBioinformatics-FINAL.pdf [7] Abrahams, E. (2008) Right drug, right patient, right time: personalized medicine coalition. Clin. Transl. Sci. 1, 11–12. [8] Green, E.D. and Guyer, M.S. (2011) Charting a course for genomic medicine from base pairs to bedside. Nature 470, 204–213. [9] Fernald, G.H. Capriotti, E.,Daneshjou, R., Karczewski, K.J., Altman, R.B.(2011).Bioinformatics challenges for personalized medicine. Bioinformatics. 27: 1741-1748. [10] Altman ,R.B.(2012) Translational bioinformatics: linking the molecular world to the clinical world. Clin Pharmacol Ther., 91: 994-1000. [11] Beck, Tim., Gollapudi, Sirisha., Brunak. Søren, Graf.,Norbert, U. Lemke, Heinz., Dash, Debasis., Buchan, Iain., Diaz, Carlos., Sanz,Ferran. and J Brookes, Anthony. Knowledge Engineering for Health: A New Discipline Required to Bridge the “ICT Gap” Between Research and Healthcare. [12] Dietrich RS, Graham C, Dominic C, van Mulligen E, Coatrieux J L, Del Hoyo Barbolla E, Martin Sanchez F, Milanesi L, Porro I, Beltrame F,Tollis I and Van der Lei J. SYMBIOmatics: Synergies in Medical Informatics and Bioinformatics. BMC Bioinformatics 2007, 8(Suppl 1):S18 [13] Lupski JR, Reid JG, Gonzaga-Jauregui C, Rio Deiros D, Chen DC, Nazareth L, Bainbridge M, Dinh H, Jing C, Wheeler DA, McGuire AL, Zhang F, Stankiewicz P, Halperin JJ, Yang C, Gehman C, Guo D, Irikat RK, Tom W, Fantin NJ, Muzny DM, Gibbs RA: Whole-genome sequencing in a patient with Charcot- Marie-Tooth neuropathy. N Engl J Med 2010, 362:1181-1191. [14] Chen R, Mias GI, Li-Pook-Than J, Jiang L, Lam HY, Chen R, Miriami E, Karczewski KJ, Hariharan M, Dewey FE, Cheng Y, Clark MJ, Im H, Habegger L, Balasubramanian S, O’Huallachain M, Dudley JT, Hillenmeyer S, Haraksingh R, Sharon D, Euskirchen G, Lacroute P, Bettinger K, Boyle AP, Kasowski M, Grubert F, Seki S, Garcia M, Whirl-Carrillo M, Gallardo M, et al. Personal omics profiling reveals dynamic molecular and medical phenotypes. Cell 2012, 148:1293-1307. [15] Jonathan S, Berg, Muin J, Khoury , and James P Evans. Deploying whole genome sequencing in clinical practice and public health: Meeting the challenge one bin at a time Genet Med. 2011, 13:499-504. [16] Weldon CB, Trosman JR, Gradishar WJ, Benson AB, Schink JC.Barriers to the use of personalized medicine in breast cancer. J Oncol Pract. 2012;8(4):24-31 [17] Ormond KE, Wheeler MT, Hudgins L, Klein TE, Butte AJ, Altman RB, Ashley EA, Greely HT: Challenges in the clinical Líneas estratégicas de las Tecnologías de la Información y las Comunicaciones en Salud application of whole-genome Lancet 2010, 375:1749-1751. sequencing. [18] Hsu YH, Kiel DP. Clinical review: Genome-wide association studies of skeletal phenotypes: what we have learned and where we are headed. J Clin Endocrinol Metab. 2012 Oct;97(10):E1958-77. [19] Saccone SF. Applying in silico integrative genomics to genetic studies of human disease. Int Rev Neurobiol. 2012;103:133-56. [20] Wellcome Trust Case Control Consortium. Genome-wide association study of 14,000 cases of seven common diseases and 3,000 shared controls. Nature. 2007 7;447(7145):661-78. [21] Khamas A, Ishikawa T, Mogushi K, Iida S, Ishiguro M, Tanaka H, Uetake H, Sugihara K. Genome-wide screening for methylationsilenced genes in colorectal cancer. Int J Oncol. 2012. 41(2):490-6. [22] Freimer N, Sabatti C. “The human phenome project.” Nature Genetics. 2003 34: 15-21. [23] Raychaudhuri S, Thomson BP, Remmers EF et al. Genetic variants at CD28, PRDM1 and CD2/CD58 are associated with rheumatoid arthritis risk. Nat Genet. 2009 Dec;41(12):1313-8. [24] Eberhardt J, Bilchik A, Stojadinovic A Clinical decision support systems: potential with pitfalls. J Surg Oncol. 2012. 1;105(5):50210 [25] O'Hagan S, Knowles J, Kell DB.Exploiting genomic knowledge in optimising molecular breeding programmes: algorithms from evolutionary computing. PLoS One. 2012;7(11):e48862. [26] Whirl-Carrillo M, McDonagh EM, Hebert JM, Gong L, Sangkuhl K, Thorn CF, Altman RB, Klein TE. Pharmacogenomics knowledge for personalized medicine. Clin Pharmacol Ther. 2012 Oct;92(4):414-7. [27] Kohane IS. Using electronic health records to drive discovery in disease genomics. Nat Rev Genet. 2011 Jun;12(6):417-28 [28] Jensen PB, Jensen LJ, Brunak S.Reply to 'Mining electronic health records: an additional perspective'.Nat Rev Genet. 2012 Dec 18;14(1):75 [29] Jensen PB, Jensen LJ, Brunak S. Mining electronic health records: towards better research applications and clinical care. Nat Rev Genet. 2012, 13: 395-405. [30] Hripcsak G, Albers DJ. Next-generation phenotyping of electronic health records. J Am Med Inform Assoc. 2012, PMID: 22955496 [31] Kohane I S. Using electronic health records to drive discovery in disease genomics. Nat. Rev. Genet. 2011, 12: 417-428 [32] ICT Results 2010. A healthy approach: Technology for personalised, preventive healthcare. http://ec.europa.eu/information_society/activitie s/health/docs/projects/istresults/201006ictresults-policy-report-health.pdf [33] Masys DR, Jarvik GP, Abernethy NF, Anderson NR, Papanicolaou GJ, Paltoo DN, Hoffman MA, Kohane IS, Levy HP. Technical desiderata for the integration of genomic data into Electronic Health Records. J Biomed Inform. 2012, 45: 419-422. [34] Xuan J, Guo L, Shi L. Next-generation sequencing in the clinic: promises and challenges. Cancer Lett. 2012 , pii: S0304-3835 00672-6 [35] Abhyankar S et al. Standardizing clinical laboratory data for secondary use. J Biomed Inform (2012), http://dx.doi.org/10.1016/j.jbi.2012.04.012 [36] Chen ES, Melton GB, Sarkar IN. Translating Standards into Practice: Experiences and Lessons Learned in Biomedicine and Health Care. J. Biomed. Informatics. 2012, 45: 609–612. 103 104 Red Ibero-NBIC [37] Deus HF et al. Translating standards into practice – One Semantic Web API for Gene Expression. J Biomed Inform, j.jbi. 2012,45:782-94. [38] Valencia A, Hidalgo M. Getting personalized cancer genome analysis into the clinic: the challenges in bioinformatics. Genome Med. 2012,4:61