Publicación - IBERO-NBIC @ Inicio

Transcripción

Publicación - IBERO-NBIC @ Inicio
Líneas estratégicas de las Tecnologías de la
Información y las Comunicaciones en Salud.
JORDI AGUILÓ LLOBET
ANA MARÍA FREIRE VEIGA
DIANA DE LA IGLESIA JIMÉNEZ
VICTORIA LÓPEZ ALONSO
ALEJANDRO PAZOS SIERRA
2013
Ficha Editorial
AGUILÓ LLOBET, Jordi
FREIRE VEIGA, Ana María
DE LA IGLESIA JIMÉNEZ, Diana
LÓPEZ ALONSO, Victoria
PAZOS SIERRA, Alejandro
Ilustración y Maquetado: Ana María Freire Veiga / Candela Rodríguez
Suárez.
I.S.B.N.-10: 84-15413-18-1
I.S.B.N.-13: 978-84-15413-18-9
Reservados todos los derechos. De conformidad con lo dispuesto en el artículo 534 bis del Código Penal vigente,
podrán ser castigados con penas de multa y privación de libertad los que, sin la preceptiva autorización,
reprodujeran o plagiaran, en todo o en parte, una obra literaria, artística o científica fijada en cualquier tipo de
soporte.
Edita Ciencia y Tecnología para el Desarrollo (CYTED)
Amaniel, 4 - 28015 Madrid
Tel.: 91 5316213
Fax: 91 5227845
[email protected]
www.cyted.org
Copyright: Ciencia y Tecnología para el Desarrollo (CYTED)
Imprime: Tórculo Comunicación Gráfica. A Coruña
I.S.B.N.-10: 84-15413-18-1
I.S.B.N.-13: 978-84-15413-18-9
Depósito Legal.: C 1979-2013
Prólogo
Escribir el prólogo del fin de una Red, tiene un cierto carácter contradictorio. Desde 2009 hasta 2012
he tenido el placer de ver evolucionar a la Red Iberoamericana de Tecnologías Convergentes en Salud (IberoNBIC). Su germen fue plantado en 2009 por CYTED, que financió cada uno de sus pasos a lo largo de los
cuatro años de duración de la Red, y a la que me gustaría agradecer sinceramente toda la confianza que ha
depositado en nuestro trabajo.
Desde sus orígenes hasta ahora, fuimos varios países iberoamericanos los que colaboramos para
establecer un camino conjunto en investigación. Cada grupo de investigación aportaba una rama distinta pero
que conseguimos encajar perfectamente, lo que nos permitió utilizar las Tecnologías de la Información y las
Comunicaciones como una herramienta para mejorar la investigación en Salud. La colaboración con otras
redes de investigación nos permitió ampliar nuestro espectro de actuación al ámbito energético (Red
NanoRoadmap) o especializarlo, como en el caso de la Red Gallega de Investigación en Cáncer Colorrectal
(REGICC). Siempre hemos intentado mantener un contacto cercano entre los diferentes grupos
constituyentes, estableciendo reuniones anuales en las que opinábamos sobre los proyectos que estaban en
proceso y se generaban nuevas ideas para continuar trabajando. Esto siempre ha generado un clima de
acercamiento entre todos los participantes, y al fin y al cabo, las relaciones interpersonales son fundamentales
para desarrollar un buen trabajo.
Este prólogo abre las puertas al último recopilatorio de trabajos de la Red: Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud. Me gustaría destacar y agradecer la inmensa
colaboración por parte del Hospital Italiano de Buenos Aires, sede de nuestra última reunión y en la que
organizamos las contribuciones de este libro. En su homenaje, hemos inspirado la portada del libro en la
bandera argentina.
Como cierre de este prólogo, me gustaría agradecer a cada uno de los grupos de investigación el
trabajo que han dedicado como miembros de esta Red. Aunque esta etapa de financiación se haya cerrado,
estoy seguro de que continuaremos trabajando de cerca para impulsar algo tan importante como es el ámbito
de la Salud.
Alejandro Pazos
IP Red Iberoamericana de Tecnologías
convergentes en Salud (Ibero-NBIC)
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Índice
Infraestructura de investigación y formación en Bioinformática en Costa Rica e Istmo
Centroamericano.
Allan Orozco
Laboratorio de investigación en Bioinformática (BREL)
Red Centroamericana de Bioinformática (BIOCANET)
Universidad de Costa Rica, Escuela de Medicina (Costa Rica)
Ricardo Boza
Universidad de Costa Rica, Escuela de Medicina (Costa Rica)
Regional PACS over the Cloud.
Luís A. Bastião Silva
Carlos Costa
José Luis Oliveira
Universidade de Aveiro – DETI / IEETA (Portugal)
Retos Actuales en el Acceso y la Gestión de la Información Biomédica.
Diana de la Iglesia
Miguel García-Remesal
Guillermo de la Calle
David Pérez-Rey
Víctor Maojo
Universidad Politécnica de Madrid (España)
Ana Freire
Universidad de A Coruña (España)
Sistema de Información basado en Imagen en un Servicio de Hemodinámica.
Francisco J. Nóvoa
Lola Traba
Marcos Martinez-Romero
Universidad de A Coruña (España)
Certificado de Informática Médica para Puerto Rico: Una experiencia de colaboración
panamericana.
Alvaro Margolis
Francisco Joglar
Sofía García
Antonio López Arredondo
9
21
33
43
67
7
8
Red Ibero-NBIC
EviMed Corp. (Uruguay y Puerto Rico)
Fernán González Bernaldo de Quirós
Analía Baum
Hospital Italiano de Buenos Aires (Argentina)
Antonio Fernández
Regional Extension Center, Ponce School of Medicine (Puerto Rico)
William R. Hersh
Oregon Health Sciences University (Estados Unidos)
Application of CellDesigner to the Selection of Anticancer Drug Targets: Test Case using P53.
Raúl Isea
Johan Hoebeke
Fundación Instituto de Estudios Avanzados (Venezuela)
Rafael Mayo
CIEMAT (España)
Fernando Alvarez
Sección Biomatemática, Facultad de Ciencias, Montevideo (Uruguay)
David S. Holmes
Center for Bioinformatics and Genome Biology, Fundación Ciencia para la Vida y Facultad de
Ciencias Biologicas, Universidad Andrés Bello, Santiago (Chile)
75
Las Tecnologías de la Información y las Comunicaciones como instrumento para la promoción de
la autonomía y participación de personas con Lesión Medular.
Alejandra Morán Tenreiro
Thais Pousada García
83
Betania Groba González
Jorge Pintos Ruiz
Laura Nieto Riveiro
Javier Pereira Loureiro
Centro de Informática Médica y Diagnóstico Radiológico (IMEDIR). Universidad de A Coruña
(España)
Medicina personalizada: un legado de promesas por resolver y de nuevos desafíos para la
Informática Biomédica.
Isabel Hermosilla Gimeno
Ana Belen Marinas Gonzalez
Mª Carmen Ramírez Sanchez-Paniagua
Victoria López-Alonso
Unidad de Bioinformática. Instituto de Salud Carlos III. Madrid. (España)
95
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Infraestructura de investigación y
formación en Bioinformática en Costa Rica
e Istmo Centroamericano
Allan Orozco
Ricardo Boza
Laboratorio de investigación en
Bioinformática (BREL)
Red Centroamericana de Bioinformática
(BIOCANET)
Universidad de Costa Rica, Escuela de
Medicina
[email protected]
Universidad de Costa Rica, Escuela de
Medicina
[email protected]
RESUMEN
Actualmente, la Bioinformática es
un área emergente de gran importancia y
apoyo en las biociencias moleculares. Pero
para fundamentar un soporte técnico
adecuado con amplia eficiencia y rendimiento
es necesario el diseño e implementación de
ciertas infraestructuras de biocomputación
con el fin de gestionar y dar solución a los
diversos procesos y tareas requeridas en dicho
campo. Costa Rica, siendo uno de los países
centroamericanos de mayor capacidad en
términos de producción científica en la
región, ha marcado el liderazgo para impulsar
adicionalmente esta área científica, mediante
una infraestructura basada en red, mejorando
así la creación de nuevos proyectos de
investigación y formación entre científicos del
istmo, y emprendiendo una nueva sinergia de
gran impacto en las ciencias genómicas
computacionales de la zona.
Palabras clave
Bioinformática,
Nanotecnología, Omics,
NGS, microarrays, infraestructura, red, nodos,
clúster, web services.
1.
INTRODUCCIÓN
Actualmente, la Bioinformática es una
ciencia que adquiere, almacena, organiza,
procesa, gestiona y distribuye ingentes
cantidades de datos e información de carácter
biológico mediante equipos y programas muy
sofisticados
de
computación.
La
bioinformática como disciplina científica
maneja más datos e información que
cualquier otra área conocida hasta el
momento. Dentro de su composición integral
está constituida por una dinámica muy
compleja
de
datos,
información
y
conocimientos provenientes de áreas y subáreas de ciencias como la biología,
informática, física, química, farmacia,
electrónica,
bioestadística,
matemática,
agronomía y medicina [11].
Dentro de las áreas de atención de la
Bioinformática están las llamadas biociencias
moleculares (Biotecnología, Biomedicina,
Bioquímica, Biología molecular)
y sus
respectivas sub-áreas denominadas “OMICS”
(derivado del latín –oma- que significa
“conjunto o masa”) y en donde podemos citar
9
10
Red Ibero-NBIC
como ejemplos de “ciencias ómicas” entre
otras: Genómica, Proteómica, Metabolómica,
Transcriptómica,
Epigenómica,
Metagenómica, Nutrigenómica, etc. Estas
ciencias fundamentalmente se encargan del
estudio, relación y generación de datos y
anotaciones
relacionadas
con
genes,
proteínas, biomoléculas y redes metabólicas
con el propósito de comprender mejor el
funcionamiento y estabilidad de los distintos
organismos (Fig. 1). Por tanto, la
Bioinformática emplea distintas herramientas
informáticas, técnicas, métodos, algoritmos y
bases de datos especializadas que facilitan el
análisis de los diferentes resultados obtenidos
mediante vía experimental. Por ejemplo, el
estudio de la expresión del cáncer en
términos clínicos es posible efectuarlo
mediante microarrays de expresión (placas
donde su superficie tienen una colección de
microagujeros dispuesta en modo de matriz)
donde sus resultados son analizados con
sistemas bioinformáticos modulares. Por
consiguiente, un bioinformático es un tipo de
profesional capaz de combinar técnicas y
tecnologías informáticas de alto rendimiento
aplicadas
a los distintos problemas
provenientes del campo de ciencias
moleculares de la vida [1, 3, 4, 11].
Figura 1. Diagrama
Bioinformática.
integral
de
la
Hoy en día, la Biología ha evolucionado
hacia una ciencia de información de equipos
automáticos, donde su principal objeto de
estudio es la molécula del ADN. Un ejemplo
asociado, es la lectura masiva de la
información de los genomas (totalidad de la
información genética de los organismos) de
las especies mediante secuenciadores
automáticos (máquinas de lectura ultrarápidas
de nucleótidos del ADN: Adenina, Timina,
Citosina y Guanina) de nueva generación –
NGS (Next Generation Sequencing)- con el
fin de conocer la organización y estructura del
código de la vida de las especies. Sin el uso
de la bioinformática sería prácticamente
imposible
comprender
las
complejas
relaciones existentes entre sus componentes
genómicos a nivel estructural o funcional. Por
otro lado, en el campo de la salud, y para el
estudio de las enfermedades humanas, la
bioinformática posee herramientas muy
importantes para la toma de decisiones en el
diagnóstico, predicción y tratamiento de las
mismas desde un punto de vista molecular.
Además, por ejemplo, su apoyo es
fundamental para el diseño de fármacos en la
nueva era de la llamada “medicina
personalizada”. En el mundo científico del
momento hay una creciente necesidad para el
desarrollo de productos y servicios
bioinformáticos asociados a las áreas
“OMICS”, con un mercado asociado en
constante crecimiento que ofrece nuevas
ventanas y oportunidades emergentes. De
acuerdo a RNCOS (Industry Research
Solutions, 2012) la Bioinformática tiene
proyecciones de mercado de 9,5 billones de
dólares para el año 2015 [13]. Los avances de
la Bioinformática también han dado lugar al
desarrollo de nuevas sub disciplinas
derivadas. La Biología de Sistemas es una de
estas, y tiene como fin estudiar componentes
moleculares y su dinámica en los circuitos
metabólicos de los organismos. Esto se ha
logrado
mediante
modelaciones
y
simulaciones
computacionales,
para
comprender, validar y predecir mejor el
comportamiento del sistema biológico real
investigado. Ahí es donde precisamente la
Biología Sintética mediante el empleo de la
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Bioinformática, Biología de Sistemas e
Ingeniería
genética
proporciona
los
fundamentos elementales para diseñar y
ejecutar procesos,
tareas y respuestas
virtualizadas de un sistema biológico
representativo de manera “in silico”. Por
tanto, estas acciones sintéticas son realizadas
al mejor estilo de la “ingeniería de legos”
para efecto de una construcción efectiva de la
bioestructura funcional y/o el descubrimiento
de moléculas de interés no existentes en la
naturaleza. Es decir, existen las suficientes
herramientas bioinformáticas para crear
microorganismos a la carta “genómicamente”
simulados mediante un computador que luego
se pueden “replicar” en los laboratorios
experimentales,
comportándose
estos
componentes como una especie de
computadora programable.
En el pasado, las investigaciones de
Hodgkin y Huxley (fallecido en mayo 2012)
les permitieron ganar el Premio Nobel de
Medicina en 1963 a través de la modelación
de los mecanismos iónicos de los potenciales
de acción de una membrana celular. Para ello,
utilizaron en parte analogías con las Leyes de
Kirchhoff (Circuitos eléctricos) para simular
matemáticamente
el
comportamiento
biológico estudiado. Hace poco más de 2 años
(2010), investigadores del Instituto Craig
Venter (EEUU), lograron diseñar una
biocomputadora con fragmentos de ADN,
obtuvieron su síntesis y unión para luego
ensamblar
un
genoma
completo,
transfiriéndolo luego a una célula viviente.
Esta célula integró el nuevo genoma
(descartándose el original) que luego
codificaba proteínas procedentes de la
expresión del genoma artificial. Ahora, los
recientes ganadores del Premio Nobel de
Medicina
2012
han
obtenido
su
reconocimiento por los estudios pioneros en la
reprogramación funcional de células madre
(La Bioinformática y Biología de sistemas empleando
procesos
sintéticosjugó
técnicamente un papel relevante).
La
Biología
de
sistemas
está
evolucionando y ahora se establecen
simulaciones sintéticas sobre la activación o
pagado de genes, expresión y regulación,
mediante operadores de estado y formas
lógicos que son muy semejantes a nivel
funcional cuando se construye un diagrama
eléctrico o electrónico (un equivalente a la
ingeniería de control pero celular),
estableciendo
redes
metabólicas
con
funciones y respuestas específicas para un
sistema molecular programado. Por tanto,
estos “circuitos genéticos lógicos” permiten
diseñar microorganismos artificiales (armados
con la explosión del uso de los inventarios
biobricksfragmentos
de
genes
intercambiables-)
pre-programados
para
varios fines. Por ejemplo, esto permite
programar una síntesis y caracterización
dirigida del material genético combinado y así
obtener una funcionalidad con diversas
respuestas sintéticas particulares para
posibles usos industriales.
2.
AVANCES DE LA
BIOINFORMÁTICA EN
COSTA RICA
Dentro de los avances de Costa Rica en
Bioinformática con impacto para la región
centroamericana podemos citar algunos
hechos: Ha sido Co-Fundadora de SOIBIO
(Sociedad Iberoamericana de Bioinformática),
en Cancún México en el 2010 con apoyo de la
ISCB (International Society of Computational
Biology), la organización más importante del
mundo en Bioinformática, con sede en
California, EEUU y ha sido el fundador del
primer nodo EMBNET europeo en
centroamerica (2006). Ha
diseñado y
ejecutado
los
primeros
cursos
de
Bioinformática en carreras como Medicina,
Agronomía, Farmacia, Odontología, Biología,
Biotecnología e Informática en Costa Rica. Ya
para finales del 2011, la Escuela de Medicina
11
12
Red Ibero-NBIC
de la Universidad de Costa Rica (UCR)
inauguró un importante clúster (conglomerado
de computadoras, bautizado como Nelly) con
ayuda local del Ministerio de Ciencia
(MICIT)
y Comercio (COMEX)
y
colaboración internacional de la Fundación de
Supercomputación de Castilla y León
(España) y Microsoft (EEUU). Así mismo, se
fundó en 2011, la Red Nacional y
Centroamericana de Bioinformática y
Biocomputación Molecular (Fig. 2) con el fin
de integrar proyectos y servicios en toda la
región. Además, ha participado en Redes de
Software y Tecnologías Convergentes del
CYTED (Programa Iberoamericano de
Ciencia y Tecnología para el Desarrollo) tales
como FREEBIT (Software libre en
Biomedicina) e IBERO-NBIC (Tecnologías
Convergentes en Bioinformática, Biomedicina
Computacional y Nanoinformática). Por otra
parte, el Programa de Ciencias Biomédicas de
la Universidad de Costa Rica (UCR), abrió en
2012, el primer máster de Bioinformática y
Biología de sistemas de toda la región
centroamericana. Y en marzo 2012, se
celebró el primer Congreso Centroamericano
de Bioinformática y Biología de Sistemas de
toda la región (organizado por la Escuela de
Medicina-Universidad de Costa Rica y
EARTH), que contó con el apoyo de
Universidades, Organizaciones, Ministerios
de Gobierno e Instituciones (nacionales e
internacionales). Así mismo se logró dar
soporte en Guatemala, a través de la
aprobación de un proyecto por SENACYT
(Secretaria Nacional de Ciencia y Tecnología)
en junio 2012 con ayuda de investigadores
asociados a la Red Centroamericana de
Bioinformática y de la Universidad de Valle,
logrando de esta forma la aprobación del
primer proyecto nacional guatemalteco
dirigido al mejoramiento de la Bioinformática
local y regional.
Figura 2. Red Nacional de Bioinformática
a partir de BIOCANET.
3. INFRAESTRUCTURA DE
INVESTIGACIÓN Y
FORMACIÓN EN RED
BIOINFORMÁTICA
Con el fin de fortalecer las acciones
anteriormente descritas, en 2011 se formó la
Red Centroamericana de Bioinformática
(BIOCANET) con el fin de consolidar
fuertemente los cimientos para incubar
proyectos y formación genómica que
requerían bioinformática de muy alto nivel
[7,8].
Actualmente, su nodo central se
encuentra localizado en San José, Costa Rica,
en el Laboratorio de Bioinformática, de la
Escuela de Medicina de la Universidad de
Costa Rica.
Por tanto, el desarrollo de una
infraestructura en red de cooperación de
servicios biocomputacionales (Biocanet), ha
permitido al momento una mayor integración
en la investigación y desarrollo de tecnología
en Bioinformática asociada al desarrollo de
proyectos en biodiversidad, biotecnología,
medicina molecular, genómica, proteómica y
OMICS en la región centroamericana. Esta
red ha tenido tres pilares fundamentales de
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
acción en: Biodiversidad, Ambiente y
Biociencias Moleculares. Estas tres grandes
áreas tienen como capa integradora de
soporte tecnológica: la Bioinformática y
Biología Computacional. [7, 8, 9, 10,12].
Actualmente la infraestructura de la RED
BIOCANET está compuesta con profesionales
que provienen de instituciones como:
Universidad de Costa Rica, Universidad
EARTH, Universidad del Valle, Universidad
Autónoma de Honduras, Universidad Rafael
Landívar, Instituto Smithsoniano de Panamá,
Instituto
de
Ciencia
y
Tecnología
Agropecuaria (ICTA) y Cengicaña de
Guatemala [12].
o
o
o
o
3.1 Objetivo general
infraestructura en RED
de
la
Desarrollar
una
red
estable de
cooperación de servicios biocomputacionales,
investigación y desarrollo de tecnología en
Bioinformática asociados al desarrollo de
proyectos en biodiversidad, biotecnología,
medicina molecular, genómica, proteómica y
OMICS en general en la región
centroamericana
Otros
o
o
3.1.1 Objetivos específicos
o
o
o
o
Analizar y procesar información
biológica en HPC en RED
cooperativa de intercambio y
procesamiento.
Procesamiento de flujos de trabajo y
web services.
Desarrollar software y servicios
Web en Bioinformática y Biología
molecular computacional de una
manera consorciada mediante la
utilización de una red integrada.
Desarrollar áreas convergentes y
periféricos como la nanogenómica
computacional y control espacial en
modelos dinámicos de seguimiento
integrado en genómica comparativa.
Impulsar el desarrollo de la
Bioinformática
en
la
NanoBiotecnología de sistemas
moleculares como indicadores de
control ambiental.
Desarrollar talleres, congresos y
cursos de formación en el área de la
Bioinformática.
Estimular la creación de cálculo
bioinformático en nube (Cloud
Biocomputing).
Desarrollar modelos de control
genómico diferenciales en el
monitoreo y control de la
biodiversidad
de
la
zona
centroamericana (Monitoreo de
datos y sensores remotos).
o
o
Desarrollar
e
implementar
investigación
en
medicina
molecular de la zona.
Impulsar el desarrollo de la
Bioinformática traslacional en la
medicina clínica.
Impulsar el desarrollo de la
Bioinformática en la genómica
vegetal industrial.
Impulsar el desarrollo de la
Bioinformática en la genómica y
proteómica
marina
en
los
ecosistemas centroamericanos.
3.2 Beneficiarios y usuarios de la
infraestructura en RED
Los usuarios de la RED son profesionales
e investigadores provenientes de áreas como
13
14
Red Ibero-NBIC
la
Biotecnología,
Genética,
Biología
Molecular,
médicos
moleculares,
microbiólogos
Biólogos,
expertos
en
biodiversidad,
bioquímicos,
agrónomos,
ingenieros, etc. En general usuarios que
provienen de las ciencias exactas, naturales y
de la salud de la zona centroamericana y
externa. El principal beneficiario ha sido el
sector de investigación centroamericano,
siendo adicionalmente un estímulo para
aumentar su potencial de publicación
conjunto en revistas del alto nivel de impacto
(Fig. 3). La estrategia de trabajo facilita la
dinámica Academia- Empresa y Gobierno
entre los países (Fig. 4). La iniciativa cuenta
con el apoyo del Ministerio de Ciencia y
Tecnología de Costa Rica (Gobierno de Costa
Rica), Rectoría de Universidad de Costa Rica
(clúster), Universidad EARTH y de empresas
como Microsoft Research de EEUU (clúster)
y MSF de CA.
módulos programáticos) en el clúster
NELLY, localizado en el Centro de
Informática de la Universidad de Costa Rica:
o
o
o
o
o
o
o
o
Figura 3. Plataforma biocomputacional
para uso aplicado en formación e
investigación mediante conexión a Red
Clara (América Latina y Europa), nodo
central: Costa Rica.
El grupo de Costa Rica (Laboratorio
BREL) es el nodo central de la RED
CENTROAMERICANA
DE
BIOINFORMATICA. Dentro de sus funciones
principales
iniciales
está
coordinar
actividades generales de la RED. Así mismo
gestiona y ejecuta las siguientes acciones
generales (organizados y numerados por
M1: Sistema de gestión de registro
de proyectos conjuntos.
M2: Sistema de gestión de registro
de
producciones
científicas
conjuntas.
M3: Sistemas de gestión de
información y bases de datos
biológicas y bioinformáticas.
M4: Registros de actividades de
formación y colaboraciones de la
región y externas.
M5: Repositorio de Web Services y
herramientas
“mirrors”
de
procesamiento (procesamiento de
genotipado y ADN).
M6: Herramientas de control
estadístico de ejecución de los
servicios.
M7: Acceso a los registros de
monitoreo
de
las
especies
centroamericanas como objetos
genéticos (diversidad genética y
dinámica aéreo-espacial).
M8: Disponer de modelos de
predicción en medio ambiente y
biodiversidad relacionados con
computación sostenible para uso de
la RED y externos autorizados.
3.3 Proyectos adjuntos a la
infraestructura BiocaNET
A continuación se hace una descripción
de algunos de los proyectos operados en la
infraestructura centroamericana por cada país
participante [12]:
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
3.3.1 Caracterización molecular de
los genes CFTR, SPINK 1, PRSS1,
ATP7B en Centroamérica (Nodo
Costa Rica)
La pancreatitis crónica, infertilidad
masculina, el asma con infecciones
recurrentes, la rinitis, fibrosis quística y
enfermedad de Wilson, son enfermedades
comunes y de alta incidencia en las
poblaciones centroamericanas. El grupo
costarricense realiza la caracterización
molecular de los genes CFTR, SPINK1 y
PRSS1 en estas enfermedades en diferentes
poblaciones centroamericanas con el objetivo
de conocer la epidemiología molecular
genética, poblacional y evolutiva de estos
genes en el área centroamericana. Se
emplean técnicas avanzadas de bioinformática
para el análisis de datos biológicos.
3.3.2 Desarrollo de catálogo de web
services en bioinformática (Nodo
Costa Rica)
Desarrollo de catálogo de web services en
Bioinformática para medicina molecular para
utilizar abiertamente por distintos grupos de
investigación en Centroamérica mediante
Sistemas Galaxy y EMBOSS (Red Mundial
de Bioinformática) [2, 9, 11, 12], formación
[5,6] y sistemas de trazabilidad biológica [5].
Fig 4. Proyectos y actividades de
Bioinformática entre Academia, Empresa y
Gobierno en Costa Rica.
3.3.3
Fortalecimiento
de
la
utilización de la bioinformática
aplicada en la genética que
contribuye
a
aumentar
la
competividad agrícola de guatemala
(Nodo Guatemala)
Objetivo general: Fortalecer la capacidad
nacional en bioinformática aplicada a la
genética que contribuya al aumento de la
competitividad agrícola de Guatemala. Este
ha sido un proyecto aprobado por SENACYT
(Secretaria Nacional de Ciencia y Tecnología)
en junio 2012.
Guatemala,
por
sus
condiciones
edafoclimáticas, geológicas y geográficas
forma parte de uno de los centros de
diversidad más ricos del mundo.
Su
megadiversidad es conservada de diversas
formas, entre las cuales se puede mencionar a
las reservas públicas y privadas (91 áreas
protegidas nacionales cuya extensión es
15
16
Red Ibero-NBIC
aproximadamente de 3,000,000 de hectáreas,
equivalente al 28% del territorio nacional) y
los bancos de germoplasma (nacionales como
el BANSEFOR, ICTA, o internacionales
CIAT, SVALBARD). Guatemala ha logrado
desarrollar altos niveles de productividad
agrícola en cultivos como la caña de azúcar
(tercer exportador mundial), cardamomo, hule
y banano. Así mismo, Guatemala es el
proveedor de hortalizas para Centroamérica y
el Sur de México. Sin embargo, existen retos
que Guatemala debe enfrentar para satisfacer
las demandas inherentes al país. Entre estos
retos, algunos que tienen más incidencia en
los sistemas naturales y agrícolas del país,
son
la
inseguridad
alimentaria;
la
vulnerabilidad de zonas geográficas frente a
catástrofes naturales, efectos del cambio
climático y la falta de implementación de
regulaciones ambientales.
Por tanto, algunas acciones que analicen
la diversidad genética (inventarios y colectas
de especímenes, análisis de genética de
poblaciones, estudios filogeográficos) o que
estudien las relaciones ecológicas de los
organismos
con
elementos
bióticos
(patógenos, polinizadores) o abióticos
(inundaciones, sequías, heladas, etc.)
permitirán elaborar planes de mejoramiento
genético que aunados con planes de
conservación ambiental, permitirán un
mejoramiento del entorno y de la calidad de
vida de las personas.
Por consiguiente, la bioinformática
constituye una herramienta que facilitará la
recopilación, análisis y divulgación de
información generada en estos temas, y
contribuirá al fortalecimiento de los procesos
de desarrollo agrícola del país en dos grandes
grupos:
Producción Agrícola
o
Para la creación de una
plataforma virtual que contenga
la base de datos genómica de los
cultivos
agrícolas
más
importantes en el país para
facilitar de esta forma el
intercambio y acceso de
información entre investigadores
y académicos.
Agrobiología
o
Para generar investigación con
el fin de preservar la calidad
biológica de los productos
agrícolas y sus respectivos
balances naturales basado en la
búsqueda
de
especies
resistentes, el manejo no
agresivo del suelo y la
utilización de biocidas naturales.
3.3.4
Sistemas
de
vigilancia
epidemiológicos en enfermedades
cromosómicas/génicas, cáncer e
infertilidad
humana
(Nodo
Nicaragua)
El nodo local de Nicaragua como parte
de la Red Centroamericana de Bioinformática (BIOCANET) ha enfocado sus
esfuerzos iniciales en el desarrollo de
sistemas de vigilancia epidemiológicos en
enfermedades cromosómicas/ génicas,
cáncer e infertilidad humana. Esto con el
fin de implementar la genómica
epidemiológica en la medicina clínica con
el apoyo de la informática biomédica.
Mención de posibles proyectos vinculantes
(Colaborativos en RED)
Cáncer Gástrico (CIS). Enfermedades
cromosómicas (UNAN-León). Infertilidad
Masculina (CIS).
Partners
Universidad Carolina del Norte (UNC),
Chapel Hill, USA. Universidad Autónoma de
Madrid
(UAM),
España.
Programa
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Latinoamericano para la Estandarización del
Análisis Seminal (PLEAS). Universidades de
Uppsala y Umea, Suecia.
3.3.5 Bioinformática visual (Nodo
Honduras)
Honduras es un país que cuenta con una
gran diversidad de ecosistemas contando con
una de las mayores reservas de Centroamérica
como lo es la Biosfera del Rio Plátano, y uno
de los arrecifes de coral más importantes del
mundo como es Las Islas de la Bahía.
La Universidad Nacional Autónoma de
Honduras es la institución de que hasta el día
de hoy tienen la responsabilidad de dirigir la
educación superior en dicho país; que a pesar
de realizar investigaciones microbiológicas de
enfermedades tropicales, y en el campo de la
farmacología etnobotánica, así como en otras
áreas, no había contado con una plataforma
tecnológica actualizada en bioinformática; lo
cual a su vez había retrasado el uso de
herramientas informáticas en las facultades
del área de la salud. Gracias a una iniciativa
de la DIRECCION EJECUTIVA DE
GESTION DE TECNOLOGIA creada durante
el proceso de reforma de la UNAH (20052011) y con apoyo de ASDI, esta institución
cuenta hoy con una de las plataformas
telemáticas más potentes de las universidades
nacionales, con un DATA CENTER de nivel
corporativo y con capacidades
de
trasferencias de datos entre 2 y 10 gigabits
con los diferentes centros regionales
universitarios distribuidos por todos el país.
Proyectos emprendidos en áreas como:
Bioinformática
visual
(Estructuras
moleculares),
Genómica
Visual
[14],
Procesamiento de datos en dinámica
molecular (Data Center) y datos biológicos.
Training en Bioinformática en modelación
molecular.
3.3.6
Sistemas
integrados
de
información
biológica
(Nodo
Panamá)
El
Instituto
Smithsonian
de
Investigaciones Tropicales (STRI, por sus
siglas en inglés) en Panamá - la única
dependencia de la Institución Smithsonian
situada fuera de los Estados Unidos - se
dedica a enriquecer el conocimiento sobre la
diversidad biológica de los trópicos. Lo que
empezó en 1923 como una pequeña estación
de campo en la isla de Barro Colorado de la
antigua Zona del Canal de Panamá,
representa hoy día una de las principales
instituciones de investigación del mundo. Las
instalaciones de STRI pueden brindar una
oportunidad única para estudios ecológicos a
largo plazo en los trópicos y son utilizadas
intensivamente por unos 900 científicos
visitantes que llegan cada año procedentes de
instituciones académicas y de investigación
de los Estados Unidos y el mundo entero. Los
científicos residentes de este grupo y nodo de
la red han proporcionado una mejor
comprensión de los hábitats tropicales, al
tiempo que han entrenado a cientos de
biólogos especialistas en el trópico. Entre las
áreas de trabajo del grupo de panamá
podemos citar:
Biodiversidad
OMICS de la Biodiversidad (Sistemas
integrados de información biológica):
o
Terrestres: aves, anfibios, reptiles.
o
Peces de agua dulce.
o
Ecosistemas.
17
18
Red Ibero-NBIC
Biociencias y Medicina molecular
o
Enfermedades
(biomarcadores
moleculares y biología de sistemas).
o
Búsqueda de químicos naturales con
actividad medicinal.
o
Ambiente y Sostenibilidad.
o
Modelación y dinámica de las
especies de la zona.
o
Modelación
computacional
de
cambios de la diversidad genética y
economía.
o
Modelación del cambio climático,
contaminación y salud.
o
Modelación de cambios relacionado
a cambios de uso de la tierra.
Finalmente, es importante mencionar la
gran colaboración y dinámica presentada por
todos los participantes para llevar ésta
infraestructura
biocomputacional
de
investigación y formación a ser una de las
primeras infraestructuras líderes de América
Latina en Bioinformática y Biología
computacional en red. El reto a futuro es
mejorar e incrementar la capacidad de la
infraestructura general e introducir nuevas
temáticas como la integración de nuevas áreas
temáticas de la Nanobiotecnología molecular
como área de aplicación de la Bioinformática.
4.
AGRADECIMIENTOS
A la Escuela de Medicina de la
Universidad de Costa Rica y al Laboratorio de
Bioinformática (BREL), a los aportes de la
Red Centroamericana de Bioinformática,
MICIT, CONICIT, COMEX, RED CLARA y
CEE (Comunidad Económica Europea), NBIC CYTED, FREE-BIT CYTED, SOIBIO,
EMBNET,
FCSC
(ESPANA),
INB
(ESPANA), MICROSOFT (EEUU), ISCB
(EEUU)
y
la
empresa
Indromics
(www.indromics.com) del grupo empresarial
TECAPRO (Costa Rica) e iniciativa AUGE
(Universidad de Costa Rica).
Una agradecimiento especial al Programa
estrategia siglo XXI de la Academia Nacional
de Ciencias de Costa Rica a través de su Red
ticotal, por reconocer como talento destacado
internacional del mes de octubre 2012 al
primer autor de la nota y NBIC- CYTED por
permitir un espacio de publicación y apoyo
general. Finalmente al programa de
Doctorado en Biociencias Moleculares de la
Universidad Autónoma de Madrid, España.
5.
REFERENCIAS
[1] Cox Jeffrey. 2009. Biotech under
Barack. Nature Biotechnology 27, 237244.
[2] Dawn Field et al. 2006. Open Software
for Biologist: from famine to feast.
Nature Biotechnology 24, 801-803.
[3] Orozco A. 2007. Strategic Aspect by
technological for the academic and
business
development
of
the
bioinformatics in Costa Rica and Central
America Regions. BMC Bioinformatics.
London, UK.1-3.
[4] Orozco A. 2005. Bioinformática: Un
mundo de oportunidades. SSI (with
support of Harvard Business School,
EEUU). Vol 5 INCAE, 1-3.
[5] Orozco A. 2006. Mendoza C. Bovine
Trace to the traceability of beef. Embnet.
News (Sweden) V 14 N2 10-11.
[6] Orozco A. 2009. International Society of
Computational Biology, Conference
Bioinformatics:
Bioinformatics
Education, Curriculum Development,
Challenges and Opportunities, Bamako,
Africa.
[7] Orozco A, Jiménez S, Morera J. 2012.
BiocaNET: A platform applied in clinical
genomic medicine in Central America,
European Conference on Computational
Biology (ECCB), Basel, Switzerland.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
[8] Orozco A, Jiménez S, Morera J. 2012.
BiocaNet:
Central
American
Bioinformatics Network. International
Society of Computational Biology
(ISCB), California, EEUU.
[9] Orozco A. 2012. Bioinformatics software
development in Central America: A
growth alternative in education and
computer technology on the molecular
modeling of protein and DNA virtual
structures field, ISCB- Latin America,
Santiago, Chile.
[10] Orozco A. 2012. Infraestructuras en
investigación
y
formación
en
Bioinformática en Costa Rica e istmo
Centroamericano
[Diapositiva
15],
Tecnologías NBIC en Salud, NBICCYTED. Buenos Aires, Argentina.
[11] Orozco A. 2012. La Bioinformática y su
importancia en Costa Rica. Diario la
nación, San José, Costa Rica, 25 de
septiembre 2012, pág 29A.
[12] Orozco et al. 2011. Propuesta científica
de
Red
Centroamericana
de
Bioinformática. BIOCANET, Escuela de
Medicina, Universidad de Costa Rica, 35
p.
[13] RNCOS (Industry Research Solutions).
2012, Bioinformatics Market Outlook to
2015, EEUU. 17 p.
[14] Matte-Tailliez, O. Toffano-Nioche, C.
Ferey, N. Kepes, F. Gherbi, R 2006.
Immersive Visualization for Genome
Exploration and Analysis. Information
and Communication technologies 2,
3510-3515.
19
20
Red Ibero-NBIC
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Regional PACS over the Cloud
Luís A. Bastião Silva, Carlos Costa, José Luis Oliveira
Universidade de Aveiro – DETI / IEETA, Portugal
Abstract.
The
production
of medical
images
tremendously increased in the last decade,
imposing several difficulties to storage and
distribution. The installation, maintenance
and utilization of these systems are still a
burden due to their heavy structures, typically
supported by centralized computational
resources.
Computing devices and Internet access are
now available anywhere and at anytime,
creating new opportunities to share and use
online resources. This new reality created an
excellent opportunity for telemedicine,
telework
and
collaborative
work
environments.
This chapter described the design and
implementation of a Regional PACS (Picture
Archive and Communication System) with
standard remote access. The central
repository is supported by a document centric
database and the data access is based on
routing
mechanisms
over
a
cloud
infrastructure.
Keywords: PACS, DICOM, medical imaging,
telemedicine, teleradiology, Cloud computing.
1.
INTRODUCTION
Over the past two decades, the healthcare
sector has been adopting technologies and
information systems to support diagnoses,
treatment and patient care. Medical imaging
is not an exception and this segment produces
huge amounts of information and takes
advantage of new technologies to aid in the
imaging diagnosis.
Healthcare institutions worldwide have
adopted PACS for enterprise access to
medical images, relying on DICOM standards
for data exchange. Those images are stored in
central repositories and, to support data
produced, healthcare institutions maintain
datacentres with large gigabytes of
information, even petabytes.
The medical imaging production increased in
the last decade and nowadays PACS is an
indispensable tool in the digital imaging
laboratories [1, 2]. They are typically
supported by centralized and heavy
computational solutions with high installation
and maintenance costs.
On the other hand, computing devices and
Internet access are now available anywhere
and at anytime, creating new opportunities to
share and use online resources. A tremendous
amount of ubiquitous computational power,
such as Google and Amazon, and an
unprecedented number of Internet resources
and services, such as email and storage, are
used every day as a normal commodity. Also,
Internet bandwidth is plentiful, which allows
online data storage and time-efficient remote
access from anywhere [3]. So the major idea
is that we can get from the Internet Cloud, in
a self-service model, things that we are used
to relying on a central computer and services
for.
21
22
Red Ibero-NBIC
In this chapter, we start presenting a
developed Open Source PACS that is able to
store large amounts of data in a scalable
manner
and
provides
an enhanced
query/retrieve.
Moreover,
the
communications over a wider domain of
independent medical institutions is not well
standardized. So, a DICOM-compliant bridge
was developed for extending and sharing
DICOM
services
across
healthcare
institutions without requiring complex
network setups or dedicated communication
channels. This DICOM routing mechanism is
supported on the public Cloud services and
follows Web 2.0 paradigm due to using the
HTTP channel [4]. The solution provides a
transparent application for the end-user that
supports DICOM Storage and Query/Retrieve
services, issuing this way the interoperability
with devices adopted by the medical
community.
2.
BACKGROUND
2.1. PACS and DICOM standard
Nowadays, the use of medical imaging
systems in healthcare institutions is
unquestionable, even in small medical
imaging centres. Thus, it is necessary to
endow these medical institutions with digital
storage and visualization devices to improve
the
physician’s
workflow.
However,
acceptance of new technologies in the
healthcare sector remains a challenge due to
clinical staff barriers against the digital era.
The conventional paper and film-based
operation was part of the traditional workflow
and changing to digital images was pointed
out as “losing control” as doctors must ensure
that procedures are under their control [5].
Nevertheless, changes in IT caused an ongoing revolution in radiology and, in general,
all medicine. As a result, workflows were
speeded up and costs were reduced, with a
significant financial impact on healthcare
institutions.
Many technologies developed for the
healthcare sector have contributed to improve
diagnosis and support for clinical decisions.
One of the important changes was in
management of digital radiology modalities,
e.g. X-Rays, Computed Tomography (CT),
Magnetic Resonance (MR), Ultrasounds (US)
and so on. Healthcare institutions have
purchased more acquisition devices, with
higher resolution and larger image data size.
The amount of images produced by
acquisition devices has increased and,
consequently, the medical image repository
has to scale up in order to support such a
growing volume of medical studies.
PACS encompasses several hardware,
communication networks and software
technologies for the acquisition, distribution,
storage and analysis of digital images in
distributed environments [5]. The main
components are: image acquisition and
scanning devices, storage archive units,
display workstations and databases with
patient records. All those components
communicate
through
the
network,
contributing to the integrated system.
DICOM (Digital Image and Communication
in Medicine) is an international standard that
defines the file format and directory structure
needed for offline communication. In
addition, the communication protocols and
packet semantics are described to support
network operations between medical imaging
devices. DICOM standard not only grants
basic connectivity between imaging devices,
but also supplies guidelines for workflow in
an imaging department. Nowadays, it is a
major contributor to the exchange of
structured medical imaging data and almost
all medical imaging manufacturers are
following the DICOM rules.
The real world has direct representation in
DICOM standard. DICOM Information Model
(DIM) [6] represents the items that match real
objects and describes their relationship.
These relations are quite important to
organize the information systems. DICOM
has the following hierarchy: Patient-StudySeries-Image. The hierarchy reproduces real
life entities, i.e. a patient can have multiple
examinations, and these examinations may be
from different modalities. Each modality uses
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
different protocols and may produce a
different number of images.
A unique key is assigned to each level of
hierarchy. This is very important to identify
the Patient, Study, Series and Image.
PatientID identifies the patient level. At the
study level, Study Instance UID is used.
Series Instance UID is the unique id at the
series level. Finally, each DICOM object is
instanced with a SOP (Service Object Pair)
Instance UID – image level.
DICOM protocol is quite important for
interoperability between medical devices.
This protocol works over TCP/IP granting a
reliable connection between actors. It follows
the same structure of DICOM objects and, in
the network, encapsulates messages as TLV
(Tag Length Value) elements. There are many
concepts involved in the protocol, but we will
address just the service layer, i.e. exchanged
messages.
Over the protocol layer, DICOM has several
services that follow a client/server
architecture. In the DICOM scenario, there
are server unities, named Service Class
Provider (SCP), and clients, designed as
Service Client User (SCU). A DICOM
equipment can have different roles, i.e. SCP
or SCU, depending on the type of device. For
instance a modality that produces images is
responsible for storing the image in the
archive server. Thus, a modality is considered
a SCU because it uses a service. On the other
hand, the archive is a SCP because offers a
service.
Each DICOM device has an Application
Entity Title (AETitle) that identifies the
DICOM device. DICOM is a protocol over
TCP/IP, thus AETitle is an addressing
mechanism that works similarly to IP and port
in the lower layer of the network stack.
To communicate with a DICOM device, the
first step is to purpose an exchange of
information, called DICOM association. In
this procedure, devices negotiate several
parameters for the association, such as, what
kind of information will be transferred, how it
is encoded and the duration of the association.
After the negotiation, the service commands
are executed between SCU and SCP to
perform the service goal.
2.2. Shared
and
collaborative
telemedicine services
PACS presents significant advantages over
traditional analogical systems based on film
and also creates an excellent opportunity for
telemedicine, telework and collaborative
work environments. Although medical digital
imaging has brought many benefits, it also
presents new challenges for storing, indexing
and sharing data [5].
Currently, most devices in medical
institutions follow the DICOM standard to
communicate, store and visualize information.
In theory, DICOM standard solved all issues
regarding communication between different
collaborators, but several gaps remain in real
environments, mainly in inter-institutional
cooperation, which are barriers to “many-tomany” collaborations [7] [8-10] [11].
Telemedicine and teleradiology have become
increasingly important in the healthcare
delivery system. The evolution of this model
allows a reduction in duplication of exams
and streamlining of healthcare services
among hospitals. Telemedicine requires
computers able to gather and transfer patient
information,
examination
results
and
diagnostic reports [5].
Teleradiology is one of the most important
cooperative areas in medicine. It is a subset of
telemedicine that is mainly used when
medical centres cannot afford specialists from
all areas and make use of outsourced services,
including reporting of examinations. In some
areas, there are rural clinics, community
hospitals or small centres with technicians
and acquisition devices to perform
examination of specific modalities, for
23
24
Red Ibero-NBIC
instance, computer radiology (CR) or
magnetic resonance (MR). However, they do
not have enough radiologists, i.e. specialist
physicians, to report all these exams. In those
cases, remote reporting is quite common
practice. Furthermore, the availability of
teleradiology facilitates obtaining a second
opinion, which in some cases might be very
important. Another important aspect is the
reduction of the reading cycle time from
acquisition until the report is completed.
There are also other user cases, for instance,
tele-work scenarios, where healthcare
professionals need to have remote access to
the medical repositories and information
systems of their institutions.
3.
MATERIALS AND METHODS
In the last years, we developed a new PACS
archive named Dicoogle1 that replaces
traditional relational database engine by an
indexing mechanism. This approach allows
more flexible queries over DICOM objects
metadata. Moreover, this framework allows
us to create a DICOM network over the WAN
(Wide Area Network), potentiating scenarios
of shared PACS archives that can be accessed
anytime and anywhere.
3.1. PACS with Indexing Engine
Traditionally, a PACS infrastructure relies in
a relational database engine, such as, Oracle
or SQL Server to management the DIM
(DICOM Information Model). In opposition,
Dicoogle [12] is a PACS system that relies on
an indexing engine instead. It follows a
documented centric model and, for each
DICOM image, creates a new entry. This
approach does not require new schemes to
indexing new fields of the DICOM metadata.
The Dicoogle platform is an open source
project developed in Java and planned to run
in any common operating system. The system
is based on Apache Lucene [13, 14], a public
1
www.dicoogle.com
domain document-indexing engine that
requires reduced installation and maintenance
effort. These characteristics, associated with
its robustness and simplicity, make it very
used in a large variety of applications,
including Wikipedia.
The implementation of DICOM standard
functionalities
is
supported by the
DCM4CHE library [15, 16], a SDK that is
used to extract DICOM data elements from
persistent objects and to implement the
Storage SCP and Query/Retrieve SCP
services [17]. The decoded DICOM
information is parsed and indexed by a
Lucene server according to programmed
rules. The Dicoogle user has several
possibilities to configure the indexed
elements: only DIM fields, all DICOM object
attributes and all (or part of) mandatory fields
from specific IOD (Information Object
Definition) image modality [18]. Finally,
Dicoogle uses the JAI ImageIO toolkit [19] to
display the medical image thumbnails,
improving the usability of the system.
3.1.1.
Indexing Metadata
In what we believe to be a breakthrough
approach, Dicoogle uses a database with a
more agile indexing and retrieving
mechanism [20]. With this solution, any
document type can be indexed, besides
storage and searching of traditional DICOM
information model fields. In this way, it is
possible to add all other DICOM textual data
elements without the need to create new
fields, new tables, and new relations that
would be necessary in the database approach.
There are recent reports about DICOM
metadata repository [21, 22]. The system
described in [22] allows the extraction,
process and display of information. It uses a
conventional database infrastructure to store
data and (tries to) extracts 200 fields.
Comparatively, our approach is a truly PACS
containing metadata information in opposite
to the [22] system, a separate database
contains no image and where the patients are
not identified. Moreover, Dicoogle can
automatically extract, indexing and store all
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
metadata detected in modality DICOM
header, including private DICOM attribute
tags, without re-engineering or reconfiguration needs.
modality worklist, visualization software or
web portal interface.
Besides PACS archive data, Dicoogle can
also index DICOM data from other sources
(email, ftp, http, etc.). It includes a file
system monitor interface where all events
(file creation, change, deletion, etc.) are
intercepted, and according to the kind of data,
specific indexing actions will be triggered.
Dicoogle allows the indexing of DIM Fields,
a set of or all DICOM attributes, and
additional metadata that can be used in
association with each file. These parameters
can be customized to answer specific user
requirements. In general, users do not need
complete knowledge of the structure of the
DICOM images to retrieve the wanted
information. However, skilled users can finetune search sentences to improve the quality
of retrieved results.
3.1.2.
Building Indexes
To create indexes, Dicoogle works in two
phases. The first time the application is
executed, it is necessary to scan all files in
the computer. During this process, all
detected DICOM files are indexed with
Lucene [13], much as happens with the files
received by standard Storage SCP service.
Once the complete scan is finished, the
application turns into a “steady state” mode
(file system watch), where it is only necessary
to detect incremental file changes (create,
update and delete).
On the other hand, Dicoogle can also work as
a traditional PACS solution. In this case, we
just need to configure an external DICOM
viewer to visualize the selected images. The
simplicity of this solution fits well with the
requirements of a small imaging center. In an
enterprise PACS, Dicoogle can also be used
as an image storage archive without affecting
existent third services, for instance, the
Figure 1: Dicoogle architecture:
components and interfaces
3.1.3.
DICOM services
supported on search
engine
The Dicoogle DICOM Query/Retrieve service
uses the Lucene indexer to extract the desired
information. It applies a specific boolean
expression using the indexed DIM fields. For
each C-FIND Request [4] (i.e., the DICOM
query command), it builds a query using
specific keywords such as PatientName,
StudyDate, Modality, or other DIM fields. For
instance, “PatientName: FELIX* AND
StudyDate: [20090101 TO 20090131] AND
Modality:CT”.
The query result will include the location of
DICOM persistent objects and all other
DICOM tags that were indexed. The set of
search results are used to build the answer
DIM model. For instance, if C-FIND Request
level is Study, it creates a list of studies
filtered by Study Instance UID with a
structure containing the study and patient
mandatory fields for C-FIND Response.
The DICOM retrieve service is based on CMOVE command [4]. Dicoogle uses the
Study Instance UID keyword to interrogate
25
26
Red Ibero-NBIC
the indexer and to identify the DICOM files
location that must be sent to the remote host.
The standard DICOM C-FIND query
mechanism only uses DIM fields as search
criteria to extract information from Dicoogle
repository. However, the extended version of
developed query mechanism can also use all
indexed tags, allowing more detailed and
powerful searches. Moreover, it is possible to
do a free text search over all indexed
document.
3.2. Building a remote access to
PACS
The DICOM standard communications
layer is not frequently used in interinstitutional interaction due to its own
limitation. In practice, each hospital is an
independent island, unable to establish
standard communications with other
hospital infrastructures. The integration of
medical repositories, i.e. PACS archives
like Dicoogle, from different institutions
is an ad-hoc process, which has several
barriers to surmount in deployment.
Moreover, telework based on desktop
diagnostic imaging software can be
difficult due to restriction in accessing
medical
repositories
outside
the
institution. In this paper, we present a
solution that creates an easy way to
establish
inter-institutional
medical
imaging services, namely shared processes
and integration of repositories, a solution
supported on Cloud computing services.
Cloud providers offer a high quality of
service, measured in uptime availability
and long term scalability. Our solution
takes advantage of Cloud services to
provide remote search functionalities and
exchange of medical images between
different
locations.
However,
communication between the components
of digital medical laboratories is mainly
carried
out
through
DICOM.
Nevertheless, Cloud resources are only
accessible through web services. Thus,
DICOM forwarding services between
different sites is not straightforward. The
main advantage of the proposed solution
is that it runs on top of cloud services and
follows the web 2.0 paradigm, i.e. services
are available anywhere and anytime
through HTTP connections.
DICOM protocol runs over TCP/IP
protocol and contains its own addressing
model through the AETitle that identifies
the medical device [23]. Due to network
filter restrictions (i.e. firewalls), this
communication does not perform well in
WAN (Wide Area Network) scenarios.
Thus, it is not compatible with the Web
2.0 paradigms and some networks only
support HTTP/HTTPS access, filtering the
remaining
protocols.
To
extend
communication to different institutions,
the proposed approach takes advantage of
the DICOM addressing mechanism to
route the information to the correct
location (i.e. AETitle is the DICOM
address mechanism).
DICOM relay over the cloud [24] uses
public Cloud infrastructure as a relay
communication mechanism to support
information forwarding among the
involved entities through these routes.
Nonetheless, several Cloud services
provide different API (Application
Programming Interface), and they are not
compatible with each other. Thus, the
initial assumption depends on a particular
provider. In order to tackle the issue, we
developed a middleware to Cloud
blobstore (storage - associative memories)
and notification systems (asynchronous
message-based communication) with a
plugin-based mechanism that provides a
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
transparent interface to the Cloud
providers. As result, the solution can be
used with other cloud service provider,
avoiding being locked to any specific
seller and avoiding availability problems.
DICOM node supporting several services.
Finally, the Router communication does not
require opening any additional firewall
service. It only uses HTTP or HTTPS
communication from inside to outside, which
is commonly available in institutions.
The proposed DICOM relay service has
two main goals: grant secure and reliable
connection between players and create an
easy solution to access internal medical
repositories “anytime and anywhere”. Our
architecture (Figure 2) contains two main
components: DICOM Bridge Router and
DICOM Cloud Router, which we will
explain in more detail, further on in this
section.
3.2.2. DICOM Bridge Router
The DICOM Bridge Router (Bridge) works as
a relay mechanism between different DICOM
Cloud Routers dispersed over several
locations. This component works in
partnership with the Cloud public providers
but it does not store medical data, only having
a small cache mechanism to support the
forwarding of ciphered data between routers.
The vast amount of information that flows in
the WAN network is uploaded/downloaded to
the Cloud providers. DICOM Bridge Router
is an important part of the architecture
because it stores information about all devices
(i.e. routing tables - AETitles) and
corresponding services supported. Moreover,
it has accounts from routers and a list of
Cloud provider credentials that routers can
use to store temporary information, i.e. intransit data. It needs to be always available
over the Internet because routers need to
write information in the Bridge to support
communications. It can be deployed in several
places like, for instance, in a private Cloud,
detained by a medical institution, or in a
public Cloud provider.
3.2.1. DICOM Cloud Router
The DICOM Cloud Router (Router) is located
inside institutions Intranet and has the main
responsibility of handling DICOM services
and forwarding messages to the correct
remote place. The forwarding of DICOM
messages is based on the AETitle that
identifies the medical device. Real world
objects were mapped directly in the DICOM
standard, for instance DICOM equipment is
represented as a “Device” in the defined
concepts of the standard. The Router supports
multiple devices (i.e. as many as are online in
the WAN DICOM network), each one with a
different AETitle and transfer syntaxes (i.e.
data codification supported).
Furthermore, each medical institution or
isolated DICOM network that wants to share
services in the WAN DICOM network needs
to run, at least, a Router inside the local
network that will be seen as a standard
Network management is supported by a
temporary information system and the Bridge
is accessible through the web service
mechanism (RESTful). It provides the
credentials to validate authorized routers,
AETitle
of
the
27
28
Red Ibero-NBIC
Internet
Radiologis
t at home
HTTP
DICOM
Bridge
Router
Cloud
providers
HTTP
HTTP
DICOM
C-STORE
Modalities
Router B
Router A
Hospital A
DICOM
C-STORE
Dicoogle PACS
DICOM
C-FIND/
C-MOVE
DICOM
C-STORE
Workstations
Hospital B
DICOM
C-FIND/
C-MOVE
Workstations
Modalities
Figure 2: Architecture of the solution: Router in the boundary makes the communication
between the DICOM devices and Cloud computing
DICOM networks and credentials to access
the Cloud provider. Only users registered (an
authenticated) in this entity can access the
DICOM WAN Network.
The Bridge is considered the main component
of the architecture because it manages the
relay service, storing only a reduced amount
of information during the dataflow. Moreover,
as we explain later, it stores the session key
used to cipher the DICOM messages of an
association. So it should be deployed in a
trustworthy location to safeguard the
proposed architecture. Nevertheless, it is
exclusively used as a controller/registry entity
and has no contact with query/response
messages or transferred images. The
institution’s
data
is
securely
uploaded/downloaded via public cloud
providers, using point-to-point encryption
mechanism implemented by two Router
entities.
3.3. Service initiation
To provide DICOM services across hospitals’
private networks, an initial process is
necessary to allow communications between
two or more private networks. The router
initial steps, performed at startup, are:
1. Validate the Router account credentials;
2. Load the list of LAN DICOM services
to share with WAN;
3. Load available services from other
private networks (accessible via WAN);
4. Start DICOM services;
5. Subscribe to the Cloud association
channel and wait for new associations.
In fact, the DICOM relay service only works
effectively after account validation, to avoid
unauthorized users access to shared resources
(step 1). Each working Router needs to be
authenticated by the Bridge. The validation of
the Router is performed with a username and
a password. Once successfully authenticated,
it will retrieve a session token that will be
used to support network operations, i.e.
forward DICOM messages. The token has an
associated time-life and messages with
expired tokens will be refused. Each Router
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
needs to register (i.e. publish) the services to
be shared with other institutions (step 2).
This information relating to DICOM services
available in the Intranet must be configured
by the local PACS manager and stored in the
routing table of the local Router. Next, this
information is widely spread to other routers
via the Bridge. Receiving reference to a new
service X, provided by a Router Y, forcing all
other Routers to launch this service X on the
respective Intranet.
In the synchronization process, a Router
provides its information to the shared DICOM
domain through the Bridge and also receives
the list of AETitles and transfer syntaxes of
all other routers connected (step 3). This
procedure joins the local routing tables with
the external tables. Afterwards, the Router
identifies the AETitles providing services
(i.e. servers), starting to provide all those
services to the local network (step 4). The
Router runs a DICOM device per AETitle and
one single AETitle can support more than one
DICOM service, e.g. Storage (i.e. upload of
DICOM studies), C-FIND (i.e. search over
DICOM repositories) or C-MOVE (i.e.
download of DICOM studies). Thus, the
Router can be contacted by the same IP-Port
address and it will distinguish requests by the
destination AETitle (step 5). Subscription is
carried out through the notification systems
that Cloud providers are offering nowadays.
This service allows Routers waiting for new
connections from remote institutions to be
notified.
4.
RESULTS
This section presents two use cases that can
be achieved with the proposed solution. The
first one is a study about extraction of
knowledge from DICOM repositories using
Dicoogle. The second is a Regional PACS
with WAN DICOM communications.
4.1. Knowledge
extraction
using
Dicoogle
Dicoogle contains several key features that
offer new ways of looking in metadata of
images for retrospective assessments. These
can be used in statistically oriented
management and reporting tasks or wideranging clinical studies requiring, for
example, dose metrics.
We used a dataset of a small hospital to study
the quality of data [25]. For instance, the CR
query ([Modality:"CR"]) returns a data
sample from 13772 patients (7816 women,
5950 men and 6 records with “PatientSex =
O”), which corresponded to 41832 images.
Moreover, it is possible to analyse tags with
X-Ray exposure parameters, like for instance,
“Sensitivity” in Computer Radiology (Figure
3).
Figure 3: Sensitivity dispersion for the
“C.C. DRT” mammograms performed in
2008.
Due to the capability to Dicoogle to index all
tags of DICOM metadata, it is possible to
measure and search in tags that was not
possible in traditional PACS. This statistic
studies are fundamental to improve radiology
department efficiency and professional
practices.
29
30
Red Ibero-NBIC
4.2. Regional PACS
We deployed Dicoogle PACS and DICOM
Cloud Router in two diagnostic centers. These
centers have several acquisition devices with
CT, CR and US modalities. There is only one
central Dicoogle archive, located in a private
datacenter, shared by those institutions. Our
bridge is deployed over a private Cloud.
DICOM Cloud Router performs the inter-site
access to the regional PACS. On the other
hand, using those routers, physicians are able
to report from several places anytime and
anywhere. Table 1 shows the number of
images that were stored in PACS in a
monthly.
Table 1: Number of images stored in
October 2012
CR
CT
US
Total
7096
49948
28120
105992
5.
Dicoogle with DICOM relay service offers a
secure and easy to deploy an inter-institution
repository with facilitated access. It does not
need complex setups to start communicating
with
external
repositories,
allowing
interoperability with any DICOM standard
device. Besides, the required infrastructure is
not excessive because it supports its main
resources on the Cloud.
Acknowledges
The research leading to these results has
received funding from Fundação para a
Ciência e Tecnologia (FCT) under grant
agreement PTDC/EIA-EIA/104428/2008 and
SFRH/BD/ 79389/2011.
References
1.
Costa C, Oliveira JL, Silva A,
Ribeiro VG, Ribeiro J: Design,
development,
exploitation
and
assessment of a Cardiology Web
PACS. Comput Methods Programs
Biomed 2009, 93(3):273-282.
2.
Prepare for Disasters & Tackle
Terabytes
When
Evaluating
Medical Image Archiving. In.: A
Frost & Sullivan Healthcare Article.
http://www.frost.com.; 2008.
3.
Rosenthal A, Mork P, Li MH,
Stanford J, Koester D, Reynolds P:
Cloud computing: a new business
paradigm
for
biomedical
information sharing. J Biomed
Inform 2010, 43(2):342-353.
4.
Bennett S, Bhuller M, Covington R:
Architectural Strategies for Cloud
Computing. In.: Oracle White
Paper; 2009.
5.
Huang HK: PACS and imaging
informatics: Basic Principles and
Applications, 2nd edn. New Jersey:
Wiley & Blackwell, Hoboken; 2010.
CONCLUSIONS
The presented solution explains how to build
a Regional PACS, that can be accessed
anytime and anywhere. This approach allows
DICOM standard communication between
different medical devices located in distinct
institutions. The proposed architecture allows
the creation of a federate DICOM network
located over distinct medical institutions,
creating a unique view of all resources.
Indeed, other solutions exist, for instance,
VPN and email. However, the former
mechanism demands bureaucratic setups and
time-consuming actions and the latter does
not offer any privacy regarding the email
provider. Furthermore, access to PACS
archives located in remote locations only
requires an Internet connection with HTTP
access like any other Web 2.0 application.
This solution supports DICOM Storage and
Query/Retrieve, the most relevant services to
interact with medical imaging laboratories.
However, in the future, other minor services
might be supported by the platform.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
6.
7.
8.
9.
NEMA NEMA-: Digital Imaging
and Communications in Medicine
(DICOM) - Part 3. In: Information
Object Definitions.
Hernandez JA, Acuna CJ, de Castro
MV, Marcos E, López M, Malpica
N: Web-PACS for multicenter
clinical
trials.
Information
Technology in Biomedicine, IEEE
Transactions on 2007, 11(1):87-93.
Yang C, Chen C, Yang M:
Implementation of a medical image
file accessing system in coallocation data grids. Future
Generation Computer Systems
2010.
Sharma A, Pan T, Cambazoglu BB,
Gurcan M, Kurc T, Saltz J:
VirtualPACS--a federating gateway
to access remote image data
resources over the grid. J Digit
Imaging 2009, 22(1):1-10.
10. Liu BJ, Zhou MZ, Documet J:
Utilizing data grid architecture for
the backup and recovery of clinical
image data. Comput Med Imaging
Graph 2005, 29(2-3):95-102.
11. Chen C, Wang W: Implementation
of a Medical Image File Accessing
System on Cloud Computing. In:
Computational
Science
and
Engineering (CSE) - 2010; Hong
Kong, China.
12. Costa C, Ferreira C, Bastião L,
Ribeiro L, Silva A, Oliveira JL:
Dicoogle-an open source peer-topeer pacs. Journal of Digital
Imaging 2011, 24(5):848-856.
13. Apache SF: Lucene Index Server http://lucene.apache.org. In.
14. Gospodnetic O, Hatcher E: Lucene
in Action: Hanning; 2004.
15. dcm4che:
sourceforge
project:
http://sourceforge.net/projects/dcm4
che/.
16. Warnock MJ, Toland C, Evans D,
Wallace B, Nagy P: Benefits of
Using the DCM4CHE DICOM
Archive Journal of Digital Imaging
- Springer New York 2007, 20 Supplement 1:125-129.
17. DICOM-P4: Digital Imaging and
Communications
in
Medicine
(DICOM), Part 4: Service Class
Specifications.
In.:
National
Electrical
Manufacturers
Association; 2007.
18. DICOM-P3: Digital Imaging and
Communications
in
Medicine
(DICOM), Part 3: Information
Object Definitions. In.: National
Electrical
Manufacturers
Association; 2007.
19. SUN: JAI ImageIO Project,
https://jai-imageio.dev.java.net/. In.
20. Costa C, Freitas F, Pereira M, Silva
A, Oliveira JL: Indexing and
retrieving DICOM data in disperse
and
unstructured
archives.
International Journal of Computer
Assisted Radiology and Surgery
Springer 2009, 4(1):71-77.
21. Vano E, Martinez D, Fernandez
JM, Ordiales JM, Prieto C, Floriano
A, Ten JI: Paediatric entrance doses
from exposure index in computed
31
32
Red Ibero-NBIC
radiography. Phys Med Biol 2008,
53(12):3365-3380.
22. Kallman HE, Halsius E, Olsson M,
Stenstrom M: DICOM Metadata
repository for technical information
in digital medical images. Acta
Oncol 2009, 48(2):285-288.
23. DICOM-P7: Digital Imaging and
Communications
in
Medicine
(DICOM),
Part
7:
Message
Exchange. In.: National Electrical
Manufacturers Association; 2009.
24. Silva LAB, Costa C, Oliveira JL:
DICOM relay over the cloud.
International Journal of Computer
Assisted Radiology and Surgery
2012:1-11.
25. Santos M, Bastião L, Costa C, Silva
A, Rocha N: DICOM and Clinical
Data Mining in a Small Hospital
PACS: A Pilot Study. ENTERprise
Information Systems 2011:254-263.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Retos Actuales en el Acceso y la Gestión
de la Información Biomédica
Diana de la Iglesia
Miguel García-Remesal
Guillermo de la Calle
Depto. Inteligencia Artificial
Depto. Inteligencia Artificial
Depto. Inteligencia Artificial
Facultad de Informática
Facultad de Informática
Facultad de Informática
Universidad Politécnica de Madrid Universidad Politécnica de Madrid Universidad Politécnica de Madrid
Madrid, España
Madrid, España
Madrid, España
[email protected]
[email protected]
[email protected]
David Pérez-Rey
Ana Freire
Víctor Maojo
Depto. Inteligencia Artificial
Departamento de Tecnologías de la
Depto. Inteligencia Artificial
Facultad de Informática
Información y las Comunicaciones.
Facultad de Informática,
Universidad Politécnica de Madrid
Universidad de A Coruña.
Universidad Politécnica de Madrid
Madrid, España
A Coruña, España
Madrid, España
[email protected]
[email protected]
[email protected]
1.
INTRODUCCIÓN
Las tecnologías emergentes NBIC (Nano-BioInfo-Cogno) ofrecen soluciones innovadoras en
el ámbito de la biomedicina mediante la
aplicación de nuevos conocimientos de carácter
multidisciplinar [1]. Los datos subyacentes a
este nuevo conocimiento son numerosos, a
veces inconexos, de carácter distribuido y
heterogéneo, y plantean nuevos desafíos para
su integración con el conocimiento biomédico
ya existente. Dicha explosión de datos se ha
visto a su vez favorecida por el descenso de
precios, tanto en los dispositivos para el
almacenaje de datos como en los dispositivos
de carácter biomédico.
El rápido desarrollo en la cantidad y variedad
de datos, unido al alto grado de especialización
y multidisciplinaridad existente en las áreas de
biología y medicina, demuestra la necesidad de
nuevos enfoques que nos permitan tanto
recuperar la información deseada como
estructurarla e integrarla de manera que se
facilite el acceso a la misma. Por esta razón,
durante los últimos treinta años, la
organización y anotación de datos biomédicos
de forma estructurada ha ganado un creciente
interés.
Aparte de la necesidad de creación de nuevas
infraestructuras adaptadas al intercambio y la
computación distribuida de los datos y
resultados existentes, también es necesario un
cambio de mentalidad para promover la
utilización de un lenguaje común y
estandarizado, así como para dar soporte a la
creación de comunidades científicas con
objetivos de investigación e intereses comunes.
En este sentido, la integración de las
Tecnologías de la Información y la
Comunicación (TIC) en diversas áreas
científicas –como la nanomedicina, la
biomedicina y la ciencia cognitiva— juega un
rol fundamental, pero se debe afrontar como
una iniciativa a largo plazo que presenta
numerosos retos aún por resolver.
La
implantación
directa
de
métodos
computacionales en cualquier área científica
como, por ejemplo, la biomedicina, no es
posible, sino que resulta necesario formar y
educar previamente a biólogos, médicos, y
personal clínico en el uso de las Tecnologías de
la Información.
33
34
Red Ibero-NBIC
En el ámbito de la salud, la dificultad de
transferir el conocimiento disponible a nivel
biológico para su utilización en el contexto
clínico –campo denominado “investigación
translacional”— es un problema directamente
relacionado con la incapacidad de gestionar la
información existente. El Grupo de Informática
Biomédica de la Universidad Politécnica de
Madrid trabaja activamente en temas
relacionados con la gestión y la integración de
datos, tanto de origen biomédico como
nanomédico [2, 3].
En este capítulo se resumirá el trabajo
realizado por el grupo durante los últimos años
en estos temas, proporcionando una visión
global de los retos y dificultades que se han
encontrado a la hora de desarrollar estrategias
para el acceso y la gestión de la información
generada durante la investigación en
biomedicina.
2.
GESTIÓN DE
INFORMACIÓN
La complejidad de la información biomédica
requiere que, para su análisis, sea necesaria la
gestión de datos heterogéneos a gran escala. En
este contexto, el valor de cualquier dato es
mucho mayor cuando existe una forma de
integrarlo con otros datos. Se puede lograr este
objetivo mediante el uso de las TIC,
disponiendo de la combinación necesaria de
tipos de datos y experiencia, encapsulando el
conocimiento del dominio –en un recurso
software como una base de datos, una
ontología, etc.— para posteriormente combinar
dicho conocimiento y crear un entorno de
análisis de datos ad-hoc. Para este fin, es
necesario el uso de estrategias flexibles que
permitan interconectar software de diversas
fuentes y de carácter muy
heterogéneo,
facilitando el intercambio de información entre
las mismas.
En el ámbito de la biomedicina, la existencia
de repositorios que integran datos clínicos,
genómicos, patológicos, imágenes, etc., supone
un reto que se afronta mediante diversas
técnicas, herramientas y métodos informáticos,
especialmente aquellos desarrollados en el área
de la Inteligencia Artificial. Por ejemplo, los
modelos de dominio son críticos para la
interoperabilidad y el intercambio de datos
biomédicos. Un enfoque para la integración es
a través de la anotación de múltiples corpus de
datos utilizando vocabularios controlados u
ontologías. Desafortunadamente, el éxito de
este enfoque en el área de la biomedicina ha
dado lugar a una proliferación de ontologías,
que a su vez supone un obstáculo para la
integración de los datos [4]. Iniciativas como el
Standards & Interoperability Framework
(http://wiki.siframework.org)
constituyen
importantes esfuerzos para esta modelización
de dominios.
También es necesario afrontar los problemas
derivados del carácter distribuido de la
información biomédica. La Web ha supuesto un
cambio drástico en nuestra manera de organizar
y acceder a la información, pero las carencias
existentes en las herramientas software siguen
siendo el factor limitante para tener acceso a
todo ese conocimiento. El éxito de dicho acceso
depende, en muchos casos, de la habilidad de
los investigadores a la hora de identificar,
extraer, integrar y consultar los diferentes
recursos disponibles. Los buscadores Web
genéricos nos permiten buscar documentos pero
no enlazan de forma directa con la estructura y
el contenido de bases de datos ni nos
proporcionan el soporte necesario para tomar
determinadas decisiones durante nuestras
búsquedas.
En cuanto al acceso a publicaciones científicas
–fuente principal de información para la
investigación—, los registros bibliográficos –
como PubMed o ISI Web of Knowledge—
están proporcionando, a través de sus sitios
web, nuevas herramientas que facilitan el
acceso electrónico a los textos completos,
incluyendo gráficos y figuras, así como a los
vínculos entre las publicaciones y repositorios
de datos o de materiales complementarios,
aumentando considerablemente la cantidad de
información disponible. A este hecho hay que
añadir que, gracias a la expansión de la Web
durante los últimos años, hemos de considerar
como datos potencialmente relevantes aquellos
generados durante la investigación –recogidos
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
en publicaciones y otros medios científicos—,
pero también otro tipo de información o datos
“ortogonales” como, por ejemplo, aquellos
publicados en redes sociales, generados durante
las búsquedas en Internet, etc.
Desafortunadamente, en muchos casos, a pesar
de que los datos existen, no están disponibles.
Cabe citar la creación, en 2003, del
movimiento “open access”, que fomenta la
implantación de un nuevo modelo de
publicación científica de "acceso libre", como
así se recoge en el Bethesda Statement on Open
Access
Publishing
(http://www.earlham.edu/~peters/fos/bethesda.
htm) y en la Berlin Declaration on Open
Access to Knowledge in the Sciences and
Humanities
(http://oa.mpg.de/lang/enuk/berlin-prozess/berliner-erklarung/). Aunque
algunos editores se han resistido a aplicar los
principios del acceso libre, muchos otros han
respondido aumentando el acceso a los archivos
y el desarrollo de servicios relacionados con
búsquedas bibliográficas [5].
2.1
Información estructurada:
bases de datos y repositorios
Cada día es mayor el número de estudios de
investigación cuyos resultados son registrados
de forma electrónica en repositorios o bases de
datos, especialmente en el ámbito de la
biología molecular. Estas bases de datos
reúnen, de forma estructurada, información de
distintos tipos proveniente de distintas fuentes,
y suelen ser accesibles a través de la Web.
Debido a los requisitos existentes en cuanto a
logística, regulaciones y análisis de datos, no
siempre es posible acceder y gestionar esta
información de forma centralizada. Por
ejemplo, los datos pueden pertenecer a
pacientes de múltiples instituciones o, incluso,
dentro de una misma institución, los datos
pueden ser analizados por diferentes
laboratorios, por razones de instrumentación.
En la actualidad, se emplean enfoques híbridos
para facilitar la gestión y el análisis de datos
distribuidos [6].
El reto actual en la gestión de información
estructurada es la integración de las diversas
fuentes de datos existentes, las cuales
presentan formatos, interfaces y tipos de datos
muy variados.
El
problema
de
la
heterogeneidad en las bases de datos se aplica
por igual a datos clínicos, que describen
pacientes, y a datos biológicos, que caracterizan
nuestro genoma. Las bases de datos suelen ser
heterogéneas con respecto a los modelos y
esquemas de datos empleados, los lenguajes de
consulta que soportan y las terminologías que
reconocen. Los sistemas de bases de datos
heterogéneas intentar unificar bases de datos
dispares,
proporcionando
esquemas
conceptuales uniformes –que resuelven las
heterogeneidades en la representación— y
servicios de consulta sobre los datos integrados.
La investigación en esta área aplica una amplia
variedad de técnicas de gestión de bases de
datos y de conocimiento, incluyendo el
modelado semántico, la creación de ontologías,
la traducción y optimización de consultas, y la
asignación
de
correspondencias
entre
terminologías. En la actualidad, los sistemas de
integración de bases de datos heterogéneas se
aplican en ámbitos como la biología molecular,
los sistemas de información hospitalarios y la
portabilidad de aplicaciones biomédicas.
2.2
Información no
estructurada: texto libre
Sólo pequeñas partes del conocimiento
biomédico
son
accesibles
de
forma
estructurada, es decir, a través de bases de
datos y otros repositorios con formato definido.
Por lo general, la información que contienen
estas bases de datos ha sido extraída
manualmente de documentos y, de la misma
forma, se ha insertado y organizado en bases de
datos gracias al trabajo de expertos en el área.
Sin embargo, la gran mayoría de los
conocimientos biomédicos publicados en la
literatura, no se encuentran disponibles en
dichas bases de datos biomédicas.
35
36
Red Ibero-NBIC
Dado el gran volumen de datos generados
durante la investigación que son publicados en
revistas y otros medios científicos, la anotación
manual de la literatura no es posible. Las
técnicas de procesamiento de lenguaje natural
permiten la adquisición y extracción
automática de conocimiento a partir de datos
biomédicos, así como el procesamiento y
estructuración de textos para convertir la
información contenida en ellos en datos
interpretables computacionalmente.
En relación con la extracción de información de
corpus textuales, al contrario que en los
enfoques clásicos –en los cuales se usan
sistemas basados en reglas o enfoques
puramente estadísticos [7]— en la actualidad
existe una tendencia hacia la utilización de
enfoques híbridos, combinando así la detección
de patrones textuales con el uso de técnicas de
aprendizaje automático [8, 9]. Estos enfoques
híbridos proporcionan una mayor eficiencia (en
términos de precisión y cobertura) que la
proporcionada por la aplicación de los métodos
simples. En relación con las técnicas de
aprendizaje automático más utilizadas, se
tiende a usar un enfoque semi-supervisado, en
contraposición a los métodos de aprendizaje
automático supervisado que se han utilizado
previamente.
Los nuevos enfoques que se están desarrollando
para minería de textos biomédicos dependen,
en su mayoría, de la existencia de un corpus
previamente anotado [10] (Figura 1). Dicho
corpus, comúnmente llamado “estándar de
oro”, es la base para el aprendizaje de patrones
o modelos durante la fase de entrenamiento, así
como para evaluar y comparar el rendimiento
de los algoritmos desarrollados.
Figura 1 - Anotación de textos biomédicos
según el rol del anotador
Además de los objetivos de carácter general
presentados anteriormente, el procesamiento de
lenguaje natural en el ámbito biomédico puede
tener muy diversas aplicaciones, como por
ejemplo:
ƒ
ƒ
ƒ
ƒ
ƒ
Extracción de información de la
historia clínica electrónica de
pacientes en la que, por lo general,
parte de los datos están en forma
narrativa no estructurada (en vez de
organizados en campos)
Resumen de textos y artículos de
forma automática
Traducción de textos biomédicos
automáticamente
Selección/reclutamiento de pacientes
para ensayos clínicos
Etc.
Durante años se han desarrollado técnicas para
el procesamiento del lenguaje natural con el
objetivo de recuperar y extraer dicha
información textual de forma automática. Sin
embargo,
las
estrategias
y sistemas
desarrollados para tal efecto aún no han
cumplido sus objetivos de precisión. La
principal fuente de dificultades en el
procesamiento del lenguaje natural proviene de
la ambigüedad [11]: existen múltiples
interpretaciones de las estructuras del lenguaje
y, por tanto, la necesidad de gestionar la
variabilidad en las expresiones lingüísticas. En
el ámbito biomédico, además, surgen otros
problemas como la ambigüedad de los
acrónimos y las abreviaturas. En particular, en
el dominio de la biología molecular se
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
presentan ejemplos muy específicos de este
tipo de problema a la hora de representar
genes, ya que un solo identificador puede
referirse a más de un gen, tanto dentro de la
misma especie como en organismos dispares
[12].
Por otra parte, en el contexto de la biomedicina
se pueden diferenciar dos ámbitos: el clínico
(ciencia aplicada) y el biológico (ciencia
experimental).
Como
hemos
visto
anteriormente, el dominio de la biología se
caracteriza por la disponibilidad de grandes
cantidades de datos bien definidos y
estructurados que se pueden utilizar, casi sin
restricción, como entradas para la ejecución de
métodos computacionales y algoritmos. En el
ámbito clínico, en cambio, solo está disponible
una cantidad limitada de datos para fines de
investigación, y éstos generalmente se recogen
en descripciones textuales en lenguaje natural.
Esta diferenciación también influye en las
características sintácticas y semánticas de los
textos que describen ambos dominios. Mientras
que los textos clínicos están dominados por la
presencia de sustantivos –dada su naturaleza
descriptiva, en la que abundan numerosos
conceptos y definiciones—, en los textos de
carácter biológico es habitual que predominen
los verbos –debido a que, por lo general, se
describen acciones (procesos celulares,
reacciones metabólicas, etc.). Los objetivos a la
hora de extraer información también son
distintos en ambos dominios. Por ejemplo, en
los textos clínicos, existe una creciente
motivación por detectar referencias temporales
y eventos [13]. La mayor parte de los textos
clínicos en lenguaje natural suelen contener
referencias a pasado, presente y futuro,
relacionadas con eventos que se describen en el
propio texto y que es necesario diferenciar. Una
de las estrategias seguidas en la actualidad es
la de detectar la fecha de creación del
documento que se somete a análisis y
establecer así el tiempo exacto de cada uno de
los eventos que aparecen descritos en el
documento. De esta manera, se pueden
cuantificar y ordenar en el tiempo los distintos
hechos y eventos.
En relación con el análisis y la anotación de
corpus textuales de documentos clínicos, el
Grupo de Informática Biomédica ha
desarrollado
una
nueva
herramienta,
CDAPubMed [14], que facilita la construcción
de consultas durante el proceso de recuperación
de la literatura científica relacionada con
historia clínica electrónica (Electronic Health
Records o EHRs). El objetivo de esta
herramienta es utilizar el contenido de los
EHRs para proporcionar información adicional,
mejorando y personalizando las búsquedas en
la literatura biomédica. De esta manera,
CDAPubMed puede ayudar a médicos,
investigadores y otros usuarios a recuperar las
publicaciones centradas en sus pacientes.
Cuando un usuario realiza una búsqueda de un
EHR y una enfermedad, la herramienta propone
una serie de palabras clave como filtro de los
resultados (Figura 2). Para lograr este objetivo,
CDAPubMed ejecuta dos tareas principales: (i)
el análisis automático del EHR para identificar
los términos relevantes para la posterior
recuperación de la literatura, y (ii) la
generación de consultas para facilitar la
recuperación de las publicaciones relacionadas
con el EHR. CDAPubMed es accesible
públicamente
a
través
de
Internet
(http://porter.dia.fi.upm.es/cdapubmed/).
Figura 2 – Interfaz de la herramienta
CDAPubMed [14]
37
38
Red Ibero-NBIC
inventario de recursos de Informática
Médica eMIR2 [17], disponible en:
http://edelman.dia.fi.upm.es/eMIR2/i
ndex.php. Estos repositorios se crean
y actualizan, a partir del análisis de la
literatura científica existente en el
área, mediante la aplicación de
técnicas de minería de textos y de
procesamiento de lenguaje natural.
Dichas técnicas permiten extraer la
información deseada de forma semiautomática.
3.
REPOSITORIOS DE
HERRAMIENTAS Y OTROS
RECURSOS
Al igual que ocurre con los datos, el acceso a
herramientas informáticas de apoyo a la
investigación biomédica y nanomédica también
es limitado. Generalmente existe más de una
herramienta adecuada para llevar a cabo una
tarea de investigación concreta. Sin embargo,
en algunos casos, los investigadores
desconocen la existencia de estas herramientas,
lo cual impide que puedan beneficiarse de su
uso. La búsqueda manual de un tipo concreto
de herramienta es una ardua tarea en la que,
por lo general, es necesario emplear una gran
cantidad tiempo.
Estos recursos son accesibles en su mayoría a
través de la Web. Navegar por Internet no
requiere un conocimiento especializado en
informática ni en los lenguajes utilizados para
hacer consultas pero, generalmente, los
investigadores solo encuentran datos de interés
cuando acceden a una gran cantidad de sitios
Web, interactuando con diversas interfaces para
extraer los diferentes tipos de datos y poder
proceder a su análisis. Por tanto, cada vez es
más necesario mantener un registro que
permita localizar todos los datos y herramientas
existentes de una manera rápida y eficaz.
ƒ
Otros índices e inventarios de
recursos biomédicos como, por
ejemplo,
iTools
(http://cms.loni.ucla.edu/iTools/index
.aspx),
BioCatalogue
(http://www.biocatalogue.org/) y el
índice del European Bioinformatics
Institute (http://www.ebi.ac.uk/).
Para proporcionar acceso al catálogo de
recursos se ha desarrollado una aplicación web
que permite realizar búsquedas inteligentes
basadas en la funcionalidad de los recursos, la
categoría o el dominio de aplicación de los
mismos, mediante una interfaz de uso intuitivo.
Dentro del marco del proyecto europeo
INBIOMEDvision (FP7-ICT-270107), el Grupo
de Informática Biomédica ha desarrollado un
catálogo de recursos de genotipo-fenotipo,
accesible
públicamente
vía
Internet
(http://www.inbiomedvision.eu/phen-gen.html).
Para la creación de dicho catálogo, se han
consultado e integrado distintas fuentes de
información (Figura 3):
ƒ
Literatura científica publicada en el
área durante los últimos 5 años
(2007-2011).
ƒ
Informes científicos de los distintos
eventos celebrados en el marco del
proyecto INBIOMEDvision [15].
ƒ
El
inventario
de
recursos
bioinformáticos BIRI [16], disponible
en http://www.gib.fi.upm.es/biri/, y el
Figura 3 – Resumen del proceso de
generación del catálogo de recursos del
proyecto INBIOMEDvision a partir de
diversas fuentes
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
4.
TÉCNOLOGÍAS PARA
EL INTERCAMBIO DE
INFORMACIÓN
La gestión, descripción y publicación de datos
biomédicos requiere, de manera cada vez más
urgente, el desarrollo de estrategias para el
intercambio de información entre distintos
individuos, instituciones y puntos geográficos.
En este contexto cabe destacar el rol actual de
redes sociales, herramientas web, foros, wikis,
entornos colaborativos y, en general, de las
tecnologías Web 2.0, a la hora de facilitar la
comunicación entre investigadores –tanto a
nivel
individual
como
de
grupo—,
proporcionando un marco común para el
desarrollo de trabajos de investigación
cooperativos [18, 19].
En la actualidad, se están desarrollando
diversas iniciativas en este sentido como, por
ejemplo, el entorno colaborativo WikiGenes
[20], la plataforma de intercambio y desarrollo
comunitario de recursos i2b2 [21] y la librería
digital ArXiv [22]. También ha proliferado el
uso de blogs y redes sociales –como Twitter
[23] o LinkedIn— enfocadas al debate y a la
divulgación científica. Existen, a su vez,
numerosas plataformas para el intercambio de
documentos entre investigadores, como es el
caso de la plataforma ResearchGate
(http://www.researchgate.net/). Esta red social
está principalmente orientada a la difusión de
publicaciones científicas, las cuales son
proporcionadas por los propios autores a través
de un entorno web de carácter colaborativo.
Como ya se mencionaba en la introducción de
este capítulo, otro de los puntos clave para el
intercambio de datos científicos entre distintas
instituciones y grupos de investigación es el
desarrollo y uso de estándares. Los estándares y
procedimientos para gestión de datos facilitan
significativamente la utilización eficiente de las
bases de datos disponibles y, a su vez, sirven
como mecanismo de evaluación de las
necesidades existentes, por parte de los
investigadores, de datos y modelos, así como de
herramientas de almacenaje e intercambio.
En las distintas áreas que se pueden enmarcar
dentro de las tecnologías convergentes NBIC –
informática
médica,
Bioinformática,
neuroinformática, nanoinformática, etc.— no
se da una carencia en el propio desarrollo de
estándares. Al contrario, en el ámbito
biomédico existen numerosas terminologías y
vocabularios con el objetivo de normalizar y
estandarizar los datos, procesos y resultados
utilizados y generados durante la investigación
sobre: historia clínica –Health Level Seven
(HL7) [24], RxNorm [25]—, investigación
médica
experimental
–LOINC
[26]—,
enfermedades –SNOMED RT [27] o ICD
(http://www.who.int/classifications/icd/en)—,
procesos a nivel celular –SBML [28]—, imagen
médica –DICOM [29]—, etc. Sin embargo,
también se observa una clara tendencia a la
generación de nuevos estándares o tipos de
datos sin tener en cuenta los ya existentes. Es
decir, los investigadores suelen diseñar sus
propias terminologías, formatos, etc. en vez de
analizar y reutilizar los que han sido
previamente
desarrollados
por
otros
investigadores. Por otra parte, se dan
problemas en la normalización de datos: los
bioinformáticos
aplican
procesos
de
normalización mediante la conversión de
medidas y unidades de tal forma que, en
ocasiones, se pierde información.
Resulta obvio pensar que la estandarización
global de los datos y sistemas disponibles en
biomedicina, basada en el consenso de todos
las partes interesadas (industria, academia,
usuarios finales, etc.), constituye el requisito
principal para alcanzar la interoperabilidad de
dichos datos y sistemas.
5.
CONCLUSIONES
Gracias a los recientes avances en genómica,
farmacogenómica y biología de sistemas, hoy
en día se generan grandes cantidades de datos
genotípicos y fenotípicos provenientes de
individuos de todo el mundo. La creación de
39
40
Red Ibero-NBIC
nuevos modelos de análisis, minería y gestión
de datos biomédicos, facilitada por la constante
evolución de las Tecnologías de la Información,
ha fomentado el desarrollo de la medicina
predictiva, preventiva y personalizada. El
objetivo final es implicar a los pacientes en la
gestión de su propia información [30].
Sin embargo, y a pesar de los continuos
esfuerzos que se han realizado durante los
últimos años para mejorar la transparencia en
la publicación de datos médicos y biológicos,
aún existe un alto porcentaje de información y
un gran número de herramientas que no son de
acceso público. Esto, a su vez, afecta a la
reproducibilidad de los datos ya publicados,
impidiendo que los investigadores puedan tanto
validar como utilizar los resultados de
experimentos previos.
En la actualidad, existen algunas iniciativas –
como las citadas en este capítulo— que están
favoreciendo la difusión de conjuntos de datos
biomédicos y herramientas computacionales
bajo una licencia de código libre, así como de
metodologías y técnicas informáticas y
herramientas educativas. Fomentar este tipo de
estrategias es la única forma de aprovechar
todo el potencial que reside en los datos
biomédicos de los que disponemos en la
actualidad.
6.
AGRADECIMIENTOS
El trabajo de los autores en este área de
investigación ha sido financiado parcialmente
por la Comisión Europea a través de los
proyectos ACTION-Grid (FP7-224176) e
INBIOMEDvision (FP7–270107), por el
Ministerio de Economía y Competitividad de
España a través de los proyectos FIS/AES
(PS09/00069),
RETICS
COMBIOMED
(RD07/0067/0006),
Ibero-NBIC
CYTED
(209RT0366), Ministerio de Ciencia e
Innovación (Proyecto TIN2009-14203), por el
Consejo Social de la Universidad Politécnica
de Madrid y por la Comunidad de Madrid.
7.
REFERENCIAS
[1] Martin-Sanchez, F. y Maojo, V. 2009.
Biomedical
informatics
and
the
convergence of Nano-Bio-Info-Cogno
(NBIC) technologies. Yearb Med Inform.
(2009), 134-42.
[2] Maojo, V., Fritts, M., de la Iglesia, D.,
Cachau, R.E., Garcia-Remesal, M.,
Mitchell, J.A. y Kulikowski, C. 2012.
Nanoinformatics: a new area of research in
nanomedicine. Int J Nanomedicine. 7 (24
julio2012), 3867-90.
[3] Maojo V., Martín-Sánchez F. et al. 2010.
The ACTION-Grid White Paper: Linking
Biomedical Informatics, Grid Computing
and
Nanomedicine.
ACTION-Grid
Consortium (aprobado por la Comisión
Europea).
http://www.actiongrid.eu/index.php?url=whitepaper.
[4] Maojo V., Crespo J., García-Remesal M.,
de la Iglesia D., Pérez-Rey D. and
Kulikowski
C.
2011.
Biomedical
ontologies: toward scientific debate.
Methods Inf Med. 50, 3 (21 Marzo 2011),
203-16.
[5] Davis, P.M. y Walters, W.H. 2011. The
impact of free access to the scientific
literature: a review of recent research. J
Med Libr Assoc. 99(3) (Julio 2011), 20817.
[6] Bellazzi, R., Diomidous, M., Sarkar, I.N.,
Takabayashi, K., Ziegler, A. y McCray,
A.T. 2011. Data analysis and data mining:
current issues in biomedical informatics.
Methods Inf Med. 50(6), 536-44.
[7] Glaab, E., Bacardit, J., Garibaldi, J.M. y
Krasnogor, N. 2012. Using rule-based
machine learning for candidate disease
gene prioritization and sample
classification of cancer gene expression
data. PLoS One. 7(7), e39932.
[8] Cohen, K.B. y Hunter , L. Natural
language processing and systems biology.
2004. In: Dubitzky W, Azuaje F, editors.
Artificial Intelligence Methods and Tools
for Systems Biology. Norwell, MA:
Springer; 2004, 147–173.
[9] Mitchell, J.B. 2004. Informatics, machine
learning and computational medicinal
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
chemistry. Future Med Chem. 3(4) (marzo
2011), 451-67.
[10] Neves, M. y Leser, U. 2012. A survey on
annotation tools for the biomedical
literature. Brief Bioinform. (18 diciembre
2012). [En prensa].
[11] Stevenson, M. y Guo, Y. 2010.
Disambiguation in the biomedical domain:
the role of ambiguity type. J Biomed
Inform. 43(6) (diciembre 2010), 972-81.
[12] Hirschman, L., Yeh, A., Blaschke, C. y
Valencia, A. 2005. Overview of
BioCreAtIvE: critical assessment of
nformation extraction for biology. BMC
Bioinformatics. 6(Suppl 1) (24 mayo
2005),S1.
[13] Miwa, M., Thompson, P., McNaught, J.,
Kell, D.B. y Ananiadou, S. 2012. BMC
Bioinformatics. 2012;13: 108.
[14] Perez-Rey, D., Jimenez-Castellanos, A.,
Garcia-Remesal, M., Crespo, J. y Maojo,
V. 2012. CDAPubMed: a browser
extension to retrieve EHR-based
biomedical literature. BMC Med Inform
Decis Mak. 12 (5 abril 2012), 29.
[15] Shublaq, N. 2012. Strategic Report on
Genotype-Phenotype Resources in the
European Union. Bruselas , 5 octubre
2011. Disponible en:
http://www.inbiomedvision.eu/PDF/Repor
t-GenotypePhenotype-FINAL.pdf
[16] de la Calle, G., García-Remesal, M.,
Chiesa, S., de la Iglesia, D. y Maojo, V.
2009. BIRI: a new approach for
automatically discovering and indexing
available public bioinformatics resources
from the literature. BMC Bioinformatics.
10 (7 octubre 2009), 320.
[17] de la Calle, G., García-Remesal, M.,
Nkumu-Mbomio, N., Kulikowski, C. y
Maojo, V. 2012. e-MIR2: a public online
inventory of medical informatics
resources. BMC Med Inform Decis
Mak.12 (2 agosto 2012), 82.
[18] Costa, F.F. 2012. Social networks, webbased tools and diseases: implications for
biomedical research. Drug Discov Today.
(24 octubre 2012). [En prensa].
[19] Kohane, I.S. y Altman, R.A. 2005. Healthinformation altruists – a potentially critical
resource. New Engl J Med. 353 (2005),
2074-7.
[20] Hoffmann, R. 2008. A wiki for the life
sciences where authorship matters. Nat
Genet. 40 (9) (Septiembre 2008),1047-51.
[21] Butte, A.J., Kohane, I.S. 2006. Creation
and implications of a phenome-genome
network. Nature Biotechnology. 24 (1),
55-62.
[22] Ginsparg, P. 2011. ArXiv at 20. Nature.
476(7359) (10 de agosto 2011), 145-7.
[23] Diep, F. 2011. Parsing the Twitterverse.
Scientific American Magazine (Agosto
2011). Disponible en:
https://www.scientificamerican.com/article
.cfm?id=parsing-the-twitterverse.
[24] Dolin, R.H., Alschuler, L., Beebe, C.,
Biron, P.V., Boyer, S.L., Essin, D.,
Kimber, E., Lincoln, T., Mattison, J.E.
2001. The HL7 Clinical Document
Architecture. J Am Med Inform Assoc.
8(6) (Noviembre-Diciembre 2001), 55269.
[25] Bennett, C.C. 2012. Utilizing RxNorm to
support practical computing applications:
capturing medication history in live
electronic health records. J Biomed
Inform. 45(4) (agosto 2012), 634-41.
[26] McDonald, C.J., Huff, S.M., Suico, J.G.,
Hill, G., Leavelle, D., Aller, R., Forrey,
A., Mercer, K., DeMoor, G., Hook, J.,
Williams, W., Case, J. y Maloney, P.
2003. LOINC, a universal standard for
identifying laboratory observations: a 5year update. Clin Chem. 49(4) (Abril
2003), 624-33.
41
42
Red Ibero-NBIC
[27] Spackman, K.A., Campbell, K.E. y Côté,
R.A. 1997. SNOMED RT: a reference
terminology for health care. Proc AMIA
Annu Fall Symp., 640-4.
[29] Mildenberger, P., Eichelberg, M. y
Martin, E. 2002. Introduction to the
DICOM standard. Eur Radiol. 12(4) (abril
2002), 920-7.
[28] Hucka, M., Finney, A., Sauro, H.M.,
Bolouri, H., Doyle, J.C., Kitano, H. et al.
2003. The systems biology markup
language (SBML): a medium for
representation and exchange of
biochemical network models.
Bioinformatics. 19(4) (1 marzo 2003),
524-31.
[30] Sarradon-Eck A, Mancini J, Genre D,
Sakoyan J, Desclaux A, Julian-Reynier C.
How to share results of clinical trials with
study participants?. Med Sci (Paris), Spec
No 1. 28 marzo 2012), 33-6.
Líneas estratégicas de las
43
Tecnologías de la Información y las Comunicaciones en Salud
Sistema de Información basado en Imagen
en un Servicio de Hemodinámica
Francisco J. Nóvoa
Lola Traba
IMEDIR Research Center.
Campus Elvina S/N
Edificio Serv. Centrales de
Investigación
University of A Coruna
034-981-167000-2669
IMEDIR Research Center.
Campus Elvina S/N
Edificio Serv. Centrales de
Investigación
University of A Coruna
034-981-167000-2669
[email protected]
[email protected]
Marcos Martinez-Romero
IMEDIR Research Center.
Campus Elvina S/N
Edificio Serv. Centrales de
Investigación
University of A Coruna
034-981-167000-2667
[email protected]
ABSTRACT
Las patologías asociadas al corazón
constituyen uno de los mayores problemas de
salud en el mundo occidental. De entre ellas,
la oclusión coronaria es una de las
enfermedades de mayor relevancia, debido a
su índice de mortalidad y morbilidad.
Ante síntomas evidentes de problemas
cardiovasculares, la técnica de diagnóstico
más utilizada es la angiografía. Dicho estudio
permite al clínico observar el flujo sanguíneo
en las arterias coronarias, detectando los
estrechamientos acusados o “estenosis”. En
función de la severidad, extensión y ubicación
de las estenosis, el clínico realiza el
diagnóstico del paciente, define un
tratamiento y establece el pronóstico de la
enfermedad. En muchos casos, los clínicos
observan las secuencias de imágenes y, en
función de su conocimiento empírico, toman
las decisiones oportunas.
La implantación de la radiología digital, la
información asociada a los pacientes, el
creciente número de estudios de imagen que
se realizan y la necesidad de disponer de un
acceso rápido y eficaz a esta información de
forma ubicua, ha puesto de manifiesto la
importancia de los sistemas de información
en este ámbito clínico. En este trabajo, se
presenta un sistema de información de apoyo
a la toma de decisión clínica de cardiopatías
basado en estudios de angiografía. El sistema
desarrollado proporciona varias herramientas
de adquisición, almacenamiento y acceso
remoto a los estudios angiográficos, la
posibilidad de realizar una o varias
segmentaciones de los vasos coronarios desde
las diferentes perspectivas de las imágenes
digitales, y la posibilidad de construcción de
un modelo arterial artificial que permite
cuantificar la información angiográfica,
permitiendo de este modo el establecimiento
de un diagnóstico y una prognosis más
precisos.
La principal innovación que aporta este
trabajo es proporcionar al clínico un marcador
(“score”) que no está basado en la experiencia
del especialista, ya que a partir de la
información cuantitativa extraída de las
angiografías.
Categorías y Descriptores de Materia
I.4.6 [Procesamiento de Imágenes y Visión
Artificial]: Segmentación – Detección de
bordes y funciones, y Crecimiento de
Regiones.
44
Red Ibero-NBIC
J.3 [Aplicaciones de Computadora]: Ciencias
de la Vida y Médicas – Sistemas de
Información Médica
Términos Generales
I.4.6 [Procesamiento de Imágenes y Visión
Artificial]: Segmentación – Detección de
bordes y funciones, y Crecimiento de
Regiones.
J.3 [Aplicaciones de Computadora]: Ciencias
de la Vida y Médicas – Sistemas de
Información Médica
Palabras Clave
Sistema
de
Información,
segmentación,
angiografía
estenosis, marcador, pronóstico
1.
DICOM,
coronaria,
INTRODUCCIÓN
Las patologías asociadas al corazón
constituyen uno de los mayores problemas de
salud en el mundo occidental. De entre ellas,
las enfermedades cardiovasculares, entre las
que se encuentra la oclusión coronaria severa,
son las de mayor relevancia debido a que
representan el 53% del total de las
enfermedades cardíacas, presentan un alto
índice de mortalidad (1 de cada 5 muertes
producidas por enfermedad) y morbilidad
elevados, según un estudio realizado, por T.
Thom en EE.UU. en el año 2003 [14].
La observación de estas arterias es de vital
importancia en la elaboración del diagnóstico
de estas enfermedades. Para ello, se realizan
estudios que permiten al clínico observar el
flujo sanguíneo en las arterias coronarias,
detectando las estenosis. En función de la
severidad, extensión y ubicación de los
estrechamientos, el clínico realiza el
diagnóstico del paciente, define un
tratamiento y establece el pronóstico de la
enfermedad [12].
En la actualidad, la técnica de diagnóstico
más implantada en este momento y la que se
utiliza ante síntomas evidentes de problemas
cardiovasculares es la angiografía obtenida
mediante cateterismo.
Una angiografía es un procedimiento en el
que se utiliza un contraste y rayos X para
observar como fluye la sangre por las arterias
y, en el caso de la angiografía coronaria, las
arterias
que
irrigan
el
corazón.
Habitualmente, la angiografía coronaria se
efectúa conjuntamente con un cateterismo
cardíaco [7]. Este procedimiento se realiza
para obtener información diagnóstica sobre el
corazón o los vasos sanguíneos, o para brindar
tratamiento en ciertos tipos de enfermedades
cardíacas [7].
El cateterismo cardíaco se puede para
examinar las arterias por medio de una
técnica de rayos X llamada fluoroscopia. La
fluoroscopia
permite
la
visualización
inmediata ("en tiempo real") de las imágenes
de rayos X en una pantalla y suministra un
registro permanente del procedimiento.
El resultado es una secuencia de imágenes
radiográficas del corazón, obtenidas desde
diferentes proyecciones. Dicho estudio
permite que el clínico observe el flujo
sanguíneo en las arterias coronarias,
detectando los estrechamientos acusados
existentes en las mismas o estenosis. Cada
episodio proporciona como resultado un
estudio angiográfico [12].
En los sistemas angiográficos modernos se
utiliza como soporte único la imagen digital.
Las imágenes pueden ser examinadas en
tiempo real y almacenadas en un CD-ROM o
en una base de datos usando el protocolo
DICOM. Típicamente, lo que se obtienen son
secuencias de imágenes con una resolución de
512 x 512 píxeles y 256 niveles de gris, a
razón de 12,5 imágenes por segundo.
Además, existe la posibilidad de almacenar
información adicional acerca de las
condiciones de la exposición (ángulo de la
toma, tipo de contraste, etc.), del paciente
(nombre, edad, peso, etc.) y sobre los
resultados de la prueba, todo de forma
conjunta con la secuencia de la angiografía.
El nuevo estándar DICOM incluye la
posibilidad de almacenar imágenes a una
resolución de 1024x1024 píxeles con 12 bits
de niveles de gris, lo que aumenta
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
notablemente la resolución a la que se pueden
almacenar las imágenes [3].
Las unidades hospitalarias que tratan este tipo
de enfermedades son las unidades de
cardiología intervencionista. El Complejo
Hospitalario Universitario de A Coruña
(CHUAC) es el hospital público más
importante de la ciudad de A Coruña, siendo
el centro de referencia para un área geográfica
en la que viven alrededor de 500.000
habitantes. Su Unidad de Cardiología
Intervencionista realiza una media de 3.000
cateterismos anuales [11] por lo que es un
entorno ideal para instalar el sistema de
información desarrollado en este trabajo.
1.1
Descripción del proceso
de intervención
Un paciente es enviado a la Unidad de
Cardiología Intervencionista para que su árbol
coronario sea estudiado (y en muchos casos
también tratado) o bien por un cardiólogo o
bien por el Servicio de Urgencias. En ambos
casos la Historia Clínica del paciente se
encuentra almacenada en el Sistema de
Información Hospitalaria (HIS).
Antes de realizar la intervención, el médico
genera la información referente a los datos
del paciente que se va almacenar en el estudio
angiográfico DICOM, a partir de datos
extraídos automáticamente del HIS. Para cada
intervención o cateterismo se genera un
código único, denominado “Número de
Cateterismo” que identificar de forma
inequívoca dicho estudio. Además, el estudio
queda vinculado al Número de Historia
Clínica del paciente en el HIS.
A continuación, selecciona el catéter que será
utilizado para introducir el contraste en las
arterias coronarias. Existen múltiples tipos y
fabricantes de catéteres que, por lo tanto,
presentan diferentes propiedades. Sin
embargo, para el sistema de información
solamente es necesario conocer el tipo de
catéter según la “escala francesa” (French
Scale), que determina el diámetro de dicho
catéter.
Es
relevante
conocer
esta
característica y almacenarla en el sistema de
información, puesto que se utiliza en el
proceso de calibrado de la imagen, debido a
que el catéter es el único elemento físico del
que se conocen sus dimensiones “a priori”.
Ya en el quirófano, y una vez colocado
insertado el catéter, el médico introduce el
contraste y realiza una secuencia de
radiografías a una velocidad constante, que
oscila entre de 12,5 y los 25 fotogramas por
segundo según el dispositivo de adquisición,
lo que permite en la práctica verlas de forma
continua en formato vídeo.
Con el fin de visualizar completamente el
árbol coronario, estas secuencias se toman
desde diferentes proyecciones o ángulos.
Mientras se efectúan estas radiografías el
médico las observa, pudiendo apreciar el flujo
sanguíneo a través de las arterias, lo que le
permite tomar decisiones instantáneas,
basadas en sus conocimientos y experiencia.
Cuando ha finalizado la intervención, todo el
estudio es almacenado en un CD y guardado
en un archivo (armario físico), quedando a
disposición del servicio para ser consultado
de nuevo en casos complejos o para realizar
labores de seguimiento del enfermo.
Tal y como se ha comentado anteriormente, la
mayor parte de los dispositivos de generación
de angiografías actuales implementan el
estándar DICOM 3, (Storage SCU), con lo
que poseen la capacidad de enviar estos
estudios a un servidor de almacenamiento
DICOM (Storage SCP). Por facilitar la
práctica diaria de los clínicos, cualquier
sistema de información de imagen debe
adquirir los estudios directamente desde los
dispositivos de angiografía, eliminando la
necesidad de almacenarlos en CD.
45
46
Red Ibero-NBIC
2.
ESTADO DEL ARTE
El pronóstico de la enfermedad coronaria
depende en gran medida de la severidad y de
la afectación arterial coronaria. La angiografía
coronaria
constituye,
junto
con
la
determinación de la función ventricular
izquierda, el factor de predicción más potente
para realizar el pronóstico a largo plazo en
pacientes con enfermedades coronarias.
A finales de los 70, se realizaron una serie de
estudios para comparar el tratamiento
farmacológico con la revascularización
quirúrgica [6,8,13], que utilizaban como
criterio para establecer el pronóstico del
paciente el número de vasos y la porción de
estos que estaba afectada por estenosis. Estos
estudios aportaron una excelente información
acerca del valor pronóstico de la extensión de
la enfermedad coronaria, estableciendo el
número de vasos enfermos como uno de los
factores clave para decidir el pronóstico a
largo plazo y por lo tanto decidir que
tratamiento aplicar al paciente.
La clasificación de los pacientes con
enfermedad coronaria según el número de
vasos afectados es útil en la práctica clínica,
pero no refleja fielmente la cantidad de
miocardio isquémico. Así, un paciente con
enfermedad de 3 vasos puede presentar las
estenosis en las porciones distales mientras
que otro puede tener afectadas las porciones
proximales y en ambos casos la cantidad de
miocardio en riesgo es muy distinta aunque
los dos presenten enfermedad de tres vasos.
Tampoco tiene el mismo significado una
estenosis en una arteria muy grande que en
otra poco desarrollada; por ejemplo, una
estenosis en la arteria coronaria derecha
afecta a distinta proporción de miocardio si la
arteria es dominante que si no lo es. Se
conoce bien que la severidad y localización de
las estenosis son marcadores pronósticos,
asociándose a una peor supervivencia las
estenosis más severas y localizadas en las
porciones proximales de las arterias
coronarias [1]; es decir, a mayor cantidad de
miocardio en riesgo, peor pronóstico.
Se han propuesto sistemas de puntuación de
riesgo que valoran la localización de las
estenosis, puntuándose más las estenosis
localizadas proximalmente en un intento de
discriminar mejor el riesgo que con la
clasificación basada en el número de vasos.
Se observó que el sistema de puntuación
ofrecía más información sobre el pronóstico
en comparación con el número de vasos
enfermos [2]. Este sistema de puntuación,
aunque más refinado, adolece de las mismas
limitaciones que la clasificación basada en el
número de vasos afectados, ya que el
desarrollo de las arterias y sus ramas es
diferente en cada paciente. Sin embargo, este
es el método de valoración más extendido y el
utilizado en el hospital de referencia, por no
existir otro método más adecuado.
El sistema ideal sería aquel que pudiera
determinar que proporción del árbol coronario
(porcentaje coronario “en riesgo”) se
encuentra
distal
a
las
estenosis
hemodinámicamente significativas (>70 %).
Consistiría en medir el volumen total del
árbol coronario y después el volumen distal a
las estenosis severas, incluyéndose de este
modo en el análisis el desarrollo de cada
arteria o cada rama y consiguiéndose un valor
directamente relacionado con el tejido
miocárdico que se verá afectado y con la
consiguiente afectación cardiaca.
El sistema de información que se obtiene
como resultado de la realización de este
trabajo proporciona este marcador pronóstico
(porcentaje coronario “en riesgo”) a partir del
estudio angiográfico practicado al paciente.
Para obtener el “score” es necesario adquirir
los estudios angiográficos, almacenarlos de
forma eficiente, disponer de un software de
visualización, segmentación y etiquetado,
construir el modelo arterial con los datos
extraídos de las segmentaciones realizadas
desde diferentes proyecciones y, finalmente,
determinar la posición y la severidad de las
estenosis existentes.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
3.
OBJETIVOS
El objetivo de este trabajo fue diseñar un
sistema de información de asistencia a la
toma de decisiones clínicas en el ámbito de la
estenosis coronaria. Cada una de las partes
que componen el sistema han sido evaluadas
mediante la realización de pruebas de
validación y rendimiento en un entorno real.
La implantación del sistema de información
en el servicio de hemodinámica de un hospital
de referencia avala la consecución del
objetivo .
almacenadas en el sistema, los clínicos
podrán realizar las operaciones pertinentes
para calcular el valor del “score”.
Los objetivos específicos son:
x
x
x
x
x
x
x
Adquisición
de
estudios
angiográficos.
Acceso a los estudios angiográficos.
Segmentación interactiva del árbol
coronario
Etiquetado
Construcción del modelo arterial
artificial
Determinación del “score”
Implantación
del
sistema
de
información en el servicio de
hemodinámica de un hospital de
referencia,
para
avalar
su
funcionamiento.
4.
SISTEMA
DESARROLLADO
Para alcanzar los objetivos propuestos se ha
desarrollado un sistema de información cuya
arquitectura funcional se puede observar en la
Figura 1, que representa todos los
subsistemas o bloques funcionales que forman
el sistema completo.
El objetivo final de este trabajo es
proporcionar un “score” que ayude a los
hemodinamistas a pronosticar un problema de
estenosis. Por ello, el sistema de información
ha de ser capaz de adquirir y almacenar las
imágenes que componen los estudios
angiográficos. A partir de las imágenes
Figura 1. Arquitectura Funcional del
sistema de información.
4.1
Subsistema de Acceso a
Datos.
El subsistema de “Acceso a Datos” facilita la
interacción
con
el
sistema
de
almacenamiento, tanto para introducir nuevos
estudios en el sistema, como para el acceso a
los que ya están almacenados. Este
subsistema, denominado SMIIS (Secure
Medical Information Service), aporta una
interfaz común de acceso a los datos
almacenados, de forma que, la información
adquirida desde orígenes heterogéneos, pueda
ser accedida desde todas las herramientas del
subsistema de explotación.
Desde el punto de vista del subsistema de
adquisición, el subsistema de acceso
proporciona una interfaz de entrada única que
permite homogeneizar la información recibida
desde diferentes dispositivos y soportes. La
única restricción que debe cumplirse es que la
información proporcionada a este subsistema
cumpla el estándar DICOM. El subsistema
obtiene estos archivos DICOM y despliega su
contenido en una base de datos estructurada.
47
48
Red Ibero-NBIC
Desde el punto de vista del subsistema de
explotación, este subsistema permite un
acceso rápido y eficiente a los datos
almacenados y evita que las herramientas de
explotación tengan que obligatoriamente
interpretar el estándar DICOM. Este
subsistema facilita el desarrollo de nuevas
aplicaciones de explotación, brindando los
servicios de acceso a datos que éstas podrían
necesitar.
Las funciones
subsistema son:
que
implementa
este
x
x
Interpretación de archivos DICOM.
Almacenamiento
eficiente
y
transparente del contenido de los
archivos DICOM.
x Acceso a la información contenida en
los archivos DICOM, previamente
desplegada.
Para llevar a cabo estas funciones se utiliza
una base de datos relacional cuyo modelo de
datos se puede ver en la Figura 2. Se ha
utilizado el modelo de datos definido por los
Modelos de Información de DICOM.
diferentes orígenes. Con el objeto de
proporcionar persistencia a dichos datos, la
información contenida en los ficheros DICOM
originales se almacena en una base de datos.
Los orígenes de datos pueden ser muy
diferentes: dispositivos generadores de
angiografías de diferentes fabricantes
(Siemens, General Electric, AGFA), PACS
también de diferentes proveedores, o incluso
información almacenada en soportes de
almacenamiento secundario, como CDs. El
único requisito clave que deben cumplir los
estudios es que deben cumplir el estándar
DICOM 3.
La Unidad de Cardiología Intervencionista del
CHUAC, que es el ámbito de implantación
del sistema, se dispone de tres angiógrafos
DICOM y de un gran archivo de estudios en
soporte óptico, por lo que es necesario
disponer de dos módulos dentro del
subsistema de adquisición. El primero de
ellos permite la adquisición de los estudios a
través de una red de comunicaciones TCIP/IP
de los estudios angiográficos. El segundo
facilita la adquisición de estudios a partir de
los ficheros DICOM almacenados en un CD.
4.2.1 Adquisición a través de
dispositivos médicos
Figura 2. Diagrama Entidad-Relación del
Modelo de Datos del subsistema.
4.2
Subsistema de
Adquisición de la Información
Clínica.
Este subsistema permite adquirir la
información que se va a utilizar como base en
el asesoramiento al clínico. En este caso, el
sistema adquiere estudios angiográficos que
cumplen el estándar DICOM 3 desde
El sistema cuenta con un módulo que permite
el establecimiento de comunicaciones
DICOM y acepta el envío de las angiografías
procedentes
de
los
dispositivos
de
angiografía. Una vez recibidos los estudios,
éstos se pasan al subsistema de acceso a datos
para que los almacene de forma persistente.
Una vez almacenado el estudio en el “buffer”
de entrada, el subsistema de acceso a datos es
el responsable de procesar posteriormente
esta información y almacenarla. La
comunicación entre ambos subsistemas es
asíncrona, lo que quiere decir que el
subsistema de adquisición ubica los estudios
en un área de almacenamiento temporal y
estos son procesados a posteriori por el
subsistema de acceso.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Debido a que el punto por el que las imágenes
entran en el sistema es único y está
estandarizado, los nuevos equipos que lleguen
al hospital se integrarán sin necesidad de
adaptar el sistema existente.
Para cumplir con la como la legislación
española vigente y seguir la recomendación
de seguridad X.800 [15] es necesario que las
comunicaciones entre el sistema de
información y los equipos de angiografía
pueda ser segura. Es por esto que fue
necesario
implementar
dos
módulos
separados para gestionar las comunicaciones
DICOM: el primero, denominado SDUL
(Secure Dicom Upper Layer) que se
encargase de establecer un canal de
comunicaciones seguro y el segundo,
denominado DISCUS (DIcom SeCUre Server)
que se encarga de el intercambio de comandos
y ficheros DICOM, haciendo uso de los
servicios proporcionados por SDUL.
El Servicio de Hemodinámica del CHUAC
cuenta con una gran cantidad de información
histórica almacenada en CD. Para introducir
estos estudios angiográficos históricos en el
sistema de información es necesario
proporcionar una vía de entrada específica.
En este caso se requiere que el sistema
permita que un usuario pueda examinar los
estudios contenidos en el soporte de
almacenamiento secundario y seleccionar la
información que quiere introducir en el
sistema. Por ello se ha desarrollado otro
módulo de adquisición para soportes de
almacenamiento
secundario,
cuya
implementación recibe el nombre de DISTA
(DIcom STorage Application).
Las funciones que implementa este SDUL
son:
x
x
x
Servicios de capa superior definidos
en DICOM
Primitivas de comunicación DICOM
Secure Server
Intercambio datos con entidades
DICOM
x
Implementación de Servicios de
Seguridad
DISCUS proporciona los mecanismos
necesarios para la realización de los servicios
DICOM de verificación, almacenamiento,
Consulta/Recuperación y Listas de Trabajo de
la Modalidad como SCP (proveedor de
servicio). Debe ser capaz también de actuar
como SCU (usuario de servicio) en el caso del
almacenamiento, pues es un requisito del
servicio de recuperación.
Las funciones que implementa este módulo
son
x
x
Servicios de almacenamiento y de
verificación. Se proporcionan los
mecanismos para la realización de los
servicios DICOM C-ECHO, CSTORE,
QUERY/RETRIEVE
y
WORKLIST.
Seguridad en las transmisiones, a
través de las funciones proporcionadas
por SDUL
4.2.2
Adqusición desde soportes de
Almacenamiento Secundario
DICOM (DIcom STorage
Application)
Mediante esta herramienta, el usuario puede
seleccionar un estudio concreto, examinar
cada una de las proyecciones que contiene el
estudio como vídeos individuales y, dentro de
cada una de las proyecciones, los fotogramas
de interés.
Además, la puede vincular la información del
nuevo estudio con un paciente existente o
facilita una interfaz para crear un nuevo
paciente.
Las funciones implementadas son:
x
x
Carga de la información DICOM
contenida en un soporte de
almacenamiento secundario.
Visualización la información DICOM
contenida en el CD.
49
50
Red Ibero-NBIC
x
Selección de la información relevante.
4.3
Subsistema de
Explotación
Una vez que los estudios están almacenados
de forma centralizada, es necesario cuantificar
la información contenida en ellos. Mediante
la segmentación del árbol coronario del
paciente, utilizando diferentes proyecciones,
se puede estimar su volumen arterial e,
indicando el punto de estenosis, se puede
calcular el porcentaje y el volumen del árbol
afectado.
El subsistema de “Explotación” facilita el
trabajo con los estudios de angiografía,
proporcionando funcionalidades básicas como
la selección y visualización de fotogramas,
función cinematográfica, “zoom”, variación
de brillo y contraste.
Además, incorpora herramientas que permiten
que el médico seleccione fotogramas de
distintas proyecciones de un estudio, y en
cada uno de ellos realice la segmentación de
las arterias coronarias, pudiendo utilizar
diferentes técnicas. Adicionalmente, en caso
de que existan, el clínico establece los puntos
de estenosis y su grado de severidad.
A partir de las segmentaciones realizadas este
subsistema
permite
construir
una
representación del árbol arterial coronario, a
partir del cual se estimará el volumen del
árbol coronario y el porcentaje del mismo
afectado por estenosis, que es el marcador
pronóstico buscado.
Este subsistema consta de dos módulos (ver
Figura 1). El primero de ellos, VISIOM, es un
software genérico que, por una parte
interactúa con el subsistema de acceso a datos
y, por otra, proporciona el soporte a las
diferentes herramientas de explotación que se
integran en el sistema. El objetivo
fundamental de este módulo es proporcionar
una interfaz común entre todas las posibles
herramientas de segmentación, etiquetado y
reconstrucción, y el subsistema de acceso a
datos.
El segundo módulo consiste en un conjunto
herramientas que proporciona los mecanismos
necesarios para representar de virtualmente el
árbol coronario y posteriormente realizar el
cálculo del “score”, alcanzando así uno de los
objetivos principales de este trabajo.
4.3.1
VISIOM
Para que el sistema de información sea
extensible, es decir, que pueda incorporar
nuevas herramientas de segmentación basadas
en algoritmos diferentes, nuevos mecanismos
de representación del árbol coronario o
nuevos métodos de estimación del volumen
arterial coronario; está dotado de un módulo
que permite el acceso a cualquier posible
herramienta al subsistema de acceso a datos.
Dicho módulo se denomina VISIOM (Visor
de Imágenes para un Sistema de InformaciÓn
Médica). Las funcionalidades implementadas
por este módulo son:
x
x
Acceso a los servicios proporcionados
por el subsistema de acceso a datos.
Capacidad
de
ejecución
de
herramientas heterogéneas.
4.3.2
Herramienta de Segmentación
La herramienta de segmentación representa la
parte final del proceso y es la que permite
alcanzar el objetivo final de trabajo:
proporcionar unmarcador que asista en la
toma de decisiones en pacientes con dolencias
coronarias.
Para ello, el especialista usa las imágenes que
pertenecen a diferentes proyecciones de un
estudio angiográfico, segmenta las arterias
coronarias significativas en cada proyección,
las etiqueta manualmente, indica la ubicación
y la severidad de las estenosis existentes y,
finalmente, utiliza dichos segmentos para
crear una representación virtual del árbol
coronario. Por lo tanto, el subsistema
dimensiona un modelo de árbol coronario
artificial genérico [5], utilizando información
extraída de las imágenes angiográficas.
También permite el acceso a los estudios ya
realizados. Desde este subsistema se puede
hacer el seguimiento de los pacientes,
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
accediendo a los estudios completos
realizados con anterioridad, obteniendo en
cada caso, segmentaciones, ubicación de
estenosis, modelo arterial artificial, volumen
coronario total, volumen coronario afectado
por estenosis y porcentaje de árbol coronario
afectado por estenosis. Esta información es de
especial relevancia en el caso de los pacientes
que son sometidos a varias intervenciones
separadas en el tiempo.
algoritmos de “tracking” o seguimiento
arterial y de crecimiento de regiones.
Para dotar de persistencia a este subsistema,
se efectuaron cambios en el modelo de datos
del Subsistema de Acceso, obteniéndose el
resultado que se puede ver en la Figura 3.
Las funciones que implementa este módulo
son:
x
Utilización
los
servicios
proporcionados por el módulo
VISIOM.
x Visualización de las imágenes
angiográficas recuperadas.
x Calibrado las imágenes, es decir,
establecimiento de la relación
píxeles/milímetros cuadrados que
presenta la imagen.
x Extracción del árbol coronario
mediante varios mecanismos de
segmentación.
x Etiquetado de los segmentos extraídos
de cada imagen.
x Identificación de las estenosis en los
segmentos arteriales etiquetados.
x Construcción de una representación
lógica de un modelo virtual del árbol
arterial en estudio.
x Estimación el volumen total del árbol
coronario y el porcentaje afectado por
una estenosis.
Se han implementado dos métodos de
segmentación diferentes, basados en los
Figura 3. Modelo de datos del sistema de
información. Modelo conceptual.
4.3.2.1 Funcionamiento de las
Herramientas de
Segmentación
El funcionamiento del proceso de creación del
modelo arterial artificial, mediante la
segmentación del árbol coronario, utilizando
información
obtenida
de
múltiples
proyecciones del estudio, se describe
utilizando un diagrama de estados que se
puede ver en la Figura 4.
51
52
Red Ibero-NBIC
Figura 4. Diagrama de estados detallado del proceso completo de creación de un modelo
arterial artificial.
Además, se detallan las funcionalidades que
El usuario se encuentra en el primer estado al
aporta el sistema de información y se detallan
inicar la herramienta para analizar una
cuales son los avances que supone en
secuencia de imágenes. En este estado, se
comparación con el sistema de acceso a los
pueden observar todas las imágenes de la
estudios actuales. También, se evalúan las
secuencia seleccionada. A contiunación, se
capacidades de segmentación y etiquetado del
elige la imagen que se va a segmentar. Como
sistema, incidiendo no sólo en las
primer paso de la segmentación, se debe
herramientas de segmentación implantadas,
realizar la calibración de la imagen.
sino en la capacidad del sistema para integrar
Una vez que los vasos han sido
nuevas herramientas de forma sencilla.
segmentados
pueden
ser
etiquetados,
Además, se han realizado pruebas de
identificando cada uno de los segmentos
validación informática de las herramientas de
arteriales que posteriormente formarán parte
segmentación ya disponibles, basada en
de la reconstrucción virtual. En el caso de
seguimiento y basada en crecimiento de
existir estenosis, se debe identificar en este
regiones, mediante la comparación de las
momento, indicando su ubicación y severidad.
medidas realizadas por dos usuarios
Por último, se realiza la reconstrucción del
independientes. Finalmente, se relata cual es
modelo arterial seleccionando los segmentos
la funcionalidad aportada por la herramienta
adecuados desde las diferentes proyecciones.
de construcción del árbol arterial artificial y
como éste proporciona una serie de valores de
5.
RESULTADOS
interés diagnóstico, entre ellos, el más
En este apartado, se exponen los resultados
relevante a nivel clínico es el porcentaje del
obtenidos para cada uno de los objetivos
árbol arterial afectado por una o varias
establecidos en el inicio de este trabajo.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
estenosis, que es el “score” que se pretendía
proporcionar a los clínicos en los objetivos.
5.1
Adquisición de Estudios
Angiográficos.
En el caso del sistema implantando en el
CHUAC, estos estudios pueden provenir de
dos fuentes diferentes:
x
Dispositivos
de
angiografía
Siemens, Philips o General Electric,
que envían el estudio al sistema a
través de red, utilizando DICOM 3.
En este caso se utiliza el módulo
DISCUS
x
Estudios de angiografía DICOM
almacenados en CD, para lo que se
utiliza el módulo DISTA.
5.1.1
DISCUS
DIcom SeCUre Server (DISCUS) es el el
módulo de adquisción de estudios a través de
red. Se realizaron pruebas de validación
utilizando dos aplicaciones auxiliares: JDicom
y DCMTK.
JDicom [4] es un conjunto de
aplicaciones DICOM desarrolladas en Java.
En concreto, se ha utilizado la aplicación
StorageSCU, que realiza las funciones de
cliente (SCU) para la validación de los
servicios de verificación y almacenamiento.
DCMTK [3] es una colección de
librerías y aplicaciones que implementan gran
parte del estándar DICOM. Incluye software
para enviar y recibir imágenes por red y, al
contrario que JDicom, puede hacerlo
utilizando el protocolo TLS.
Para evaluar el rendimiento del servidor
DISCUS se han realizado una serie de
pruebas de transmisión, comprobando los
tiempos de adquisición para un total de 65
series, obtenidas de estudios generados por
diferentes dispositivos de angiografía.
La infraestructura utilizada para realizar
las comunicaciones fue una red de datos
TCP/IP sobre tecnología FastEthernet “fulldúplex”, que cumplía los estándares IEEE
802.3u y IEEE 802.3x. Las pruebas fueron
realizadas en diferentes días, dentro de un
horario donde los parámetros de utilización
de la red estaban dentro de sus valores
habituales. El cliente utilizado para realizar el
envío de los estudios fue “JDicom Storage
SCU 1.7.35”.
Se pudo concluir que existe una relación
directa entre los tiempos de transmisión y el
tamaño de las series, y que la conexión para
el envío de datos consume una cantidad
relativamente baja del ancho de banda total
disponible en el enlace, lo que permitiría la
realización
de
múltiples
conexiones
simultáneas con el servidor.
Los valores medios de los parámetros
medidos en la transmisión de cada serie se
pueden observar en la Tabla I.
Tabla I. Pruebas de Rendimiento DISCUS
Nº Serie
Promedio
Tiempo de
Transmisión
11.611 ms
Paquetes
16.391
Tamaño Medio
Paq (bytes)
988,52 bytes
Tamaño Total
Mbits/seg
16.227.468 bytes
16,20 Mbps
Utilización
de la red
16,20%
53
54
Red Ibero-NBIC
Área de Pacientes
Área de Estudios
Coincidencias con
Figura 5. Interfaz de la Herramienta DISTA
Figura 6. Pantalla de visualización de un estudio en DISTA.
Líneas estratégicas de las
55
Tecnologías de la Información y las Comunicaciones en Salud
5.1.2
DISTA
La aplicación, como se puede ver en la
Figura 5, muestra los datos del paciente,
entre otros su “Nombre” y el identificador de
su “Historia Clínica”; la información
relevante del estudio cargado en memoria y
nombres de paciente ya registrados en la base
de datos cuyos nombres se asemejan al
paciente propietario del archivo cargado.
Los estudios pueden ser cargados de
forma individual, es decir archivo a archivo, o
de forma conjunta, cargando con una sola
orden todos los archivos del directorio
indicado.
Este módulo permite examinar el
contenido de estudios angiográficos ubicados
en un sistema de almacenamiento secundario
y, a continuación, acceder a las distintas
proyecciones almacenadas de cada estudio,
mediante una nueva ventana donde se
muestran todas las proyecciones del estudio,
tal y como se puede ver en la Figura 6.
Cuando se pasa con el ratón por encima de
alguna de estas miniaturas se muestra
información adicional en la parte superior
derecha en lo que se denomina “Panel de
Información”.
Puede
observarse
una
proyección concreta en modo “cine”
utilizando los botones “Play”, “Pause” y
“Stop” ubicados en el “Panel de Información”
(ver Figura 7). En ese momento aparece
emplazado en una nueva pestaña un vídeo que
muestra la secuencia animada de las distintas
imágenes.
Una vez que se han seleccionado las
proyecciones que se desean almacenar en la
base de datos, es necesario pulsar el botón
“Almacenar en BD” (ver Figura 7) para que
la información contenida en dichas
proyecciones se guarde en la base de datos.
Se realizaron pruebas de carga en memoria
desde el soporte de almacenamiento
secundario de 65 series de imágenes,
pertenecientes a diferentes estudios. Los
valores medios de los resultados obtenidos se
pueden ver en Tabla II.
5.1.3
SMIIS
SMIIS es la implementación del subsistema
encargado de proporcionar una interfaz común
de acceso a los datos almacenados tanto a los
diferentes módulos funcionales, que se ubican
en el subsistema de adquisción de datos,
como a las diferentes herramientas que se
encuentran en el subsistema de explotación.
Tabla II. Tiempos y tasas de envío a base de datos.
Nº de la
Serie
Tamaño Total
Tiempo de envío
a la BD desde
DISCUS
Tasa de envío a la
BD desde DISCUS
Tiempo de envío
a la BD desde
DISTA
Tasa de envío a
la BD desde
DISTA
Promedio
16.227.468
bytes
21.252 ms
5,70 Mbps
13.536 ms
9,90 Mbps
56
Red Ibero-NBIC
Figura 7. Pantalla de animación en DISTA.
SMIIS realiza sus funciones de forma
transparente para el clínico, es decir, el
usuario interactúa tanto con los módulos de
adquisición como con los de explotación, sin
la necesidad de conocer como el sistema
proporciona la persistencia a la información
que contiene.
Se muestra en la
Tabla II el tiempo necesario para enviar los
estudios angiográfcios a la base de datos a
través de SMIIS, tanto desde DISCUS como
desde DISTA. Para ello, se enviaron 65 series
pertenecientes
a
diferentes
estudios,
utilizando como vía de entrada tanto DISCUS
como DISTA.
Es importante resaltar que estos tiempos y
tasas de envío hacen referencia al proceso de
envío de las series una vez que han sido
cargadas en memoria tanto por DISCUS como
por DISTA. Los tiempos y tasas de carga en
memoria de estas series pueden ser vistos en
la Tabla I y en la Tabla II.
5.2
Segmentación y
etiquetado
El tercer y cuarto objetivos específicos del
presente trabajo proponían dotar al sistema de
herramientas de segmentación interactiva del
árbol coronario y un mecanismo para proceder
al etiquetado manual de cada uno de los
segmentos arteriales, respectivamente.
Para alcanzar dichos objetivos se desarrollado
una herramienta, “Hemotool”, que utilizando
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
como base la funcionalidad de VISIOM, la
extiende incorporando mecanismos de
segmentación, etiquetado y reconstrucción
arterial.
La mayor aportación que realiza VISIOM es
la posibilidad de incorporar nuevos
algoritmos de segmentación y etiquetado a la
herramienta “Hemotool” sin la necesidad de
modificar esta última, debido a su diseño e
implementación abiertos. El sistema de
información actual cuenta con dos estrategias
para realizar la extracción del árbol arterial
de un fotograma. La primera de ellas está
basada en un algoritmo de “tracking” o
“seguimiento” y la segunda se basa en un
algoritmo de crecimiento de “regiones”.
5.2.1
Herramienta de
Segmentación y Etiquetado.
“Hemotool”.
A continuación, se elige el tipo de técnica de
segmentación a usar. En este momento se
dispone de dos opciones:
x
Técnica basada en un algoritmo de
seguimiento.
x
Técnica basada en un algoritmo de
crecimiento de regiones.
Además, existe una nueva pestaña en la
pantalla, en la que se encuentra el modelo que
se utilizará posteriormente para realizar la
construcción del modelo arterial artificial del
árbol coronario. Este modelo es común para
todas las proyecciones. Todos los segmentos
identificados en las distintas secuencias
aparecerán en esta ventana de la aplicación.
5.2.1.1 Sesión basada en Tracking
Arterial.
Una vez cargada la imagen deseada es
necesario pulsar
en
el botón de
Para comprender los resultados aportados por
el sistema, se detalla el funcionamiento de la
herramienta
“Hemotool”.
Una
vez
seleccionada la proyección del estudio de
angiografía, el primer paso del proceso de
segmentación es elegir la imagen más
adecuada para la identificación de las
arterias. Esta tarea se lleva a cabo tal y como
se puede ver en la Figura 10.
1.
2.
3.
En la parte central, a la izquierda,
aparece la imagen que está siendo
tratada en este momento.
En la parte central, a la derecha de
la imagen, aparece el panel que
permite realizar las operaciones
definidas para el paso de la sesión
en el que se encuentre la
herramienta.
En la parte inferior aparecen las
miniaturas de todas las imágenes
que
contiene
la
secuencia.
Seleccionando cualquiera de ellas,
ésta se cargará y aparecerá en la
parte izquierda de la pantalla, es
decir, en el panel principal.
Figura 8. Calibración.
“Identificación de Segmentos” para empezar
la segmentación. Esta sesión utiliza para la
segmentación del árbol coronario una técnica
que, indicando el principio del vaso y su
57
58
Red Ibero-NBIC
dirección, recorre
identificarlo.
el
vaso
y
permite
Cuando al algoritmo llegua a una condición
de parada, el usuario puede extender el árbol
arterial segmentado. Para añadir nuevas
ramas, debe iniciar de nuevo el proceso de
segmentación, como en el paso anterior,
marcando el punto de inicio a continuación de
una zona segmentada. El usuario también
puede borrar los segmentos no deseados.
Una vez segmentados los vasos de interés (ver
Figura 10), el usuario debe guardar la
segmentación del árbol arterial obtenida, de
forma que esté disponible para el resto de los
pasos de la sesión.
Con la imagen ya segmentada se puede
proceder al etiquetado de los distintos
segmentos. Como se muestra en la Figura 10,
en este paso aparecen 2 pestañas en la parte
derecha de la pantalla:
Figura 9. Segmentación.
x
El usuario puede modificar los parámetros de
la aplicación que crea conveniente
introduciendo los datos en los cuadros de
texto que se encuentran en el panel
“Parámetros”, situado en la parte derecha de
la ventana.
Antes de empezar la segmentación
propiamente dicha, es necesario realizar la
calibración de la herramienta. Para ello se
debe seleccionar el catéter utilizado, puesto
que es el único artefacto del que se conocen
sus dimensiones previamente. Una vez
elegido, se marcan dos puntos, uno a cada
lado del catéter en la imagen. La herramienta
detecta los bordes del catéter y establece la
relación píxeles / milímetros cuadrados de la
imagen en base a ella (Figura 8).
El proceso de segmentación comienza cuando
el usuario marca el punto donde quiere iniciar
la segmentación y un segundo punto para
indicar la dirección de avance del algoritmo.
Utilizando estos valores, el algoritmo avanza
recorriendo el árbol arterial y determina que
puntos de la imagen pertenecen a dicho árbol
(ver Figura 9. Segmentación.).
x
Etiquetar: En esta pestaña se
permite elegir la dominancia que
presenta el paciente. Se puede
indicar si el segmento presenta
estenosis. También permite elegir la
etiqueta con la que se quiere
identificar un segmento. Existen dos
formas de realizar esta elección:
o Utilizar
la
lista
desplegable que contiene
todos los nombres de los
segmentos
que
se
encuentran en el árbol
coronario, dependiendo de
la dominancia.
o Utilizando el esquema que
aparece debajo de la lista
desplegable. Este permite
elegir
la
etiqueta
pinchando
sobre
el
esquema en el lugar
donde se encuentre el
segmento representado.
Lista de Etiquetados: Esta pestaña
muestra los distintos segmentos
etiquetados hasta el momento.
Permite guardar o borrar los
segmentos seleccionados.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Una vez se hayan etiquetado todos los
segmentos, se seleccionan los segmentos que
se quieren guardar. En ese momento, esos
segmentos ya están disponibles en la pestaña
de representación del árbol para ser asignados
al modelo del arterial.
A continuación, se puede identificar la
ubicación y severidad de las distintas
estenosis que se observen. Cuando se han
identificado todas las estenosis, finaliza la
sesión de segmentación y etiquetado basada
en “tracking” arterial.
Figura 10. Segmentación y Etiquetado.
59
Red Ibero-NBIC
Interus uario
10000
9000
8000
Us uario 1
60
7000
6000
5000
4000
3000
2000
2000
3000
4000
5000
6000
7000
8000
9000
10000
Usua rio 2
Tabla III. Representación gráfica de la correlación lineal de los resultados obtenidos por el
Usuario 1 y el Usuario 2. Se han medido 59 casos de forma doble y ciega por cada uno de los
usuarios.
Para garantizar que la herramienta de
segmentación basada en técnicas de
seguimiento es estable y proporciona
resultados repetibles e independientes del
usuario, se han llevado a cabo una serie de
pruebas. Dos usuarios independientes han
realizado una medición doble y ciega de la
arteria circunfleja en una colección de 59
imágenes diferentes, obteniendo como
resultado de cada medición el número de
píxeles pertenecientes a dicha arteria, tal y
como se puede observar en la Figura 10.
Para evaluar los resultados obtenidos se ha
utilizado, en primer lugar, el coeficiente de
correlación interclases con el objeto de
estimar la repetibilidad de los resultados de
un mismo usuario. Para establecer la validez
y fiabilidad del método de medida, en este
caso la herramienta de segmentación basada
en “tracking”, se ha utilizado el coeficiente de
correlación de concordancia, aplicado a los
resultados obtenidos por ambos usuarios [10].
Los coeficientes de correlación interclases
obtenidos son UI1 = 0,9918 y UI2 = 0,9686.
Estos valores próximos a uno, que representa
el grado de acuerdo máximo, indican que las
mediciones son repetibles en gran medida,
aún cuando el usuario realice las pruebas en
momentos diferentes y sin conocer si ha
realizado previamente la misma medición.
El coeficiente de correlación de concordancia,
obtenido como consecuencia
de la
comparación de los resultados obtenidos en
las mediciones realizadas por el Usuario 1 y
el Usuario 2 (ver Tabla III), es UC = 0,9766
avala la validez y fiabilidad de la medida.
5.2.1.2 Sesión basada en
Crecimiento de Regiones.
Esta sesión utiliza para la segmentación del
árbol coronario una técnica que, indicando un
punto semilla y los límites de crecimiento del
algoritmo, reconoce segmentos arteriales.
Antes de empezar la segmentación,
propiamente dicha, es necesario realizar la
calibración de la herramienta, que se lleva
cabo del mismo modo que en el caso de
“tracking” arterial y el preprocesado de la
imagen, que mejora los resultados que se
obtienen mediante las segmentación basada
en este método.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Para realizar la segmentación, se elige un
punto semilla inicial y el algoritmo va
añadiendo a la región todos los puntos
vecinos que tienen un nivel de gris similar. El
margen que define si el color es similar es la
“Tolerancia”, que se puede cambiar en caso
de que los resultados de la segmentación no
sean los esperados.
Para limitar el proceso de crecimiento se
puede indicar los límites del segmento
arterial (ver Figura 11).
Una vez reconocidos todos los segmentos es
necesario guardarlos pulsando “Guardar
Segmentos” para continuar con la secuencia
de pasos de la sesión, tal y como se puede ver
en la Figura 11.
Se han llevado a cabo una serie de pruebas
para garantizar que la herramienta de
segmentación basada en técnicas de
crecimiento de regiones es estable y
proporciona
resultados
repetibles
e
independientes del usuario. Dos usuarios
independientes han realizado una medición
doble y ciega de la arteria circunfleja en una
colección de 59 imágenes diferentes,
obteniendo como resultado de cada medición
el número de píxeles pertenecientes a dicha
arteria.
Para evaluar los resultados obtenidos se ha
utilizado, en primer lugar, el coeficiente de
correlación interclases con el objeto de
estimar la repetibilidad de los resultados de
un mismo usuario. Para establecer la validez
y fiabilidad del método de medida, en este
caso la herramienta de segmentación basada
en crecimiento de regiones, se ha utilizado el
coeficiente de correlación de concordancia,
aplicado a los resultados obtenidos por ambos
usuarios [10].
Los coeficientes de correlación interclases
obtenidos son UI1 = 0,9311 y UI2 = 0,9472
(ver Tabla IV). Estos valores próximos a uno,
que representa el grado de acuerdo máximo,
indican que las mediciones son repetibles en
gran medida, aún cuando el usuario realice
las pruebas en momentos diferentes y sin
conocer si ha realizado previamente la misma
medición. Sin embargo, estos valores, pese a
mostrar un alto grado de acuerdo, no son tan
positivos como en el caso de segmentación
basada en seguimiento.
El coeficiente de correlación de concordancia,
obtenido como consecuencia
de la
comparación de los resultados obtenidos en
las mediciones realizadas por el Usuario 1 y
el Usuario 2, es UC = 0,9221, lo que avala la
validez y fiabilidad de la medida, pese a que,
como en los coeficientes de correlación
interclases, el resultado obtenido es
ligeramente peor en comparación con la
segmentación basada en “tracking”.
5.3
Construcción del Modelo
Arterial Artificial.
El quinto objetivo específico planteado al
comienzo de la elaboración de este trabajo,
era la construcción de un modelo arterial
artificial personalizado para cada paciente,
extrayendo la información necesaria de las
imágenes
pertenecientes
al
estudio
angiográfico practicado.
61
62
Red Ibero-NBIC
Figura 11. Segmentos reconocido por "Crecimiento de Regiones".
Por esto, una vez segmentado el árbol
completo o la porción de árbol a estudiar, la
herramienta “Hemotool” permite etiquetar
cada uno de los segmentos arteriales, que
pasarán a estar disponibles en el proceso de
reconstrucción del modelo arterial artificial.
Los procesos de segmentación y etiquetado se
pueden realizar tantas veces como sea
necesario, siempre sobre imágenes de un
mismo estudio, en diferentes proyecciones y
utilizando diferentes algoritmos si se desea.
El resultado es un conjunto de segmentos
arteriales que pueden ser utilizados para
realizar la construcción de un modelo arterial
artificial, dimensionado en función de los
datos extraídos de las imágenes del estudio.
5.3.1
Creación del modelo de
árbol coronario.
Cuando se han identificado todos los
segmentos, se puede crear el modelo árbol
coronario, tal y como se puede observar en la
Figura 12:
x
A la izquierda, aparecen varias
tablas. Cada una de ellas pertenece
a una proyección de las utilizadas
para identificar los segmentos. En
estas tablas se muestran las
etiquetas
de
los
segmentos
identificados en cada proyección
acompañados por la longitud del
segmento.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
x
x
se muestra la información adicional
en la tabla y se refleja en la imagen
de la parte inferior.
Cuando se añade un segmento, la información
de este aparecerá reflejada en la tabla de la
derecha y se iluminará su correspondiente en
el “Árbol de BARI” situado debajo. Cuando
se elimina sucede lo contrario.
En el centro, se indica la
dominancia del paciente y debajo de
esta aparecen tres botones. Estos
botones
permiten
“Añadir”
segmentos al modelo. “Eliminar”
segmentos del modelo y “Guardar”
el modelo de manera permanente en
la base de datos. Es posible añadir
comentarios a la reconstrucción
creada utilizando el cuadro de texto
“Comentarios”.
Y, en la parte derecha, una
representación del modelo en forma
de tabla donde se presentan todos
los segmentos posibles en el modelo
según la dominancia del paciente.
Según añaden segmentos al modelo,
Cuando el modelo está completo, se debe
pulsar el botón “Guardar” para almacenarlo
de manera persistente en base de datos. Al
guardar un modelo por primera vez, aparece
un cuadro de diálogo que permite asignarle un
nombre al modelo. Por último, la opción
“Exportar” permite volcar los datos que se
muestran en la tabla de la derecha a un
fichero de texto.
Tabla IV. Representación gráfica de la correlación lineal de los resultados obtenidos por el
Usuario 1 y el Usuario 2. Se han medido 59 casos de forma doble y ciega por cada uno de los
usuarios.
InterUs uario
9000
Us uario 1
8000
7000
6000
5000
4000
3000
3000
4000
5000
6000
7000
Usua rio 2
8000
9000
10000
63
64
Red Ibero-NBIC
La creación de un modelo de árbol coronario
normal o de referencia es una tarea que ha
sido objeto de numerosos estudios, siendo uno
de los más referenciados el realizado por J.
Theodore Dodge Jr. en los años 80 [5]. Pero a
pesar de que la mayor parte de los árboles
coronarios tienen una estructura común, la
variabilidad de su forma y tamaño es muy
descendente anterior izquierda y arteria
circunfleja.
En este trabajo, se utiliza la clasificación de
las arterias coronarias de BARI, como
elemento de referencia para definir la
estructura base de un árbol coronario.
Cualquier corazón, independientemente de la
dominancia que presente, puede ser
Figura 12. Pantalla para la construcción del modelo.
importante. Tanto es así que los clínicos
clasifican al individuo objeto del estudio en
función de la dominancia del árbol arterial,
que puede ser izquierda, derecha y
balanceada.
La dominancia es un factor de clasificación
del árbol arterial que se determina en función
del tamaño de las arterias principales: la
arteria coronaria derecha y la arteria coronaria
izquierda, que a su vez se divide en arteria
representado
genérica.
mediante
esta
estructura
Partiendo de un grafo teórico de referencia,
que representa el árbol coronario y asignando
el valor del volumen de sangre teórico
albergado por dicho segmento, se obtiene una
aproximación virtual del árbol coronario del
paciente. El volumen de cada segmento es
estimado a partir de la información extraída
del estudio angiográfico.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
El elemento clave en el proceso de
construcción del modelo virtual es que el
clínico puede seleccionar, para cada segmento
del árbol arterial artificial, información
extraída de diferentes proyecciones, quedando
a elección del clínico la selección de en que
proyección se ve en verdadera magnitud el
segmento arterial, evitando de esta forma el
efecto del acortamiento visual.
5.3.2
Porcentaje del árbol
coronario en riesgo como
marcador pronóstico
Un marcador pronóstico o “score” es una
variable que guarda relación con la
propensión de un individuo a padecer una
enfermedad en un determinado grado.
encuentran agrupados, es sencillo realizar el
trabajo de seguimiento de un individuo que
haya sido intervenido en varias ocasiones.
Además,
el
sistema
incorpora
una
herramienta que permite acceder a los datos
de cada estudio almacenados en la base de
datos, de forma que el clínico pueda ver toda
esta información de forma intuitiva. Dichos
datos pueden ser exportados también a
ficheros externos con un formato compatible
con los paquetes de tratamiento estadístico
más utilizados.
6.
BIBLIOGRAFÍA
1.
ACC/AHA/ACP-ASIM “Guidelines for
the Management of Patients With
Chronic Stable Angina. A Report of the
American College of
Cardiology/American Heart Association
Task Force on Practice Guidelines
(Committee Management of Patients
with Chronic Stable Angina)”. J Am Coll
Cardiol, vol. 33, pp. 2092-2197, 1999.
2.
R.M. Califf, H.R.I Phillips, M.C.
Hindman et al. “Prognostic value of a
coronary artery jeopardy score.” J Am
Coll Cardiol, vol. 5, pp. 1055– 63. 1999
3.
DICOM Software made By Offis –
DCMTK – DICOM Toolkit, [en línea].
[Último acceso 30/04/2007]. URL
disponible:
http://dicom.offis.de/dcmtk.php.en
Proporcionando esta información para una
cohorte lo suficientemente significativa de
casos,
debidamente
aleatorizados
y
seleccionados, se puede probar que dicho
marcador pronóstico es válido.
4.
“Digital Imaging and Communications
in Medicine,” Nacional Electrical
Manufacturers Association. 2007. USA.
[en línea] [Último acceso 30/04/2007].
URL disponible:
http://medical.nema.org.
5.3.3
5.
J.T. Dodge Jr., B.G. Brown, E.L. Bolson
and H.T. Dodge. “Intrathoracic Spatial of
Specified Coronary Segments on the
Normal Human Heart. Applications in
quantitative arteriography, assessment of
En este caso, el personal de la Unidad de
Cardiología Intervencionesta del CHUAC ha
propuesto estudiar el porcentaje de afectación
del árbol coronario por una o varias estenosis
como un nuevo marcador pronóstico o
“score”, a la hora de calcular el riesgo de
accidente coronario que sufre un determinado
individuo
Con el objetivo de validar el “score”
propuesto, el sistema de información
proporciona para cada modelo arterial virtual,
construido a partir de la información obtenida
desde imágenes pertenecientes a distintas
proyecciones del estudio, el porcentaje de
árbol coronario en riesgo o afectado por
estenosis, entre otros valores.
Explotación de los datos
El médico puede acceder al modelo virtual
creado y a los datos generados en el mismo
posteriormente. Debido a que todos los
estudios realizados a un mismo paciente se
65
66
Red Ibero-NBIC
regional risk and contraction, and
anatomic display,” Circulation, vol. 78,
no 5, November 1988.
6.
M. Emond, M.B. Mock, K.B. Davis, et
al. “Long-term survival of medically
treated patients in the Coronary Artery
Surgery Study (CASS) Registry,”
Circulation vol. 90, pp. 2645–57, 1994.
7.
Enciclopedia médica en español.
Medline Plus. [en línea] URL disponible:
http://www.nlm.nih.gov/medlineplus/spa
nish/ency/article/003876.htm
8.
Group European Coronary Surgery
Study. “Coronary-artery bypass surgery
in stable angina pectoris: survival a two
years,” Lancet, vol.1, pp. 889-93, 1979
9.
Sitio Web oficial de las aplicaciones
JDICOM. [en línea] [Último acceso
31/01/2007]. URL disponible en:
http://www.tiani.com/JDicom.
10. A. Martín, J. de Dios. “Bioestadística
para las Ciencias de la Salud”. Madrid.
Capitel Ediciones, 2004.
11. Memoria anual 2003. Complejo
Hospitalario Universitario Juan
Canalejo. Xunta de Galicia.
12. P.J. Scanlon, D.P. Faxon, A.M. Audet,
B. Carabello, G.J. Dehmer, K.A. Eagle,
R.D. Legako, D.F. Leon, J.A. Murray,
S.E. Nissen, C.J. Pepine, R.M. Watson,
J.L. Ritchie, R.J. Gibbons, M.D.
Cheitlin, T.J. Gardner, A. Garson Jr.,
R.O. Russell Jr, T.J. Ryan and S.C.
Smith Jr. “ACC/AHA guidelines for
coronary angiography: A report o f the
American College of
Cardiology/American Heart Association
Task Force on Practice Guidelines
(Comitee on Cornoray Angiography)
developed in collaboration with the
Society for Cardiac Angiography and
Interventions” J. Am. Coll. Cardiol. no.
133, pp. 1756-1824. 1999.
13. T. Takaro, H.N. Hultgren, M.J. Lipton
and K.M. Detre. “The VA cooperative
randomized study of surgery for coronary
arterial occlusive disease. II. Subgroup
with significant left main lesions,”
Circulation, vol. 54 (suppl III), pp. 107117.
14. T. Thom, N. Haase, W. Rosamond, V.J.
Howard, J. Rumsfeld, T. Manolio, Z.
Zheng, K. Flegal, C. O’Donnell, S.
Kittner, D. Lloyd-Jones, D.C. Goff, Jr,
Y. Hong, Members of the Statistics
Committee and Stroke Statistics
Subcommittee, R. Adams, G. Friday, K.
Furie, P. Gorelick, B. Kissela, J. Marler,
J. Meigs, V. Roger, S. Sidney, P. Sorlie,
J. Steinberger, S. Wasserthiel-Smoller,
M. Wilson and P. Wolf. “Heart Disease
and Stroke Statistics—2006 Update: A
Report From the American. Heart
Association Statistics Committee and
Stroke Statistics Subcommittee.”
Circulation no 113, pp 85-151. 2006.
15. “International Telecommunication
Union, ITU-T Recommendation X.800.
Redes de comunicación de datos:
Interconexión de Sistemas Abiertos
(ISA), Seguridad, Estructura y
Aplicaciones”.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Certificado de Informática Médica para
Puerto Rico: Una experiencia de
colaboración panamericana
Alvaro Margolisa, Francisco Joglara, Fernán González Bernaldo de Quirósb,
Analía Baumb, Antonio Fernándezc, Sofía Garcíaa, Antonio López
Arredondoa, William R. Hershd
a
EviMed Corp. (Uruguay y Puerto Rico)
Hospital Italiano de Buenos Aires (Argentina)
c
Regional Extension Center, Ponce School of Medicine (Puerto Rico)
d
Oregon Health Sciences University (Estados Unidos)
b
[email protected]
RESUMEN
En este artículo se describe la adaptación
para Puerto Rico del programa educativo
10x10, un certificado universitario sobre
sistemas de información en Salud. El
programa 10x10 fue inicialmente desarrollado
por la Universidad de Oregón, luego adaptado
para Latinoamérica por el Hospital Italiano de
Buenos Aires.
Puerto Rico se encuentra en una intersección
entre Estados Unidos y Latinoamérica, tanto
en términos de gobierno, como en el sistema
de Salud, cultura e idioma. Por lo tanto, se
consideró adecuado re-adaptar el programa
educativo a Estados Unidos, en español,
teniendo en cuenta las realidades señaladas y
la experiencia de EviMed en el desarrollo de
actividades combinadas, presenciales y a
distancia, para Puerto Rico y otros países de
América Latina.
Fueron cuarenta profesionales de Puerto Rico
quienes realizaron la primera edición del
certificado durante los meses de agosto a
diciembre de 2012. El mismo fue apoyado por
el Regional Extension Center para Puerto
Rico y las Islas Vírgenes, y auspiciado por la
American Medical Informatics Association
(AMIA).
Palabras clave: Educación en informática
médica, Puerto Rico, América Latina,
Colaboración internacional.
1. ANTECEDENTES
Citando al Presidente de los Estados Unidos,
Barack Obama, en su discurso de enero de
2009: “Para mejorar la calidad de nuestro
sistema de Salud al mismo tiempo que
disminuir su costo, vamos a hacer las
inversiones inmediatas necesarias, de manera
de asegurar que en los próximos cinco años,
todos los registros clínicos de Estados
67
68
Red Ibero-NBIC
Unidos de América estén computarizados…
No va solamente a ahorrar miles de millones
de dólares y miles de puestos de trabajo –
Ahorrará vidas.”
Es así que la actual Administración de
Gobierno en Estados Unidos creó el programa
HITECH (Health Information Technology for
Economic and Clinical Health), parte de la
American Recovery and Reinvestment Act
(ARRA) que asignó 40 mil millones de
dólares a la ONC (Office of the National
Coordinator for Health IT) para crear
incentivos al uso significativo de la tecnología
de la información en Salud, a través de:
– Adopción del Registro Clínico Electrónico
(RCE)
– Intercambio de información en Salud (IIS)
– Infraestructura, donde se destacan los
Regional Extension Centers – 60 en todo el
país (uno de ellos en la Escuela de Medicina
de Ponce, en Puerto Rico)
Sin embargo, para llevar adelante esta visión,
se vuelve sumamente necesario poder contar
con suficientes profesionales con formación y
experiencia en sistemas de información en
Salud,
que luego integren equipos
multidisciplinarios. Estos profesionales son
clínicos
(médicos,
enfermeros),
administradores,
profesionales
de
expedientes médicos y de informática, y
deben comprender esta temática y poder así
conducir el cambio. Para ello, son
fundamentales los líderes clínicos en roles de
enlace, para gestionar el cambio de sus
colegas en forma eficaz. Debido a que este
tipo de proyectos involucra un componente
importante de cambio cultural, sin la
participación de líderes clínicos, la
experiencia demuestra que aumentan las
posibilidades de fracaso.
Para este rol, la American Medical
Informatics Association creó el programa
10x10, un certificado universitario que aborda
la formación inicial de profesionales, para
estar capacitados y poder participar en
proyectos de informatización clínica. La
Universidad de Oregón fue la primera en
ponerlo en práctica (1), y posteriormente –
junto al Hospital Italiano de Buenos Aires –
fue adaptado a la realidad latinoamericana y
traducido al español (2). Dicho certificado ha
sido exitosamente aplicado en forma masiva
para proyectos de informatización de gran
escala, en otros países distintos de Argentina
(3).
Con el objetivo de que el programa 10x10
fuese significativo para Puerto Rico, debía
adaptarse su contenido, de manera de
contemplar aspectos particulares del sistema
de Salud, regulatorios y gubernamentales, así
como también tomar en cuenta aspectos
particulares de la cultura, y variaciones del
español en dicho Estado. Con esta finalidad,
se usó el modelo que EviMed ya había
aplicado en Puerto Rico para otras actividades
educativas (4,5), que implicaba la integración
de actividades sincrónicas y asincrónicas,
presenciales y a distancia, el conocimiento de
la realidad local y sus necesidades, la
integración de líderes e instituciones locales,
la adecuación consiguiente del diseño y
programa educativo, y la certificación con
validez local.
Figura 1.- Encuentro de los Directores del
Curso en San Juan de Puerto Rico
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Es de destacar que tanto el Hospital Italiano
de Buenos Aires como la Empresa EviMed
forman parte de la Red Ibero-NBIC de la
Cooperación Española, lo cual facilitó los
encuentros entre los equipos de ambas
instituciones para este proyecto.
Objetivos:
1. Reconocer los desafíos de la Informática
Médica como nueva disciplina:
*
Fundamentar
la
necesidad
del
procesamiento sistemático de la información
en la salud
2. DISEÑO DEL CURSO
* Identificar los beneficios y restricciones de
la tecnologías de información en la salud
Como primera etapa, se determinaron las
necesidades locales (del curso en sí y de sus
contenidos), con el apoyo de expertos de
Puerto Rico. A partir de ello, y como se
mencionó anteriormente, el contenido fue
adaptado a la situación de dicho Estado, al
igual que la metodología educativa.
* Conocer métodos y abordajes para la
interoperabilidad regional y el cuidado
compartido
Se agregaron contenidos acerca del Sistema
de Salud de los Estados Unidos, el programa
HITECH (y los consiguientes incentivos
económicos para el uso significativo del
registro clínico electrónico), los sistemas de
codificación actualmente usados en los
Estados Unidos, al igual que la legislación
federal sobre privacidad, en particular
HIPAA. De esta manera, se modificaron y
actualizaron los materiales de estudio y los
escenarios de casos, al mismo tiempo que se
agregaron ponencias sobre dichos tópicos en
el evento presencial de inicio del curso. Se
debieron contemplar las diferencias en el uso
del idioma español entre los distintos países.
2. Reconocer las características de gestión y
flujo de la información en la institución de
salud y las principales
El programa que se implementó combinaba
un evento presencial inicial con cuatro meses
de actividades a distancia vía Internet,
sincrónicas y asincrónicas, individuales y en
pequeños grupos.
La experiencia fue pensada con una extensión
de 155 horas de estudio, entre los meses de
agosto y diciembre de 2012.
(Ehealth, aplicaciones de telemática en salud
e intercambio de información entre las
organizaciones)
propuestas para solucionar sus deficiencias:
* Identificar los componentes de un sistema
de información en el ámbito de la salud en
sus
diferentes niveles (local, regional y nacional)
* Explicar por qué varios sistemas
computacionales clínicos fallaron y cómo
contribuye el
profesional de la salud a que eso suceda
* Documentar en forma apropiada y dar
cuenta de los principios de administración de
datos en
salud, incluida la capacidad de utilizar
sistemas de codificación.
3. Reconocer al trabajo en equipo como pauta
fundamental para lograr estrategias de
implementación en los sistemas clínicos de
información.
Temario:
A continuación sigue un detalle del diseño del
curso:
Los contenidos se organizaron en cinco
módulos temáticos, los cuales a su vez, se
presentan en diferentes capítulos.
69
70
Red Ibero-NBIC
Módulo 1: El Sistema de Salud y los
Sistemas de Información.
Capítulo 1 “Introducción a los Sistemas de
Salud”
Capítulo 2 “Informática en Salud como
disciplina”
Capítulo 3 “Introducción a los Sistemas de
Información en Salud”
Capítulo 4 “Componentes y Capas de los
Sistemas de Información”
Módulo 2: Integración de Sistemas
Heredados (Legacy)
Capítulo 5 “Componente Computacional y
Ciclo del Software”
Capítulo
6
“Capa
Intermedia
Interoperabilidad”
Capítulo 7 “Estándares en Salud”
Capítulo 8 “Capa Administrativa”,
e
Capítulo 9 “Sistemas Departamentales”
Módulo
3:
Sistemas
Clínicos
de
Información
Capítulo 10: “El registro clínico en las
Instituciones de salud”
Capítulo 11: “Soluciones de registro clínico
electrónico”
Capítulo 12: “Certificación de HCE y
políticas de incentivos para su adopción”
Módulo 4: Gestión de los datos clínicos
Capítulo 18: “Inteligencia de negocios en
Instituciones de Salud”
Capítulo 19: “Sistemas de información
orientados al control de pacientes con
enfermedades crónicas”
Capítulo 20: “Salud Pública y Vigilancia
Epidemiológica”
Módulo 5: Manejo del cambio
Capítulo 21: “Manejo del Cambio”
Capítulo 22: “Gestión de Proyectos y
Liderazgo”
Metodología de estudio
El entorno educativo está basado en un
modelo
pedagógico
de
aprendizaje
colaborativo, en el que docentes y estudiantes
interactúan utilizando como soporte Internet.
El curso tiene una modalidad semi-presencial,
con un evento presencial al inicio del curso y
actividades a través de Internet durante cuatro
meses.
Se puede acceder al entorno digital sin
restricción horaria, de acuerdo con la
disponibilidad de los participantes y hasta la
fecha de finalización de las actividades.
Capítulo 13: “Ingreso de datos en la HCE y
Servicios Terminológicos”
Capítulo 14: “Sistema de Ayuda para la toma
de decisiones o CDSS”
Capítulo 15: “Registros Personales de
Salud”
Capítulo 16: “Seguridad y Normativas”
Capítulo 17: “Telemedicina”
Figura 2.- Interface que muestra parte del
entorno de educación a distancia
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Materiales de aprendizaje
Los materiales educativos incluyen:
Clases: Disponibles en una versión para su
lectura en línea y otra versión que el
estudiante puede descargar y/o imprimir.
Dicho material es elaborado por el equipo
docente
del
curso
y
procesado
pedagógicamente, presentando un desarrollo
de contenidos de acuerdo a la estructura
temática
del
curso.
Materiales
de
lectura:
Disponibles
habitualmente en español y en algunos casos
en inglés, pudiendo ser de lectura obligatoria
u optativa y destinado a ampliar y/o
profundizar los contenidos planteados en las
clases.
Actividades de aprendizaje: Pueden consistir
en participaciones en los foros, realización de
ejercicios o tareas, discusión de casos, lectura
de bibliografía ampliatoria sobre un tema o
visita a sitios web de interés.
Encuentros sincrónicos: Tres encuentros
sincrónicos a lo largo del curso a través de
una pizarra virtual permiten consolidar la
interacción entre alumnos y docentes.
Certificado de aprobación
Para la certificación, se requiere título
universitario de grado. Cumpliendo con este
requisito y aprobando las actividades
obligatorias establecidas por el equipo
docente, se emite un certificado con la nota
final por el Instituto Universitario del
Hospital Italiano de Buenos Aires .
Figura 3.- Captura de pantalla del primer
encuentro sincrónico
Aulas virtuales
En el espacio virtual de este curso, se forman
grupos de alumnos guiados por un tutor que
acompaña, orienta y anima el proceso
individual de aprendizaje y fomenta las
interacciones de aprendizaje colectivo. Para
ello, se dispone de diversas herramientas de
comunicación
que
facilitan el diálogo entre docentes y alumnos.
Evaluación
La evaluación se realiza a través de
Cuestionarios de auto evaluación, actividades
(análisis de casos, resolución de problemas) y
un Examen final a través de Internet.
Figura 4.- Organización de un modulo de
aprendizaje
71
72
Red Ibero-NBIC
Se entrega, además, un certificado de la
entidad promotora del 10x10: American
Medical Informatics Association, en convenio
con la Oregon Health Science University.
Este certificado de una reconocida institución
estadounidense es de relevancia en el Estado
de Puerto Rico.
Los resultados del curso en sí (participación,
finalización, satisfacción, aprendizajes), serán
evaluados cuando se completen los períodos
de examen disponibles, luego del primer
trimestre de 2013.
4.
CONCLUSIONES Y
PLANES FUTUROS
Figura 5.- Certificado que emite la
Asociación Americana de Informática Médica
a quienes aprueban el curso
3. RESULTADOS
La adaptación del curso 10x10 en español
para una audiencia estadounidense Puerto
Rico fue posible y resultó útil para los
participantes y las instituciones donde los
mismos trabajan. Para 2013, se planea repetir
el curso en el segundo semestre, ampliando la
matrícula a más centros hospitalarios, donde
la capacitación de sus equipos de proyecto de
informatización es particularmente útil y para
los cuales el programa de incentivos
económicos comenzará a ser aplicado durante
este año.
AGRADECIMIENTOS
Cuarenta alumnos, provenientes de toda la
Isla de Puerto Rico tomaron el curso. Su
formación está detallada en la tabla 1:
Agradecemos el apoyo de la red Ibero-NBIC
de la Cooperación Española
Tabla 1: Antecedentes de los cursantes.
Área
Número
%
Administración
12
30
Ciencias de la
computación
15
37.5
Medicina y Enfermería
10
25
Comunicación y
educación
3
7.5
BIBLIOGRAFÍA
[1] Hersh W, Williamson J. Educating
10,000 informaticians by 2010: the
AMIA 10x10 program. Int J Med
Inform. 2007 May-Jun; 76(5-6):37782.
[2] P. Otero; W. Hersh; D. Luna; F.
González Bernaldo de Quirós
(2010). A medical informatics
distance-learning course for Latin
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
America - translation,
implementation and evaluation.
Methods of Information in
Medicine, 49: 310-315.
[3] Margolis A, Vero A, Bessonart L,
Barbiel A, Ferla M. Health
information systems training for a
countrywide implementation in
Uruguay. Yearb Med Inform. 2009;
:153-7.
[4] Margolis A, Santiago B, Martínez
E, Dapueto J, Lorier L, Fernández
Z, Forster T, Miranda N, Muñoz C,
López A. Four-year Collaboration in
CME Among Latin American
Institutions. CME Congress,
Toronto, Canada, May 2012.
[5] Margolis A. Marco conceptual y
lecciones aprendidas sobre
educación médica continua a
distancia. Capítulo de libro
“Manual de salud electrónica para
directivos de servicios y sistemas de
salud”; Javier Carnicero y Andrés
Fernández, editores. Sociedad
Española de Informática en Salud
(SEIS) y Comisión Económica para
América Latina y el Caribe
(CEPAL), 2013. Aceptado para su
publicación.
73
74
Red Ibero-NBIC
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Application of CellDesigner to the
Selection of Anticancer Drug Targets:
Test Case using P53.
Raúl Isea12, Johan Hoebeke1, Rafael Mayo2, Fernando Alvarez3
and David S. Holmes4*
1
Fundación Instituto de Estudios Avanzados, Valle de Sartenejas, Baruta 1080, Venezuela;
2
CIEMAT, Av. Complutense de Madrid 22, Spain;
3
Sección Biomatemática, Facultad de Ciencias, Montevideo 11400, Uruguay;
4
Center for Bioinformatics and Genome Biology, Fundación Ciencia para la Vida and
Facultad de Ciencias Biologicas, Universidad Andrés Bello, Santiago, Chile.
ABSTRACT
Cancer is a disease involving many genes,
consequently it has been difficult to design
anticancer drugs that are efficacious over a
broad range of cancers. The robustness of
cellular responses to gene knockout and the
need to reduce undesirable side effects also
contribute to the problem of effective anticancer drug design. To promote the successful
selection of drug targets, each potential target
should be subjected to a systems biology
scrutiny to locate effective and specific targets
while minimizing undesirable side effects.
The gene p53 is considered a good candidate
for such a target because it has been
implicated in 50% of all cancers and is
considered to encode a hub protein that is
highly connected to other proteins. Using P53
as a test case, this paper explores the capacity
of the systems biology tool, CellDesigner, to
aid in the selection of anticancer drug targets
and to serve as a teaching resource for human
resource development.
2
Keywords
Cancer, systems biology, drug target, cancer
therapy, p53, Mdm2, CellDesigner.
1.
Over the past decade, there has been a
significant decrease in the rate that new
anticancer drug candidates are being
translated into effective therapies in the
clinic. In particular, there has been a worrying
rise in late-stage attrition in phase 2 and
phase 3 [1]. Currently, the two single most
important reasons for this attrition, each of
which account for 30% of failures are (i) lack
of efficacy and (ii) clinical safety or
toxicology. These late-stage attrition rates are
at the heart of much of the relative decline in
productivity of the pharmaceutical industry
resulting in significant financial setbacks. In
Corresponding author. D.H ([email protected]),
R.I ([email protected]).
INTRODUTION
75
76
Red Ibero-NBIC
addition, because many patents on the current
generation of marketed drugs will expire from
2010 onward, pharmaceutical companies will
face the first fall in revenue in four decades.
With advances in human genome
biology and the advent of personalized
medicine, new opportunities for the discovery
of drug targets are arising. The fundamental
challenge of anticancer therapy is the need for
agents that eliminate cancer cells with a
therapeutic index that is safely tolerated by
the patient. However, the selection of suitable
anticancer drug targets is complicated by the
fact that over 100 genes have been shown to
be involved in the disease, rendering it
necessary to develop multiple therapies. In
addition, the cell shows a remarkable degree
of robustness, in which impairment of the
functions of some genes by mutation or drug
targeting can be rescued by the action of other
genes.
For
example,
using genetic
engineering techniques to knock out the
function of over 40% of the approximately
6000 yeast genes one-by-one has little effect
on cell growth in rich medium [2, 3].
The transcription factor P53 is encoded
by a tumor suppressor gene that can arrest the
cell cycle and facilitate apoptosis. P53
functions as a sensor of upstream signals that
reflect DNA-damage and cellular stresses
such as hypoxia, providing protection against
tumor growth, and the action of oncogenes
(Myc, Ras, E1A, ß-catenin) [4, 5]. These
signals activate latent p53 by enhancing its
DNA-binding activity and increasing its
stability, resulting in increased levels of 10100x of the protein. Since enhanced levels of
p53 lead to cell cycle-arrest and apoptosis, it
is of critical importance that normal cells
keep their p53 levels low. This can be
accomplished by destabilization of P53 by
interaction with the protein Mdm2.
Interaction with Mdm2 causes export of P53
from the nucleus to the cytoplasm where it is
targeted for proteosomal degradation by
interaction with a P53-specific E3 ubiquitin
[6]. The gene encoding Mdm2 is activated by
P53 but at a time that is relatively late in the
cell cycle providing a window of time where
P53 can function.
P53 has been considered a suitable
target for anticancer therapies because of its
widespread implication in about 50% of all
cases of cancer [7-9]. It is also a node protein
with extensive interaction partners (a hub)
and high turnover rate [10]. As such, its
function may not easily be replaced by other
proteins (knockout inviable) [10]. Several
strategies have been explored in attempts to
stabilize P53 by preventing or diminishing its
interaction with Mdm2 [11-18]. The long
term objective is to improve the efficacy of
P53 to promote cell apoptosis in cancer cells.
Given the promise of this approach and
the substantial body of mathematical
modeling and
experimental
evidence
describing the cellular oscillations of the P53Mdm2 pair, we decided to explore the use of
CellDesigner, as a tool for evaluating the
network consequences of eliminating the
interaction of Mdm2 with P53. CellDesigner
can
visualize,
model
and simulate
biochemical networks and can integrate with
existing databases such as KEGG, PubMed,
BioModels [19].
2.
METHODS
2.1 Systems parameters
The parameters that describe the initial
states and oscillatory nature of the p53-Mdm2
interaction in the normal cell were obtained
by combining information from several
sources [20-23]. These parameters allow the
partial differential equations that govern the
system to be derived:
wx x
{x
wt
E
x
[ D x x D k y
x
y D y D
o
o
y
[Eq. 2]
y
x
yo E x[ D
y
o
x
xk
yo
[Eq. 3]
[Eq. 1]
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Equations 1 describes the negative
feedback loop (defined as x) for P53 in which
its activity decreases with time according to
the mass-action binding of Mdm2 to P53
resulting in P53 ubiquitination and
subsequent
proteasomal
degradation.
Equation 2 describes the transcriptional
activity of p53 (defined as y), depending on
an initial value and a production rate that
decreases with time as Mdm2 activity
increases. Equation 3 describes the
transcriptional activity of Mdm2 (yo) which
decreases from an initial value because of the
negative feedback loop imposed by
parameters described in the second equation.
For these equations, the variables are
derived from [21] the initial values of the
variables are: x (0.20), y (0.10), and yo
(0.20). The other parameters are: Dk is the
rate of Mdm2-independent degradation of
P53 and the P53-dependent Mdm2 production
rate (0); Dy is the Mdm2 degradation rate
(0.8); Ex is the P53 production rate (0.9); E y
is the P53-dependent MDM2 production rate
(1.1); Do is the maturation rate (0); k is the
P53 threshold for degradation by MDM2
(0.0001) and [ is equal to 1. On addition of a
drug that completely eliminates the P53Mdm2 interaction, factors are added to the x
and yo equations, where G is the drug
concentration (0.17 arbitrary units).
2.2 Pathways and Use of CellDesigner
Pathways describing the interaction of
P53 with Mdm2 were uploaded from KEGG
[24] into CellDesigner using the intuitive
interface comprised of graphical notation,
model description and an application
integration environment as described [19, 2527].
3.
RESULTS
Two network models for the interaction
of P53 and Mdm2 were generated by
CellDesigner. The first network illustrates the
negative feedback loop that models the
experimentally
observed
time-delayed
oscillatory nature of both P53 and Mdm2
(Fig. 1A). The second network introduces a
drug-induced inhibition of the interaction
between P53 and Mdm2 that in turn impedes
the ubiquitination of P53 and its subsequent
degradation by proteosomes (Fig. 1B). The
drug is hypothetical and is assumed to cause
significant inhibition of the P53/Mdm2
interaction.
Using parameters described in
Methods and the networks shown in Fig. 1,
CellDesigner was used to predict fluctuations
of P53 and Mdm2 for 400 min in normal cells
(Fig. 2A) and for 200 min in cells with the
drug application (Fig. 2B). The application
successfully predicted the time-delayed,
oscillatory profiles of the interacting partners
in the normal cell with the characteristic 20
min periodicity of fluctuation (Fig. 2A) and
predicted a damping out of both P54 and
Mdm4 after the addition of the drug (Fig. 2B)
that has been observed in mathematical
models [29, 30].
4.
DISCUSSION
The time-delayed, oscillatory behavior of P53
and Mdm2 in the normal cell has been
observed experimentally [29] and has been
modeled theoretically [28, 30-33]. In addition,
mathematical models have been developed
that predict damping-out of concentrations of
P53 following the perturbation of the
interaction of P54 with Mdm2 via a naturally
occurring mutation [38] or after treatment
with the small molecule inhibitor Nutlin-3
[36]. The problem with these theoretical
models is that they are essentially “static”.
CellDesigner is also able to successfully
model the behavior of P54 and Mdm2 in the
normal cell (Figs. 1A and 2A) and can also
predict damping out when a theoretical drug
77
78
Red Ibero-NBIC
that prevents P54/Mdm2
interaction is
introduced into the system (Figs 1B and 2B).
Figure 1: Model of the interaction of P53 with Mdm2
and the resulting perturbations in the system predicted
by CellDesigner in the absence (A) or presence (B) of
a hypothetical drug that blocks the interaction
between the two proteins. P53* = P53 precursor,
Mdm2* = Mdm2 precursor, P53(Mdm2) = p53dependent Mdm2 production rate, Mdm2(P53) =
Mdm2-dependen p53 production rate.
However, in contrast to the previous
models, CellDesigner integrates pathway
visualization with analysis using Systems
Biology Markup Language [38], providing a
more dynamic model of cellular processes
through the incorporation of gene expression
data, subcellular localization information,
time-dependent behavior, chemical reactions,
kinetic equations etc. a one stop shopping
environment. Also, because CellDesigner is
open source, custom designed plug-ins can be
added when required. CellDesigner has been
used to predict suitable drug targets for for
methicillin-resistant bacteria [39], but this is
the first time that it has been used to examine
anti-cancer targets. Because it is open source
and manageable in a user-friendly fashion, we
have found CellDesigner to be an excellent
aid for teaching systems biology at the
undergraduate and graduate level.
Figure 2: Prediction of the changes in the amount
(amplitude in arbitrary units) of P53 and Mdm2 per
cell as a function of time without (A) and with (B)
addition of a hypothetical drug that blocks the
interaction of the two proteins. The curves were
generated using the flow diagram shown in Figure 1.
Other open source services similar to
CellDesigner include PathwayStudio [40],
Cytoscape
[41],
VisANT
[42],
BiologicalNetworks [43] and Teranode
Pathway
Analytics
(available
at
www.teranode.com/).
As
increasing
abundance of experimental data from highthroughput experimental biology becomes
available and as the cost, efficiency and
accuracy of this data improves, greater
emphasis will be put on systems biology
applications such as Celldesigner and others
for connecting vast amounts of data and but
also capturing usable knowledge in the form
of biologically valid relations that research
scientists can apply.
The modeling of the P53/Mdm2
interaction network presented here represents
a simplistic first step for evaluating
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
anticancer drug targets by CellDesigner. But
it should serve as the starting point for
several interesting lines of further inquiry
including the evaluation of the interactions of
P53 with Akt [44], p14ARF and ATM [20],
Pten and Pip3 [45] and other members of its
interactome. This information needs to be
explored in order to provide a more
comprehensive understanding of the potential
of the P53/Mdm2 interaction as a anticancer
drug target.
[4]
W.S El-Deiry, The p53 pathway and
cancer therapy, Cancer Journal 11
(1998) 229-236.
[5]
D.P. Lane, T.R. Hupp, Drug discovery
and p53, Drug Discovery Today 8
(2003) 347-355.
[6]
G. Asher, J. Lotem, L. Sachs, C.
Kahana, and Y. Shaul, Mdm-2 and
ubiquitin-independent
p53
proteasomal degradation regulated by
NQO1, PNAS 99 (2002) 1312513130.
5.
[7]
H. Jeong, S.P. Mason, A.L. Barabasi,
and Z.N. Oltvai,
Lethality and
centrality in protein networks, Nature
411 (2001) 41–42.
[8]
J.B. Pereira-Leal, B. Audit, J.M.
Peregrin-Alvarez, C.A. Ouzounis, An
exponential core in the heart of the
yeast protein-interaction network, Mol
Biol Evol 22 (2005) 421–425.
[9]
N.N. Batada, L.D. Hurst, M Tyers
Evolutionary
and
physiological
importance of hub proteins, PLoS
Comput Biol 2 (2006) e88.
[10]
Y. Liu and M. Kulesz-Martin, p53
protein at the hub of cellular DNA
damage response pathways through
sequence-specific and non-sequencespecific DNA binding, Carcinogenesis
22 (2001) 851-860.
[11]
L.T. Vassilev, B.T. Vu, B. Graves, et
al. In vivo activation of the p53
pathway
by
small-molecule
antagonists of MDM2. Science 303
844-848 (2004).
[12]
S. Shangary and S. Wang, SmallMolecule Inhibitors of the MDM2p53 Protein-Protein Interaction to
Reactivate p53 Function: A Novel
Approach for Cancer Therapy, Annual
ACKNOWLEDGES
Work supported by Fondecyt 1090451,
DI-UNAB 15-06/I and a Microsoft Sponsored
Research Award. Annual Operative Plan of
Fundación Instituto de Estudios Avanzados
IDEA. This project was carried out under the
auspices of the Virtual Institute of Integrative
Biology, a shared environment for e-Science.
6.
REFERENCES
[1]
I. Kola and J. Landis, Can the
pharmaceutical
industry
reduce
attrition rates?, Nature Reviews Drug
Discovery 3 (2004) 711-716.
[2]
P. Uetz, L. Giot, G. Cagney, T.A.
Mansfield, R.S. Judson, et al., A
comprehensive analysis of protein–
protein interactions in Saccharomyces
cerevisiae, Nature 403 (2000) 623–
627.
[3]
H. Moriya, Y. Shimizu-Yoshida, and
H. Kitano, In vivo robustness analysis
of cell division cycle genes in
Saccharomyces cerevisiae, PLoS
Genet 2 (2006) e111.
79
80
Red Ibero-NBIC
review
of
pharmacology
toxicology, 49 (2009) 223-241.
[13]
[14]
[15]
P. Chène, Inhibition of the p53MDM2 Interaction: Targeting a
Protein-Protein Interface, Mol Cancer
Res 2 (2004) 20
C.F. Cheok and D.P. Lane, New
developments in small molecules
targeting p53 pathways in anticancer
therapy, Drug Development Research
69 (2008) 289 – 296.
W. Wang, W.S. El-Deiry, Targeting
p53 by PTD-mediated transduction,
Trends in Biotechnology 22 (2004)
431-434.
[16] A.V. Gudkov, Therapeutic Strategies
Based
on
Pharmacological
Modulation of p53 Pathway, 2 (2005)
225-242.
[17]
C. Klein and L.T. Vassilev,
Targeting the p53–MDM2 interaction
to treat cancer, British Journal of
Cancer 91 (2004) 1415–1419.
[18]
H.R. Lawrence, Z. Li, M.L. Yip, S.S.
Sung,
N.J.
Lawrence,
M.L.
McLaughlin, G.J. McManus, M.J.
Zaworotko, S.M. Sebti, J. Chen, W.C.
Guida, Identification of a disruptor of
the
MDM2-p53
protein-protein
interaction facilitated by highthroughput in silico docking, Bioorg
Med Chem Lett. 19 (2009) 37563759.
[19]
[20]
[21]
variability in the p53 system.
Molecular Systems Biology, 2 (2006)
33.
and
A. Funahashi, A. Jouraku, Y.
Matsuoka and H. Kitano, Integration
of CellDesigner and SABIO-RK, In
Silico Biology 7 (2007) 10.
C.J. Proctor and D.A Gray,
Explaining oscillations and variability
in the p53-Mdm2 system, BMC
Systems Biology 2 (2008) 75.
N. Geva-Zatorsky, N. Rosenfeld, S.
Itzkovitz, R. Milo, A. Sigal, E. Dekel,
T. Yarnitzky, Y. Liron, P. Polak, G.
Lahav, U. Alon, Oscillations and
[22]
R.L. Bar-Or, R. Maya, L.A. Segel, U.
Alon, A.J. Levine, and M. Oren,
Generation of oscillations by the p53Mdm2 feedback loop: A theoretical
and experimental study, PNAS 97
(2000) 11250-11255.
[23]
G. Lahav, Oscillations by the p53Mdm2 feedback loop, Adv Exp Med
Biol., 641 (2008) 28-38.
[24]
M. Kanehisa, S. Goto, S. Kawashima,
Y. Okuno, and M. Hattori, The
KEGG Resource for Deciphering the
Genome, Nucleic Acids Research 32
(2004) D277-D280.
[25]
A. Funahashi, N. Tanimura, M.
Morohashi,
and
H.
Kitano,
CellDesigner: a process diagram
editor for gene-regulatory and
biochemical networks, BIOSILICO 1
(2003) 159-162.
[26]
H. Kitano, A. Funahashi, Y.
Matsuoka, and K. Oda, Using process
diagrams
for
the
graphical
representation of biological networks,
Nat. Biotechnol. 23 (2005) 961-966.
[27]
A. Funahashi, Y. Matsuoka, A.
Jouraku, M. Morohashi, N. Kikuchi,
H. Kitano, CellDesigner 3.5: A
Versatile
Modeling
Tool
for
Biochemical Networks, Proceedings
of the IEEE 96 (2008) 1254 – 1265.
[28]
X. Cai, and Z.M. Yuan, Stochastic
modeling and simulation of the p53MDM2/MDMX loop, J. Comput.
Biol. 16 (2009) 917-933.
[29]
D.A. Hamstra, M.S. Bhojani, L.B.
Griffin, B. Laxman, B.D. Ross, A.
Rehemtulla, Real-time evaluation of
p53 oscillatory behavior in vivo using
bioluminescent imaging, Cancer Res.
66 (2006) 7482-7489.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
[30]
W. Abou-Jaoudé, D.A. Ouattara, M.
Kaufman, From structure to dynamics:
frequency tuning in the p53-Mdm2
network I. Logical approach,
J.
Theor. Biol. 258 (2009) 561-577.
[31]
K. Puszyński, B. Hat, and T.
Lipniacki , Oscillations and bistability
in the stochastic model of p53
regulation, J. Theor. Biol. 254
(2008)452-465.
[32]
E. Batchelor, C. S. Mock, I. Bhan, A.
Loewer,
G.
Lahav,
Recurrent
initiation: a mechanism for triggering
p53 pulses in response to DNA
damage, Mol Cell. 30 (2008) 277289.
[33]
A. Ciliberto, B. Novak, and J.J.
Tyson, Steady states and oscillations
in the p53/Mdm2 network. Cell
Cycle, 4 (2005) 488-493.
[34]
L. Ma, J. Wagner J, J.J. Rice, W. Hu,
A.J. Levine, and G.A. Stolovitzky , A
plausible model for the digital
response of p53 to DNA damage, Proc
Natl Acad Sci U S A. 102
(2005)14266-14271.
[35]
W. Hu, Z. Feng, L. Ma, J. Wagner,
J.J. Rice, G. Stolovitzky, and A.J.
Levine,
A
single
nucleotide
polymorphism in the MDM2 gene
disrupts the oscillation of p53 and
MDM2 levels in cells, Cancer Res.
67(2007) 2757-2765.
[36]
L.T. Vassilev, B.T. Vu, B. Graves, et
al., In vivo activation of the p53
pathway
by
small-molecule
antagonists of MDM2, Science 303
(2004) 844-848.
[37]
S. Shangary, and S. Wang, SmallMolecule Inhibitors of the MDM2p53 Protein-Protein Interaction to
Reactivate p53 Function: A Novel
Approach for Cancer Therapy, Annu
Rev Pharmacol Toxicol. 49 (2009)
223-241.
[38]
M. Hucka, A. Finney, H.M. Sauro, H.
Bolouri, J.C. Doyle, H. Kitano, et al.,
The Systems Biology Markup
Language (SBML): A Medium for
Representation and Exchange of
Biochemical
Network
Models.
Bioinformatics, 9(4):524–531, 2003.
[39]
I. Autiero, S. Costantini, and G.
Colonna, Modeling of the bacterial
mechanism of methicillin-resistance
by a systems biology approach, PLoS
One 4 (2009) e6226.
[40]
A. Nikitin, S. Egorov, N. Daraselia,
and I. Mazo. Pathway studio - the
analysis and navigation of molecular
networks, Bioinformatics 19 (2003)
2155–2157.
[41]
P. Shannon, A. Markiel, O. Ozier,
N.S. Baliga, J.T. Wang, D. Ramage,
N. Amin, B. Schwikowski, and T.
Ideker,
Cytoscape: a software
environment for integrated models of
biomolecular interaction networks,
Genome Research 13(2003) 24982504.
[42]
L. Strömbäck, V. Jakoniene, H. Tan
and P. Lambrix, Representing, storing
and accessing molecular interaction
data: a review of models and tools,
Briefings in Bioinformatics 7 (2006)
331-338.
[43]
M. Baitaluk et al., Pathsys:
integrating molecular interaction
graphs for systems biology, BMC
Bioinformatics, 7 (2006) 55.
[44]
K.B. Wee, U. Surana, and B.D.
Aguda, Oscillations of the p53-Akt
network: implications on cell survival
and death, PLoS One, 4 (2009) e4407.
81
82
Red Ibero-NBIC
[45]
F. Vazquez and P. Devreotes,
Regulation of PTEN function as a
PIP3 gatekeeper through membrane
interaction, Cell Cycle, 5 (2006)
1523-1527.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Las Tecnologías de la Información y las
Comunicaciones como instrumento para la
promoción de la autonomía y participación
de personas con Lesión Medular
Alejandra Morán Tenreiro
Master en Ciencias de la
Salud
[email protected]
Betania Groba González
Terapeuta Ocupacional
Laura Nieto Riveiro
Terapeuta Ocupacional
[email protected]
[email protected]
Javier Pereira Loureiro
Thais Pousada García
Jorge Pintos Ruiz
Dra. Ciencias Salud
Ingeniero Informático
Dr. Informática
[email protected]
[email protected]
[email protected]
Centro de Informática Médica y Diagnóstico Radiológico (IMEDIR)
Facultad de Ciencias de la Salud. Universidade da Coruña
Tlf: +34.981167000 - 5870
ABSTRACT
La
Clasificación Internacional
de
la
Discapacidad, del Funcionamiento y de la
Salud (CIF) establece la condición de
discapacidad y lo aborda desde una perspectiva
positiva, definiendo las capacidades que cada
persona puede realizar. Las Tecnologías de la
Información y las Comunicaciones (TIC)
pueden ser un buen instrumento para eliminar
algunas de las barreras que a veces se
encuentran las personas con discapacidad. En
este trabajo se presenta un ejemplo de como el
uso del programa In-TIC puede mejorar de
forma general la actividad y participación de
las personas con discapacidad y más
concretamente las personas que han sufrido una
lesión medular. Se han desarrollado una serie
de interfaces específicos utilizando In-TIC que
facilitan el acceso y uso de portales de Internet
como son las redes sociales, acceso a ocio,
banca o la compra on-line.
Este instrumento es de descarga gratuita y
pretende mejorar la integración social de las
personas con discapacidad mediante la
adaptación del ordenador a las capacidades e
intereses de cada persona
Palabras Clave
Participación y actividad, Web 2.0, redes
sociales, TIC, In-TIC, Discapacidad, Lesión
Medular, CIF
1.
DISCAPACIDAD Y
SALUD
La
Clasificación
Internacional
del
Funcionamiento, de la Discapacidad y de la
Salud (CIF) define la discapacidad como un
término genérico que abarca deficiencias,
limitaciones de la actividad y restricciones a la
participación. Según esta clasificación, los
problemas asociados a una patología pueden
implicar las funciones y estructuras corporales
83
84
Red Ibero-NBIC
y la participación en las actividades de la vida
diaria. Además, describe que los estados de
salud y el desarrollo de la discapacidad son
modificados por factores contextuales, tanto a
nivel personal como ambiental (Figura 1). Es
decir, la discapacidad es un proceso complejo
que conlleva la necesidad de diseñar
intervenciones
múltiples,
sistémicas
y
adaptadas a cada persona y su contexto.
apoyo
ilimitado
son
“obstáculos
discapacitantes” que contribuyen a las
desventajas que experimentan las personas con
discapacidad. Según el Informe Mundial sobre
la Discapacidad, las principales desventajas
que perciben estas personas se relacionan con
el bienestar y la salud, la educación, la
situación socioeconómica y la participación en
la comunidad [1].
Atendiendo a dicho informe, y en concreto en
relación a la insuficiencia de recursos dentro
del contexto rehabilitador, se fomenta un
deterioro del estado general de salud de esta
población, así como limitaciones en las
actividades, restricciones a la participación y
peor calidad de vida.
Figura 1.- Interacción entre los
componentes de la CIF
La discapacidad forma parte de la condición
humana, ya que se prevé que prácticamente el
total de la población mundial sufrirá algún tipo
de discapacidad transitoria o permanente en
algún momento de su vida y, las que lleguen a
la senilidad, experimentarán dificultades
crecientes de funcionamiento.
Según estudios del año 2010, se estima que
más de mil millones de personas viven con
algún tipo de discapacidad, es decir, alrededor
del 15% de la población mundial. Esta cifra es
superior a las estimaciones previas de la
Organización
Mundial
de
la
Salud,
correspondientes al año 1970, que eran de
aproximadamente un 10% [1]. Esta creciente
prevalencia se debe a los avances tecnológicos
y científicos en aspectos de prevención,
atención prehospitalaria y manejo de
complicaciones en el trascurso de graves
patologías y al envejecimiento de la población.
Esto implica a su vez, el incremento de los
problemas crónicos de salud asociados a
procesos de discapacidad (trastornos mentales,
enfermedades cardiopulmonares, diabetes o
cáncer).
Las visiones estereotipadas, la escasez de
financiación y recursos, las barreras físicas o el
La carente inclusión educativa y laboral,
implica el fracaso escolar y una menor
participación económica por parte de las
personas con discapacidad y, por ello, una
mayor tasa de pobreza en estos casos. Esta falta
de recursos y oportunidades en la vida
comunitaria conducen a la dependencia de estas
personas y, por tanto, a la privación de su
autonomía, de realizar sus ocupaciones de vida
y de participar como un ser activo en la
sociedad.
Para superar los obstáculos referidos, sería
necesario el desarrollo de políticas sociosanitarias inclusivas, una mayor financiación y
prestación de servicios, promover el diseño
universal, la participación social de las
personas con discapacidad y la investigación en
este ámbito..
2.
ABORDAJE DE LA
LESIÓN MEDULAR:
IMPORTANCIA DE LA
PARTICIPACIÓN
La lesión medular (LM) es un proceso
patológico ocasionado por un trastorno de las
estructuras nerviosas alojadas en el canal
medular, que puede originar la pérdida o
alteración de la movilidad, de la sensibilidad o
del sistema nervioso autónomo [2]. Dicha
pérdida o alteración conlleva diversas
consecuencias psicosociales para la persona y
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
su entorno, siendo así generadora
importantes procesos de discapacidad.
de
Con la implementación de la Clasificación
Internacional del Funcionamiento, de la
Discapacidad y de la Salud (CIF), se ha dado
paso al diseño de procesos de atención y
rehabilitación
multidimensionales
e
interdisciplinares que trascienden de los
aspectos funcionales y permiten alcanzar
verdaderos procesos de inclusión social. Es
decir, la valoración de las personas afectadas
por una lesión medular debe incluir no sólo
aspectos relativos a la condición de salud, sino
los relacionados con el funcionamiento de las
personas en su vida diaria y la posibilidad de
seguir participando activamente en su entorno
social [3].
Tras la rehabilitación en las fases aguda y postaguda centradas, en mayor medida, en los
cuidados intensivos físicos, la inclusión en la
comunidad es el objetivo principal de la
siguiente fase rehabilitadora de las personas
con lesión medular [4]. En esta última, la
actividad y la participación, definidas
respectivamente como “la realización de una
tarea o acción” y “acto de involucrarse en una
situación vital”, no sólo dependen del
funcionamiento físico de la persona, sino
también de los facilitadores y de las barreras
que existen en el entorno social y físico de una
comunidad [5].
La magnitud de las consecuencias sociales en la
vida diaria de una persona con LM, hasta el
momento, se ha evaluado de manera
inexhausta. Sin embargo, existe una importante
necesidad de proporcionar información sobre la
participación de estas personas en el contexto
de la rehabilitación a largo plazo, así como de
sus restricciones, entendidas como “problemas
que puede experimentar una persona al
involucrarse en situaciones vitales [5].
Este último dato, se justifica con la información
recogida en la literatura científica. En ella,
diversos autores coinciden en que la gravedad
de una lesión medular no es el mejor indicador
de los resultados a largo plazo [6][7][8]. Los
investigadores afirman que, mientras el nivel y
el grado de lesión permiten predecir la
independencia en actividades de la vida diaria,
ciertas complicaciones médicas o la mortalidad,
no pueden hacerlo con la percepción del estrés,
la angustia emocional, la estabilidad marital, el
empleo, el bienestar percibido o con la
satisfacción y calidad de vida (CDV). En su
lugar, estos resultados sí pueden estar
influenciados por factores diversos como el
apoyo familiar, la productividad, la estabilidad
financiera, la educación o el ambiente físico y
social, es decir, aspectos relacionados con la
participación, influenciados por el contexto
ambiental y personal.
En vista de ello, en la actualidad, se plantea la
hipótesis de que dichos aspectos tienen un
impacto potencial sobre el estado de salud en
casos de lesión medular, convirtiéndose en una
necesidad clave e importante en la que
intervenir e investigar, teniendo en cuenta la
perspectiva de las propias personas,
contrastando así con la visión externa que se
suele valorar de los procesos de discapacidad.
3.
EL PROYECTO IN-TIC
En la actualidad, es indudable que el contexto
virtual y las Tecnologías de la Información y
las Comunicaciones (TIC) influyen en nuestras
vidas. En muchos casos facilitan el desempeño
de actividades de la vida diaria, educación,
trabajo, ocio o participación social de los
ciudadanos: realizar por Internet una búsqueda
de empleo, consultar nuestros movimientos
bancarios, solicitar una beca, utilizarlo como
fuente de ocio, contactar con familiares o
amigos, etc.
De la misma forma, utilizando las TIC de una
forma adecuada, pueden convertirse en una
herramienta que genere autonomía personal.
Para que esto sea posible es necesario tener en
cuenta en el diseño y desarrollo de la
tecnología los procesos de aprendizaje, las
necesidades y capacidades de las personas con
discapacidad.
85
86
Red Ibero-NBIC
In-TIC, Integración de las Tecnologías de la
Información y las Comunicaciones en las
personas con diversidad funcional, es una
iniciativa que utiliza la tecnología en beneficio
de las personas con discapacidad, facilitando el
acceso y uso del ordenador. Mediante la
creación y personalización de teclados virtuales
es posible que estos usuarios puedan manejar
cómodamente el ordenador, acceder a Internet,
comunicarse, ejecutar aplicaciones específicas,
juegos, etc. y, así, aumentar su grado de
autonomía personal. También puede ser
utilizado como comunicador tanto en
ordenadores convencionales como portátiles o
Tablets Windows o Android [9] [10].
Figura 2.- Pantalla principal de la página
web del Proyecto In-TIC
Las posibilidades terapéuticas y de aplicación
del software In-TIC son múltiples, dada la
posibilidad de la máxima personalización de
los teclados o interfaces creados, en función de
las habilidades y prioridades de cada usuario.
La interacción con el ordenador se facilita,
además, por la posibilidad de integrar
diferentes ayudas técnicas o dispositivos de
apoyo (Hardware) como emuladores de ratón,
pulsadores o pantallas táctiles, en combinación
con el programa In-TIC.
Esta iniciativa, que lleva activa desde el año
2007, se concreta en dos aplicaciones gratuitas x
que facilitan la comunicación y el acceso y uso
independiente del ordenador y de dispositivos
móviles a todas las personas, contemplando
diferentes tipos de necesidades, tanto a nivel
físico y sensorial, como psíquico e intelectual.
Las aplicaciones son:
x
In- TIC PC: aplicación para ordenador.
x
In-TIC móvil: aplicación para dispositivos
móviles o tablets.
Ambas aplicaciones se pueden descargar
gratuitamente desde la página web del
proyecto: www.intic.udc.es (Figura 2).
Figura 3.- Ejemplo de un teclado virtual
para facilitar la comunicación
El proyecto es fruto de la colaboración entre la
Fundación Orange y el Grupo RNASA-IMEDIR
de la Universidade da Coruña. Durante toda la
fase de desarrollo e investigación se ha contado
con la colaboración de ASPACE Coruña, el
Centro de Día de Cruz Roja de A Coruña,
ASPANAES y ASPRONAGA, abordando el
proyecto desde el inicio de la mano de los
propios usuarios.
Los teclados virtuales de In-TIC persiguen tres
objetivos concretos:
1. Facilitar la comunicación, utilizando los
recursos de voz sintetizada que poseen los
ordenadores. En la Figura 3 se muestra un
teclado virtual diseñado para comunicación. La
persona con dificultades para el habla, al
realizar una pulsación sobre los botones,
reproducirá un mensaje con voz sintetizada y/o
desplegará otras opciones de comunicación
[11].
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
2. Facilitar el acceso y uso del ordenador. En la
Figura, se muestra un teclado que posibilita, de
manera simplificada, acceder a distintos
programas del ordenador e Internet (Microsoft
Office Word, Microsoft Internet Explorer,
Reproductor Multimedia, etc.).
botón “Escribir” que cambian dinámicamente
en función de lo que el usuario necesita realizar
con el ordenador.
Para este caso se han creado dos teclados
básicos para escribir con letras mayúsculas y
letras minúsculas. Ambos teclados pueden
tener activada o desactivada la predicción de
las palabras.
La predicción es un sistema por el cual In-TIC
propone las palabras más probables que el
usuario desea escribir en base a las primeras
teclas pulsadas de cada nueva palabra. El
algoritmo para las propuestas se basa en la
frecuencia de uso de cada palabra. Así, cuanto
más se utilice una palabra, antes será propuesta
por el sistema.
Figura 4.- Teclado específico de acceso al
ordenador
Al hacer clic sobre cualquiera de los botones
diseñados, se accede a los teclados específicos
asociados a cada uno de ellos. Como ejemplo,
en la Figura 5, se muestra la red de teclados del
Desde cualquiera de los teclados básicos de
letras, es posible activar un teclado para
escribir con números o símbolos. Además,
también se ha creado un teclado específico para
mostrar las funciones más habituales de Word,
como son la selección de todo el documento
como bloque, poner el texto en negrita,
disminuir o aumentar el tamaño de fuente,
Figura 5.- Esquema de teclados de acceso a Microsoft Word
87
88
Red Ibero-NBIC
más
persona
m
má
ááss funcional
func
fu
ncio
io
on
naal
al d
dee llaa pe
ers
rsona pa
ppara
raa qque
ue ppueda
ueda
ue
da
activarlo
manera
sencilla
(dependiendo
aac
cti
t vaarrllo d
dee man
aan
neerra se
enc
nciillllllaa (dep
nci
pen
ndi
dieen
ndo
o ddee
Figura 7- En esta imagen se observa un ejemplo del sistema de barrido de In-TIC. Un haz de luz
(naranja) ilumina uno a uno los botones, hasta que la persona selecciona el deseado
su capacidad para el movimiento se colocará en
el mentón, codo, pié, etc.). Cuando esté
activado el sistema de barrido, en la pantalla se
visualizará un haz de luz (en el caso de In-TIC
es de color naranja) y cuando éste ilumine el
botón deseado, la persona activará el pulsado
(Figura 7).
Figura 6.- Ejemplo de un teclado para
anticipar las actividades que se van a
realizar
En base a cada caso, el programa In-TIC te
permite escoger entre tres tipos de barrido
(Barrido de tres pasos, Secuencial y Dirigido) y
configurar el tiempo de barrido y el retorno o
“vuelta atrás”.
copiar/pegar/cortar texto, acceder al menú de
formato de fuente y la opción de deshacer. Este
teclado también permite moverse por el texto o
los menús con los botones del cursor, el tabular
y el Enter.
3. Favorecer la predictibilidad y estructuración
temporal a través de horarios, agendas y
secuencias (Figura 6).
Para seleccionar estos botones se puede hacer
de manera convencional, utilizando el teclado y
el ratón habituales del ordenador, o bien, como
se ha mencionado anteriormente, utilizando
otro tipo de hardware (pantallas digitales que
permitan la selección directa, pulsadores,
ratones controlados con el movimiento de los
ojos o de la cabeza, etc.).
En el caso concreto de los pulsadores, es
necesario que el software que se utiliza tenga
incorporado el sistema de barrido. Esto es así
porque un pulsador es un botón que emula una
función determinada del ratón (por ejemplo el
clic, el doble clic, etc.) pero no emula el
movimiento. El pulsador se coloca en la parte
Perfil de
Administrador
Perfil de usuario
final
Figura 8.- Pantalla de In-TIC que da acceso
al perfil de administrador y al perfil del
usuario final
En la actualidad, la aplicación presenta dos
perfiles (Figura 8):
x
Perfil administrador: Espacio en el que los
profesionales pueden crear y personalizar
los teclados virtuales
x
Perfil del usuario final: Integrado por 7
ejemplos para facilitar de forma genérica
la comunicación y el acceso al ordenador.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Entre los ejemplos de In-TIC existe un bloque
específico para personas con Trastornos del
Espectro del Autismo denominado Módulo
TEA y compuesto por teclados virtuales,
agendas y actividades especialmente diseñadas
y testeadas por y para estas personas.
A continuación, se describe el proyecto
“PARTICIPA” en el cual se ha diseñado,
desarrollado e implementado un bloque de
teclados virtuales específicos a través de In-TIC
para personas con lesión medular alta, ya que,
a diferencia de las personas con Trastornos del
Espectro del Autismo, el proyecto In-TIC, hasta
la actualidad, no había diseñado un perfil de
usuario especialmente para este colectivo.
Además, en el caso concreto de las personas
con lesión medular alta, en lo que se refiere al
software, no existe ningún programa gratuito
adaptado a sus necesidades y capacidades.
4.
EL PROYECTO
PARTICIPA
El proyecto “PARTICIPA” es un desarrollo
específico basado en In-TIC para favorecer o
promocionar la autonomía de las personas que
presentan una discapacidad o un trastorno
mental severo, con el objetivo de promover su
inclusión social y laboral. Ha sido desarrollado
en colaboración con la Unidad de Lesión
Medular
del
Complejo
Hospitalario
Universitario de A Coruña y con el apoyo de la
Fundació Agrupació Mutua, a través de la IV
Convocatoria de Premios del año 2011, en el
ámbito de la discapacidad.
El proyecto vincula el potencial de las
Tecnologías de la Información y las
Comunicaciones (TIC) con el ámbito de las
personas con lesión medular (LM) y el impacto
que suponen en su vida diaria, en la autonomía
personal y en la calidad de vida.
El material empleado para su desarrollo ha sido
el
software
In-TIC
para
PC
(http://www.intic.udc.es/),
imágenes
con
licencia libre (http://www.proicons.com/) y
recursos de voz sintetizada para ordenador.
El objetivo del proyecto PARTICIPA ha sido
diseñar, crear y probar una serie de usuarios InTIC compuestos por interfaces que faciliten el
acceso al ordenador, centrándose en mejorar el
grado de autonomía personal de las personas
con Lesión Medular para favorecer la actividad
y participación, tal y como se conceptualizan
desde la CIF.
Para alcanzar dicho objetivo, el teclado
principal diseñado presenta siete botones que
agrupan actividades que fomenten la autonomía
de personas que presenten lesión medular alta:
relaciones sociales, educación y empleo,
actualidad y opinión, eventos, viajes, compras
on-line y manejo de la banca electrónica
(Figura 9).
Figura 9.- Teclado principal para la
promoción de la Actividad y Participación
89
90
Red Ibero-NBIC
Figura 10.- Esquema del funcionamiento de los teclados de la primera sección
Los contenidos de los teclados desarrollados se
han implementado basándose en la CIF.
Siguiendo esta clasificación y su codificación el
proyecto intenta facilitar las siguientes
actividades de las personas con lesión medular
alta:
En la Figura 10 se detalla un ejemplo del
funcionamiento dinámico que ocurre entre los
teclados que se han desarrollado y los
correspondientes enlaces entre ellos.
estándar, pero el teclado se diseñaría en base a
los intereses y gustos del usuario.
4.1
Relaciones sociales
Al pulsar el primer botón del teclado principal
(Figura 9), se accederá a un segundo teclado
(Figura 11), con diferentes opciones, como son
redes sociales, correo electrónico y Skype.
A continuación se detalla las oportunidades y
posibilidades de cada sección y el
funcionamiento individual de alguno de los
teclados diseñados, a los cuales se accede a
partir del principal, mostrado en la Figura 9.
Así, una persona, con realizar una pulsación
sobre cada uno de los botones, tendrá acceso a
más opiniones o a un recurso de Internet y un
subteclado para manejarlo. La pulsación se
realizará en combinación con el hardware que
mejor se adapte a las necesidades y
capacidades de la persona (pulsadores y
sistema de barrido, ratones controlados con el
movimiento de la cabeza, de los ojos o de
ratones controlados por aspiración y soplo).
Cabe destacar, también, que el diseño y las
opciones mostradas son extraídos de un modelo
Figura 11.- Subteclado del primer botón.
Incluye acceso a redes sociales, al correo
electrónico y a Skype
La opción de “Redes sociales”, permite usar
Facebook y Twitter. Al hacer clic en cualquiera
de las dos opciones, se le posibilita al usuario
acceder a su cuenta de dichas redes sociales y a
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Figura 12.- Ejemplo de acceso a Facebook y
teclado con opciones básicas
un teclado específico para manejarlas (Figura
12).
Este teclado específico posibilita con el clic
sobre el botón deseado que la persona pueda
visualizar y usar la página principal y su perfil
de Facebook, así como, acceder a sus amigos,
mensajes y notificaciones.
Figura 13.- Página de acceso al correo
electrónico de Gmail y teclado para
manejarlo
Al realizar una pulsación sobre el botón
“escribir mensaje” del teclado de Facebook se
consigue abrir directamente una ventana para
escribir el mensaje y un teclado virtual para
poder escribirlo y manejarse entre las opciones.
Figura 14.- Teclado con opciones de manejo
del correo electrónico
A parte de facilitar el acceso y uso de redes
sociales para la comunicación escrita, los
teclados desarrollados permiten emplear el
correo electrónico, en este caso configurado
para el acceso a Gmail (Figura 13). Al pulsar
este botón, al igual que las redes sociales, se
ejecuta la página de correo electrónico de
Gmail y un teclado específico para manejarlo
(Figura 14). Una vez que la persona se ha
autenticado con su nombre de usuario y
contraseña, se pueden realizar múltiples
acciones de manera simplificada e intuitiva.
Algunas de estas acciones son navegar por las
carpetas del correo electrónico (Recibidos,
Enviados y Borradores), buscar, abrir,
responder, reenviar o enviar emails, suprimir
mensajes o guardar borradores. Además,
contiene una columna en tono gris en la cual
está integrada con botones con acciones más
genéricas: abrir sesión, cerrar sesión, salir del
buscador, salir de redactar mensaje o cerrar
página.
4.2
Eventos
Esta sección incluye páginas que permiten el
acceso a recursos en la comunidad.
Este tipo de recursos se encuadran en el
constructo de la CIF “Vida comunitaria, social
y cívica”, y en concreto, en la parte de ocio y
tiempo libre, entendido como participar en
cualquier tipo de juego, actividad recreativa o
de ocio.
91
92
Red Ibero-NBIC
d750
d760
d770
d8
d810
d825
d830
d840
d845
Figura 15.- Ejemplo de una página web para
buscar recursos de ocio
Algunos ejemplos serían acceder a través de la
tecnología y de los teclados diseñados a
actividades de relajación, diversión o
entretenimiento; buscar y manejar información
sobre galerías de arte, museos, cines, música o
teatros; o participar en aficiones o leer como
hobbie.
En la captura mostrada en la Figura 15, se
muestra un ejemplo de esta sección, en la cual
está abierta una página de eventos y un teclado
para poder visualizar, reservar y manejar las
posibilidades de la web al pulsar sobre cada
uno de los botones.
Tabla 1.- Relación de los capítulos de la CIF
y su codificación con los teclados
desarrollados en el Dominio de Actividades y
participación
d1
d177
d3
d325
d345
d350
d360
d4
d470
d6
d620
d7
d710
d720
d740
Aprendizaje
y
aplicación
del
conocimiento
Tomar decisiones
Comunicación
Comunicación-recepción de mensajes
escritos
Mensajes escritos
Conversación
Utilización de dispositivos y técnicas de
comunicación
Movilidad
Utilización de medios de transporte
Vida doméstica
Adquisición de bienes y servicios
Interacciones
y
relaciones
interpersonales
Interacciones interpersonales básicas
Interacciones interpersonales complejas
Relaciones formales
d860
d865
d9
d910
d920
Relaciones sociales informales
Relaciones familiares
Relaciones íntimas
Áreas principales de la vida
Educación no reglada
Formación profesional
Educación
Aprendizaje (preparación para el
trabajo)
Conseguir, mantener y finalizar un
trabajo
Transacciones económicas básicas
Transacciones económicas complejas
Vida comunitaria, social y cívica
Vida comunitaria
Tiemplo libre y ocio
El diseño de este último teclado corresponde a
los desarrollados para el resto de botones del
teclado principal (Figura 3), los cuales
permiten navegar por las páginas ofrecidas
como ejemplo y en relación al resto de
categorías de la CIF: Movilidad, Aprendizaje y
aplicación del conocimiento, Vida doméstica,
Vida Económica, Educación y Empleo (Tabla
1).
De esta forma se consigue mejorar la calidad de
vida de las personas con LM al generar
herramientas inclusivas que potencien su
desempeño en las distintas áreas ocupacionales
(ABVD, AIVD, educación, trabajo, juego, ocio,
participación
social),
favoreciendo
su
autonomía personal, su comunicación y su
participación social.
Toda la información del proyecto PARTICIPA
y la descarga gratuita de las interfaces
diseñadas están disponibles en la página web
http://www.imedir.udc.es/participa/.
5.
AGRADECIMIENTOS
Este trabajo ha sido desarrollado gracias al
apoyo recibido por la Fundación Orange
Gracias también a la financiación obtenida por
la Fundació Agrupació Mutua a través de su
convocatoria anual de premios nacionales de
accesibilidad 2011.
Parte del trabajo también ha sido apoya
económicamente por la Xunta de Galicia a
través de las ayudas para la consolidación y
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
estructuración de unidades de investigación
competitivas del Sistema Universitario de
Galicia
2011
y
2012,
parcialmente
cofinanciadas por el Fondo Europeo de
Desarrollo Regional (FEDER). Ref. CN
CN2011/034, CN2012/211 y CN 2012/217
Queremos también agradecer el apoyo y
colaboración de la Unidad de Lesión Medular
del Complejo Hospitalario Universitario de A
Coruña, especialmente al Doctor Antonio
Montoto Márquez y al Doctor Antonio
Rodríguez Sotillo
6.
REFERENCIAS
[1] Wold Health Organization (WHO), 2011.
World report on disability. Malta: WHO.
URL disponible http://www.who. int/
disabilities/world_report/2011/en/index.ht
ml. Acceso 12/12/2012
[2] Sapru HN. 2002. Spinal Cord: Anatomy,
Physiology and Pathophysiology. En:
Spinal Cord Medicine, Kirshblum S,
Campagnolo DI, Delisa JA. Ed. Lippincott
Williams and Wilkins, Philadelphia. 6-30.
[3] Henao-Lema CP, Pérez-Parra JE. Lesiones
medulares y discapacidad: revisión
bibliográfica. Aquichan, 10- 2 (Agosto
2010). 157-172.
[4] Scelza WM, Kirshblum SC, Wuermser
LA, Ho CH, Priebe MM, Chiobo AE,
2007. Spinal cord injury medicine:
Community reintegration after spinal cord
injury. Arch Phys Med Rehabil, 88 (Supl
1)
(March
2007)
71-75.
DOI=
10.1016/j.apmr.2006.12.004
[5] Wold Health Organization (WHO), 2001.
International
Classification
of
Functionating Disability and Health (ICF).
Genova: WHO. URL disponible (español)
http://www.imsersomayores.csic.es/docum
entos/documentos/oms-clasificacion01.pdf. Acceso 12/12/2012
[6] Dijkers M, 1998. Community integration:
conceptual issues and measurement
approaches in rehabilitation research. Top
Spinal Cord Injury Rehabil, 4 (Jun
1998),1-15. DOI= 10.1310/BJJA-201845KL-0VTL
[7] May LA, Warren S, 2002. Measuring
quality of life of persons with spinal cord
injury: external and structural validity.
Spinal Cord, 40. (July 202) 341-50. DOI=
10.1038/sj.sc.3101311
[8] Kennedy P, Lude P, Taylor N, 2006.
Quality of life, social participation,
appraisals and coping post spinal cord
injury: a review of four community
samples. Spinal Cord, 44 (feb 2006) 95105. DOI= 10.1038/sj.sc.3101787
[9] Grande González R, Pereira Loureiro J,
Pousada García T, Groba González B,
Pazos Sierra A, 2008. Proyecto In-TIC
para la accesibilidad y usabilidad de las
TIC en personas con diversidad, Terapia
ocupacional: Revista informativa de la
Asociación Profesional Española de
Terapeutas
Ocupacionales,
47.
(Diciembre 2008) 78-85.
[10] Centro IMEDIR. Centro de Informática
Médica y Diagnóstico Radiológico de la
Universidad de A Coruña (IMEDIR),
2012). Manual PC de Usuario In-TIC.
Universidade de A Coruña. URL
Disponible en http://www.intic.udc.es.
Acceso 30/12/2012
[11] TP García, JP Loureiro, BG González, LN
Riveiro, AP Sierra, 2011. The Use of
Computers and Augmentative and
Alternative Communication Devices by
Children and Young With Cerebral Palsy.
Assistive Technology 23 (3). (Sep 2011)
135-149.
DOI=
10.1080/10400435.2011.588988
93
94
Red Ibero-NBIC
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Medicina personalizada: un legado de
promesas por resolver y de nuevos
desafíos para la Informática Biomédica
Isabel Hermosilla Gimeno, Ana Belen Marinas Gonzalez,
Mª Carmen Ramírez Sanchez-Paniagua, Victoria López-Alonso
[email protected], [email protected], [email protected], [email protected]
Unidad de Bioinformática - Instituto de Salud Carlos III
Majadahonda, España
RESUMEN
La medicina personalizada busca la predicción,
prevención y tratamiento de las enfermedades
dirigiéndose a las necesidades de cada
individuo. Las nuevas tecnologías a nivel
molecular
están siendo cruciales en el inicio de la
medicina personalizada, sin embargo será
necesario desarrollar nuevos enfoques para la
normalización y la integración de toda la
información utilizando herramientas de
Informática Biomédica (IBM), siempre
respetando los marcos éticos y reglamentarios.
Esta revisión presenta algunos de los retos
informáticos que son necesarios para que los
avances presentados por la medicina 4P
(personalizada, preventiva, predictiva y
participativa) comience a poder ser una
realidad en la práctica clínica.
Palabras clave
Informatica
Biomedica,
Tecnologías
convergentes, Medicina personalizada
1.
INTRODUCCIÓN
La medicina personalizada se presenta como un
modelo consecuencia de la evolución de la
buena práctica clínica y que gradualmente se
está incorporando en la práctica médica
estándar. Sin embargo, son muy pocos los
ejemplos que encontramos de medicina
personalizada, asociados por ejemplo a
patologías de cáncer, ó a respuesta al
tratamiento con medicamentos especificos [1,2]
(Figura 1).
Tres sesiones científicas Think Tank fueron
organizadas en junio y octubre de 2011 por el
proyecto
de
la
Comisión
Europea
INBIOMEDvision [3], para evaluar cual sería
la mejor manera de conectar la Bioinformática
y la Informática Médica con el fin de mejorar el
desarrollo de nuevos descubrimientos e
innovaciones en medicina personalizada y
garantizar una mejor prestación de la atención
médica a los pacientes en la práctica clínica.
Las conclusiones y recomendaciones de cada
una de estas sesiones se recogen en tres
informes estratégicos accesibles desde la
95
96
Red Ibero-NBIC
página web del proyecto [4,5.6]. Estos informes
destacan:
x
necesidad de reutilización de los
datos clínicos para mejorar la
investigación biomédica
x
la vinculación de los datos genómicos
con los datos fenotípicos
x
la utilidad de la biología de sistemas
en clínica, en particular para el
descubrimiento
de
fármacos
personalizados.
Figura 2. Retos de la Informática
Biomédica (IBM) que deben realizarse para
llegar a una medicina personalizada.
2.
DESARROLLOS
EN
INFORMÁTICA BIOMÉDICA
PARA
UTILIZAR
DATOS
GENÓMICOS EN SALUD
Figura 1. Ejemplos de medicina
personalizada utilizados en la actualidad [7].
Estas reuniones han constituido un primer paso
para definir qué desarrollos relativos a la
informática biomédica son necesarios para
incentivar la medicina personalizada (Figura
2).
En este artículo presentamos estos desarrollos
para:
x
Utilizar datos genómicos en salud
x
Desarrollar sistemas de toma de
decisiones basados en medicina de
sistemas.
x
Integrar datos de la Historia Clínica
Electrónica
Las técnicas "ómicas" como la secuenciación
del genoma completo o el transcriptoma de un
tumor, pueden constituir la base de modelos
informáticos utilizable en la práctica clínica
[8].
Si bien la Bioinformática se encarga del
desarrollo de algoritmos para representar,
almacenar y analizar los datos básicos
biológicos, incluyendo la secuencia de ADN, la
expresión del ARN, proteómica y estudios
metabólicos dentro de las células, es necesario
hablar
de
bioinformática
translacional
[9,10,11,12] para utilizar estos datos en salud
integrándolos con información acerca de
pacientes, enfermedades, síntomas, pruebas de
laboratorio, informes de patología, imágenes
clínicas y medicamentos (Figura 3).
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
Figura 3. La integración de datos “omicos” con datos clínicos y ambientales impulsa nuevos desarrollos en
Informática Biomédica.
Existen varios trabajos publicados que utilizan
la secuenciación completa del genoma para el
estudio de enfermedades [13,14].
Para que la información genómica sea
considerada y utilizada en clínica en adición al
resto de los datos fisiológicos y médicos que
son esenciales para el diagnóstico médico es
importante como primeras medidas lograr:
1.
Almacenamiento e interpretación
de los datos obtenidos de las tecnologías
ómicas de alto rendimiento.
Podemos secuenciar genomas enteros (6 mil
millones de bases) y exomas (2% del genoma
que se transcribe), con costos cada día más
económicos así como medir con precisión las
variaciones genéticas utilizando por ejemplo
microarrays de expresión, sin embargo esta
información es muy difícil de poder utilizarla
en la práctica clínica [15].
Es necesario en primer lugar, desarrollar
instalaciones para el intercambio rápido y el
almacenamiento de toda esta información y en
algunos casos imponer restricciones de
confidencialidad adicionales que deberán
utilizarse. En segundo lugar es crucial el
desarrollo de interfaces adecuadas adaptadas a
las
necesidades
individuales
de
los
profesionales en clínica.
2. Anotación detallada del genoma humano
Disponer de una completa anotación del
genoma es uno de los objetivos que están en
97
98
Red Ibero-NBIC
desarrollo en la actualidad, para lo cual se
necesitan algoritmos que permitan la
asociación de variantes genéticas con
resultados clínicamente importantes como son
el riesgo de padecer una enfermedad, el
pronóstico y la respuesta terapéutica.
Hoy en día los datos genéticos de los pacientes
son consultados sólo para casos de diagnóstico
y tratamientos muy específicos, y sólo en
algunos centros médicos. Por ejemplo, análisis
de mutaciones en genes específicos o exones se
utiliza para ayudar al asesoramiento genético
en enfermedades tales como la fibrosis quística
o cáncer de mama [16]. Recientemente
utilizando la secuencia del genoma de un
hombre de 40 años de edad con una historia
familiar de enfermedad cardiaca, se evaluó su
riesgo de padecer enfermedades comunes,
utilizando la información disponible de alelos
genéticos asociados con enfermedades y
evaluando la respuesta anticipada a diversos
medicamentos [17].
2.1.
Evaluación
computacional
de
biomarcadores
para
el
diagnóstico
molecular y pronóstico.
El diseño más habitual para encontrar
marcadores genéticos de enfermedades es
comparar un conjunto de casos con un conjunto
de controles recogidos para la misma población
(estudios denominados GWAS) [18]. Para este
tipo de estudios se necesitan métodos de
selección para por ejemplo elegir los modelos
multifactoriales que equilibren la tasa de falsos
positivos, el poder estadístico y requerimientos
computacionales de la búsqueda de los
marcadores genéticos (análisis de componentes
principales, reducción de la dimensionalidad
multifactorial…) [19].
En un trabajo reciente utilizando minería de
datos el Consorcio Wellcome Trust ha
publicado un documento en el que 14.000 casos
de siete enfermedades comunes fueron
comparados con 3.000 controles compartidos en
un análisis GWAS con 500.000
SNPs.
Encontraron 24 asociaciones independientes
para las siete enfermedades, y además
presentan los datos disponibles para el
desarrollo y perfeccionamiento de métodos
adicionales de análisis GWAS [20].
Se están desarrollando clasificadores de
diagnóstico que pueden identificar subclases de
enfermedades con diferentes pronósticos o
sensibilidades terapéuticas. Los primeros
trabajos en este área se centraron en datos de
Figura 4: Recursos accesibles de información clínica, bioinformática y conjunta.
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
expresión con complejos análisis de resultados
para poder utilizarse de forma relativamente
rápida y precisa en clínica [21]. Es importante
también recoger datos sobre la exposición a
posibles factores de riesgo no genéticos como
es el caso de los factores ambientales [22].
La bibliografía incluye un número muy elevado
de los avances metodológicos en la detección y
evaluación de los biomarcadores y la aplicación
de estos métodos para ayudar a comprender la
enfermedad. Por lo tanto, es importante utilizar
minería de datos para representar formalmente
esta información en bases de datos que
permitan
búsquedas
automatizadas.
Recientemente
Raychaudhuri et al. [23]
demostraron que la minería de textos podría ser
utilizada para crear un conjunto de genes
candidatos para la enfermedad de Crohn y la
esquizofrenia.
3.
RETOS
DE
INFORMÁTICA BIOMÉDICA
PARA
DESARROLLAR
SISTEMAS DE TOMA DE
DECISIONES BASADOS EN
MEDICINA DE SISTEMAS.
En los últimos años se han comenzado a
desarrollar un conjunto de recursos con el fin
de integrar datos biológicos y clínicos, algunos
ejemplos de los cuales se presentan en la
Figura 4.
Una revisión de los métodos computacionales y
tecnologías utilizadas en la biología de
sistemas revela que muchas de las herramientas
se usan en los dos campos. Los algoritmos de
aprendizaje automático se utilizan ampliamente
en ambos dominios para descubrir patrones en
conjuntos de datos. Del mismo modo utilizando
la minería de texto se aplican técnicas para
extraer información útil en repositorios de un
gran número de datos.
3.1. Métodos de aprendizaje automático.
Los métodos de aprendizaje automático se
pueden utilizar para descubrir patrones
estadísticos en conjuntos de datos como la
Historia Clínica Electrónica (HCE) y estudios
ómicos
(genómica,
proteómica,
metabolómica…). Estos métodos son muy
adecuados para por ejemplo establecer
correlaciones no lineales entre subcategorías de
pacientes. Se pueden agrupar en métodos
supervisados (Naive Bayes, redes neuronales
artificiales, máquinas de vectores soporte,
arboles de decisión…) y no supervisados
(algoritmos de clustering) [24].
3.2. Minería de texto
La minería de texto y los métodos de extracción
automática
de
información han sido
ampliamente utilizados en la informática
médica, pero son relativamente nuevos en los
sistemas biológicos [25, 26]. Especialmente el
uso de la minería de texto para el uso
secundario de HCE [27, 28].
Obtener información estructurada sobre los
fenotipos de pacientes desde un texto clínico
generalmente
requiere
un
vocabulario
controlado, como nomenclatura y ontologías
(SNOMED CT, UMLS…).
4.
INFORMATICA
BIOMEDICA
PARA
INTEGRAR DATOS DE LA
HISTORIA
CLÍNICA
ELECTRÓNICA
4.1. Información Ómica y la Historia Clínica
Electrónica (HCE)
El desarrollo de tecnologías de alto rendimiento
permite tener datos moleculares de pacientes
disponibles para analizar y estudiar su uso en
los entornos clínicos. La información genética y
los datos moleculares de los pacientes debe ser
introducida en la HCE y los médicos deben ser
99
100
Red Ibero-NBIC
capaces de entender, analizar e integrar la
información fenotípica y los datos clínicos que
se incluyen en el expediente médico. Para
lograr esto, ya hay un estándar disponible
(HL7-GTR), y se necesita desarrollar nuevos
estándares que ayudarán en el proceso de toma
de decisiones diagnóstico para avanzar en el
pronóstico, las medidas de prevención y los
tratamientos terapéuticos personalizados, lo
que apoya el cambio hacia la Medicina
Predictiva, Preventiva y Personalizada (PPPM)
[1, 9, 29].
La historia clínica electrónica es una valiosa
herramienta para los médicos e investigadores.
Uso de la información incluida en la HCE
permite estudiar y desarrollar sistemas de
apoyo a las decisiones clínicas, y ofrece
valiosos datos para la investigación clínica y
básica (comorbilidades, la estratificación de
pacientes,
las
interacciones
con
medicamentos...) [30]. Los datos recogidos en
la HCE se pueden utilizar, por ejemplo, para
facilitar la selección de pacientes con ciertas
características para estudios posteriores, o para
enriquecer la descripción fenotípica disponible
de los pacientes en estudios de investigación en
curso [31]. La extracción de los datos de la
HCE es útil no sólo para la medicina
personalizada,
sino también
para
la
epidemiología.
Puede
servir
para
el
establecimiento de nuevas reglas para
estratificaciones de los pacientes y para
descubrir correlaciones desconocidas entre
enfermedades [32].
4.2. Factores limitantes y posibles soluciones
para la integración de los datos ómicos en la
HCEs
Antes de poder reconocer la existencia de la
medicina verdaderamente personalizada, hay
que almacenar, procesar, analizar, visualizar e
interpretar esta gran cantidad de datos
genómicos, moleculares y celulares disponibles
con el fin de evaluar los efectos funcionales de
la variación genética. Finalmente, es necesaria
la integración de los datos para tener
información sobre cómo éstos influyen en los
fenotipos observados antes de que la
información pueda ser de utilidad para la
práctica clínica y la toma de decisiones.
Los datos genómicos y otros datos ómicos, tal
como los perfiles de expresión de génica ya
están disponibles para algunos pacientes
Figura 5. Ejemplo de los principales desarrollos y de los problemas encontrados para poder llevar la medicina
personalizada a la práctica clínica
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
proporcionando más información a los médicos
en el proceso de toma de decisiones clínicas.
Sin embargo, actualmente la mayoría de las
estructuras de HCE en uso no están diseñadas
para albergar este tipo de información
compleja, o grandes cantidades de datos, y
muchos de los problemas surgen cuando se
intenta utilizar estos datos en los sistemas de
apoyo de decisión clínica. Consideraciones
técnicas para la integración exitosa de datos
moleculares en la HCE se han discutido en la
literatura [30].
La información incluida en la HCE es valiosa
para mejorar la atención clínica y para avanzar
en la investigación médica. En este sentido, la
necesidad de proteger y anonimizar los datos
del paciente es un tema importante y presenta
un verdadero desafío para la minería de datos
de los registros de los pacientes para extraer
datos e información estructurada. Al
proporcionar la información del paciente para
su uso en investigación, tanto los médicos como
los pacientes deben estar seguros del correcto
tratamiento de la confidencialidad, la seguridad
y la protección de los datos.
Para obtener información útil de la HCE la
información contenida en ellos debe ser
completa y exacta, e incluir estándares para
ayudar a la minería de la información de
manera eficiente, sin posibilidad de confusión.
Se necesita promover el desarrollo y evaluación
de herramientas NLP (Natural Language
Processing) que sean capaces de extraer la
información necesaria. Los datos de la HCE
pueden incluir texto libre, datos de laboratorio,
archivos de imagen, etc. La heterogeneidad de
la información y de los datos en las HCEs
contrasta con los datos estructurados incluidos
en las base de datos, siendo un problema
añadido a la minería de datos. Así, las
ontologías y la normalización son importantes
para facilitar la traducción de los términos
bioinformáticos y la información de los datos
moleculares a un lenguaje común que pueda ser
fácilmente
comprendido
por
ambos
investigadores biomédicos y bioinformáticos.
Aunque ya se han desarrollado muchos
estándares, para el entorno clínico como HL7 o
para la terminología como SNOMED, LOINC o
HUGO, todavía no hay consenso acerca de
cuáles usar y ninguno de ellos se emplea
ampliamente en la comunidad científica.
CONCLUSIONES
Con el fin de llevar a resultados significativos
en el campo de la medicina personalizada, se
requiere una coordinación internacional a gran
escala y en concreto en importantes aspectos
relativos a la IBM (Figura 5). Hay un largo
camino aún por recorrer, pero los pasos más
importantes ya están teniendo lugar. Entre las
numerosas recomendaciones en éste sentido los
investigadores
biomédicos
deben
ser
conscientes, y enfocar sus investigaciones a
poder aplicarse en la práctica clínica [34-38].
Durante los próximos cinco a diez años debe
generarse infraestructura, que sea sostenible,
para el establecimiento y desarrollo de
ontologías y herramientas de minería de texto
para el apoyo conjunto en biomedicina y clínica
siempre teniendo presente que los datos
sanitarios son confidenciales y personales, lo
cual plantea sin duda, cuestiones de seguridad,
privacidad y ética importantes.
5.
AGRADECIMIENTOS
Queremos agradecer a la Red CYTED “IberoNBIC” por financiar esta publicación, al
proyecto RTA2008-00098-C02 (Ministerio de
Ciencia e innovación, España) y al proyecto
europeo “INBIOMEDvision” por financiar el
trabajo de I. Hermosilla y de A. Marinas y a la
Red COMBIOMED por financiar el trabajo de
Carmen Ramirez.
101
102
Red Ibero-NBIC
6.
REFERENCIAS
[1] Golubnitschaja, O., Costigliola, V. EPMA.
General report & recommendations in
predictive, preventive and personalised
medicine 2012: white paper of the European
association for predictive, preventive and
personalised medicine. EPMA J. 2012, 3:14.
[2] Ginsburg, G.S. and Willard, H.F. (2009)
Genomic
and
personalized
medicine:
foundations and applications. Transl. Res. 154,
277-287.
[3]
INBIOMEDvision
http://www.inbiomedvision.eu
webpage.
[4] INBIOMEDvision Consortium. Strategic
Report on Genotype-Phenotype Resources in
the
European
Union.
http://www.inbiomedvision.eu/PDF/ReportGenotypePhenotype-FINAL.pdf
[5] INBIOMEDvision Consortium. Strategic
Report on the Re-use of Clinical Information
for Research in the European Union.
http://www.inbiomedvision.eu/PDF/ReportReuse-ClinicalInfo-Research-FINAL.pdf
[6] INBIOMEDvision Consortium. Strategic
Report for Translational Systems Biology and
Bioinformatics in the European Union,
http://www.inbiomedvision.eu/PDF/ReportTranslationalBioinformatics-FINAL.pdf
[7] Abrahams, E. (2008) Right drug, right
patient, right time: personalized medicine
coalition. Clin. Transl. Sci. 1, 11–12.
[8] Green, E.D. and Guyer, M.S. (2011)
Charting a course for genomic medicine from
base pairs to bedside. Nature 470, 204–213.
[9] Fernald, G.H. Capriotti, E.,Daneshjou, R.,
Karczewski,
K.J.,
Altman,
R.B.(2011).Bioinformatics
challenges
for
personalized medicine. Bioinformatics. 27:
1741-1748.
[10] Altman
,R.B.(2012)
Translational
bioinformatics: linking the molecular world to
the clinical world. Clin Pharmacol Ther., 91:
994-1000.
[11] Beck, Tim., Gollapudi, Sirisha., Brunak.
Søren, Graf.,Norbert, U. Lemke, Heinz., Dash,
Debasis., Buchan, Iain., Diaz, Carlos.,
Sanz,Ferran. and J Brookes, Anthony.
Knowledge Engineering for Health: A New
Discipline Required to Bridge the “ICT Gap”
Between Research and Healthcare.
[12] Dietrich RS, Graham C, Dominic C, van
Mulligen E, Coatrieux J L, Del Hoyo Barbolla
E, Martin Sanchez F, Milanesi L, Porro I,
Beltrame F,Tollis I and Van der Lei J.
SYMBIOmatics: Synergies
in
Medical
Informatics
and
Bioinformatics.
BMC
Bioinformatics 2007, 8(Suppl 1):S18
[13] Lupski JR, Reid JG, Gonzaga-Jauregui C,
Rio Deiros D, Chen DC, Nazareth L,
Bainbridge M, Dinh H, Jing C, Wheeler DA,
McGuire AL, Zhang F, Stankiewicz P,
Halperin JJ, Yang C, Gehman C, Guo D, Irikat
RK, Tom W, Fantin NJ, Muzny DM, Gibbs
RA: Whole-genome sequencing in a patient
with Charcot- Marie-Tooth neuropathy. N Engl
J Med 2010, 362:1181-1191.
[14] Chen R, Mias GI, Li-Pook-Than J, Jiang L,
Lam HY, Chen R, Miriami E, Karczewski KJ,
Hariharan M, Dewey FE, Cheng Y, Clark MJ,
Im H, Habegger L, Balasubramanian S,
O’Huallachain M, Dudley JT, Hillenmeyer S,
Haraksingh R, Sharon D, Euskirchen G,
Lacroute P, Bettinger K, Boyle AP, Kasowski
M, Grubert F, Seki S, Garcia M, Whirl-Carrillo
M, Gallardo M, et al. Personal omics profiling
reveals dynamic molecular and medical
phenotypes. Cell 2012, 148:1293-1307.
[15] Jonathan S, Berg, Muin J, Khoury , and
James P Evans. Deploying whole genome
sequencing in clinical practice and public
health: Meeting the challenge one bin at a time
Genet Med. 2011, 13:499-504.
[16] Weldon CB, Trosman JR, Gradishar WJ,
Benson AB, Schink JC.Barriers to the use of
personalized medicine in breast cancer. J Oncol
Pract. 2012;8(4):24-31
[17] Ormond KE, Wheeler MT, Hudgins L,
Klein TE, Butte AJ, Altman RB, Ashley EA,
Greely HT: Challenges in the clinical
Líneas estratégicas de las
Tecnologías de la Información y las Comunicaciones en Salud
application of whole-genome
Lancet 2010, 375:1749-1751.
sequencing.
[18] Hsu YH, Kiel DP. Clinical review:
Genome-wide association studies of skeletal
phenotypes: what we have learned and where
we are headed. J Clin Endocrinol Metab. 2012
Oct;97(10):E1958-77.
[19] Saccone SF. Applying in silico integrative
genomics to genetic studies of human disease.
Int Rev Neurobiol. 2012;103:133-56.
[20] Wellcome Trust Case Control Consortium.
Genome-wide association study of 14,000 cases
of seven common diseases and 3,000 shared
controls. Nature. 2007 7;447(7145):661-78.
[21] Khamas A, Ishikawa T, Mogushi K, Iida
S, Ishiguro M, Tanaka H, Uetake H, Sugihara
K. Genome-wide screening for methylationsilenced genes in colorectal cancer. Int J Oncol.
2012. 41(2):490-6.
[22] Freimer N, Sabatti C. “The human
phenome project.” Nature Genetics. 2003 34:
15-21.
[23] Raychaudhuri S, Thomson BP, Remmers
EF et al. Genetic variants at CD28, PRDM1
and CD2/CD58 are associated with rheumatoid
arthritis
risk.
Nat
Genet.
2009
Dec;41(12):1313-8.
[24] Eberhardt J, Bilchik A, Stojadinovic A
Clinical decision support systems: potential
with pitfalls. J Surg Oncol. 2012. 1;105(5):50210
[25] O'Hagan S, Knowles J, Kell DB.Exploiting
genomic knowledge in optimising molecular
breeding programmes: algorithms from
evolutionary
computing.
PLoS
One.
2012;7(11):e48862.
[26] Whirl-Carrillo M, McDonagh EM, Hebert
JM, Gong L, Sangkuhl K, Thorn CF, Altman
RB, Klein TE. Pharmacogenomics knowledge
for personalized medicine. Clin Pharmacol
Ther. 2012 Oct;92(4):414-7.
[27] Kohane IS. Using electronic health records
to drive discovery in disease genomics. Nat Rev
Genet. 2011 Jun;12(6):417-28
[28] Jensen PB, Jensen LJ, Brunak S.Reply to
'Mining electronic health records: an additional
perspective'.Nat Rev Genet. 2012 Dec
18;14(1):75
[29] Jensen PB, Jensen LJ, Brunak S. Mining
electronic health records: towards better
research applications and clinical care. Nat Rev
Genet. 2012, 13: 395-405.
[30] Hripcsak G, Albers DJ. Next-generation
phenotyping of electronic health records. J Am
Med Inform Assoc. 2012, PMID: 22955496
[31] Kohane I S. Using electronic health
records to drive discovery in disease genomics.
Nat. Rev. Genet. 2011, 12: 417-428
[32] ICT Results 2010. A healthy approach:
Technology for personalised, preventive
healthcare.
http://ec.europa.eu/information_society/activitie
s/health/docs/projects/istresults/201006ictresults-policy-report-health.pdf
[33] Masys DR, Jarvik GP, Abernethy NF,
Anderson NR, Papanicolaou GJ, Paltoo DN,
Hoffman MA, Kohane IS, Levy HP. Technical
desiderata for the integration of genomic data
into Electronic Health Records. J Biomed
Inform. 2012, 45: 419-422.
[34] Xuan J, Guo L, Shi L. Next-generation
sequencing in the clinic: promises and
challenges. Cancer Lett. 2012 , pii: S0304-3835
00672-6
[35] Abhyankar S et al. Standardizing clinical
laboratory data for secondary use. J Biomed
Inform
(2012),
http://dx.doi.org/10.1016/j.jbi.2012.04.012
[36] Chen ES, Melton GB, Sarkar IN.
Translating
Standards
into
Practice:
Experiences and Lessons Learned in
Biomedicine and Health Care. J. Biomed.
Informatics. 2012, 45: 609–612.
103
104
Red Ibero-NBIC
[37] Deus HF et al. Translating standards into
practice – One Semantic Web API for Gene
Expression.
J
Biomed
Inform,
j.jbi.
2012,45:782-94.
[38] Valencia A, Hidalgo M. Getting
personalized cancer genome analysis into the
clinic: the challenges in bioinformatics.
Genome Med. 2012,4:61