metodología básica para la mejora de la calidad

Transcripción

metodología básica para la mejora de la calidad
Metodología de evaluación y mejora
continuada
Unidad didáctica 6
La medida de
Josep Davins Miralles
la calidad:
Monitorización
Indicadores
Calidad y estadística
Índice
Dos definiciones: calidad y criterio de calidad ......................... 2
La calidad ¿se puede medir? .................................................... 2
Medir la calidad con indicadores .............................................. 3
Definición de indicador ............................................................. 4
Tipos de indicadores................................................................. 4
Características de los indicadores............................................... 6
¿Para que sirven los indicadores? ............................................... 7
Reevaluar y Monitorizar........................................................... 8
Herramientas para la monitorización: el indicador .................. 9
1. Delimitar el campo de actuación: ¿Qué hacemos en nuestro CS? 9
2 Identificar los aspectos importantes:¿Qué es lo más importante
de todo lo que hacemos? ........................................................ 10
3. Identificar indicadores: ¿Qué utilizaremos como medida para
cada aspecto identificado e importante de la atención? ............... 11
Partes que componen el diseño de un indicador .................... 12
Enunciado inicial del indicador. ............................................. 12
Definición de términos. ........................................................ 13
Identificación del tipo de indicador. ....................................... 13
Base del razonamiento. ....................................................... 13
Descripción de la población del indicador. .............................. 13
Fuente de los elementos de los datos. ................................... 14
Factores responsables. ........................................................ 14
Bases de datos existentes. ................................................... 15
Validación de un indicador..................................................... 16
Validación y análisis de los indicadores ..................................... 16
Validez .............................................................................. 17
Fiabilidad ........................................................................... 18
Conceptos estadísticos relacionados con la medida de la
calidad ................................................................................... 20
Estimación del nivel de calidad: estadística descriptiva ............... 21
Medidas de posición: tendencia central y no central ................ 21
Medidas de dispersión ......................................................... 22
Coeficiente de correlación lineal ............................................ 23
Intervalos de confianza .......................................................... 24
Medida del nivel de calidad como mejora: contraste de hipótesis. 24
Medidas con muestras pequeñas y rápidas: muestreo por lotes ... 24
Bibliografía ............................................................................ 26
Resumen ............................................................................... 28
Josep Davins © Calidad 2011. Indicadores
1
Dos definiciones: calidad y criterio de calidad
La calidad es un conjunto de características o atributos de los productos o servicios
que, cuando es alta, denota superioridad en su género. La calidad es
multidimensional, y los diferentes componentes de la calidad son: satisfacción,
accesibilidad, efectividad, eficiencia, competencia profesional, continuidad de la
atención, oportunidad y adecuación.
De este hecho, la Joint Commission on Accreditation of Healthcare Organizations
(JCAHO) en 1990 dio la siguiente definición de calidad: ofrecer de forma
continuada unos servicios eficaces, efectivos y eficientes, adecuados a las
necesidades de los clientes, accesibles y aceptados por éstos; y todo ello,
según el estado actual de conocimientos.
Para centrar la calidad desde el punto de vista de su medida otra definición en la que
se introduce el concepto criterio como la expresión concreta de la calidad con un
objetivo: conjunto de atributos o características que hacen que un servicio o
profesional cumpla con su misión. Podemos decir entonces que la calidad se
concreta en lo que conocemos como criterio o atributo que refleja el ideal ante una
situación concreta.
Estos criterios se pueden definir como normas de buena práctica basadas en la
evidencia científica existente.
La calidad ¿se puede medir?
Aunque la calidad es intangible, podemos siempre aplicar una escala de medida para
aproximarnos a una estimación real de la misma.
La calidad se concretiza en los criterios. Estos criterios se podrían definir como las
normas de buena práctica que reflejan un ideal. Cada situación concreta del paciente
debe ser seguida por la atención adecuada por parte de los profesionales sanitarios, y
la variabilidad de las actuaciones de éstos denota una falta de calidad.
Un criterio puede ser lo más amplio o detallado posible. Pero su medida será más fácil
cuando más concreto sea. Será más fácil medir cuantos pacientes han sido
controlados de su hipertensión arterial, que el manejo de la hipertensión arterial en
conjunto.
Se entiende por criterios técnicos de calidad a las normas basadas en la evidencia
científica existente, establecidas por sociedades científico-profesionales o por grupos
de consenso, referidas a los procesos asistenciales clave. De esta forma, para
determinar una parte importante de nuestra calidad asistencial, deberemos evaluar el
nivel de adecuación de nuestra competencia profesional a las recomendaciones
aceptadas en función del mejor conocimiento existente en el aspecto medido. Estas
recomendaciones, en formato de calidad, son los criterios técnicos (lectura
recomendada 1). Por ejemplo, ante un paciente que presenta dolor precordial
opresivo se debe realizar un electrocardiograma inmediato. La ausencia de esta
exploración denota un nivel inaceptable de calidad asistencial, pues, la evidencia
científica ha demostrado que la probabilidad de presentar patología coronaria es
elevada en los pacientes con dolor precordial opresivo y que una exploración
accesible, inocua y efectiva para detectar isquemia, como la práctica de un
electrocardiograma inmediato, es obligada. Pero no siempre las intervenciones
Josep Davins © Calidad 2011. Indicadores
2
sanitarias se apoyan en estudios de rigor científico y eso dificulta la definición de
calidad técnica.
Una fuente habitual de los criterios de calidad técnica son las guías de práctica clínica,
ya que establecen la conducta diagnóstica y terapéutica adecuada a cada patología a
partir de la evidencia científica disponible. Las guías de práctica clínica son
declaraciones desarrolladas de forma sistemática, para ayudar a los profesionales y a
los clientes en la toma de decisiones en unas circunstancias clínicas concretas. Sería el
equivalente al manual de especificaciones de calidad de un producto
Medir la calidad con indicadores
Los indicadores son la medida instrumental del criterio de calidad de un aspecto
concreto de la atención. Es decir, un indicador es una herramienta de medida.
Para conseguir que las actividades de mejora de la calidad sean efectivas deben
llevarse a cabo de forma continuada. No deben limitarse a la realización de estudios
de evaluación finitos y puntuales, sino que deben consistir en medidas regulares y
sistemáticas de aspectos esenciales de la atención, para comprobar, no sólo si se ha
producido la mejora, sino también si ésta se mantiene en el tiempo1.
El sistema de medida de la calidad debe ir ligado a una planificación previa. Si no es
así, nos encontraremos ante un sistema que no responde a las preguntas de nadie. La
calidad se monitoriza porque en función de los resultados que obtengamos de esta
medida, nuestra actuación será una u otra.
Un sistema de monitorización se define como la medida continuada de aspectos
relativos a la calidad de la atención para identificar situaciones u oportunidades de
mejora. Para que el sistema de monitorización sea efectivo es necesario que sea
completo, abarque todas las actividades del centro de salud (CS) y todos los
componentes de la calidad de la atención, de forma sistemática y objetiva. La Joint
Commission on Accreditation of Healthcare Organizations (JCAHO) recomienda el
sistema de monitorización continuado como base de todo plan de mejora de la
calidad2,3.
El sistema de monitorización se fundamenta en el control estadístico de la calidad. Las
actividades de mejora de la calidad asistencial están orientadas al estudio de los
procesos buscando, sobre todo, las causas comunes de variación, con el objetivo de
hallar puntos susceptibles de mejoras potenciales4.
Los fracasos en conseguir el nivel de calidad deseado derivan de 2 fuentes: las
atribuibles al sistema, que no se pueden reducir sin cambiarlo (causas no asignables,
aleatorias, al azar, sistémicas, internas, intrínsecas o causas comunes no debidas al
individuo) y aquellas debidas a factores externos al proceso (causas asignables,
extrasistémicas, externas o extrínsecas). Las causas sistémicas producen una
variación aleatoria, homogénea y previsible a lo largo del tiempo; en cambio, las
extrasistémicas la producen de forma brusca y mantenida hasta que se elimina la
causa5, 6 (figura 1).
Según Deming sólo el 15% de las oportunidades de mejora o problemas de calidad
recae en los individuos, pero son de efectos fuertes y su eliminación puede realizarse
desde los propios implicados en el proceso7. En cambio, para eliminar el 85%
restante, que depende de déficits del sistema, es necesario cambiar el proceso entero
o parte importante de él, lo que suele ser responsabilidad de niveles de gestión
superiores.
Josep Davins © Calidad 2011. Indicadores
3
El estudio permanente de las causas de variabilidad nos permitirá un mejor
conocimiento del proceso y facilitará su mejora. En el sistema de monitorización se
utilizan como parámetros de medida los indicadores.
Debemos destacar cuatro aspectos relevantes o ideas clave en los indicadores:
• Los indicadores sólo indican
• Los indicadores nos fuerzan a ser explícitos
• Los indicadores son números y requieren de técnicas estadísticas
• Los indicadores no se deben asociar a “detectores de defectos” sino aprender de
los que tienen buenos resultados
Definición de indicador
Según la definición de la JCAHO, un indicador es una medida cuantitativa que nos
sirve para monitorizar y evaluar la calidad de aspectos importantes de la atención3. El
sistema de monitorización nos alerta cuando se produce alguna alteración en el
estado habitual de la atención por el cambio en la actividad del indicador. De esta
forma, nos señala dónde se puede estar produciendo una oportunidad de mejora de la
calidad. La monitorización no nos asegura que el problema o la oportunidad de mejora
exista, ni nos indica sus causas, sino que señala hacia donde dirigir nuestra atención
para determinar si existe o no un problema . Un indicador no es una medida directa
de la calidad, sino una herramienta que nos permite valorar las actuaciones e indica
que aspectos requieren un análisis más profundo.
Tipos de indicadores
Existen diferentes tipos de indicadores que se pueden clasificar en función de tres
aspectos: la valoración positiva o negativa, la gravedad y el tipo de suceso
monitorizado. Los tres grupos clasificatorios no son excluyentes entre sí, sino que un
indicador puede ser ubicado en cada uno de ellos (tabla 1).
Tabla 1. TIPOS DE INDICADORES
Según el enfoque
- Indicador de SALUD
- Indicador de CALIDAD
Según el diseño
- Indicador SIMPLES
- Indicador COMPUESTOS ó SINTÉTICOS
Según los datos que se monitorizan
- indicador de ESTRUCTURA
- Indicador de PROCESO
- Indicador de RESULTADO
Según la gravedad del suceso monitorizado
- Indicador BASADO EN UNA PROPORCION
- Indicador DE SUCESO CENTINELA
Según si mide sucesos positivos o negativos
Josep Davins © Calidad 2011. Indicadores
4
- Indicador DESEABLE
- Indicador NO DESEABLE
Según la valoración positiva o negativa del suceso monitorizado
Indicador deseable. Se basa en un suceso considerado positivo o deseable.
Indicador no deseable. Se basa en un suceso considerado negativo o no
deseable.
La mayoría de sucesos pueden medirse con indicadores definidos tanto en sentido
positivo como negativo. Por ejemplo, para medir en el campo de la hipertensión el
aspecto relativo a su control, se puede utilizar el indicador deseable “pacientes
hipertensos controlados”, y el indicador no deseable “pacientes hipertensos no
controlados”.
Según la gravedad del suceso monitorizado
Indicador basado en un suceso centinela. Mide un suceso lo bastante grave del
proceso o del resultado de la atención como para realizar una revisión individual de
cada caso que se produzca. Es conveniente analizar si existe una causa prevenible
o mejorable en el proceso de la atención. Por definición, un indicador centinela
siempre es un indicador negativo, puesto que mide un suceso grave e indeseable.
Ejemplos de indicadores centinela son “pacientes muertos en el CS”, “pacientes
menores de 65 años muertos en el domicilio”, “pacientes con reacción anafiláctica
grave”, “pacientes con graves efectos adversos a medicamentos”, “mujeres
gestantes menores de 16 años”, “pacientes que reclaman por el retraso de un aviso
domiciliario urgente”.
Indicador basado en una proporción. Mide un suceso que requiere una revisión
detallada sólo si la proporción de casos que no cumplen el criterio del indicador
sobrepasa un umbral establecido mediante control estadístico de la calidad. Mide un
suceso del que esperamos que un cierto porcentaje de los casos lo incumplan.
Ejemplos de indicadores basados en una proporción son “pacientes hipertensos
controlados”, “pacientes usuarios de droga por vía parenteral (UDVP)
correctamente inmunizados de la hepatitis B”, “pacientes con información clínica
adecuada en la hoja de interconsulta al especialista”, “pacientes con catarro de vías
altas tratados con antibióticos”.
Según el tipo de datos valorado en el suceso monitorizado
Indicador de proceso. Mide la actividad llevada a cabo, de forma directa o indirecta,
durante la atención al cliente. Un buen indicador de proceso es áquel que se basa
en actividades relacionadas estrechamente con el resultado de la atención. Los
indicadores de proceso suelen reflejar los estándares o criterios de adecuación de la
atención consensuados por los profesionales o extraídos de la literatura.
Ejemplos de indicadores de proceso son “pacientes con información clínica
adecuada en la hoja de interconsulta a especialistas”, “pacientes con catarro de
vías altas tratados con antibióticos”, “pacientes hipertensos con evaluación del
riesgo cardio-vascular”, “pacientes hipertensos en tratamiento con diuréticos y
control del ionograma en el último año”, “pacientes diabéticos con fondo de ojo
realizado en el último año”.
Josep Davins © Calidad 2011. Indicadores
5
Indicador de resultado. Mide el efecto de la atención en el cliente. El grado en que
este resultado está influenciado por otros factores independientes del proceso
asistencial determinará la utilidad del indicador.
Todo proceso de la atención persigue un buen resultado por lo que sería lógico
utilizar indicadores orientados a medir éste último. Sin embargo, en muchas
ocasiones es difícil medir resultados y conocer la influencia de otros factores ajenos
al proceso. Los indicadores de resultado orientan sobre los aspectos que pueden
necesitar un abordaje más profundo pero aportan poca información sobre las
causas de los problemas de calidad u oportunidades de mejora. Es recomendable
utilizar indicadores de proceso, por la mayor facilidad de obtención, medida e
interpretación. Aún así, para medir la satisfacción del cliente, aspecto
imprescindible en todo sistema de monitorización, son necesarios los indicadores de
resultado.
Son ejemplos de indicadores de resultado “pacientes hipertensos muertos de
accidente vascular cerebral”, “pacientes diabéticos con ceguera”, “pacientes
satisfechos con el trato de los profesionales”, “pacientes satisfachos con el proceso
asistencial”, “pacientes muertos en el CS”, “pacientes menores de 65 años muertos
en el domicilio”.
Características de los indicadores
Para ser efectivos, facilitar la recogida de datos y aumentar su fiabilidad los
indicadores deben cumplir las siguientes características9 (tabla 2):
Concretos. Deben estar bien definidos, describirse de forma clara y completa. Cuanto
más definido sea el enunciado del indicador, menos errores se cometerán al recoger
los datos. En el indicador “pacientes hipertensos controlados” debe definirse de forma
clara que se entiende por “hipertensos” y por “controlados”.
Completos. Deben dirigirse en conjunto a todos los aspectos importantes de la
atención en un CS. El sistema de monitorización, para que sea efectivo debe ser
amplio y completo. Es necesario desarrollar indicadores en cada uno de los
componentes de la calidad asistencial (accesibilidad, continuidad, efectividad,
eficiencia, adecuación, satisfacción...).
Objetivos. Debemos evitar aquellos indicadores que se basen en un juicio subjetivo y
así facilitar la recogida de datos. Los indicadores deben contener las especificaciones
necesarias para asegurar una uniformidad de los datos recogidos.
Clínicamente válidos. Deben estar basados en la literatura existente, en los expertos o
en la experiencia de los profesionales. Los indicadores basados en sucesos
controvertidos según el estado actual de conocimientos científicos no identifican
oportunidades de mejora. El indicador “pacientes mayores de 50 años con
determinación de sangre oculta en heces en el último año” no es útil para monitorizar
la prevención de la neoplasia colo-rectal dado que no existe suficiente evidencia
científica que demuestre la efectividad de esta práctica de cribado.
Sensibles. En el sentido que reflejen los cambios producidos por una situación.
Específicos. Para evitar medir cambios producidos por factores externos. El indicador
debe identificar aquellos casos que, en realidad, presentan una oportunidad de
mejora.
Josep Davins © Calidad 2011. Indicadores
6
Relevantes. Deben monitorizar lo importante de cada aspecto de la atención o del
ámbito para el que se han creado. Por ejemplo, en la diabetes es más importante
monitorizar la realización del fondo de ojo para la prevención y tratamiento de la
retinopatía, que aspectos menos relevantes como la realización de autocontroles de
cetonuria.
Eficientes. Que nos proporcionen información valiosa y no duplicada. Debe evitarse la
recogida de datos complicada y laboriosa.
¿Para que sirven los indicadores?
•
•
•
•
Medir la calidad, para mejorarla.
Conocer el sistema (rol conocer/entender) para mejorarlo.
Monitorizar la calidad.
Tomar decisiones.
Josep Davins © Calidad 2011. Indicadores
7
Reevaluar y Monitorizar
La monitorización es el ejemplo de una mejora de la calidad sin punto final, donde
siempre se puede mejorar, incluso lo que hacemos bien.
La mejora de la calidad no finaliza con la implantación de las soluciones. Falta
comprobar el efecto del proyecto de mejora mediante el seguimiento o monitorización
de la oportunidad seleccionada, para aseguramos que tenemos el proceso bajo control
y que las acciones escogidas son las adecuadas.
Es importante informar periódicamente de la situación para el conocimiento del
resultado de nuestro esfuerzo. Los procesos tienden a empeorar si no adoptamos las
medidas necesarias para mantener los beneficios obtenidos. Para hacerlos duraderos
es necesario comprobar el funcionamiento del nuevo proceso y preguntarnos si la
solución a la que hemos llegado a partir del análisis del proceso, ¿es aplicable a través
del tiempo a la realidad del día a día?. Para ello es necesario monitorizar. En este
punto pasamos del concepto de "proceso de mejora de la calidad" al de "control de la
calidad", es decir, del esfuerzo de mejorar los procesos al de mantenerlos estables y
predecibles en los niveles de mejora conseguidos. La función del control será hallar los
primeros indicios de zozobra y descubrir aquellas causas de variación impredecibles.
Delimitar el campo de actuación
Identificar aspectos importantes
Construir los indicadores
Proceso controlado
Establecer
límites de
control
Intervención
para la
mejora
Recoger
datos
Análisis del
proceso
Proceso fuera de control
Josep Davins © Calidad 2011. Indicadores
8
Herramientas para la monitorización: el indicador
La monitorización se realiza mediante unos parámetros denominados indicadores que
son criterios o normas con los que se compara una actuación o proceso.
Los indicadores son valores que miden el nivel de calidad alcanzado en un producto o
proceso determinado a lo largo del tiempo. Sirven para seguir la evolución del nivel de
calidad de una forma cuantificada y objetiva. De esta forma se puede saber si se está
mejorando, o al contrario, no se obtienen buenos resultados. Es necesario establecer
unos objetivos de calidad para poder comparar la evolución de los indicadores. Es
aconsejable que los objetivos sean alcanzables (para evitar frustraciones) pero
también estimulantes (que alcanzarlos requiera cierto esfuerzo). Tienen la ventaja de
la objetividad y el inconveniente de la subjetividad.
Es necesario identificar una medida fiable (indicador) de la evolución del problema que
se está tratando. Se deben establecer los procedimientos de medida, la periodicidad,
cómo se presentan los resultados a lo largo del tiempo y a quién distribuir esta
información. Se determina un umbral o estándar que debe cumplir el indicador. En
caso de incumplimiento, nos indica una posible oportunidad de mejora que requerirá
un análisis más profundo.
La evolución del indicador en el tiempo nos indicará la existencia, o no, de un proceso
estable, y nos alertará cuando pueda estar produciéndose una causa extrasistémica
(externa al sistema o proceso analizado) que dispare la actividad del indicador.
Cada proceso tiene un porcentaje de errores como consecuencia de sus
características. En estas ocasiones, para conseguir mejorar se debe revisar el proceso,
en su globalidad.
INDICADORES EN UN SISTEMA DE MONITORIZACIÓN: FASES
Como en todas las actividades de mejora de la calidad, la implicación directa de los
profesionales responsables de la atención en el diseño y puesta en marcha del sistema
de monitorización es fundamental para su efectividad1-3,10,11. Favorece la mayor
fiabilidad, utilidad y validez del indicador, la aceptación del sistema de monitorización
y que la mejora de calidad sea real y permanente11.
El sistema de monitorización debe ser completo por lo que el proceso de diseño y
construcción de los indicadores debe seguir las siguientes fases y actividades (figura
2).
1. Delimitar el campo de actuación: ¿Qué hacemos en nuestro
CS?
En primer lugar, debemos conocer que servicios prestamos o, a quien van dirigidos los
indicadores que vamos a construir. Se debe definir el espectro general de la atención
que abarca el CS. En otras palabras, hay que saber con exactitud que se supone que
debemos hacer en el CS, lo que nos llevará a realizar un inventario de funciones. Este
inventario debe incluir los tipos de atención dispensada (medicina general, pediatría,
odontología, etc.), el tipo de pacientes (edad, sexo, grupos de riesgo, etc.), el tipo de
profesionales implicados (médicos, diplomados de enfermería, asistentes sociales,
etc.), los sucesos más frecuentes (atención al niño sano, al embarazo, a pacientes
Josep Davins © Calidad 2011. Indicadores
9
crónicos, etc.), los lugares en que se presta la atención (atención domiciliaria,
atención urgente, etc.) y los horarios de ésta (atención continuada, programada,
etc.)1. Este listado nos permitirá determinar los aspectos más importantes de la
atención prestada, para escoger de entre ellos, los que nos interesa monitorizar.
Aunque la atención proporcionada a la población por los CS es, básicamente, siempre
la misma, existen algunas diferencias, tanto en algún tipo de atención concreta, como
en los profesionales que se ocupan de ella. Por ejemplo, los médicos de cabecera de
zonas rurales pueden ocuparse de la atención a la embarazada, de la planificación
familiar o de la atención a niños, mientras que en áreas urbanas la atención a la
mujer se realiza con frecuencia, no sólo por profesionales diferentes, sino en una
ubicación física separada y, en ocasiones, por una institución ajena, y la atención a los
niños es responsabilidad de los pediatras. Así, los médicos rurales deberán
preocuparse de mejorar su efectividad en la atención a la embarazada, mientras que
los urbanos deberán monitorizar la continuidad de la atención entre ellos y el obstetra.
2 Identificar los aspectos importantes:¿Qué es lo más
importante de todo lo que hacemos?
Una vez definido el campo de actuación debemos identificar aquellos aspectos que
tengan un mayor impacto en la atención recibida por la población. Hemos de tener en
cuenta que el número de actividades que se realizan en un CS es elevado. Por ello,
hemos de decidirnos por aquellas que nos darán mayor información respecto a las
oportunidades de mejora.
La selección de los aspectos más importantes de la atención puede hacerse en base a
los siguientes criterios12:
2.1. Volumen: ¿Qué actividades se llevan a cabo con tanta frecuencia que
queremos estar seguros de que se realizan bien?
Son los aspectos que comportan un gran volumen de trabajo, ya porque se realizan a
menudo, o porque afectan a un número importante de clientes. Son ejemplos de
aspectos de gran volumen la detección y control de la hipertensión, la comunicación
entre niveles asistenciales, la accesibilidad a la atención urgente, las vacunaciones, la
atención al niño sano, la prescripción farmacológica.
2.2. Riesgo: ¿Qué actividades tienen un impacto potencial tan importante en
los clientes que un error en ellas sería muy grave?
Son los aspectos que comportan un alto riesgo para los clientes si no se realizan de
forma adecuada o efectiva, o si, a pesar de ello, tienen un riesgo intrínseco en sí
mismos. Por ejemplo, la accesibilidad a la atención urgente, el manejo del dolor
torácico, la prevención del SIDA, la prevención del cáncer son aspectos de la atención
con riesgo para el cliente.
2.3. Complejidad: ¿Qué actividades son tan complejas que son propensas a
presentar problemas?
Son los aspectos que han ocasionado problemas anteriormente, que sabemos que no
se están haciendo lo mejor posible o que suelen ser problemáticos en todas partes.
Por ejemplo, la comunicación entre niveles, la atención urgente, la atención
domiciliaria y el registro en la historia clínica pueden ser aspectos propensos a
presentar problemas.
Josep Davins © Calidad 2011. Indicadores
10
Si bien es cierto que cada CS debe construir un sistema de monitorización a su
medida, existen algunas actividades que, sin lugar a dudas, deben monitorizarse, ya
que forman parte muy importante de las características o funciones de la atención
primaria. Entre ellas destacan las actividades de prevención, la prescripción
farmacológica, el seguimiento de pacientes con patología crónica, la atención al niño
sano, la atención domiciliaria, la atención urgente, el trato y satisfacción del cliente, la
accesibilidad y la continuidad de la atención.
3. Identificar indicadores: ¿Qué utilizaremos como medida para
cada aspecto identificado e importante de la atención?
Una vez delimitado nuestro campo de actuación y los aspectos más importantes en
que trabajamos podremos empezar a definir y desarrollar los indicadores, como
medida indirecta de la calidad o sistema de alarma que nos señala que aspectos
requieren un estudio en profundidad.
Antes de empezar la recogida de datos, deberá establecerse por parte del personal
responsable, el límite a partir del cual se disparará la señal de alarma. Para ello
utilizaremos el control estadístico de la calidad (capítulo III.3). Cuando no se dispone
de datos o su obtención es demasiado compleja, se puede utilizar la opinión de
expertos, la experiencia de otros centros o los datos de la literatura, si bien, corremos
el riesgo de fijar un umbral inadecuado en nuestro CS.
Cuando no se esté dentro de los límites preestablecidos, se evaluará el proceso y se
identificarán los problemas y oportunidades de mejora y se emprenderán los cursos
de acción consiguientes. Después de un período de tiempo, se volverá a medir el
proceso para comprobar que las medidas correctoras han surtido el efecto deseado
(figura 2).
El proceso de medida y mejora de la calidad no finalizará una vez se hayan puesto en
práctica las oportunidades de mejora, sino que seguirá su curso con el fin de detectar
nuevas desviaciones o la repetición de las mismas deficiencias en el futuro.
3.1. Construcción de un indicador: Información básica y especificaciones
para la medición de indicadores.
Para la construcción de indicadores es útil el esquema propuesto por la JCAHO3
detallado en la tabla 3. Este nos permite conocer previamente a la utilización del
indicador lo que, en realidad, estamos midiendo y la potencialidad de mejora que
ofrece. Esta forma sistemática de abordar la construcción de un indicador aporta
mayor claridad sobre aspectos del indicador que, de otra forma, pasarían inadvertidos
y consigue que podamos darnos cuenta de posibles errores, tanto en la fiabilidad
como en la validez aparente. Además, un formato como éste permite intercambiar
indicadores con otros CS con la seguridad de que serán comprendidos.
Josep Davins © Calidad 2011. Indicadores
11
Partes que componen el diseño de un indicador
Formato para la construcción de un indicador según la Joint Commission3
Aspecto y criterio de calidad que mide:
I. Enunciado del indicador
II. Definición de los términos
III. Tipo de indicador
IV. Base del razonamiento
A: Validez aparente
B: Bibliografía
C:Componentes de la atención valorados
V. Descripción de la población del indicador
A. Subcategorías
B. Lógica del indicador
C. Formato de los datos
VI Fuentes para la recogida de los datos
VII. Factores responsables
A. Factores dependientes del cliente
B. Factores no dependientes del cliente
1.- Factores del profesional
2.- Factores de la organización
VIII. Bases de datos existentes
Enunciado inicial del indicador.
Describe la actividad o suceso a monitorizar. Es importante basarse en un criterio de
calidad consensuado. El enunciado debe ser simple, claro, concreto y objetivo.
Si decidimos monitorizar el campo de la atención al paciente drogodependiente y el
aspecto de la prevención de infecciones un posible indicador es: “pacientes usuarios
Josep Davins © Calidad 2011. Indicadores
12
de drogas por vía parenteral (UDVP), no portadores del virus de la hepatitis B,
correctamente inmunizados”.
Definición de términos.
Los términos que se utilizan en el enunciado del indicador que no resultan del todo
claros y son susceptibles de diferentes interpretaciones deben ser detallados y
definidos con precisión para evitar cometer errores en la fase de recogida de datos.
En el ejemplo anterior, debemos definir “inmunización correcta” (dosis completa de la
vacuna contra la hepatitis B administrada en tres dosis, inicial, al mes y a los 6
meses) y “no portador” (serología antihepatitis B negativa).
Identificación del tipo de indicador.
Determina el tipo de suceso según su valoración o signo (deseable o no deseable),
gravedad (centinela o basado en una proporción) y tipo de datos monitorizado
(proceso o resultado).
El indicador sobre atención al drogodependiente utilizado como ejemplo es deseable,
basado en una proporción y de proceso.
Base del razonamiento.
Describe la base de la validez aparente del indicador y su utilidad como medida de
calidad en el aspecto de la atención que queremos monitorizar. Incluye las referencias
bibliográficas y los componentes de la calidad que mide el indicador, ponderados
según su importancia.
En el ejemplo utilizado, el indicador monitoriza un aspecto de riesgo para el paciente y
complejo o propenso a presentar problemas, como es la prevención de infecciones en
UDVP. La utilidad del indicador se basa en el conocimiento de que los pacientes UDVP
forman parte del grupo de conductas de riesgo de infección por el virus de la hepatitis
B y de la evidencia científica de su prevención mediante inmunización. Los
componentes de la calidad valorados por el indicador son la continuidad, la efectividad
y la adecuación.
Descripción de la población del indicador.
Define la población objetivo del indicador, indicando si es necesario establecer
subcategorías, según diversas características como edad, sexo, tipo de visita, etc.
Esto nos permite obtener grupos más homogéneos y realizar un ajuste por estas
variables al introducirlas de forma directa en el indicador.
Se describe la lógica del indicador o secuencia a seguir para localizar la población y
obtener la información requerida por el indicador, así como el formato definitivo. En el
caso de un indicador basado en una proporción, debemos definir la población del
numerador (que coincide con el enunciado del indicador) y la del denominador
(población objetivo del indicador).
Josep Davins © Calidad 2011. Indicadores
13
En el indicador del ejemplo se puede subcategorizar según si los pacientes UDVP
están incluidos o no, en el programa específico de atención al drogodependiente (en el
caso de que exista en el CS).
La lógica del indicador será localizar el número de historia, nombre y apellidos de los
pacientes UDVP mediante la base de datos del registro de factores de riesgo y el
registro de pacientes pertenencientes al programa de atención al drogodependiente
(siempre que éstos existan, sean informatizados o no). Luego se debe comprobar en
la historia o en un sistema de registro específico de la vacunación de la hepatitis B, el
estado inmunitario de estos pacientes.
El formato del indicador ejemplo es:
UDVP no portadores del virus de la hepatitis B, correctamente inmunizados
UDVP no portadores del virus de la hepatitis B
Fuente de los elementos de los datos.
Lista y enumera todos los datos que se necesitan con la fuente de información para
cada uno de ellos.
En el ejemplo, los pacientes UDVP se obtendrán del registro de factores de riesgo y
del programa de atención al drogodependiente; el estado inmunitario (portador del
virus de la hepatitis B y administración de las tres dosis de vacuna) de la historia
clínica y del registro específico de vacunaciones.
Factores responsables.
Tratan de identificar los factores más importantes que pueden producir variaciones en
la actividad del indicador. Estos factores pueden depender del cliente, de la
organización, del profesional o de factores externos.
Para la determinación de los factores responsables se puede utilizar el diagrama
causa-efecto de Ishikawa13,14 (capítulo II.2.).
Los factores externos y los dependientes del cliente (edad, sexo, comorbilidad y
severidad de la enfermedad, cumplimiento, cultura, actitud) son más complicados de
mejorar. Cuantos menos factores de este tipo modifiquen la actividad del indicador,
más oportunidades de mejora tendremos si se altera, por lo que el indicador será más
válido.
Los factores que dependen de la organización y del profesional son en realidad el
objetivo de la monitorización. Si se altera el indicador, estos factores orientan hacia
dónde debemos dirigir las actividades de mejora.
En el ejemplo, como factores dependientes del cliente están la negativa a la
administración de la vacuna, el incumplimiento de las visitas, la ausencia del paciente
por cambio de domicilio, encarcelamiento o desaparición y la coexistencia de
enfermedad severa o terminal. Como factores dependientes del profesional están el
desconocimiento de la indicación de la vacuna, la actitud ante la medida preventiva y
la actitud ante este tipo de pacientes. Como factores de la organización están la falta
de la vacuna, la complejidad del circuito para la vacunación, la falta de protocolo de
Josep Davins © Calidad 2011. Indicadores
14
actuación, la falta de métodos recordatorios o de recaptación de incumplidores, el
infrarregistro en la historia clínica, etc.
Si alguno de los factores que dependen del cliente tiene un impacto importante en la
variabilidad del indicador es necesario introducir este factor en el enunciado del
indicador con el objetivo de aumentar la validez de éste. Así, en el ejemplo, si se diera
el caso que una parte importante de los pacientes UDVP no residen en nuestra zona o
son portadores de enfermedad terminal deberíamos modificar el enunciado del
indicador de la siguiente manera: “pacientes usuarios de drogas por vía parenteral
(UDVP), no portadores del virus de la hepatitis B, residentes en el ámbito de nuestro
CS, que no presentan enfermedad terminal y están correctamente inmunizados”.
Para este nuevo enunciado se debe identificar la fuente de los datos de los factores
introducidos. Deberíamos comprobar la residencia mediante contacto telefónico,
postal o personal y la presencia de enfermedad terminal en la historia.
Bases de datos existentes.
Indica si existen bases de datos conocidas sobre el indicador, externas o del propio
centro. Estas nos pueden aproximar a una valoración inicial del posible
comportamiento del indicador. En el ejemplo se pueden utilizar estudios de evaluación
previos sobre inmunización en pacientes UDVP, propios o de otros CS.
Josep Davins © Calidad 2011. Indicadores
15
Validación de un indicador
Validación y análisis de los indicadores
La utilidad de un indicador como sistema de medida viene determinada por el análisis
de su validez (sensibilidad y especificidad)3 y fiabilidad. Este análisis debe realizarse
de forma sistemática durante el proceso de construcción del indicador, con el objetivo
de poder mejorarlo antes de su implementación generalizada. Al igual que no
utilizaríamos un test diagnóstico sin conocer su sensibilidad y especificidad, no
debemos emplear indicadores sin probarlos previamente.
Los indicadores con poca fiabilidad y validez aportan información confusa, irrelevante
e inútil y consumen recursos organizativos que podrían ser utilizados para otras
actividades.
Tabla: Validez, precisión y fiabilidad
• Validez (ausencia de error sistemático; sesgos)
– Interna (exactitud con la población estudiada)
– Externa (generalización a otras poblaciones)
• Sesgo de selección (diseño, selección, pérdidas,
supervivencia...)
• Sesgo de clasificación
• Sesgo de observación o información (recuerdo, entrevistador
• Factores de confusión
• Precisión (ausencia de error debido al azar)
– Depende del tamaño de la muestra. A más muestra, intervalos de
confianza más precisos.
• Fiabilidad: reproducibilidad
La validez y la fiabilidad de un indicador están interrelacionadas. El grado de validez
depende, en parte, del grado de fiabilidad para identificar oportunidades de mejora.
La validez de un indicador es el grado en que una situación o instrumento de medida,
mide lo que realmente pretende o quiere medir (“exactitud”).
Tipos de validez
•
•
•
•
Validez de constructo: Alude a la relación existente entre el indicador y el
constructo teórico o conceptual que mide éste. Es decir, la relación conceptual
que mide el indicador se corresponde con lo que se quiere medir.
Validez de criterio: Es una comparación entre nuestra situación de medida y la
situación real (o más exacta posible) al que se le llama “gold estandard”.
• Validez de criterio concurrente.
• Validez de criterio predictivo.
Validez de contenido: grado en que el indicador refleja el concepto o variable
medida (adecuada revisión bibliogràfica).
Validez aparente (face validity): Es el grado en que una situación de medida
parece que es válida desde el punto de vista del observado.
Josep Davins © Calidad 2011. Indicadores
16
En muchas ocasiones, en atención primaria no se dispone de la información necesaria
o es muy difícil, complejo y costoso obtenerla, para probar de forma científica la
validez y fiabilidad de un indicador. Por ello, la JCAHO3 aconseja confiar en la validez
aparente (face validity), basada en la opinión de los profesionales que utilizarán la
información resultante, según la cual el indicador tiene sentido y parece que cumple
su propósito.
En el caso de la fiabilidad, debemos intentar su estudio y valorar siempre si el
esfuerzo requerido para ello no sobrepasa el resultado que vamos a obtener. En la
mayoría de indicadores será más eficiente realizar una prueba piloto y valorar hasta
que punto identifica los casos que realmente requieren una revisión y hasta que punto
nos es útil para mejorar la calidad de la atención.
Validez
Validez. Se define como el grado en que el indicador identifica sucesos que merecen
una revisión más profunda, ya que la mejora es posible3. El estudio de la validez
cuantifica la capacidad del indicador para identificar problemas de calidad u
oportunidades de mejora reales.
En el caso de un indicador centinela, podemos establecer su validez si analizamos el
grado de concordancia entre todos los casos identificados y los que precisaban en
realidad un estudio más detallado. Cuanto mayor grado de concordancia, más válidez
tendrá el indicador.
En el caso de un indicador basado en una proporción, es necesario analizar una
muestra de los casos a revisar y averiguar si realmente son útiles para mejorar la
calidad. El indicador “pacientes con tratamiento antibiótico de segunda elección”,
tendrá poca validez si en nuestra población existen muchos casos de alergia o
excepción al antibiótico de primera elección. El indicador detectará muchos casos que
no son problema.
Cuando un indicador no tiene una validez aceptable, debemos averiguar el motivo. Un
indicador tendrá poca validez si depende en gran parte de factores no controlables por
nosotros, entre los que destacan los factores dependientes del cliente (que pueden
explicar por sí solos el suceso, sin que exista un problema de calidad real).
El no tener en cuenta algunas circunstancias que pueden justificar una actividad que
no siga la norma (excepciones) nos puede determinar también la poca validez de un
indicador. Como ejemplo, el indicador “mujeres que se han realizado una mamografía
en el CS en los dos últimos años” tendrá poca validez pues identificará muchos casos
de pacientes que se realizan la exploración en servicios privados alternativos, sin que
representen un problema de calidad real. El indicador aumentaría su validez al
definirlo como “mujeres que consta en su historia clínica la realización de una
mamografía, sea en el CS o en otros servicios alternativos, en los dos últimos años”.
Otro motivo frecuente de falta de validez de un indicador es la poca fiabilidad de los
datos, ya por deficiencias en la definición de los términos contenidos en el enunciado
(numerador), por la falta de una definición clara de la población monitorizada por el
indicador (denominador), por problemas en la disponibilidad de los datos o por
errores producidos en su recogida.
Josep Davins © Calidad 2011. Indicadores
17
El análisis de la validez de criterio cuantifica la capacidad del indicador para identificar
los casos que requieren ser revisados entre todos aquellos a riesgo de ser
identificados.
La validez de un indicador está directamente relacionada con la calidad de los datos
requeridos por éste.
El análisis de la validez de criterio de un indicador que mide una variable dicotómica
(que es el caso de la mayoría de los indicadores de calidad asistencial) comprende el
estudio, en conjunto, de la sensibilidad y la especificidad.
Cuando es indicador es sobre una variable continuas se realiza mediante el coeficiente
de correlación de Pearson entre nuestra medida real y la del indicador.
Sensibilidad. Es el grado en que el indicador es capaz de identificar todos aquellos
casos en que existe un problema real de calidad o verdadero positivo. Un indicador
muy sensible identificará pocos falsos negativos.
El indicador “pacientes con sospecha de neoplasia seguidos antes de tres meses desde
la sospecha” no identificará los casos que han tardado más de dos meses y menos de
tres (falsos negativos). Para aumentar la sensibilidad debemos disminuir el período de
seguimiento, por ejemplo, a 15 días.
Especificidad. Es el grado en que el indicador es capaz de identificar sólo aquellos
casos en que existe un problema real de calidad, es decir, un indicador muy específico
identificará pocos falsos positivos. En cambio, un indicador poco específico detectará
como problemáticos casos que, en realidad, no lo son.
El indicador “pacientes a los que se ha prescrito antibiótico para un catarro de vías
altas” es poco específico ya que detecta muchos casos de pacientes con broncopatía y
cardiopatía en los que podría estar indicado el tratamiento antibiótico. Si añadimos al
enunciado del indicador la condición “que no presenten enfermedad cardio-pulmonar”,
aumentamos su especifidad.
Para el estudio de la fiabilidad debemos revisar una muestra de los casos identificados
por el indicador para cuantificar los verdaderos positivos y una muestra de los no
identificados para cuantificar los verdaderos negativos. Así obtendremos la relación
entre sensibilidad y especificidad, es decir, la fiabilidad:
Verdaderos positivos + Verdaderos negativos
Verdaderos positivos + Verdaderos negativos + Falsos positivos + Falsos negativos
Al igual que con la validez, debemos examinar los motivos que determinan la
falta de fiabilidad que, habitualmente, se centran en la calidad de los datos: falta de
precisión de los elementos del indicador; gran variabilidad en la recogida de los datos;
falta de accesibilidad a los datos; errores en la codificación; errores en la entrada de
datos; deficiencias en la construcción de la hoja de recogida de datos.
Fiabilidad.
Fiabilidad es la consistencia interna de la medida, entendida como equivalencia. No es
del instrumento sino de la situación de cómo mide este instrumento.
Se pueden medir tres aspectos, si bien, en calidad, el más utilizado es el primero:
1.- Fiabilidad como equivalencia entre observadores Índice kappa de concordancia:
Josep Davins © Calidad 2011. Indicadores
18
K = Po – Pe / 1 – Pe
2.- Fiabilidad del test-retest (reproducibilidad).
3.- Fiabilidad como consistencia interna (α DE Cronbach).
Valoración del índice α
Valor de α
>0.70
>0.90
Fuerza
Aceptable
Bueno
¿Cómo mejorar la validez y fiabilidad de un indicador?
Una vez identificados los motivos de falta de validez o fiabilidad del indicador debemos
preguntarnos si éstos son solucionables.
En general, para aumentar la validez y fiabilidad de un indicador podemos redefinir el
indicador, delimitar la población, evitar imprecisiones en sus términos, aclarar el
circuito de información y la lógica del indicador, revisar la hoja de recogida de datos,
tener en cuenta los factores dependientes del cliente y las excepciones al indicador,
etc. Cuando esto no es posible, debemos pensar en la construcción de un nuevo
indicador.
Los motivos de falta de validez y fiabilidad de los indicadores se encuentran, con
frecuencia, en el proceso de recogida de datos. Así pues, es esencial que este proceso
se realice de manera coordinada e integrada por todos los servicios o estamentos
afectados por el indicador y se disponga de sistemas de registro adecuados y
completos. Para que los profesionales entiendan la importancia de registrar toda la
actividad que realizan es esencial implicarles en su propia monitorización.
Para cada indicador debe determinarse la fuente de datos, el tamaño de la muestra, el
método de recogida de información, la frecuencia con que debe realizarse y el
responsable de esta recogida.
Sobre la fuente de datos, debemos evitar la creación de nuevos registros. Al iniciar las
actividades de monitorización en un CS suele ser más sencillo utilizar las historias
clínicas como fuentes de datos. También podemos utilizar otros sistemas de registro
existentes en el CS. Sin embargo, para aspectos de la calidad como la satisfacción
será necesario obtener información mediante cuestionarios u otros sistemas de
información.
Josep Davins © Calidad 2011. Indicadores
19
Conceptos estadísticos relacionados con la medida de
la calidad
En función de lo que nos interese medir deberemos utilizar diferentes técnicas o
herramientas estadísticas que seguidamente se detallan, sin pretender realizar un
exhaustivo curso de estadística, para lo que emplazamos al lector a los tratados y
bibliografía recomendada al final del capítulo.
•
Evaluación (estimación) del nivel de calidad:
• Estadística descriptiva:
– proporciones,
– medias y
– sus intervalos de confianza
•
Reevaluación tras intervenir:
• Comparar proporciones ( 2) de dos evaluaciones
• Comparar medias de dos evaluaciones (t de Student)
•
Monitorización:
• Nivel de cumplimiento medido de forma sucesiva
• Aceptación o rechazo sin estimar el nivel de cumplimiento
(LQAS)
•
Comprobación de causas
• Dos cuantitativas continuas:
– Correlación de Pearson
– Correlación no paramétrica de Sperman
• Cuantitativa y categórica
– Análisis de la varianza (ANOVA)
– Comparar medias (t de Student)
– U de Mann-Whitney
• Dos categóricas:
– Comparar proporciones ( 2)
•
Métodos de representación gráfica
• Diagramas de cajas (blox-spot)
• Diagrama de sectores
• Diagrama de Pareto
• Gráfico lineal
• Gráfico de estrella o de radar
Josep Davins © Calidad 2011. Indicadores
20
Estimación del nivel de calidad: estadística descriptiva
Para estimar el nivel de calidad de un requisito o criterio se utiliza la estadística
descriptiva, y en especial, el cálculo de proporciones o de una media.
La estadística descriptiva es una ciencia que analiza series de datos (por ejemplo,
edad de una población) y trata de extraer conclusiones sobre el comportamiento de
estas variables. En calidad estas variables se miden con los indicadores.
Las variables pueden ser de dos tipos:
• Variables cualitativas o atributos: no se pueden medir numéricamente
(por ejemplo: nacionalidad, color de la piel, sexo).
• Variables cuantitativas: tienen valor numérico (edad, precio de un producto,
ingresos anuales).
Por su parte, las variables cuantitativas se pueden clasificar en discretas y
continuas:
• Discretas: sólo pueden tomar valores enteros (1, 2, 8, -4, etc.). Por ejemplo:
número de hermanos (puede ser 1, 2, 3....,etc, pero, por ejemplo, nunca
podrá ser 3,45).
• Continuas: pueden tomar cualquier valor real dentro de un intervalo. Por
ejemplo, la velocidad de un vehículo puede ser 80,3 km/h, 94,57 km/h...etc.
En el proceso de medición de estas las variables cualitativas, se pueden utilizar dos
escalas:
• Escalas nominales: ésta es una forma de observar o medir en la que los datos se
ajustan por categorías que no mantienen una relación de orden entre sí (color de
los ojos, sexo, profesión, presencia o ausencia de un factor de riesgo o
enfermedad, etcétera).
• Escalas ordinales: en las escalas utilizadas, existe un cierto orden o jerarquía
entre las categorías (grados de disnea, estadiaje de un tumor, etcétera).
Una vez que se han recogido los valores que toman las variables de nuestro estudio
(datos), procederemos al análisis descriptivo de los mismos. Para variables
categóricas, como el sexo o el estadiaje, se quiere conocer el número de casos en
cada una de las categorías, reflejando habitualmente el porcentaje que representan
del total, y expresándolo en una tabla de frecuencias.
Para variables numéricas, en las que puede haber un gran número de valores
observados distintos, se ha de optar por un método de análisis distinto, respondiendo
a las siguientes preguntas:
a. ¿Alrededor de qué valor se agrupan los datos?
b. Supuesto que se agrupan alrededor de un número, ¿cómo lo hacen? ¿muy
concentrados? ¿muy dispersos?
Medidas de posición: tendencia central y no central
Las principales medidas de posición central son las siguientes:
1.- Media: es el valor medio ponderado de la serie de datos. La media
aritmética se calcula multiplicando cada valor por el número de veces que se
Josep Davins © Calidad 2011. Indicadores
21
repite. La suma de todos estos productos se divide por el total de datos de la
muestra.
2.- Mediana: es el valor de la serie de datos que se sitúa justamente en el
centro de la muestra (un 50% de valores son inferiores y otro 50% son
superiores).
3.- Moda: es el valor que más se repite en la muestra.
Las medidas de posición no centrales permiten conocer otros puntos característicos de
la distribución que no son los valores centrales. Entre otros indicadores, se suelen
utilizar una serie de valores que dividen la muestra en tramos iguales:
1. Cuartiles: son 3 valores que distribuyen la serie de datos, ordenada de
forma creciente o decreciente, en cuatro tramos iguales, en los que cada
uno de ellos concentra el 25% de los resultados.
2. Deciles: son 9 valores que distribuyen la serie de datos, ordenada de
forma creciente o decreciente, en diez tramos iguales, en los que cada uno
de ellos concentra el 10% de los resultados.
3. Percentiles: son 99 valores que distribuyen la serie de datos, ordenada de
forma creciente o decreciente, en cien tramos iguales, en los que cada uno
de ellos concentra el 1% de los resultados.
Medidas de dispersión
Estudia la distribución de los valores de la serie, analizando si estos se encuentran
más o menos concentrados, o más o menos dispersos.
Existen diversas medidas de dispersión, entre las más utilizadas podemos destacar
las siguientes:
1.- Rango: mide la amplitud de los valores de la muestra y se calcula por diferencia
entre el valor más elevado y el valor más bajo.
2.- Varianza: Mide la distancia existente entre los valores de la serie y la media. Se
calcula como sumatorio de las difrencias al cuadrado entre cada valor y la media,
multiplicadas por el número de veces que se ha repetido cada valor. El sumatorio
obtenido se divide por el tamaño de la muestra.
La varianza siempre será mayor que cero. Mientras más se aproxima a cero, más
concentrados están los valores de la serie alrededor de la media. Por el contrario,
mientras mayor sea la varianza, más dispersos están.
3.- Desviación típica: Se calcula como raíz cuadrada de la varianza.
Como medidas de variabilidad más importantes, conviene destacar algunas
características de la varianza y desviación típica:
Josep Davins © Calidad 2011. Indicadores
22
• Son índices que describen la variabilidad o dispersión y por tanto cuando los
datos están muy alejados de la media, el numerador de sus fórmulas será
grande y la varianza y la desviación típica lo serán.
• Al aumentar el tamaño de la muestra, disminuye la varianza y la desviación
típica. Para reducir a la mitad la desviación típica, la muestra se tiene que
multiplicar por 4.
• Cuando todos los datos de la distribución son iguales, la varianza y la
desviación típica son iguales a 0.
• Para su cálculo se utilizan todos los datos de la distribución; por tanto,
cualquier cambio de valor será detectado.
4.- Coeficiente de varización de Pearson: se calcula como cociente entre la
desviación típica y la media. El interés del coeficiente de variación es que al ser un
porcentaje permite comparar el nivel de dispersión de dos muestras. Esto no ocurre
con la desvación típica, ya que viene expresada en las mismas unidas que los datos
de la serie.
Coeficiente de correlación lineal
En una distribución bidimensional (dos variables) puede ocurrir que las dos variables
guarden algún tipo de relación entre si.
Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy
posible que exista relación entre ambas variables: mientras más alto sea el alumno,
mayor será su peso.
El coeficiente de correlación lineal mide el grado de intensidad de esta posible
relación entre las variables. Los valores que puede tomar el coeficiente de
correlación "r" son: -1 < r < 1
Si "r" > 0, la correlación lineal es positiva (si sube el valor de una variable sube el de
la otra). La correlación es tanto más fuerte cuanto más se aproxime a 1.
Por ejemplo: altura y peso: los alumnos más altos suelen pesar más.
Si "r" < 0, la correlación lineal es negativa (si sube el valor de una variable
disminuye el de la otra). La correlación negativa es tanto más fuerte cuanto más se
aproxime a -1.
Por ejemplo: peso y velocidad: los alumnos más gordos suelen correr menos.
Si "r" = 0, no existe correlación lineal entre las variables. Aunque podría existir otro
tipo de correlación (parabólica, exponencial, etc.)
De todos modos, aunque el valor de "r" fuera próximo a 1 o -1, tampoco esto quiere
decir obligatoriamente que existe una relación de causa-efecto entre las dos variables,
ya que este resultado podría haberse debido al puro azar.
Josep Davins © Calidad 2011. Indicadores
23
Intervalos de confianza
Toda determinación de un parámetro en una muestra tiene una precisión que
depende del tamaño de ésta. A más tamaño, más precisión.
Se puede calcular un intervalo que tenga el 95% de probabilidades de contener el
valor real de la población, con un error debido al azar de un 5%. A éste se le
denomina intervalo de confianza al 95%.
Existen calculadoras estadísticas que facilitan su cálculo.
En un indicador, mediante una muestra determinaremos un valor concreto, que en
función del tamaño de la muestra, puede variar alrededor de esta determinación en
un grupo de valores más o menos amplio. Mediante diferentes calculadoras
estadísticas se nos facilita el cálculo de esta precisión, mediante el cálculo de los
intervalos de confianza.
Medida del nivel de calidad como mejora: contraste de
hipótesis.
En este caso se trata de comparar dos valores de medición para concluir si el según
valor es o no significativamente mejor que el primero.
En caso de tratarse de variables categóricas se realiza como test el 2 y para las
cuantitativas, el test de la t de Student. Su cálculo, mediante programas como el
SPSS resulta fácil.
Medidas con muestras pequeñas y rápidas: muestreo por lotes
Entendemos por monitorización la medición sistemática, repetida y planificada de
indicadores de calidad; una actividad conducente a controlar que estamos a unos
niveles preestablecidos y que tiene como objetivo identificar la existencia o no de
situaciones problemáticas que hay que evaluar o sobre las que hay que intervenir. Los
indicadores a monitorizar pueden derivarse de ciclos de mejora, de actividades de
diseño de los servicios, o ser fruto de una selección de aspectos o servicios relevantes
cuya calidad nos interesa controlar. El interés que podamos tener en una estimación
del nivel de calidad existente y la periodicidad de medición son decisiones de
importancia para la elección de los métodos para monitorizar.
El muestreo de aceptación de lotes (LQAS) y el control estadístico (gráfico) de la
calidad son métodos originados y desarrollados en la industria, que pueden resultar de
gran utilidad para la monitorización en servicios de salud si renunciamos a tener una
estimación del nivel de cumplimiento de los indicadores y nos centramos en el
conocimiento de la existencia o no (aceptación/rechazo) de unos niveles de
cumplimiento preestablecidos. El control estadístico de la calidad precisa de
mediciones frecuentes, (mínimo mensuales) para ser útil, mientras que el LQAS y
otros métodos de evaluación rápida basados en la distribución binomial pueden ser
aplicados a planes de mediciones más espaciadas. La práctica de monitorización
utilizando LQAS, aún poco extendida en los servicios de salud, es, sin embargo, muy
sencilla; sólo precisa en última instancia entender y manejar unas tablas ya
Josep Davins © Calidad 2011. Indicadores
24
construidas para fijar cuál es el número máximo de incumplimientos del indicador que
es aceptable en una muestra determinada (y normalmente pequeña) para aceptar a
su vez un determinado nivel de cumplimiento del indicador. En este artículo se revisan
los fundamentos estadísticos y el detalle de las implicaciones prácticas del uso de la
distribución binomial y del LQAS en la monitorización de servicios de salud.
Cuando la variable que mide el indicador es de tipo dicotómico (presencia/ausencia de
una determinada cualidad), como ocurre en la mayoría de los indicadores de calidad
que se construyen en los servicios de salud, la utilización de las probabilidades de la
distribución binomial nos proporciona una forma rápida y eficiente de decidir si
estamos o no ante una situación problemática, utilizando un tamaño de muestra
relativamente pequeño (máximo 30 casos).
Supongamos que para un determinado indicador de interés, nuestro estándar
histórico de cumplimiento se sitúa en el 85%. Sin embargo, en la actualidad,
sospechamos que no estamos a ese nivel. Nos interesa saber si la situación es o no
problemática para decidir si debemos o no evaluar qué está pasando, o intervenir
sobre ella. Una opción sería realizar un muestreo aleatorio suficientemente grande y
estimar el nivel al que nos encontramos. Sin embargo, nos puede resultar
conveniente considerar si nuestra situación cumple los requisitos en los que es
aplicable la distribución binomial, a saber:
•
•
•
•
Lo que se evalúa (el indicador) tiene sólo dos valores posibles (cumple/no
cumple).
Cada una de las unidades de estudio (casos a evaluar)es independiente de la
otra.
Evaluamos en una muestra aleatoria de “n” casos.
La probabilidad general que existe de encontrar un valor u otro (cumple/no
cumple) es la misma para cada uno de los casos de la muestra.
Esta última condición se cumple siempre que el tamaño de la muestra, n, sea inferior
al 10% del universo o marco muestral de donde la hemos extraído.
Si es aplicable la distribución binomial, como ocurrirá en la gran mayoría de los casos,
podemos extraer una muestra aleatoria pero pequeña (un tamaño conveniente,
siempre menor de 30 casos) e interpretar el resultado que obtengamos en términos
de la probabilidad de que sea compatible con la existencia real del estándar.
Monitorización esporádica y sistemática utilizando la distribución binomial.
Los resultados de una evaluación puntual, esporádica, pueden ser interpretados en la
forma que lo hemos hecho con las tablas de distribución binomial, pero no sería
correcto mantener el mismo proceder como método de monitorización sistemática, o
cuando no sepamos el nivel de cumplimiento histórico, habitual, del indicador. En este
caso lo correcto sería considerar para nuestra decisión, no la probabilidad del
resultado concreto que hemos encontrado en la muestra puntual (tal como hemos
hecho) sino la probabilidad de todos los resultados posibles simultáneamente
(probabilidad acumulada), para el tamaño de muestra que hemos decidido utilizar;
establecemos de igual manera una probabilidad límite para aceptar o rechazar (que
puede seguir siendo . 0,05), pero su cálculo implica la suma de las probabilidades de
que encontremos un determinado número de incumplimientos y cualquier número de
incumplimientos inferior. Buscaríamos un número límite de incumplimientos de forma
que la probabilidad de encontrar ese número de incumplimientos o más sea . 0,05.
Sólo aceptaríamos como buenos los resultados con número de incumplimiento por
debajo de ese límite. Si en vez de incumplimientos quisiéramos valorar cumplimientos
el razonamiento es semejante aunque naturalmente, en sentido opuesto: buscaríamos
un número mínimo de cumplimientos de forma que la probabilidad de encontrar ese
Josep Davins © Calidad 2011. Indicadores
25
número o más fuese >0,95; así identificaríamos como problemático todo resultado
que tuviera un número de cumplimientos inferior al que hemos señalado como límite
para la decisión. La decisión se toma, como se ve, en función de la probabilidad
acumulada de los diversos resultados posibles. Para ello debemos utilizar las tablas de
la distribución binomial con probabilidades acumuladas.
Los parámetros que definen el plan de muestreo son el tamaño del lote, el tamaño de
la muestra a evaluar, y el número para la aceptación o número decisional, una vez
que hemos definido los estándares con relación al nivel de calidad asumido (llamados
índices de calidad en la literatura de la industria), y los riesgos (alfa y beta) del
muestreo. El tamaño del lote tiene poco efecto sobre la probabilidad de aceptación: en
general, el tamaño del lote no importa a menos que el tamaño de la muestra sea
mayor que el 10% del tamaño del lote. Sin embargo se aconseja que cuanto más
grandes sean los lotes, más pequeños deben ser los riesgos o errores admitidos para
la decisión, de forma que se minimicen las consecuencias de decisiones incorrectas.
En los servicios de salud, conviene recordar que más que el tamaño de lote, que
puede ser definido de muchas maneras (grupos poblacionales, área cubierta por
centros hospitalarios o de atención primaria, grupos de profesionales, casos ocurridos
en un determinado periodo de tiempo, tipo de paciente, etc.), a lo que siempre hay
que prestarle atención es a la homogeneidad del lote: debe estar constituido por el
mismo tipo de casos con relación a lo que se evalúa: igual que en la industria
se inspeccionan lotes del mismo producto, y no mezclas de ellos. El tamaño de la
muestra y el número decisional dependen en gran medida de la definición de los
índices de calidad y los riesgos que se acepta asumir con las decisiones. La
combinación de tamaño de muestra y número decisional más eficientes para las
características que queremos que tenga nuestro plan de monitorización, pueden
encontrarse de dos formas en la literatura de la industria en tablas y en gráficos
(Curvas de Características Operativas, Operating Characteristics Curves, OC). Tablas y
gráficos no exentos de una cierta dificultad de comprensión y manejo, pero que
podemos simplificar para nuestros propósitos entendiendo sus raíces y mecánica de
construcción. Las curvas OC representan la probabilidad de aceptación de diversos
niveles de calidad, para un determinado tamaño de muestra y número de decisión.
Hay, pues, una curva OC para cada número de decisión, una vez fijado el tamaño de
la muestra. Son, esencialmente, la representación gráfica de las probabilidades
binomiales acumuladas que corresponden a un determinado número decisional, en un
determinado tamaño de muestra, dependiendo del valor real de incumplimientos que
pueda tener el lote de donde se extrae la muestra. Las curvas OC, aunque aportan
más información y posibilitan escoger cualquier valor de los riesgos alfa y beta, son
más complicadas de usar e interpretar que las tablas, por lo cual nos centraremos en
la determinación del tamaño de muestra y número de decisión utilizando las tablas.
Bibliografía
•
•
•
•
Sackett, D.L., Haynes, R.B., Guyatt, G.H., Tugwell, P. Epidemiología clínica.
Ciencia básica para la medicina clínica. 2ª ed. Madrid: Médica Panamericana;
1994.
Fletcher RH., Fletcher SW., Wagner E.H. Epidemiología clínica. 2ª ed.
Barcelona: Masson, Williams & Wilkins; 1998.
Dawson-Saunders B, Trapp RG. Bioestadística Médica. 2ª ed. México: Editorial
el Manual Moderno; 1996.
Milton JS, Tsokos JO. Estadística para biología y ciencias de la salud. Madrid:
Interamericana McGraw Hill; 2001.
Josep Davins © Calidad 2011. Indicadores
26
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Martín Andrés A, Luna del Castillo JD. Bioestadística para las ciencias de la
salud. 4ª ed. Madrid:NORMA; 1993.
Argimón Pallás JM, Jiménez Villa J. Métodos de investigación clínica y
epidemiológica. 2ª ed. Madrid: Harcourt; 2000.
Sentís J, Pardell H, Cobo E, Canela J. Bioestadística. 3ª ed. Barcelona: Masson;
2003.
Colton T. Estadística en medicina. Barcelona: Salvat; 1979.
Armitage P, Berry G. Estadística para la investigación biomédica. Barcelona:
Doyma; 1992.
Departamento de Medicina y Psiquiatría. Universidad de Alicante. Tratado de
Epidemiología Clínica. Madrid: DuPont Pharma; 1995.
Altman DG. Practical Statistics for Medical Research. London: Chapman & Hall;
2004.
Vélez R, Hernández V. Cálculo de Probabilidades I. Madrid: UNED; 1995.
Quesada V, García A. Lecciones de Cálculo de Probabilidades. Madrid: Díaz de
Santos; 1988.
Silva LC, Benavides A. El enfoque bayesiano: otra manera de inferir. Gac Sanit
2001; 15(4): 341-346.
Silva LC, Suárez P. ¿Qué es la inferencia bayesiana? JANO 2000; 58: 65-66.
Silva LC, Muñoz A. Debate sobre métodos frecuentistas vs bayesianos. Gac
Sanit 2000; 14: 482-494.
Pértega Díaz S, Pita Fernández S. Pruebas diagnósticas. Cad Aten Primaria
2003; 10: 120-124. [Texto completo]
Joint Commission. Quality Assurance in Ambulatory Care. Chicago: Joint
Commission on Accreditation of Healthcare Organizations, 1990.
Joint Commission. Ambulatory Health Care Standars Manual. Chicago: Joint
Commission on Accreditation of Healthcare Organizations, 1990.
Joint Commission. Primer on Indicator Development and Application.
Measuring Quality in Health Care. Chicago: Joint Commission on Accreditation
of Healthcare Organizations, 1990.
Duncan R, Fleming EC, Gallati TG. Implementing a Continuous Quality
Improvement Program in a Community Hospital. QRB 1991; 17: 106-112.
Kume H. Herramientas estadísticas básicas para el mejoramiento de la calidad.
Serie Desarrollo Gerencial. Barcelona: Parramón-Norma, 1992.
Vachette JL. Mejora Continua de la Calidad. Control Estadístico del Proceso. 1.ª
ed. Barcelona: Ediciones CEAC, 1992.
Walton M. The Deming Management Method. New York: The Putnam
Publishing Group, 1986.
Berwick DM. Sounding Board: Continuous improvement as an ideal in health
care. N Engl J Med 1989; 320: 53-56.
Eylenbosch WJ, Noah ND. Indicators. Surveillance in Health and Disease.
Oxford: Oxford University Press, 1988.
Donabedian A. Institutional and professional responsabilities in Quality
Assurance. Quality Assurance in Health Care 1989; 1: 3-11.
Donabedian A. Una aproximación a la monitorización de la calidad (segunda
parte). Control de Calidad Asistencial 1991; 6: 31-39.
Benson DS, Miller JA. Quality Assurance for Primary Care Centers.
Indianapolis: Methodist Hospital of Indiana, Inc, 1988.
Ishikawa, K. ¿Qué es el Control Total de Calidad? La modalidad japonesa.
Bogotá: Norma Ed, 1986.
Ishikawa, K. Guía de Control de Calidad. New York: Unipub, 1985.
Josep Davins © Calidad 2011. Indicadores
27
Resumen
Para conseguir que las actividades de mejora sean efectivas deben llevarse a cabo de
forma continuada y consistir en medidas regulares y sistemáticas de aspectos
esenciales de la atención.
Un sistema de monitorización se define como la medida continuada de aspectos
relativos a la calidad de la atención para identificar situaciones u oportunidades de
mejora. En el sistema de monitorización se utilizan como parámetros de medida los
indicadores.
Un indicador es una medida cuantitativa que nos sirve para monitorizar y evaluar
aspectos importantes de la atención. El cambio en la actividad del indicador nos
señala dónde se puede estar produciendo una oportunidad de mejora de la calidad.
Un indicador no es una medida directa de la calidad.
Existen diferentes tipos de indicadores que se pueden clasificar en función de tres
aspectos: la valoración positiva o negativa (deseable o no deseable), la gravedad
(basado en una proporción o en un suceso centinela) y el tipo de suceso monitorizado
(proceso o resultado). Los tres grupos clasificatorios no son excluyentes entre sí, sino
que un indicador puede ser ubicado en cada uno de ellos.
Para ser efectivos, facilitar la recogida de datos y aumentar su fiabiliadad los
indicadores deben ser concretos, completos, objetivos, clínicamente válidos, sensibles,
específicos, relevantes y eficientes.
El sistema de monitorización debe ser completo por lo que el proceso de diseño y
construcción de indicadores debe seguir las siguientes fases: delimitar el campo de
actuación, identificar los aspectos importantes (volumen, riesgo y complejidad),
identificar indicadores, analizarlos.
En la construcción de un indicador es útil seguir el esquema de la Joint Commission:
enunciado del indicador, definición de términos, identificación del tipo de indicador,
base del razonamiento, descripción de la población, fuente de los elementos de los
datos, factores responsables y bases de datos existentes.
En el análisis de un indicador se valora su validez y fiabilidad.
Josep Davins © Calidad 2011. Indicadores
28

Documentos relacionados