metodología básica para la mejora de la calidad
Transcripción
metodología básica para la mejora de la calidad
Metodología de evaluación y mejora continuada Unidad didáctica 6 La medida de Josep Davins Miralles la calidad: Monitorización Indicadores Calidad y estadística Índice Dos definiciones: calidad y criterio de calidad ......................... 2 La calidad ¿se puede medir? .................................................... 2 Medir la calidad con indicadores .............................................. 3 Definición de indicador ............................................................. 4 Tipos de indicadores................................................................. 4 Características de los indicadores............................................... 6 ¿Para que sirven los indicadores? ............................................... 7 Reevaluar y Monitorizar........................................................... 8 Herramientas para la monitorización: el indicador .................. 9 1. Delimitar el campo de actuación: ¿Qué hacemos en nuestro CS? 9 2 Identificar los aspectos importantes:¿Qué es lo más importante de todo lo que hacemos? ........................................................ 10 3. Identificar indicadores: ¿Qué utilizaremos como medida para cada aspecto identificado e importante de la atención? ............... 11 Partes que componen el diseño de un indicador .................... 12 Enunciado inicial del indicador. ............................................. 12 Definición de términos. ........................................................ 13 Identificación del tipo de indicador. ....................................... 13 Base del razonamiento. ....................................................... 13 Descripción de la población del indicador. .............................. 13 Fuente de los elementos de los datos. ................................... 14 Factores responsables. ........................................................ 14 Bases de datos existentes. ................................................... 15 Validación de un indicador..................................................... 16 Validación y análisis de los indicadores ..................................... 16 Validez .............................................................................. 17 Fiabilidad ........................................................................... 18 Conceptos estadísticos relacionados con la medida de la calidad ................................................................................... 20 Estimación del nivel de calidad: estadística descriptiva ............... 21 Medidas de posición: tendencia central y no central ................ 21 Medidas de dispersión ......................................................... 22 Coeficiente de correlación lineal ............................................ 23 Intervalos de confianza .......................................................... 24 Medida del nivel de calidad como mejora: contraste de hipótesis. 24 Medidas con muestras pequeñas y rápidas: muestreo por lotes ... 24 Bibliografía ............................................................................ 26 Resumen ............................................................................... 28 Josep Davins © Calidad 2011. Indicadores 1 Dos definiciones: calidad y criterio de calidad La calidad es un conjunto de características o atributos de los productos o servicios que, cuando es alta, denota superioridad en su género. La calidad es multidimensional, y los diferentes componentes de la calidad son: satisfacción, accesibilidad, efectividad, eficiencia, competencia profesional, continuidad de la atención, oportunidad y adecuación. De este hecho, la Joint Commission on Accreditation of Healthcare Organizations (JCAHO) en 1990 dio la siguiente definición de calidad: ofrecer de forma continuada unos servicios eficaces, efectivos y eficientes, adecuados a las necesidades de los clientes, accesibles y aceptados por éstos; y todo ello, según el estado actual de conocimientos. Para centrar la calidad desde el punto de vista de su medida otra definición en la que se introduce el concepto criterio como la expresión concreta de la calidad con un objetivo: conjunto de atributos o características que hacen que un servicio o profesional cumpla con su misión. Podemos decir entonces que la calidad se concreta en lo que conocemos como criterio o atributo que refleja el ideal ante una situación concreta. Estos criterios se pueden definir como normas de buena práctica basadas en la evidencia científica existente. La calidad ¿se puede medir? Aunque la calidad es intangible, podemos siempre aplicar una escala de medida para aproximarnos a una estimación real de la misma. La calidad se concretiza en los criterios. Estos criterios se podrían definir como las normas de buena práctica que reflejan un ideal. Cada situación concreta del paciente debe ser seguida por la atención adecuada por parte de los profesionales sanitarios, y la variabilidad de las actuaciones de éstos denota una falta de calidad. Un criterio puede ser lo más amplio o detallado posible. Pero su medida será más fácil cuando más concreto sea. Será más fácil medir cuantos pacientes han sido controlados de su hipertensión arterial, que el manejo de la hipertensión arterial en conjunto. Se entiende por criterios técnicos de calidad a las normas basadas en la evidencia científica existente, establecidas por sociedades científico-profesionales o por grupos de consenso, referidas a los procesos asistenciales clave. De esta forma, para determinar una parte importante de nuestra calidad asistencial, deberemos evaluar el nivel de adecuación de nuestra competencia profesional a las recomendaciones aceptadas en función del mejor conocimiento existente en el aspecto medido. Estas recomendaciones, en formato de calidad, son los criterios técnicos (lectura recomendada 1). Por ejemplo, ante un paciente que presenta dolor precordial opresivo se debe realizar un electrocardiograma inmediato. La ausencia de esta exploración denota un nivel inaceptable de calidad asistencial, pues, la evidencia científica ha demostrado que la probabilidad de presentar patología coronaria es elevada en los pacientes con dolor precordial opresivo y que una exploración accesible, inocua y efectiva para detectar isquemia, como la práctica de un electrocardiograma inmediato, es obligada. Pero no siempre las intervenciones Josep Davins © Calidad 2011. Indicadores 2 sanitarias se apoyan en estudios de rigor científico y eso dificulta la definición de calidad técnica. Una fuente habitual de los criterios de calidad técnica son las guías de práctica clínica, ya que establecen la conducta diagnóstica y terapéutica adecuada a cada patología a partir de la evidencia científica disponible. Las guías de práctica clínica son declaraciones desarrolladas de forma sistemática, para ayudar a los profesionales y a los clientes en la toma de decisiones en unas circunstancias clínicas concretas. Sería el equivalente al manual de especificaciones de calidad de un producto Medir la calidad con indicadores Los indicadores son la medida instrumental del criterio de calidad de un aspecto concreto de la atención. Es decir, un indicador es una herramienta de medida. Para conseguir que las actividades de mejora de la calidad sean efectivas deben llevarse a cabo de forma continuada. No deben limitarse a la realización de estudios de evaluación finitos y puntuales, sino que deben consistir en medidas regulares y sistemáticas de aspectos esenciales de la atención, para comprobar, no sólo si se ha producido la mejora, sino también si ésta se mantiene en el tiempo1. El sistema de medida de la calidad debe ir ligado a una planificación previa. Si no es así, nos encontraremos ante un sistema que no responde a las preguntas de nadie. La calidad se monitoriza porque en función de los resultados que obtengamos de esta medida, nuestra actuación será una u otra. Un sistema de monitorización se define como la medida continuada de aspectos relativos a la calidad de la atención para identificar situaciones u oportunidades de mejora. Para que el sistema de monitorización sea efectivo es necesario que sea completo, abarque todas las actividades del centro de salud (CS) y todos los componentes de la calidad de la atención, de forma sistemática y objetiva. La Joint Commission on Accreditation of Healthcare Organizations (JCAHO) recomienda el sistema de monitorización continuado como base de todo plan de mejora de la calidad2,3. El sistema de monitorización se fundamenta en el control estadístico de la calidad. Las actividades de mejora de la calidad asistencial están orientadas al estudio de los procesos buscando, sobre todo, las causas comunes de variación, con el objetivo de hallar puntos susceptibles de mejoras potenciales4. Los fracasos en conseguir el nivel de calidad deseado derivan de 2 fuentes: las atribuibles al sistema, que no se pueden reducir sin cambiarlo (causas no asignables, aleatorias, al azar, sistémicas, internas, intrínsecas o causas comunes no debidas al individuo) y aquellas debidas a factores externos al proceso (causas asignables, extrasistémicas, externas o extrínsecas). Las causas sistémicas producen una variación aleatoria, homogénea y previsible a lo largo del tiempo; en cambio, las extrasistémicas la producen de forma brusca y mantenida hasta que se elimina la causa5, 6 (figura 1). Según Deming sólo el 15% de las oportunidades de mejora o problemas de calidad recae en los individuos, pero son de efectos fuertes y su eliminación puede realizarse desde los propios implicados en el proceso7. En cambio, para eliminar el 85% restante, que depende de déficits del sistema, es necesario cambiar el proceso entero o parte importante de él, lo que suele ser responsabilidad de niveles de gestión superiores. Josep Davins © Calidad 2011. Indicadores 3 El estudio permanente de las causas de variabilidad nos permitirá un mejor conocimiento del proceso y facilitará su mejora. En el sistema de monitorización se utilizan como parámetros de medida los indicadores. Debemos destacar cuatro aspectos relevantes o ideas clave en los indicadores: • Los indicadores sólo indican • Los indicadores nos fuerzan a ser explícitos • Los indicadores son números y requieren de técnicas estadísticas • Los indicadores no se deben asociar a “detectores de defectos” sino aprender de los que tienen buenos resultados Definición de indicador Según la definición de la JCAHO, un indicador es una medida cuantitativa que nos sirve para monitorizar y evaluar la calidad de aspectos importantes de la atención3. El sistema de monitorización nos alerta cuando se produce alguna alteración en el estado habitual de la atención por el cambio en la actividad del indicador. De esta forma, nos señala dónde se puede estar produciendo una oportunidad de mejora de la calidad. La monitorización no nos asegura que el problema o la oportunidad de mejora exista, ni nos indica sus causas, sino que señala hacia donde dirigir nuestra atención para determinar si existe o no un problema . Un indicador no es una medida directa de la calidad, sino una herramienta que nos permite valorar las actuaciones e indica que aspectos requieren un análisis más profundo. Tipos de indicadores Existen diferentes tipos de indicadores que se pueden clasificar en función de tres aspectos: la valoración positiva o negativa, la gravedad y el tipo de suceso monitorizado. Los tres grupos clasificatorios no son excluyentes entre sí, sino que un indicador puede ser ubicado en cada uno de ellos (tabla 1). Tabla 1. TIPOS DE INDICADORES Según el enfoque - Indicador de SALUD - Indicador de CALIDAD Según el diseño - Indicador SIMPLES - Indicador COMPUESTOS ó SINTÉTICOS Según los datos que se monitorizan - indicador de ESTRUCTURA - Indicador de PROCESO - Indicador de RESULTADO Según la gravedad del suceso monitorizado - Indicador BASADO EN UNA PROPORCION - Indicador DE SUCESO CENTINELA Según si mide sucesos positivos o negativos Josep Davins © Calidad 2011. Indicadores 4 - Indicador DESEABLE - Indicador NO DESEABLE Según la valoración positiva o negativa del suceso monitorizado Indicador deseable. Se basa en un suceso considerado positivo o deseable. Indicador no deseable. Se basa en un suceso considerado negativo o no deseable. La mayoría de sucesos pueden medirse con indicadores definidos tanto en sentido positivo como negativo. Por ejemplo, para medir en el campo de la hipertensión el aspecto relativo a su control, se puede utilizar el indicador deseable “pacientes hipertensos controlados”, y el indicador no deseable “pacientes hipertensos no controlados”. Según la gravedad del suceso monitorizado Indicador basado en un suceso centinela. Mide un suceso lo bastante grave del proceso o del resultado de la atención como para realizar una revisión individual de cada caso que se produzca. Es conveniente analizar si existe una causa prevenible o mejorable en el proceso de la atención. Por definición, un indicador centinela siempre es un indicador negativo, puesto que mide un suceso grave e indeseable. Ejemplos de indicadores centinela son “pacientes muertos en el CS”, “pacientes menores de 65 años muertos en el domicilio”, “pacientes con reacción anafiláctica grave”, “pacientes con graves efectos adversos a medicamentos”, “mujeres gestantes menores de 16 años”, “pacientes que reclaman por el retraso de un aviso domiciliario urgente”. Indicador basado en una proporción. Mide un suceso que requiere una revisión detallada sólo si la proporción de casos que no cumplen el criterio del indicador sobrepasa un umbral establecido mediante control estadístico de la calidad. Mide un suceso del que esperamos que un cierto porcentaje de los casos lo incumplan. Ejemplos de indicadores basados en una proporción son “pacientes hipertensos controlados”, “pacientes usuarios de droga por vía parenteral (UDVP) correctamente inmunizados de la hepatitis B”, “pacientes con información clínica adecuada en la hoja de interconsulta al especialista”, “pacientes con catarro de vías altas tratados con antibióticos”. Según el tipo de datos valorado en el suceso monitorizado Indicador de proceso. Mide la actividad llevada a cabo, de forma directa o indirecta, durante la atención al cliente. Un buen indicador de proceso es áquel que se basa en actividades relacionadas estrechamente con el resultado de la atención. Los indicadores de proceso suelen reflejar los estándares o criterios de adecuación de la atención consensuados por los profesionales o extraídos de la literatura. Ejemplos de indicadores de proceso son “pacientes con información clínica adecuada en la hoja de interconsulta a especialistas”, “pacientes con catarro de vías altas tratados con antibióticos”, “pacientes hipertensos con evaluación del riesgo cardio-vascular”, “pacientes hipertensos en tratamiento con diuréticos y control del ionograma en el último año”, “pacientes diabéticos con fondo de ojo realizado en el último año”. Josep Davins © Calidad 2011. Indicadores 5 Indicador de resultado. Mide el efecto de la atención en el cliente. El grado en que este resultado está influenciado por otros factores independientes del proceso asistencial determinará la utilidad del indicador. Todo proceso de la atención persigue un buen resultado por lo que sería lógico utilizar indicadores orientados a medir éste último. Sin embargo, en muchas ocasiones es difícil medir resultados y conocer la influencia de otros factores ajenos al proceso. Los indicadores de resultado orientan sobre los aspectos que pueden necesitar un abordaje más profundo pero aportan poca información sobre las causas de los problemas de calidad u oportunidades de mejora. Es recomendable utilizar indicadores de proceso, por la mayor facilidad de obtención, medida e interpretación. Aún así, para medir la satisfacción del cliente, aspecto imprescindible en todo sistema de monitorización, son necesarios los indicadores de resultado. Son ejemplos de indicadores de resultado “pacientes hipertensos muertos de accidente vascular cerebral”, “pacientes diabéticos con ceguera”, “pacientes satisfechos con el trato de los profesionales”, “pacientes satisfachos con el proceso asistencial”, “pacientes muertos en el CS”, “pacientes menores de 65 años muertos en el domicilio”. Características de los indicadores Para ser efectivos, facilitar la recogida de datos y aumentar su fiabilidad los indicadores deben cumplir las siguientes características9 (tabla 2): Concretos. Deben estar bien definidos, describirse de forma clara y completa. Cuanto más definido sea el enunciado del indicador, menos errores se cometerán al recoger los datos. En el indicador “pacientes hipertensos controlados” debe definirse de forma clara que se entiende por “hipertensos” y por “controlados”. Completos. Deben dirigirse en conjunto a todos los aspectos importantes de la atención en un CS. El sistema de monitorización, para que sea efectivo debe ser amplio y completo. Es necesario desarrollar indicadores en cada uno de los componentes de la calidad asistencial (accesibilidad, continuidad, efectividad, eficiencia, adecuación, satisfacción...). Objetivos. Debemos evitar aquellos indicadores que se basen en un juicio subjetivo y así facilitar la recogida de datos. Los indicadores deben contener las especificaciones necesarias para asegurar una uniformidad de los datos recogidos. Clínicamente válidos. Deben estar basados en la literatura existente, en los expertos o en la experiencia de los profesionales. Los indicadores basados en sucesos controvertidos según el estado actual de conocimientos científicos no identifican oportunidades de mejora. El indicador “pacientes mayores de 50 años con determinación de sangre oculta en heces en el último año” no es útil para monitorizar la prevención de la neoplasia colo-rectal dado que no existe suficiente evidencia científica que demuestre la efectividad de esta práctica de cribado. Sensibles. En el sentido que reflejen los cambios producidos por una situación. Específicos. Para evitar medir cambios producidos por factores externos. El indicador debe identificar aquellos casos que, en realidad, presentan una oportunidad de mejora. Josep Davins © Calidad 2011. Indicadores 6 Relevantes. Deben monitorizar lo importante de cada aspecto de la atención o del ámbito para el que se han creado. Por ejemplo, en la diabetes es más importante monitorizar la realización del fondo de ojo para la prevención y tratamiento de la retinopatía, que aspectos menos relevantes como la realización de autocontroles de cetonuria. Eficientes. Que nos proporcionen información valiosa y no duplicada. Debe evitarse la recogida de datos complicada y laboriosa. ¿Para que sirven los indicadores? • • • • Medir la calidad, para mejorarla. Conocer el sistema (rol conocer/entender) para mejorarlo. Monitorizar la calidad. Tomar decisiones. Josep Davins © Calidad 2011. Indicadores 7 Reevaluar y Monitorizar La monitorización es el ejemplo de una mejora de la calidad sin punto final, donde siempre se puede mejorar, incluso lo que hacemos bien. La mejora de la calidad no finaliza con la implantación de las soluciones. Falta comprobar el efecto del proyecto de mejora mediante el seguimiento o monitorización de la oportunidad seleccionada, para aseguramos que tenemos el proceso bajo control y que las acciones escogidas son las adecuadas. Es importante informar periódicamente de la situación para el conocimiento del resultado de nuestro esfuerzo. Los procesos tienden a empeorar si no adoptamos las medidas necesarias para mantener los beneficios obtenidos. Para hacerlos duraderos es necesario comprobar el funcionamiento del nuevo proceso y preguntarnos si la solución a la que hemos llegado a partir del análisis del proceso, ¿es aplicable a través del tiempo a la realidad del día a día?. Para ello es necesario monitorizar. En este punto pasamos del concepto de "proceso de mejora de la calidad" al de "control de la calidad", es decir, del esfuerzo de mejorar los procesos al de mantenerlos estables y predecibles en los niveles de mejora conseguidos. La función del control será hallar los primeros indicios de zozobra y descubrir aquellas causas de variación impredecibles. Delimitar el campo de actuación Identificar aspectos importantes Construir los indicadores Proceso controlado Establecer límites de control Intervención para la mejora Recoger datos Análisis del proceso Proceso fuera de control Josep Davins © Calidad 2011. Indicadores 8 Herramientas para la monitorización: el indicador La monitorización se realiza mediante unos parámetros denominados indicadores que son criterios o normas con los que se compara una actuación o proceso. Los indicadores son valores que miden el nivel de calidad alcanzado en un producto o proceso determinado a lo largo del tiempo. Sirven para seguir la evolución del nivel de calidad de una forma cuantificada y objetiva. De esta forma se puede saber si se está mejorando, o al contrario, no se obtienen buenos resultados. Es necesario establecer unos objetivos de calidad para poder comparar la evolución de los indicadores. Es aconsejable que los objetivos sean alcanzables (para evitar frustraciones) pero también estimulantes (que alcanzarlos requiera cierto esfuerzo). Tienen la ventaja de la objetividad y el inconveniente de la subjetividad. Es necesario identificar una medida fiable (indicador) de la evolución del problema que se está tratando. Se deben establecer los procedimientos de medida, la periodicidad, cómo se presentan los resultados a lo largo del tiempo y a quién distribuir esta información. Se determina un umbral o estándar que debe cumplir el indicador. En caso de incumplimiento, nos indica una posible oportunidad de mejora que requerirá un análisis más profundo. La evolución del indicador en el tiempo nos indicará la existencia, o no, de un proceso estable, y nos alertará cuando pueda estar produciéndose una causa extrasistémica (externa al sistema o proceso analizado) que dispare la actividad del indicador. Cada proceso tiene un porcentaje de errores como consecuencia de sus características. En estas ocasiones, para conseguir mejorar se debe revisar el proceso, en su globalidad. INDICADORES EN UN SISTEMA DE MONITORIZACIÓN: FASES Como en todas las actividades de mejora de la calidad, la implicación directa de los profesionales responsables de la atención en el diseño y puesta en marcha del sistema de monitorización es fundamental para su efectividad1-3,10,11. Favorece la mayor fiabilidad, utilidad y validez del indicador, la aceptación del sistema de monitorización y que la mejora de calidad sea real y permanente11. El sistema de monitorización debe ser completo por lo que el proceso de diseño y construcción de los indicadores debe seguir las siguientes fases y actividades (figura 2). 1. Delimitar el campo de actuación: ¿Qué hacemos en nuestro CS? En primer lugar, debemos conocer que servicios prestamos o, a quien van dirigidos los indicadores que vamos a construir. Se debe definir el espectro general de la atención que abarca el CS. En otras palabras, hay que saber con exactitud que se supone que debemos hacer en el CS, lo que nos llevará a realizar un inventario de funciones. Este inventario debe incluir los tipos de atención dispensada (medicina general, pediatría, odontología, etc.), el tipo de pacientes (edad, sexo, grupos de riesgo, etc.), el tipo de profesionales implicados (médicos, diplomados de enfermería, asistentes sociales, etc.), los sucesos más frecuentes (atención al niño sano, al embarazo, a pacientes Josep Davins © Calidad 2011. Indicadores 9 crónicos, etc.), los lugares en que se presta la atención (atención domiciliaria, atención urgente, etc.) y los horarios de ésta (atención continuada, programada, etc.)1. Este listado nos permitirá determinar los aspectos más importantes de la atención prestada, para escoger de entre ellos, los que nos interesa monitorizar. Aunque la atención proporcionada a la población por los CS es, básicamente, siempre la misma, existen algunas diferencias, tanto en algún tipo de atención concreta, como en los profesionales que se ocupan de ella. Por ejemplo, los médicos de cabecera de zonas rurales pueden ocuparse de la atención a la embarazada, de la planificación familiar o de la atención a niños, mientras que en áreas urbanas la atención a la mujer se realiza con frecuencia, no sólo por profesionales diferentes, sino en una ubicación física separada y, en ocasiones, por una institución ajena, y la atención a los niños es responsabilidad de los pediatras. Así, los médicos rurales deberán preocuparse de mejorar su efectividad en la atención a la embarazada, mientras que los urbanos deberán monitorizar la continuidad de la atención entre ellos y el obstetra. 2 Identificar los aspectos importantes:¿Qué es lo más importante de todo lo que hacemos? Una vez definido el campo de actuación debemos identificar aquellos aspectos que tengan un mayor impacto en la atención recibida por la población. Hemos de tener en cuenta que el número de actividades que se realizan en un CS es elevado. Por ello, hemos de decidirnos por aquellas que nos darán mayor información respecto a las oportunidades de mejora. La selección de los aspectos más importantes de la atención puede hacerse en base a los siguientes criterios12: 2.1. Volumen: ¿Qué actividades se llevan a cabo con tanta frecuencia que queremos estar seguros de que se realizan bien? Son los aspectos que comportan un gran volumen de trabajo, ya porque se realizan a menudo, o porque afectan a un número importante de clientes. Son ejemplos de aspectos de gran volumen la detección y control de la hipertensión, la comunicación entre niveles asistenciales, la accesibilidad a la atención urgente, las vacunaciones, la atención al niño sano, la prescripción farmacológica. 2.2. Riesgo: ¿Qué actividades tienen un impacto potencial tan importante en los clientes que un error en ellas sería muy grave? Son los aspectos que comportan un alto riesgo para los clientes si no se realizan de forma adecuada o efectiva, o si, a pesar de ello, tienen un riesgo intrínseco en sí mismos. Por ejemplo, la accesibilidad a la atención urgente, el manejo del dolor torácico, la prevención del SIDA, la prevención del cáncer son aspectos de la atención con riesgo para el cliente. 2.3. Complejidad: ¿Qué actividades son tan complejas que son propensas a presentar problemas? Son los aspectos que han ocasionado problemas anteriormente, que sabemos que no se están haciendo lo mejor posible o que suelen ser problemáticos en todas partes. Por ejemplo, la comunicación entre niveles, la atención urgente, la atención domiciliaria y el registro en la historia clínica pueden ser aspectos propensos a presentar problemas. Josep Davins © Calidad 2011. Indicadores 10 Si bien es cierto que cada CS debe construir un sistema de monitorización a su medida, existen algunas actividades que, sin lugar a dudas, deben monitorizarse, ya que forman parte muy importante de las características o funciones de la atención primaria. Entre ellas destacan las actividades de prevención, la prescripción farmacológica, el seguimiento de pacientes con patología crónica, la atención al niño sano, la atención domiciliaria, la atención urgente, el trato y satisfacción del cliente, la accesibilidad y la continuidad de la atención. 3. Identificar indicadores: ¿Qué utilizaremos como medida para cada aspecto identificado e importante de la atención? Una vez delimitado nuestro campo de actuación y los aspectos más importantes en que trabajamos podremos empezar a definir y desarrollar los indicadores, como medida indirecta de la calidad o sistema de alarma que nos señala que aspectos requieren un estudio en profundidad. Antes de empezar la recogida de datos, deberá establecerse por parte del personal responsable, el límite a partir del cual se disparará la señal de alarma. Para ello utilizaremos el control estadístico de la calidad (capítulo III.3). Cuando no se dispone de datos o su obtención es demasiado compleja, se puede utilizar la opinión de expertos, la experiencia de otros centros o los datos de la literatura, si bien, corremos el riesgo de fijar un umbral inadecuado en nuestro CS. Cuando no se esté dentro de los límites preestablecidos, se evaluará el proceso y se identificarán los problemas y oportunidades de mejora y se emprenderán los cursos de acción consiguientes. Después de un período de tiempo, se volverá a medir el proceso para comprobar que las medidas correctoras han surtido el efecto deseado (figura 2). El proceso de medida y mejora de la calidad no finalizará una vez se hayan puesto en práctica las oportunidades de mejora, sino que seguirá su curso con el fin de detectar nuevas desviaciones o la repetición de las mismas deficiencias en el futuro. 3.1. Construcción de un indicador: Información básica y especificaciones para la medición de indicadores. Para la construcción de indicadores es útil el esquema propuesto por la JCAHO3 detallado en la tabla 3. Este nos permite conocer previamente a la utilización del indicador lo que, en realidad, estamos midiendo y la potencialidad de mejora que ofrece. Esta forma sistemática de abordar la construcción de un indicador aporta mayor claridad sobre aspectos del indicador que, de otra forma, pasarían inadvertidos y consigue que podamos darnos cuenta de posibles errores, tanto en la fiabilidad como en la validez aparente. Además, un formato como éste permite intercambiar indicadores con otros CS con la seguridad de que serán comprendidos. Josep Davins © Calidad 2011. Indicadores 11 Partes que componen el diseño de un indicador Formato para la construcción de un indicador según la Joint Commission3 Aspecto y criterio de calidad que mide: I. Enunciado del indicador II. Definición de los términos III. Tipo de indicador IV. Base del razonamiento A: Validez aparente B: Bibliografía C:Componentes de la atención valorados V. Descripción de la población del indicador A. Subcategorías B. Lógica del indicador C. Formato de los datos VI Fuentes para la recogida de los datos VII. Factores responsables A. Factores dependientes del cliente B. Factores no dependientes del cliente 1.- Factores del profesional 2.- Factores de la organización VIII. Bases de datos existentes Enunciado inicial del indicador. Describe la actividad o suceso a monitorizar. Es importante basarse en un criterio de calidad consensuado. El enunciado debe ser simple, claro, concreto y objetivo. Si decidimos monitorizar el campo de la atención al paciente drogodependiente y el aspecto de la prevención de infecciones un posible indicador es: “pacientes usuarios Josep Davins © Calidad 2011. Indicadores 12 de drogas por vía parenteral (UDVP), no portadores del virus de la hepatitis B, correctamente inmunizados”. Definición de términos. Los términos que se utilizan en el enunciado del indicador que no resultan del todo claros y son susceptibles de diferentes interpretaciones deben ser detallados y definidos con precisión para evitar cometer errores en la fase de recogida de datos. En el ejemplo anterior, debemos definir “inmunización correcta” (dosis completa de la vacuna contra la hepatitis B administrada en tres dosis, inicial, al mes y a los 6 meses) y “no portador” (serología antihepatitis B negativa). Identificación del tipo de indicador. Determina el tipo de suceso según su valoración o signo (deseable o no deseable), gravedad (centinela o basado en una proporción) y tipo de datos monitorizado (proceso o resultado). El indicador sobre atención al drogodependiente utilizado como ejemplo es deseable, basado en una proporción y de proceso. Base del razonamiento. Describe la base de la validez aparente del indicador y su utilidad como medida de calidad en el aspecto de la atención que queremos monitorizar. Incluye las referencias bibliográficas y los componentes de la calidad que mide el indicador, ponderados según su importancia. En el ejemplo utilizado, el indicador monitoriza un aspecto de riesgo para el paciente y complejo o propenso a presentar problemas, como es la prevención de infecciones en UDVP. La utilidad del indicador se basa en el conocimiento de que los pacientes UDVP forman parte del grupo de conductas de riesgo de infección por el virus de la hepatitis B y de la evidencia científica de su prevención mediante inmunización. Los componentes de la calidad valorados por el indicador son la continuidad, la efectividad y la adecuación. Descripción de la población del indicador. Define la población objetivo del indicador, indicando si es necesario establecer subcategorías, según diversas características como edad, sexo, tipo de visita, etc. Esto nos permite obtener grupos más homogéneos y realizar un ajuste por estas variables al introducirlas de forma directa en el indicador. Se describe la lógica del indicador o secuencia a seguir para localizar la población y obtener la información requerida por el indicador, así como el formato definitivo. En el caso de un indicador basado en una proporción, debemos definir la población del numerador (que coincide con el enunciado del indicador) y la del denominador (población objetivo del indicador). Josep Davins © Calidad 2011. Indicadores 13 En el indicador del ejemplo se puede subcategorizar según si los pacientes UDVP están incluidos o no, en el programa específico de atención al drogodependiente (en el caso de que exista en el CS). La lógica del indicador será localizar el número de historia, nombre y apellidos de los pacientes UDVP mediante la base de datos del registro de factores de riesgo y el registro de pacientes pertenencientes al programa de atención al drogodependiente (siempre que éstos existan, sean informatizados o no). Luego se debe comprobar en la historia o en un sistema de registro específico de la vacunación de la hepatitis B, el estado inmunitario de estos pacientes. El formato del indicador ejemplo es: UDVP no portadores del virus de la hepatitis B, correctamente inmunizados UDVP no portadores del virus de la hepatitis B Fuente de los elementos de los datos. Lista y enumera todos los datos que se necesitan con la fuente de información para cada uno de ellos. En el ejemplo, los pacientes UDVP se obtendrán del registro de factores de riesgo y del programa de atención al drogodependiente; el estado inmunitario (portador del virus de la hepatitis B y administración de las tres dosis de vacuna) de la historia clínica y del registro específico de vacunaciones. Factores responsables. Tratan de identificar los factores más importantes que pueden producir variaciones en la actividad del indicador. Estos factores pueden depender del cliente, de la organización, del profesional o de factores externos. Para la determinación de los factores responsables se puede utilizar el diagrama causa-efecto de Ishikawa13,14 (capítulo II.2.). Los factores externos y los dependientes del cliente (edad, sexo, comorbilidad y severidad de la enfermedad, cumplimiento, cultura, actitud) son más complicados de mejorar. Cuantos menos factores de este tipo modifiquen la actividad del indicador, más oportunidades de mejora tendremos si se altera, por lo que el indicador será más válido. Los factores que dependen de la organización y del profesional son en realidad el objetivo de la monitorización. Si se altera el indicador, estos factores orientan hacia dónde debemos dirigir las actividades de mejora. En el ejemplo, como factores dependientes del cliente están la negativa a la administración de la vacuna, el incumplimiento de las visitas, la ausencia del paciente por cambio de domicilio, encarcelamiento o desaparición y la coexistencia de enfermedad severa o terminal. Como factores dependientes del profesional están el desconocimiento de la indicación de la vacuna, la actitud ante la medida preventiva y la actitud ante este tipo de pacientes. Como factores de la organización están la falta de la vacuna, la complejidad del circuito para la vacunación, la falta de protocolo de Josep Davins © Calidad 2011. Indicadores 14 actuación, la falta de métodos recordatorios o de recaptación de incumplidores, el infrarregistro en la historia clínica, etc. Si alguno de los factores que dependen del cliente tiene un impacto importante en la variabilidad del indicador es necesario introducir este factor en el enunciado del indicador con el objetivo de aumentar la validez de éste. Así, en el ejemplo, si se diera el caso que una parte importante de los pacientes UDVP no residen en nuestra zona o son portadores de enfermedad terminal deberíamos modificar el enunciado del indicador de la siguiente manera: “pacientes usuarios de drogas por vía parenteral (UDVP), no portadores del virus de la hepatitis B, residentes en el ámbito de nuestro CS, que no presentan enfermedad terminal y están correctamente inmunizados”. Para este nuevo enunciado se debe identificar la fuente de los datos de los factores introducidos. Deberíamos comprobar la residencia mediante contacto telefónico, postal o personal y la presencia de enfermedad terminal en la historia. Bases de datos existentes. Indica si existen bases de datos conocidas sobre el indicador, externas o del propio centro. Estas nos pueden aproximar a una valoración inicial del posible comportamiento del indicador. En el ejemplo se pueden utilizar estudios de evaluación previos sobre inmunización en pacientes UDVP, propios o de otros CS. Josep Davins © Calidad 2011. Indicadores 15 Validación de un indicador Validación y análisis de los indicadores La utilidad de un indicador como sistema de medida viene determinada por el análisis de su validez (sensibilidad y especificidad)3 y fiabilidad. Este análisis debe realizarse de forma sistemática durante el proceso de construcción del indicador, con el objetivo de poder mejorarlo antes de su implementación generalizada. Al igual que no utilizaríamos un test diagnóstico sin conocer su sensibilidad y especificidad, no debemos emplear indicadores sin probarlos previamente. Los indicadores con poca fiabilidad y validez aportan información confusa, irrelevante e inútil y consumen recursos organizativos que podrían ser utilizados para otras actividades. Tabla: Validez, precisión y fiabilidad • Validez (ausencia de error sistemático; sesgos) – Interna (exactitud con la población estudiada) – Externa (generalización a otras poblaciones) • Sesgo de selección (diseño, selección, pérdidas, supervivencia...) • Sesgo de clasificación • Sesgo de observación o información (recuerdo, entrevistador • Factores de confusión • Precisión (ausencia de error debido al azar) – Depende del tamaño de la muestra. A más muestra, intervalos de confianza más precisos. • Fiabilidad: reproducibilidad La validez y la fiabilidad de un indicador están interrelacionadas. El grado de validez depende, en parte, del grado de fiabilidad para identificar oportunidades de mejora. La validez de un indicador es el grado en que una situación o instrumento de medida, mide lo que realmente pretende o quiere medir (“exactitud”). Tipos de validez • • • • Validez de constructo: Alude a la relación existente entre el indicador y el constructo teórico o conceptual que mide éste. Es decir, la relación conceptual que mide el indicador se corresponde con lo que se quiere medir. Validez de criterio: Es una comparación entre nuestra situación de medida y la situación real (o más exacta posible) al que se le llama “gold estandard”. • Validez de criterio concurrente. • Validez de criterio predictivo. Validez de contenido: grado en que el indicador refleja el concepto o variable medida (adecuada revisión bibliogràfica). Validez aparente (face validity): Es el grado en que una situación de medida parece que es válida desde el punto de vista del observado. Josep Davins © Calidad 2011. Indicadores 16 En muchas ocasiones, en atención primaria no se dispone de la información necesaria o es muy difícil, complejo y costoso obtenerla, para probar de forma científica la validez y fiabilidad de un indicador. Por ello, la JCAHO3 aconseja confiar en la validez aparente (face validity), basada en la opinión de los profesionales que utilizarán la información resultante, según la cual el indicador tiene sentido y parece que cumple su propósito. En el caso de la fiabilidad, debemos intentar su estudio y valorar siempre si el esfuerzo requerido para ello no sobrepasa el resultado que vamos a obtener. En la mayoría de indicadores será más eficiente realizar una prueba piloto y valorar hasta que punto identifica los casos que realmente requieren una revisión y hasta que punto nos es útil para mejorar la calidad de la atención. Validez Validez. Se define como el grado en que el indicador identifica sucesos que merecen una revisión más profunda, ya que la mejora es posible3. El estudio de la validez cuantifica la capacidad del indicador para identificar problemas de calidad u oportunidades de mejora reales. En el caso de un indicador centinela, podemos establecer su validez si analizamos el grado de concordancia entre todos los casos identificados y los que precisaban en realidad un estudio más detallado. Cuanto mayor grado de concordancia, más válidez tendrá el indicador. En el caso de un indicador basado en una proporción, es necesario analizar una muestra de los casos a revisar y averiguar si realmente son útiles para mejorar la calidad. El indicador “pacientes con tratamiento antibiótico de segunda elección”, tendrá poca validez si en nuestra población existen muchos casos de alergia o excepción al antibiótico de primera elección. El indicador detectará muchos casos que no son problema. Cuando un indicador no tiene una validez aceptable, debemos averiguar el motivo. Un indicador tendrá poca validez si depende en gran parte de factores no controlables por nosotros, entre los que destacan los factores dependientes del cliente (que pueden explicar por sí solos el suceso, sin que exista un problema de calidad real). El no tener en cuenta algunas circunstancias que pueden justificar una actividad que no siga la norma (excepciones) nos puede determinar también la poca validez de un indicador. Como ejemplo, el indicador “mujeres que se han realizado una mamografía en el CS en los dos últimos años” tendrá poca validez pues identificará muchos casos de pacientes que se realizan la exploración en servicios privados alternativos, sin que representen un problema de calidad real. El indicador aumentaría su validez al definirlo como “mujeres que consta en su historia clínica la realización de una mamografía, sea en el CS o en otros servicios alternativos, en los dos últimos años”. Otro motivo frecuente de falta de validez de un indicador es la poca fiabilidad de los datos, ya por deficiencias en la definición de los términos contenidos en el enunciado (numerador), por la falta de una definición clara de la población monitorizada por el indicador (denominador), por problemas en la disponibilidad de los datos o por errores producidos en su recogida. Josep Davins © Calidad 2011. Indicadores 17 El análisis de la validez de criterio cuantifica la capacidad del indicador para identificar los casos que requieren ser revisados entre todos aquellos a riesgo de ser identificados. La validez de un indicador está directamente relacionada con la calidad de los datos requeridos por éste. El análisis de la validez de criterio de un indicador que mide una variable dicotómica (que es el caso de la mayoría de los indicadores de calidad asistencial) comprende el estudio, en conjunto, de la sensibilidad y la especificidad. Cuando es indicador es sobre una variable continuas se realiza mediante el coeficiente de correlación de Pearson entre nuestra medida real y la del indicador. Sensibilidad. Es el grado en que el indicador es capaz de identificar todos aquellos casos en que existe un problema real de calidad o verdadero positivo. Un indicador muy sensible identificará pocos falsos negativos. El indicador “pacientes con sospecha de neoplasia seguidos antes de tres meses desde la sospecha” no identificará los casos que han tardado más de dos meses y menos de tres (falsos negativos). Para aumentar la sensibilidad debemos disminuir el período de seguimiento, por ejemplo, a 15 días. Especificidad. Es el grado en que el indicador es capaz de identificar sólo aquellos casos en que existe un problema real de calidad, es decir, un indicador muy específico identificará pocos falsos positivos. En cambio, un indicador poco específico detectará como problemáticos casos que, en realidad, no lo son. El indicador “pacientes a los que se ha prescrito antibiótico para un catarro de vías altas” es poco específico ya que detecta muchos casos de pacientes con broncopatía y cardiopatía en los que podría estar indicado el tratamiento antibiótico. Si añadimos al enunciado del indicador la condición “que no presenten enfermedad cardio-pulmonar”, aumentamos su especifidad. Para el estudio de la fiabilidad debemos revisar una muestra de los casos identificados por el indicador para cuantificar los verdaderos positivos y una muestra de los no identificados para cuantificar los verdaderos negativos. Así obtendremos la relación entre sensibilidad y especificidad, es decir, la fiabilidad: Verdaderos positivos + Verdaderos negativos Verdaderos positivos + Verdaderos negativos + Falsos positivos + Falsos negativos Al igual que con la validez, debemos examinar los motivos que determinan la falta de fiabilidad que, habitualmente, se centran en la calidad de los datos: falta de precisión de los elementos del indicador; gran variabilidad en la recogida de los datos; falta de accesibilidad a los datos; errores en la codificación; errores en la entrada de datos; deficiencias en la construcción de la hoja de recogida de datos. Fiabilidad. Fiabilidad es la consistencia interna de la medida, entendida como equivalencia. No es del instrumento sino de la situación de cómo mide este instrumento. Se pueden medir tres aspectos, si bien, en calidad, el más utilizado es el primero: 1.- Fiabilidad como equivalencia entre observadores Índice kappa de concordancia: Josep Davins © Calidad 2011. Indicadores 18 K = Po – Pe / 1 – Pe 2.- Fiabilidad del test-retest (reproducibilidad). 3.- Fiabilidad como consistencia interna (α DE Cronbach). Valoración del índice α Valor de α >0.70 >0.90 Fuerza Aceptable Bueno ¿Cómo mejorar la validez y fiabilidad de un indicador? Una vez identificados los motivos de falta de validez o fiabilidad del indicador debemos preguntarnos si éstos son solucionables. En general, para aumentar la validez y fiabilidad de un indicador podemos redefinir el indicador, delimitar la población, evitar imprecisiones en sus términos, aclarar el circuito de información y la lógica del indicador, revisar la hoja de recogida de datos, tener en cuenta los factores dependientes del cliente y las excepciones al indicador, etc. Cuando esto no es posible, debemos pensar en la construcción de un nuevo indicador. Los motivos de falta de validez y fiabilidad de los indicadores se encuentran, con frecuencia, en el proceso de recogida de datos. Así pues, es esencial que este proceso se realice de manera coordinada e integrada por todos los servicios o estamentos afectados por el indicador y se disponga de sistemas de registro adecuados y completos. Para que los profesionales entiendan la importancia de registrar toda la actividad que realizan es esencial implicarles en su propia monitorización. Para cada indicador debe determinarse la fuente de datos, el tamaño de la muestra, el método de recogida de información, la frecuencia con que debe realizarse y el responsable de esta recogida. Sobre la fuente de datos, debemos evitar la creación de nuevos registros. Al iniciar las actividades de monitorización en un CS suele ser más sencillo utilizar las historias clínicas como fuentes de datos. También podemos utilizar otros sistemas de registro existentes en el CS. Sin embargo, para aspectos de la calidad como la satisfacción será necesario obtener información mediante cuestionarios u otros sistemas de información. Josep Davins © Calidad 2011. Indicadores 19 Conceptos estadísticos relacionados con la medida de la calidad En función de lo que nos interese medir deberemos utilizar diferentes técnicas o herramientas estadísticas que seguidamente se detallan, sin pretender realizar un exhaustivo curso de estadística, para lo que emplazamos al lector a los tratados y bibliografía recomendada al final del capítulo. • Evaluación (estimación) del nivel de calidad: • Estadística descriptiva: – proporciones, – medias y – sus intervalos de confianza • Reevaluación tras intervenir: • Comparar proporciones ( 2) de dos evaluaciones • Comparar medias de dos evaluaciones (t de Student) • Monitorización: • Nivel de cumplimiento medido de forma sucesiva • Aceptación o rechazo sin estimar el nivel de cumplimiento (LQAS) • Comprobación de causas • Dos cuantitativas continuas: – Correlación de Pearson – Correlación no paramétrica de Sperman • Cuantitativa y categórica – Análisis de la varianza (ANOVA) – Comparar medias (t de Student) – U de Mann-Whitney • Dos categóricas: – Comparar proporciones ( 2) • Métodos de representación gráfica • Diagramas de cajas (blox-spot) • Diagrama de sectores • Diagrama de Pareto • Gráfico lineal • Gráfico de estrella o de radar Josep Davins © Calidad 2011. Indicadores 20 Estimación del nivel de calidad: estadística descriptiva Para estimar el nivel de calidad de un requisito o criterio se utiliza la estadística descriptiva, y en especial, el cálculo de proporciones o de una media. La estadística descriptiva es una ciencia que analiza series de datos (por ejemplo, edad de una población) y trata de extraer conclusiones sobre el comportamiento de estas variables. En calidad estas variables se miden con los indicadores. Las variables pueden ser de dos tipos: • Variables cualitativas o atributos: no se pueden medir numéricamente (por ejemplo: nacionalidad, color de la piel, sexo). • Variables cuantitativas: tienen valor numérico (edad, precio de un producto, ingresos anuales). Por su parte, las variables cuantitativas se pueden clasificar en discretas y continuas: • Discretas: sólo pueden tomar valores enteros (1, 2, 8, -4, etc.). Por ejemplo: número de hermanos (puede ser 1, 2, 3....,etc, pero, por ejemplo, nunca podrá ser 3,45). • Continuas: pueden tomar cualquier valor real dentro de un intervalo. Por ejemplo, la velocidad de un vehículo puede ser 80,3 km/h, 94,57 km/h...etc. En el proceso de medición de estas las variables cualitativas, se pueden utilizar dos escalas: • Escalas nominales: ésta es una forma de observar o medir en la que los datos se ajustan por categorías que no mantienen una relación de orden entre sí (color de los ojos, sexo, profesión, presencia o ausencia de un factor de riesgo o enfermedad, etcétera). • Escalas ordinales: en las escalas utilizadas, existe un cierto orden o jerarquía entre las categorías (grados de disnea, estadiaje de un tumor, etcétera). Una vez que se han recogido los valores que toman las variables de nuestro estudio (datos), procederemos al análisis descriptivo de los mismos. Para variables categóricas, como el sexo o el estadiaje, se quiere conocer el número de casos en cada una de las categorías, reflejando habitualmente el porcentaje que representan del total, y expresándolo en una tabla de frecuencias. Para variables numéricas, en las que puede haber un gran número de valores observados distintos, se ha de optar por un método de análisis distinto, respondiendo a las siguientes preguntas: a. ¿Alrededor de qué valor se agrupan los datos? b. Supuesto que se agrupan alrededor de un número, ¿cómo lo hacen? ¿muy concentrados? ¿muy dispersos? Medidas de posición: tendencia central y no central Las principales medidas de posición central son las siguientes: 1.- Media: es el valor medio ponderado de la serie de datos. La media aritmética se calcula multiplicando cada valor por el número de veces que se Josep Davins © Calidad 2011. Indicadores 21 repite. La suma de todos estos productos se divide por el total de datos de la muestra. 2.- Mediana: es el valor de la serie de datos que se sitúa justamente en el centro de la muestra (un 50% de valores son inferiores y otro 50% son superiores). 3.- Moda: es el valor que más se repite en la muestra. Las medidas de posición no centrales permiten conocer otros puntos característicos de la distribución que no son los valores centrales. Entre otros indicadores, se suelen utilizar una serie de valores que dividen la muestra en tramos iguales: 1. Cuartiles: son 3 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en cuatro tramos iguales, en los que cada uno de ellos concentra el 25% de los resultados. 2. Deciles: son 9 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en diez tramos iguales, en los que cada uno de ellos concentra el 10% de los resultados. 3. Percentiles: son 99 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en cien tramos iguales, en los que cada uno de ellos concentra el 1% de los resultados. Medidas de dispersión Estudia la distribución de los valores de la serie, analizando si estos se encuentran más o menos concentrados, o más o menos dispersos. Existen diversas medidas de dispersión, entre las más utilizadas podemos destacar las siguientes: 1.- Rango: mide la amplitud de los valores de la muestra y se calcula por diferencia entre el valor más elevado y el valor más bajo. 2.- Varianza: Mide la distancia existente entre los valores de la serie y la media. Se calcula como sumatorio de las difrencias al cuadrado entre cada valor y la media, multiplicadas por el número de veces que se ha repetido cada valor. El sumatorio obtenido se divide por el tamaño de la muestra. La varianza siempre será mayor que cero. Mientras más se aproxima a cero, más concentrados están los valores de la serie alrededor de la media. Por el contrario, mientras mayor sea la varianza, más dispersos están. 3.- Desviación típica: Se calcula como raíz cuadrada de la varianza. Como medidas de variabilidad más importantes, conviene destacar algunas características de la varianza y desviación típica: Josep Davins © Calidad 2011. Indicadores 22 • Son índices que describen la variabilidad o dispersión y por tanto cuando los datos están muy alejados de la media, el numerador de sus fórmulas será grande y la varianza y la desviación típica lo serán. • Al aumentar el tamaño de la muestra, disminuye la varianza y la desviación típica. Para reducir a la mitad la desviación típica, la muestra se tiene que multiplicar por 4. • Cuando todos los datos de la distribución son iguales, la varianza y la desviación típica son iguales a 0. • Para su cálculo se utilizan todos los datos de la distribución; por tanto, cualquier cambio de valor será detectado. 4.- Coeficiente de varización de Pearson: se calcula como cociente entre la desviación típica y la media. El interés del coeficiente de variación es que al ser un porcentaje permite comparar el nivel de dispersión de dos muestras. Esto no ocurre con la desvación típica, ya que viene expresada en las mismas unidas que los datos de la serie. Coeficiente de correlación lineal En una distribución bidimensional (dos variables) puede ocurrir que las dos variables guarden algún tipo de relación entre si. Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy posible que exista relación entre ambas variables: mientras más alto sea el alumno, mayor será su peso. El coeficiente de correlación lineal mide el grado de intensidad de esta posible relación entre las variables. Los valores que puede tomar el coeficiente de correlación "r" son: -1 < r < 1 Si "r" > 0, la correlación lineal es positiva (si sube el valor de una variable sube el de la otra). La correlación es tanto más fuerte cuanto más se aproxime a 1. Por ejemplo: altura y peso: los alumnos más altos suelen pesar más. Si "r" < 0, la correlación lineal es negativa (si sube el valor de una variable disminuye el de la otra). La correlación negativa es tanto más fuerte cuanto más se aproxime a -1. Por ejemplo: peso y velocidad: los alumnos más gordos suelen correr menos. Si "r" = 0, no existe correlación lineal entre las variables. Aunque podría existir otro tipo de correlación (parabólica, exponencial, etc.) De todos modos, aunque el valor de "r" fuera próximo a 1 o -1, tampoco esto quiere decir obligatoriamente que existe una relación de causa-efecto entre las dos variables, ya que este resultado podría haberse debido al puro azar. Josep Davins © Calidad 2011. Indicadores 23 Intervalos de confianza Toda determinación de un parámetro en una muestra tiene una precisión que depende del tamaño de ésta. A más tamaño, más precisión. Se puede calcular un intervalo que tenga el 95% de probabilidades de contener el valor real de la población, con un error debido al azar de un 5%. A éste se le denomina intervalo de confianza al 95%. Existen calculadoras estadísticas que facilitan su cálculo. En un indicador, mediante una muestra determinaremos un valor concreto, que en función del tamaño de la muestra, puede variar alrededor de esta determinación en un grupo de valores más o menos amplio. Mediante diferentes calculadoras estadísticas se nos facilita el cálculo de esta precisión, mediante el cálculo de los intervalos de confianza. Medida del nivel de calidad como mejora: contraste de hipótesis. En este caso se trata de comparar dos valores de medición para concluir si el según valor es o no significativamente mejor que el primero. En caso de tratarse de variables categóricas se realiza como test el 2 y para las cuantitativas, el test de la t de Student. Su cálculo, mediante programas como el SPSS resulta fácil. Medidas con muestras pequeñas y rápidas: muestreo por lotes Entendemos por monitorización la medición sistemática, repetida y planificada de indicadores de calidad; una actividad conducente a controlar que estamos a unos niveles preestablecidos y que tiene como objetivo identificar la existencia o no de situaciones problemáticas que hay que evaluar o sobre las que hay que intervenir. Los indicadores a monitorizar pueden derivarse de ciclos de mejora, de actividades de diseño de los servicios, o ser fruto de una selección de aspectos o servicios relevantes cuya calidad nos interesa controlar. El interés que podamos tener en una estimación del nivel de calidad existente y la periodicidad de medición son decisiones de importancia para la elección de los métodos para monitorizar. El muestreo de aceptación de lotes (LQAS) y el control estadístico (gráfico) de la calidad son métodos originados y desarrollados en la industria, que pueden resultar de gran utilidad para la monitorización en servicios de salud si renunciamos a tener una estimación del nivel de cumplimiento de los indicadores y nos centramos en el conocimiento de la existencia o no (aceptación/rechazo) de unos niveles de cumplimiento preestablecidos. El control estadístico de la calidad precisa de mediciones frecuentes, (mínimo mensuales) para ser útil, mientras que el LQAS y otros métodos de evaluación rápida basados en la distribución binomial pueden ser aplicados a planes de mediciones más espaciadas. La práctica de monitorización utilizando LQAS, aún poco extendida en los servicios de salud, es, sin embargo, muy sencilla; sólo precisa en última instancia entender y manejar unas tablas ya Josep Davins © Calidad 2011. Indicadores 24 construidas para fijar cuál es el número máximo de incumplimientos del indicador que es aceptable en una muestra determinada (y normalmente pequeña) para aceptar a su vez un determinado nivel de cumplimiento del indicador. En este artículo se revisan los fundamentos estadísticos y el detalle de las implicaciones prácticas del uso de la distribución binomial y del LQAS en la monitorización de servicios de salud. Cuando la variable que mide el indicador es de tipo dicotómico (presencia/ausencia de una determinada cualidad), como ocurre en la mayoría de los indicadores de calidad que se construyen en los servicios de salud, la utilización de las probabilidades de la distribución binomial nos proporciona una forma rápida y eficiente de decidir si estamos o no ante una situación problemática, utilizando un tamaño de muestra relativamente pequeño (máximo 30 casos). Supongamos que para un determinado indicador de interés, nuestro estándar histórico de cumplimiento se sitúa en el 85%. Sin embargo, en la actualidad, sospechamos que no estamos a ese nivel. Nos interesa saber si la situación es o no problemática para decidir si debemos o no evaluar qué está pasando, o intervenir sobre ella. Una opción sería realizar un muestreo aleatorio suficientemente grande y estimar el nivel al que nos encontramos. Sin embargo, nos puede resultar conveniente considerar si nuestra situación cumple los requisitos en los que es aplicable la distribución binomial, a saber: • • • • Lo que se evalúa (el indicador) tiene sólo dos valores posibles (cumple/no cumple). Cada una de las unidades de estudio (casos a evaluar)es independiente de la otra. Evaluamos en una muestra aleatoria de “n” casos. La probabilidad general que existe de encontrar un valor u otro (cumple/no cumple) es la misma para cada uno de los casos de la muestra. Esta última condición se cumple siempre que el tamaño de la muestra, n, sea inferior al 10% del universo o marco muestral de donde la hemos extraído. Si es aplicable la distribución binomial, como ocurrirá en la gran mayoría de los casos, podemos extraer una muestra aleatoria pero pequeña (un tamaño conveniente, siempre menor de 30 casos) e interpretar el resultado que obtengamos en términos de la probabilidad de que sea compatible con la existencia real del estándar. Monitorización esporádica y sistemática utilizando la distribución binomial. Los resultados de una evaluación puntual, esporádica, pueden ser interpretados en la forma que lo hemos hecho con las tablas de distribución binomial, pero no sería correcto mantener el mismo proceder como método de monitorización sistemática, o cuando no sepamos el nivel de cumplimiento histórico, habitual, del indicador. En este caso lo correcto sería considerar para nuestra decisión, no la probabilidad del resultado concreto que hemos encontrado en la muestra puntual (tal como hemos hecho) sino la probabilidad de todos los resultados posibles simultáneamente (probabilidad acumulada), para el tamaño de muestra que hemos decidido utilizar; establecemos de igual manera una probabilidad límite para aceptar o rechazar (que puede seguir siendo . 0,05), pero su cálculo implica la suma de las probabilidades de que encontremos un determinado número de incumplimientos y cualquier número de incumplimientos inferior. Buscaríamos un número límite de incumplimientos de forma que la probabilidad de encontrar ese número de incumplimientos o más sea . 0,05. Sólo aceptaríamos como buenos los resultados con número de incumplimiento por debajo de ese límite. Si en vez de incumplimientos quisiéramos valorar cumplimientos el razonamiento es semejante aunque naturalmente, en sentido opuesto: buscaríamos un número mínimo de cumplimientos de forma que la probabilidad de encontrar ese Josep Davins © Calidad 2011. Indicadores 25 número o más fuese >0,95; así identificaríamos como problemático todo resultado que tuviera un número de cumplimientos inferior al que hemos señalado como límite para la decisión. La decisión se toma, como se ve, en función de la probabilidad acumulada de los diversos resultados posibles. Para ello debemos utilizar las tablas de la distribución binomial con probabilidades acumuladas. Los parámetros que definen el plan de muestreo son el tamaño del lote, el tamaño de la muestra a evaluar, y el número para la aceptación o número decisional, una vez que hemos definido los estándares con relación al nivel de calidad asumido (llamados índices de calidad en la literatura de la industria), y los riesgos (alfa y beta) del muestreo. El tamaño del lote tiene poco efecto sobre la probabilidad de aceptación: en general, el tamaño del lote no importa a menos que el tamaño de la muestra sea mayor que el 10% del tamaño del lote. Sin embargo se aconseja que cuanto más grandes sean los lotes, más pequeños deben ser los riesgos o errores admitidos para la decisión, de forma que se minimicen las consecuencias de decisiones incorrectas. En los servicios de salud, conviene recordar que más que el tamaño de lote, que puede ser definido de muchas maneras (grupos poblacionales, área cubierta por centros hospitalarios o de atención primaria, grupos de profesionales, casos ocurridos en un determinado periodo de tiempo, tipo de paciente, etc.), a lo que siempre hay que prestarle atención es a la homogeneidad del lote: debe estar constituido por el mismo tipo de casos con relación a lo que se evalúa: igual que en la industria se inspeccionan lotes del mismo producto, y no mezclas de ellos. El tamaño de la muestra y el número decisional dependen en gran medida de la definición de los índices de calidad y los riesgos que se acepta asumir con las decisiones. La combinación de tamaño de muestra y número decisional más eficientes para las características que queremos que tenga nuestro plan de monitorización, pueden encontrarse de dos formas en la literatura de la industria en tablas y en gráficos (Curvas de Características Operativas, Operating Characteristics Curves, OC). Tablas y gráficos no exentos de una cierta dificultad de comprensión y manejo, pero que podemos simplificar para nuestros propósitos entendiendo sus raíces y mecánica de construcción. Las curvas OC representan la probabilidad de aceptación de diversos niveles de calidad, para un determinado tamaño de muestra y número de decisión. Hay, pues, una curva OC para cada número de decisión, una vez fijado el tamaño de la muestra. Son, esencialmente, la representación gráfica de las probabilidades binomiales acumuladas que corresponden a un determinado número decisional, en un determinado tamaño de muestra, dependiendo del valor real de incumplimientos que pueda tener el lote de donde se extrae la muestra. Las curvas OC, aunque aportan más información y posibilitan escoger cualquier valor de los riesgos alfa y beta, son más complicadas de usar e interpretar que las tablas, por lo cual nos centraremos en la determinación del tamaño de muestra y número de decisión utilizando las tablas. Bibliografía • • • • Sackett, D.L., Haynes, R.B., Guyatt, G.H., Tugwell, P. Epidemiología clínica. Ciencia básica para la medicina clínica. 2ª ed. Madrid: Médica Panamericana; 1994. Fletcher RH., Fletcher SW., Wagner E.H. Epidemiología clínica. 2ª ed. Barcelona: Masson, Williams & Wilkins; 1998. Dawson-Saunders B, Trapp RG. Bioestadística Médica. 2ª ed. México: Editorial el Manual Moderno; 1996. Milton JS, Tsokos JO. Estadística para biología y ciencias de la salud. Madrid: Interamericana McGraw Hill; 2001. Josep Davins © Calidad 2011. Indicadores 26 • • • • • • • • • • • • • • • • • • • • • • • • • • • Martín Andrés A, Luna del Castillo JD. Bioestadística para las ciencias de la salud. 4ª ed. Madrid:NORMA; 1993. Argimón Pallás JM, Jiménez Villa J. Métodos de investigación clínica y epidemiológica. 2ª ed. Madrid: Harcourt; 2000. Sentís J, Pardell H, Cobo E, Canela J. Bioestadística. 3ª ed. Barcelona: Masson; 2003. Colton T. Estadística en medicina. Barcelona: Salvat; 1979. Armitage P, Berry G. Estadística para la investigación biomédica. Barcelona: Doyma; 1992. Departamento de Medicina y Psiquiatría. Universidad de Alicante. Tratado de Epidemiología Clínica. Madrid: DuPont Pharma; 1995. Altman DG. Practical Statistics for Medical Research. London: Chapman & Hall; 2004. Vélez R, Hernández V. Cálculo de Probabilidades I. Madrid: UNED; 1995. Quesada V, García A. Lecciones de Cálculo de Probabilidades. Madrid: Díaz de Santos; 1988. Silva LC, Benavides A. El enfoque bayesiano: otra manera de inferir. Gac Sanit 2001; 15(4): 341-346. Silva LC, Suárez P. ¿Qué es la inferencia bayesiana? JANO 2000; 58: 65-66. Silva LC, Muñoz A. Debate sobre métodos frecuentistas vs bayesianos. Gac Sanit 2000; 14: 482-494. Pértega Díaz S, Pita Fernández S. Pruebas diagnósticas. Cad Aten Primaria 2003; 10: 120-124. [Texto completo] Joint Commission. Quality Assurance in Ambulatory Care. Chicago: Joint Commission on Accreditation of Healthcare Organizations, 1990. Joint Commission. Ambulatory Health Care Standars Manual. Chicago: Joint Commission on Accreditation of Healthcare Organizations, 1990. Joint Commission. Primer on Indicator Development and Application. Measuring Quality in Health Care. Chicago: Joint Commission on Accreditation of Healthcare Organizations, 1990. Duncan R, Fleming EC, Gallati TG. Implementing a Continuous Quality Improvement Program in a Community Hospital. QRB 1991; 17: 106-112. Kume H. Herramientas estadísticas básicas para el mejoramiento de la calidad. Serie Desarrollo Gerencial. Barcelona: Parramón-Norma, 1992. Vachette JL. Mejora Continua de la Calidad. Control Estadístico del Proceso. 1.ª ed. Barcelona: Ediciones CEAC, 1992. Walton M. The Deming Management Method. New York: The Putnam Publishing Group, 1986. Berwick DM. Sounding Board: Continuous improvement as an ideal in health care. N Engl J Med 1989; 320: 53-56. Eylenbosch WJ, Noah ND. Indicators. Surveillance in Health and Disease. Oxford: Oxford University Press, 1988. Donabedian A. Institutional and professional responsabilities in Quality Assurance. Quality Assurance in Health Care 1989; 1: 3-11. Donabedian A. Una aproximación a la monitorización de la calidad (segunda parte). Control de Calidad Asistencial 1991; 6: 31-39. Benson DS, Miller JA. Quality Assurance for Primary Care Centers. Indianapolis: Methodist Hospital of Indiana, Inc, 1988. Ishikawa, K. ¿Qué es el Control Total de Calidad? La modalidad japonesa. Bogotá: Norma Ed, 1986. Ishikawa, K. Guía de Control de Calidad. New York: Unipub, 1985. Josep Davins © Calidad 2011. Indicadores 27 Resumen Para conseguir que las actividades de mejora sean efectivas deben llevarse a cabo de forma continuada y consistir en medidas regulares y sistemáticas de aspectos esenciales de la atención. Un sistema de monitorización se define como la medida continuada de aspectos relativos a la calidad de la atención para identificar situaciones u oportunidades de mejora. En el sistema de monitorización se utilizan como parámetros de medida los indicadores. Un indicador es una medida cuantitativa que nos sirve para monitorizar y evaluar aspectos importantes de la atención. El cambio en la actividad del indicador nos señala dónde se puede estar produciendo una oportunidad de mejora de la calidad. Un indicador no es una medida directa de la calidad. Existen diferentes tipos de indicadores que se pueden clasificar en función de tres aspectos: la valoración positiva o negativa (deseable o no deseable), la gravedad (basado en una proporción o en un suceso centinela) y el tipo de suceso monitorizado (proceso o resultado). Los tres grupos clasificatorios no son excluyentes entre sí, sino que un indicador puede ser ubicado en cada uno de ellos. Para ser efectivos, facilitar la recogida de datos y aumentar su fiabiliadad los indicadores deben ser concretos, completos, objetivos, clínicamente válidos, sensibles, específicos, relevantes y eficientes. El sistema de monitorización debe ser completo por lo que el proceso de diseño y construcción de indicadores debe seguir las siguientes fases: delimitar el campo de actuación, identificar los aspectos importantes (volumen, riesgo y complejidad), identificar indicadores, analizarlos. En la construcción de un indicador es útil seguir el esquema de la Joint Commission: enunciado del indicador, definición de términos, identificación del tipo de indicador, base del razonamiento, descripción de la población, fuente de los elementos de los datos, factores responsables y bases de datos existentes. En el análisis de un indicador se valora su validez y fiabilidad. Josep Davins © Calidad 2011. Indicadores 28