TEMA 1 CONCEPTOS BÁSICOS EN EVALUACIÓN DE PROGRAMAS

Transcripción

TEMA 1 CONCEPTOS BÁSICOS EN EVALUACIÓN DE PROGRAMAS
TEMA 1
CONCEPTOS BÁSICOS EN EVALUACIÓN DE
PROGRAMAS
Contenidos
1. Definiciones
2. Qué es un programa
3. Componentes básicos de la E.P.
4. Qué intenta responder la E.P.
5. Fases en la historia de la E.P.
6. Modelos teóricos en E.P.
7. Evaluación y ética
8. Aspectos polémicos en la E.P.
9. Evaluación y otros estudios
10. El futuro de la E.P.
1. DEFINICIONES
Riecken, 1972
„ Es la medición de las consecuencias deseables o indeseables de una acción
psicosocial ejecutada para facilitar la obtención de metas perseguidas por el
sujeto
Perloff, Perloff y Sussna, 1976
„ Es la determinación de la medida en que un programa logró uno o más de
sus objetivos, las razones por las cuales no los alcanzó y la relación existente
entre los efectos del programa y una amplia diversidad de variables y
características del programa
Spaniol, 1975
„ Es un proceso sistemático y continuo que proporciona información acerca del
efecto o impacto de un programa, con el objeto de contribuir a adoptar una
decisión política de trascendencia
Ato, Quiñones, Romero y Rabadán (1989)
„ La evaluación de programas es un proceso que consiste en valorar si un
programa consiguió o no en alcanzar los objetivos para cuya consecución fue
ideado
Fernández Ballesteros, 1995
„ Es la sistemática investigación a través de métodos científicos de los efectos,
resultados y objetivos de un programa, con el fin de tomar decisiones sobre
él.
Freeman y Rossi, 1993
„ Es la aplicación sistemática de procedimientos de investigación social para
evaluar la conceptualización, diseño, implementación y utilidad de los
programas de intervención social
Rossi, Freeman y Lipsey, 1999
„ Es el uso de procedimientos de investigación social para investigar
sistemáticamente la efectividad de programas de intervención social
„ Requiere:
– Recolección de datos
– Existencia de criterios de valoración
Perspectiva de Fernández-Ballesteros (1995):
„
Evaluación → forma de investigación científica
„
Debe maximizar la objetivación de resultados
„
Control, manipulación adecuada y medición → garantías de trabajo
riguroso
„
El evaluador se sitúa como experto, frente a otros valoradores de la misma
realidad
2. PROGRAMA
„ Conjunto especificado de acciones humanas y recursos materiales, diseñados
e implantados organizadamente en una determinada realidad social, con el
propósito de resolver algún problema que atañe a un conjunto de personas
Características básicas de un programa
„ Especificación previa
„ Implantación coordinada
Objetivos del programa
„ De forma general, mejorar alguna de las condiciones humanas
„ Objetivo de la evaluación: mejorar el programa
3. COMPONENTES BASICOS DE LA EVALUACION DEL PROGRAMA
„ Programa
→ supone un tratamiento: Conjunto de manipulaciones que han sido
programadas
para
ser
implantadas
en
una
determinada
realidad
socioambiental.
→ se aplica a una serie de unidades: Conjuntos de sujetos a los que se ha
implantado una determinada intervención.
→ pasa por la observación de operaciones en las unidades en las que se ha
aplicado el programa: expresión de objetivos a cubrir con el programa o bien
efectos que el tratamiento ha producido en las unidades
→
la evaluación se realiza sobre unos tratamientos, aplicados a unas unidades
en un contexto o situación específicos.
4. QUÉ INTENTA RESPONDER LA EVALUACIÓN DE PROGRAMAS
Respuestas externas en evaluación
•
Certificación de calidad / acreditación externa al programa
•
Fundamentar decisiones de distribución de recursos
•
Mejorar decisiones de futuros programas
•
Promover el conocimiento sobre qué y cómo se ha hecho
•
Proporcionar información pública sobre los logros conseguidos
Respuesta a necesidades internas del programa
•
Comprobar la utilidad del programa
•
Servir de base para el mejoramiento continuo
•
Promover procesos de aprendizaje colectivo e individual sobre lo que se hace
y cómo se hace
•
Comprender los límites y aciertos de un programa
5. FASES EN LA HISTORIA DE LA E.P (Cook, 1988)
„
„
1965-1975 Scriven y Campbell
–
Periodo asociado a teorías altamente objetivistas
–
Base: método científico
1975-1982 La crítica
–
Descripción válida y comprensiva de cómo operan los programas
sociales
–
Más uso de métodos cualitativos que cuantitativos.
–
Evaluación → Búsqueda de efectos más que la comprobación de
hipótesis apriorísticas.
–
„
Autores: Weiss, Stake y Guba
Intentos de síntesis posteriores a 1980 (Cronbach)
–
Teorías de evaluación prácticas
–
Menos limitadas tanto en métodos, selección de cuestiones y rol del
evaluador
6. MODELOS TEÓRICOS EN LA E.P
Chacón, López y Pérez, 1992.
Evaluación centrada hacia los objetivos (Tyler, 1942)
„ Valora la coincidencia entre los objetivos del programa y los resultados
reales.
„ La evaluación se considera un proceso recurrente: se reordenan los objetivos
en función de los resultados.
„ No se explicita un diseño concreto.
Evaluación responsiva (Stake, 1975)
„ Se amplía la perspectiva anterior, incluyendo el examen de antecedentes,
procesos, normas y juicios, además de resultados.
„ Presenta un método pluralista, flexible, holístico, subjetivo y orientado al
servicio.
Planificación evaluativa (Cronbach, 1982)
„ Propone una evaluación asentada en una planificación previsora y flexible de
las actividades evaluativas.
„ Presenta el modelo de los UTOS.
Evaluación orientada a la toma de decisiones (Stufflebeam, 1985)
„ La evaluación es un proceso que proporciona información útil para la toma
de decisiones.
„ Estructura básica → CIPP: Contexto, Entrada, Proceso, Producto.
„ Metodología tanto cuantitativa como cualitativa
Método científico de evaluación (Campbell y Stanley, 1966; Cook y
Campbell, 1979)
„ Plantea que no hay diferencias metodológicas entre evaluación y método
científico.
„ Utilización del método quasi-experimental.
Modelo evaluativo orientado hacia el consumidor libre de metas
(Scriven, 1974)
„ El evaluador es un sustituto informado del consumidor.
„ El evaluador investiga todos los efectos del programa independientemente de
sus objetivos.
„ Diseños experimentales, pre-experimentales, análisis de costes y método
libre de metas.
EVALUACIÓN BASADA EN LA TEORÍA
„ Las creencias y supuestos que subyacen a un programa pueden expresarse
en términos de una secuencia de causas y efectos, delimitada en fases
(Weiss, 1997)
„ Dificultades para explicar la teoría subyacente
„
Percepción de teoría como algo abstracto y poco claro.
→ No obstante → teoría = conjunto de creencias y supuestos que rodean
las actividades de un programa.
„
La teoría que se explicita puede no ser la única que subyace al programa.
→ Los efectos pueden producirse por caminos distintos a los predichos en
la teoría.
Cambio que se produce
Evaluación
Cómo se produce el cambio
„
„
„
Confusión en los componentes de la teoría
Teoría
de
implementación:
Retroalimentación de cómo está
funcionando el programa
Teoría del
cambio
Teoría
del
programa:
Comprensión de cómo se logran
los efectos del programa
Fuentes básicas de información
„ Dificultad para identificar o construir teorías de los programas.
„
Primer paso
Documentos
Poca
Información
de
los
participantes
Dificultad de articular
teorías
Teoría de las Ciencias Sociales
Investigación previa
Observación de programas en
acción
Razonamiento lógico
Evaluación basada en la teoría:
→ Recoge datos en proceso y resultados, analizando las relaciones entre
ellos.
→ Busca especificar los mecanismos que logran el cambio, no las
actividades asociadas al cambio.
„
Impone grandes exigencias en datos y recursos
→ El evaluador debe recoger datos de todos los pasos que le sea posible
→ Se necesitan fuentes adecuadas.
→ Consume tiempo y es caro, pero produce buenos resultados para la
evaluación.
„
Los resultados no pueden generalizarse.
→ Como en otros modelos de evaluación, ésta no puede aplicarse
mecánicamente a otros lugares.
→ Sin embargo, aporta información sobre pequeñas conexiones, que
pueden ser útiles para otros sitios.
→ Los decisores pueden analizar los hallazgos obtenidos y sus
explicaciones, tratando de averiguar los patrones que emergerán en el
futuro.
„
Necesidad de comparación
→Las intervenciones a nivel comunitario hacen difícil las asignaciones
aleatorias.
→ Evaluación basada en la teoría
→ permite apoyar la existencia de
relaciones causales.
→ No obstante → necesidad de estudios experimentales para garantizar la
causalidad.
„
Excesivo racionalismo
→ La labor evaluativa va dirigida a metas preestablecidas.
→ Tales objetivos a menudo cambian en el transcurso de la evaluación.
„
La evaluación no permite comprobar teorías.
„ Medida del error.
→ Problema general en ciencias sociales.
→ Se incrementa aquí: muchos constructos a medir.
„ Exigencias del análisis de datos
→ Análisis que permitan enlazar las teorías postuladas (análisis de vías,
LISREL, análisis de supervivencia).
→ Análisis cualitativos y cuantitativos (emparejamiento de patrones
JUSTIFICACION DEL USO DE E. B. T.
Tipo de pregunta
planteada
Diseño de la evaluación
En programas que se esperan resultados
positivos, negativos o inconsistentes
Recursos en costes y
tiempo
Cómo y por qué
a) Pocas intervenciones
b) Cambios a largo plazo
c) De complejidad
moderada
Descubrimiento de los
mecanismos
operativos
Diseñadores del
programa
VENTAJAS PARA LAS DISTINTAS AUDIENCIAS
Técnicos
Decisiones
más
acertadas
Confrontan sus teorías de
cómo funciona el
programa
Destaca los aspectos más relevantes
Evaluadores
Da información de logros parciales
Da sufiente información final para
permitir recomendaciones
Directivos
Directivos y
promotores de
otros programas
Políticos y
público
Permite determinar qué aspecto fracasa y
dónde
Ayuda a comprender qué, cómo y
por qué funciona un programa
Facilita explicaciones
más comprensibles a
estas audiencias
7. EVALUACIÓN Y ÉTICA
„ Necesario ofrecer guías sobre diversos aspectos: derechos de publicación, a
quien dar la información, etc.
„ Dos guías en USA:
– JOint Committee on Standars for Educational Evaluation publicó en 1994
los estándares para E.P.
– American Evaluation Association
Guiding principles for evaluators
„ Estándares de calidad
„ Competencia
„ Respeto a los participantes
„ Responsabilidades para el bienestar general: articular la diversidad de
intereses y valores
8. ASPECTOS POLÉMICOS EN LA E.P.
Cualitativo - cuantitativo
„ Primer enfoque: cuantitativo
„ Las dificultades inherentes de la investigación aplicada cuestionan la utilidad
de los métodos cuantitativos
„ Metodología cualitativa: una forma más comprensiva de apresar la realidad
„ Alternativa: multiplismo :
„
Utilizar múltiples enfoques teóricos
„
Probar múltiples modelos causales multivariados
„
Plantear múltiples hipótesis rivales
„
Establecer múltiples definiciones operacionales de las múltiples variables
implicadas
„
Plantear cuestiones valorativas procedentes de las múltiples audiencias
implicadas
„
Establecer objetivos múltiples que permitan múltiples análisis de
resultados
„
Utilizar múltiples métodos de evaluación
„
Realizar múltiples análisis de datos y contrastes de hipótesis.
Ciencia frente a política
„ La evaluación de programas pretende maximizar el cientifismo de la
evaluación
„ La Ciencia es un producto social
„ Mientras lo político interviene más en las primeras fases del ciclo evaluativo,
los aspectos científicos ganan prioridad en el diseño, planificación,
implantación y valoración de los programas.
Lo político
„ En ocasiones, los resultados de una evaluación tienen poco peso en las
decisiones en torno al programa
„ El político tiene un tiempo distinto al investigador, por lo que puede presionar
a este a entregar resultados antes de tiempo
„ La evaluación tiene un objetivo práctico y político en su propia naturaleza
„ Si el problema es polémico, requerirá rigor
Mudabilidad de los programas sociales
„ Los recursos, prioridades y la influencia de los financiadores de los
programas sociales tiende a ser dinámica
„ Pueden producirse cambios, a veces drásticos, en el curso del desarrollo del
programa
„ El evaluador debe estar preparado para asumir tales cambios
9. Diferencias entre evaluación y otras actividades
•
Auditoria:
– Cumplimiento de normas, regulaciones o estándares financieros
– Contabilidad de recursos
– Auditoria de gestión. Eficiencia
Imprescindible la independencia para asegurar la imparcialidad
•
Investigación
– Desarrollar conocimiento
– Generalización de resultados
– Realizado por y para la comunidad científica (principalmente)
•
Medición de realizaciones
– Procesos descriptivos
– Estudios de validez y fiabilidad en el proceso de obtención de información
•
Análisis de políticas (Policy analysis)
– Formulación de políticas
– Análisis de viabilidad financiera
– Análisis de coste-beneficio
•
Plan estratégico
– Estudio de las tendencias de evolución posibles de la Institución o la zona
geo-política para trazar:
– Objetivos a corto, medio y largo plazo
– Estudio de DAFO: Debilidades, amenazas, fortalezas y oportunidades
– Concretar las metas a conseguir, estableciendo objetivos estratégicos
–Sistematizar el conjunto de evidencias y parámetros de medición que
permitirán verificar los resultados de la evolución
–Definir las reglas de adaptación que nos permitirán cambiar de estrategia a lo
largo de todo el proceso.
•
Evaluación
– Proceso sistemático de obtención de información objetiva y útil
– Objetivo: apoyar el juicio de valor sobre un programa o intervención
– Finalidad:
•
Comprensión de los resultados obtenidos
• Toma de decisiones sobre futuras actuaciones
Comparación entre evaluación y otras investigaciones
La evaluación de programas debe cubrir
„ Estándares idóneos de calidad de investigación científica
„ Estar totalmente dedicado a las necesidades de información requerida por los
decisores del programa
„ En ocasiones, tales objetivos se vuelven contradictorios
Diferencias
„ Toma de decisiones: la investigación se centra en la búsqueda de
conocimiento, la E.P. en la aplicación
„ La evaluación tiene en cuenta la opinión del decisor.
„ La evaluación compara lo que es con lo que debería ser
„ La evaluación se produce en un marco de acción, donde lo más importante
que está ocurriendo es el programa.
„ Es frecuente que se produzcan conflictos entre roles.
„ Muchos informes evaluativos quedan sin publicar.
Semejanzas
„
La evaluación trata de comprender la relación entre variables y de
establecer una relación causal.
„
Los métodos evaluativos representan un compromiso entre lo ideal y lo
factible
„
El evaluador tiene que tener un amplio conocimiento de metodología de
investigación, y aplicarlo en el mundo real.
10. FUTURO DE LA E.P. (Chelimsky y Shadish, 1997)
„
Idiosincrasia en cada país
– Los evaluadores en cada país del globo utilizan sus propias
infraestructuras para apoyar sus esfuerzos,
„
Global,
– Los esfuerzos realizados trascienden y se difunden por el planeta.
„
Transnacional,
– Los problemas y los programas que han de evaluarse trascienden las
fronteras de una nación, de un continente y de un hemisferio