Imprima este artículo - Portal de Revistas Académicas de la

Transcripción

Imprima este artículo - Portal de Revistas Académicas de la
Libro de Resúmenes
XI Congreso Latinoamericano de
Sociedades de Estadística
XLI Jornadas Nacionales de Estadística
XLII Coloquio Argentino de Estadística
XI Congreso Latinoamericano de Sociedades de Estadística
XLI Jornadas Nacionales de Estadística
XLII Coloquio Argentino de Estadística
La Serena, Chile. 2014
COMITÉ ORGANIZADOR
Carlos Navarrete (Presidente), Universidad de La Serena
Francisco Torres, Universidad de Santiago de Chile
Gloria Icaza, Universidad de Talca
Miguel Yáñez, Universidad del Bío-Bío
Harvey Rosas, Universidad de Valparaíso
Ronny Vallejos, Universidad Técnica Federico Santa María
Bernardo Lagos, Universidad de Concepción
Ignacio Vidal, Universidad de Talca
Cristian Meza, Universidad de Valparaíso
Jorge González, Pontificia Universidad Católica de Chile
Héctor Varela, Universidad de Antofagasta
COMITÉ CIENTÍFICO
Sociedad Uruguaya de Estadística (SUE)
Gabriel Camaño (Presidente), Universidad de la República
Laura Nalbarte, Universidad de la República
Lucía Gutiérrez, Universidad de la República
Sociedad Chilena de Estadística (SOCHE)
Héctor Gómez, Universidad de Antofagasta
Soledad Torres, Universidad de Valparaíso
Miguel de Carvalho, Pontificia Universidad Católica de Chile
Luis Mauricio castro, Universidad de Concepción
Sociedad Argentina de Estadística (SAE)
Olga Susana Filippini, Universidad de Buenos Aires
Diana Kelmansky, Universidad de Buenos Aires
Ángela Diblassi, Universidad Nacional de Cuyo
COMITE ORGANIZADOR LOCAL UNIVERSIDAD DE LA SERENA
Carlos Navarrete
Ken Matsuda
Nabor Castillo
Carlos Díaz
Christian Lorca
Héctor García
ii
Índice general
I
Conferencias
Regression modelling of misclassified correlated interval-censored data . . . . . . . . . .
1.2
Clustering based on non-parametric density estimation: a proposal . . . . . . . . . . .
1.3
Robustez en Modelos Aditivos
1.4
1.5
1.6
II
1
1.1
. . . . . . . . . . . . . . . . . .
Métodos Multivariados en control y capacidad de procesos . . . . .
Marcos muestrales imperfectos: herramientas para su tratamiento. .
Probabilistic weather forecasting . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Sesiones invitadas
8
2 Estadística Bayesiana
2.1
On the Geometry of Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2
Detecting changes in time series: A product partition model with across-cluster correlation
2.3
Bayesian inference of logistic growth model in state space representation
. . . . . . . .
3 Bioestadística
3.1
Shape and size dependent ROC analysis with an application to schizophrenia diagnosis. .
3.2
Air quality analysis via a continuous time dependent Bayesian nonparametric model . . .
3.3
Evaluación de muestreos del k-esimo árbol en inventarios de bosques naturales de Chile
3.4
A Bayesian destructive weighted Poisson cure rate model and an application to a cutaneous
melanoma data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5
2
3
4
5
6
7
.
Bayesian inference for dependent chains applied to neural phenomena . . . . . . . . . .
9
10
11
12
13
14
15
16
17
18
4 Sismomática
4.1
4.2
4.3
4.4
4.5
4.6
19
Spatio-temporal modelling of earthquakes through second-order properties of point processes 20
Geostatistical clustering an comparasion with main multivariate clustering procedures for
georeferenced datset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . .
Assessing the Spatial Association Between Two Random Fields: A Review .
Adaptación espacial en regresión heterocedástica . . . . . . . . . . . . .
Clustering a multitude of time series
Geostatistical Mixed Beta Regression: A Bayesian approach
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Modelamiento Estadístico del Riesgo
5.1
Adaptive Tapers and Spatio-Temporal Covariances . . . . . . . . . . . . . . . . . . .
5.2
Riesgo y Extremos: Las Lecciones de la Reciente Crisis Económica . . . . . . . . . . .
5.3
Modelos Estadísticos de Medición de Riesgo Financiero . . . . . . . . . . . . . . . . .
iii
23
25
26
27
28
29
30
31
32
6 Enseñanza de la Estadística
6.1
6.2
Enseñanza de R a distancia para actualización de egresados. Desafíos y oportunidades
Propuesta pedagógica para mejorar la capacidad de análisis estadísticos autónomos en
tudiantes de Odontología de la Universidad de Talca . . . . . . . . . . . . . . . .
Invarianza y estadística descriptiva . . . . . . . . . . . . . . . . . . . . . . . .
Modelos culturales en la enseñanza de la estadística . . . . . . . . . . . . . . . .
Estudio de Clases para el desarrollo profesional docente en Educación Estadística . .
6.3
6.4
6.5
III
es-
.
.
.
.
.
.
.
.
Minicursos
6.4
. . . . . .
. . . . . .
7.2
7.3
7.4
7.5
7.6
7.7
7.8
7.9
7.10
7.11
7.12
7.13
7.14
7.15
7.16
7.17
7.18
7.19
42
44
genética de
. . . . . .
. . . . . .
Trabajos orales
7.1
35
36
37
38
41
Modelos de Regresión para Datos Censurados con Aplicaciones en R . . . .
Tópicos de estadística y data mining en Big Data . . . . . . . . . . . . .
Estadística Genética: herramientas y modelos para el análisis de información
alta dimensionalidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
Taller de Enseñanza de la Estadística en Educación Media . . . . . . . . .
6.1
6.2
6.3
IV
. .
33
34
45
47
48
Fully nonparametric regression models for compositional data using dependent Bernstein
polynomials . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estimación en el modelo de regresión lineal con errores no normales: secante hiperbólica
generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Optimización de Procesos Alimentarios con diseños experimentales de una mezcla seca de
polvo de cacao mediante la metodología de superficie de respuesta . . . . . . . . . . .
Proceso analítico jerárquico aplicado en la toma de decisiones de nuevos productos . . . .
El proceso de investigación econométrica (PIE) . . . . . . . . . . . . . . . . . . . .
Modelos multiniveles de series autorregresivas funcionales . . . . . . . . . . . . . . .
Análisis de componentes principales funcionales aplicados a opciones desestacionalizadas
del IGPA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Small sample properties of Dirichlet process mixture models for data supported on compact
intervals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Predictor-dependent modeling for bivariate extremes . . . . . . . . . . . . . . . . . .
Determinantes de la probabilidad de aportar al Sistema de Seguridad Social del Paraguay
Modelo Destructivo de Poisson Ponderado con fracción de cura y efectos aleatorios: enfoques
Clásico y Bayesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Improving Shewhart-type Generalized Variance Control Charts for Multivariate Process
Variability Monitoring using Cornish-Fisher Quantile Correction, Meijer-G Function and
Other Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
La Determinación de la Dispersión de una Variable en una Población Desconocida . . . .
Forecasting High Frequency Time Series by using Machine Learning . . . . . . . . . .
Identificación de factores de éxito de emprendimientos en base a reglas de asociación supervisadas y árboles de decisión. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Clusters probabilístico y mixtos en la medición multidimensional de la pobreza . . . . .
Extreme value theory applied to commodity currencies . . . . . . . . . . . . . . . . .
Modelo de simulación mediante dinámica de sistemas para la planificación de recursos
humanos en salud. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Un test para detectar una distribución Poisson bivariante . . . . . . . . . . . . . . . .
iv
49
50
51
52
53
54
55
56
58
59
60
61
62
63
64
65
66
67
68
7.20 Indicadores de Carencias y Carencias Severas . . . . . . . . . . . . . . . . . . . . .
7.21 Parametrización de la Distribución de Valor Extremo Generalizada en el estudio de eventos
climáticos extremos en Centro América . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
7.23 Estimation of Equating Functions with Covariates: a Bayesian Nonparametric Approach .
7.24 Robust Clustering of Banks in Argentina . . . . . . . . . . . . . . . . . . . . . . .
7.22 Aprendizaje Bayesiano, estructura de red y difusión de innovaciones
7.25 Estimado la tasa de éxito en la cacería de pavos salvajes.
Un ejemplo de Spatial Confounding . . . . . . . . . . . . . . . . . . . . . . . . . .
7.26 Aporte del sector turismo a la generación de valor agregado en la provincia de Córdoba
7.27 Algunos test de hipótesis mediante proyecciones al azar. . . . . . . . . . . . . . . .
7.28 Identificación adaptativa de estructuras de Series de Tiempo Difusas . . . . . . . . .
7.29 Estudio comparativo de la sobrevida de pacientes no metastásicos de cáncer de mama .
7.30 Un Análisis Multivariado del Sistema Universitario en Chile
. . . . . . . . . . . . .
.
.
.
.
.
7.31 Un Estimador de Regresión Ridge No-estocástico y Comparación con el Estimador de
James-Stein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
70
71
72
73
75
76
77
78
79
80
. . . . . . . .
81
82
83
7.34 Estudio Comparativo por Métodos de Clasificación para el Análisis del Desempleo en los
Departamentos de la Región Oriental del Paraguay . . . . . . . . . . . . . . . . . . .
84
7.32 Regresión Geográficamente Ponderada: Una aplicación a datos de mortalidad . . . . . .
7.33 Comparación de métodos de medición en presencia de un Gold Estándar
7.35 Ajuste de Modelos Longitudinales a datos de Ingreso de Hogares a partir de la Encuesta
Continua de Empleo de Asunción y Departamento Central . . . . . . . . . . . . . . .
. . .
85
86
87
88
89
7.40 El Problema de Datos Censurados en el Contexto Geoestadístico
Una Propuesta de Tratamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . .
90
7.41 Análisis de complementariedad mediante el testeo conjunto de restricciones de desigualdad:
una aplicación en el sector software de Argentina e innovación . . . . . . . . . . . . .
91
7.36 Indicador de actividad económica de la provincia de Córdoba (INAEC) . . . . . . . . .
7.37 Incorporación del Consideration Set en modelos de estimación de demanda . . . . . . .
7.38 ¿Explica el efecto del muestreo las diferencias entre mediciones de audiencias televisivas? .
7.39 Consistencia de índices de validación en clasificación difusa de datos morfométricos
7.42 Determinación del nivel de infección de bolsa periodontal a través de la distribución de
Bernoulli multivariada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.43 Estimador de Mínima Distancia en Procesos Localmente Estacionarios
. . . . . . . . .
7.44 Prueba de hipótesis para la igualdad de vectores de medias basada en observaciones multivariadas apareadas doblemente intercambiables . . . . . . . . . . . . . . . . . . . .
92
93
7.45 Imputation techniques for missing data in heterogeneous data sets: the ADNI study . . .
94
95
7.46 Comparación de la Predicción del Consumo Eléctrico Mediante diversos modelos de Series
de Tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
7.47 Testing for Unit roots and Granger non-causality in time series with multiple structural
breaks. An international stock markets application . . . . . . . . . . . . . . . . . . .
97
7.48 Estudio del Gráfico de Control CCC-r para Procesos de Alta Calidad y su Aplicación con
Datos de una Planta de Autopartes . . . . . . . . . . . . . . . . . . . . . . . . . .
7.49 Predicción de la demanda diaria de energía eléctrica en Uruguay . . . . . . . . . . . .
7.50 Aplicación de un modelo de Análisis Factorial Confirmatorio para determinar los scores de
los factores latentes que determinan la Calidad de Vida percibida. Una aplicación web. . .
98
99
100
7.51 Métodos MIS y POT para estimación de Vref en proyectos de energía eólica . . . . . . . 101
7.52 Distribuición Geométrica Half-Normal Potencia con fracción de cura . . . . . . . . . . 102
v
7.53 Clustering de Datos Funcionales
Aplicación a Datos de Consumo Eléctrico . . . . . . . . . . . . . . . . . . . . . . .
103
7.54 STANOVA: A Smoothed-ANOVA-based model for spatio-temporal disease mapping . . . 104
7.55 Aplicación de Procesos Localmente Estacionarios en Modelos de Volatilidad Estocástica . 105
V
Póster
106
8.1
Análisis de clúster aplicado al perfil de los ingresantes a Ciencias Económicas de la UNC .
8.2
Física Estadística y Finanzas Cuánticas: Una aplicación de modelos matemáticas de la
teoría cuántica de campos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3
8.4
8.5
8.6
8.7
8.8
8.9
107
108
Diseño de planes de muestreo en la detección de micotoxinas . . . . . . . . . . . . . . 109
Modelo Zero Inflated Poisson en el control de procesos de alta calidad: un caso de aplicación 110
Propuesta metodológica de diseño de un sistema de evaluación para la gestión educativa en
el nivel superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
111
Estudio epidemiológico de la influenza asiática de 1955-1957 en la Región del Bío-Bío . . 112
“Análisis comparativo de métodos de detección de diferencias mínimas en promotores del
crecimiento en aves” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
113
Inferencia sobre el coeficiente de correlación de concordancia . . . . . . . . . . . . . . 114
Cambio Climático Mundial: Análisis Estadístico de las Nuevas Experiencias en Latino-América 115
8.10 Estimación del riesgo Microbiológico por Salmonella en aguas grises de la provincia de
Buenos Aires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
116
8.11 Predicción de resultados de partidos de fútbol a través de métodos bayesianos . . . . . . 117
8.12 El patrón social de las actitudes hacia el control del tabaco en Argentina . . . . . . . . 118
8.13 Estimación de sistemas de ecuaciones simultáneas anidados . . . . . . . . . . . . . . . 119
8.14 Diagnosticos de influência em modelo espaciais lineares com ditribuição da família de contornos elipticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
120
8.15 La disponibilidad de los servicios bancarios en la provincia de Córdoba (Argentina). Un
estudio de sus determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121
8.16 M- estimadores vía modelos BIP-ARMA para series de tiempo con diferentes esquemas de
contaminación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
122
. . . . . . . . . . . . . . . . 123
8.18 Truncated Positive Normal Distribution . . . . . . . . . . . . . . . . . . . . . . . . 124
8.17 Distribución Potencia-Cauchy: Propiedades e Inferencia
8.19 Validación del autoreporte de ansiedad en niños y adolescentes chilenos no consultantes e
invarianza por sexo. Una aplicaciones de ecuaciones estructurales . . . . . . . . . . . .
125
8.20 Nivel de Satisfacción en la Región del Bío Bío, utilizando la Encuesta de Caracterización
Socioeconómica Nacional 2011 (CASEN) . . . . . . . . . . . . . . . . . . . . . . .
126
8.21 Modelo Zero Inflated Poisson en el control de procesos de alta calidad: un caso de aplicación 127
8.22 Distribución con soporte positivo en base a la Distribución exponencial potencia . . . . . 128
8.23 Predicción de crisis financiera en empresas latinoamericanas usando modelos de regresión
logística: tradicional y mixto . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129
8.24 Aplicación de modelos de supervivencia para la predicción de crisis en empresas argentinas
y peruanas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
130
8.25 Un estudio espacio-temporal de las precipitaciones extremas en el Estado de Guanajuato,
México. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
131
8.26 La importancia de la información contable y de mercado en la toma de decisiones de inversión en empresas argentinas y peruanas a través de modelos mixtos . . . . . . . . . . .
132
vi
8.27 ¿Qué alumnos recibe la Universidad? ¿Cómo influyen algunas de sus características en su
paso por la Universidad? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.28 Análisis geoestadístico de la intensidad del tizón temprano en tres municipios de Cienfuegos,
Cuba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.29 Análisis estadístico de los factores que influyen en la reducción de la demanda energética
de calefacción para dos tipos de vivienda . . . . . . . . . . . . . . . . . . . . . . .
8.30 Capacitación en Moodle desde la FCE UNPSJB.
Valoración del Curso Introductorio 2011-2013 . . . . . . . . . . . . . . . . . . . . .
8.31 Aplicación de un modelo mixto para estimar el comportamiento pegadizo de los costos en
empresas argentinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.32 Clasificación de empresas de mercados latinoamericanos según su estado financiero a partir
de sus ratios contables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.33 análisis de conglomerados, métodos no paramétricos, ratios contables, crisis financiera. . .
8.34 Diferenciación espacial socio-económica a través de la detección de conglomerados en la
provincia de Córdoba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.35 Comparación de modelos mixtos para la identificación de QTL mediante mapeo asociativo
8.36 Simulación de diseños experimentales aplicados al mejoramiento del cultivo de arroz . . .
8.37 Geometric Ergodicity of Gibbs Samplers for Bayesian General t Linear Mixed Models . .
8.38 Generalizacion del indice de Ware y Hedges para medir asociacion multiple . . . . . . .
8.39 Indicadores del sector forestal. Provincia del Chaco . . . . . . . . . . . . . . . . . .
8.40 Análisis exploratorio de variables acústicas con métodos funcionales . . . . . . . . . . .
8.41 Determinando la tasa de prematuros en la Región Metropolitana . . . . . . . . . . . .
8.42 Distribución Slashed Truncada-Exponencial Skew-Normal . . . . . . . . . . . . . . .
8.43 Distribución Birnbaum-Saunders Bimodal . . . . . . . . . . . . . . . . . . . . . . .
8.44 Aplicación de Análisis de Componentes Principales como método para la detección de asociación de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.45 Evaluación del Modelo de Ecuaciones Estructurales. Una Aplicación a Estudios de Mercado
8.46 Portafolio Didáctico basado en el Modelo Estratégico de Educación Comunicativa para
metodología b learning. Una aplicación al tema: distribución de probabilidad. . . . . . .
8.47 Una aplicación SEM a la Validación de Instrumentos de medición del estrés laboral en
trabajadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.48 Aplicación de modelos multinivel para variables binarias en estudios sobre logros académicos
en escolares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.49 Segmentación de la población chilena por medio de algoritmos iterativos. . . . . . . . .
8.50 Modelo LS-ARFIMA en Anillos de Crecimiento . . . . . . . . . . . . . . . . . . . .
Índice de Autores
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
vii
viii
Parte I
Conferencias
1
Regression modelling of misclassified correlated
interval-censored data
María José García Zattera*
Department of Statistics, Pontificia Universidad Católica de Chile.
Resumen
Motivated by a longitudinal oral health study, we propose a flexible modelling approach
for clustered time-to-event data, when the response of interest can only be determined to lie
in an interval obtained from a sequence of examination times (interval-censored data) and
the determination of the occurrence of the event is subject to misclassification. The clustered
time-to-event data are modelled using an accelerated failure time model with random effects
and by assuming a penalised Gaussian mixture model for the random effects terms. A general misclassification model is discussed in detail, considering the possibility that different
examiners were involved in the assessment of the occurrence of the events for a given subject
across time. A Bayesian implementation of the proposed model is described in a detailed
manner. We provide empirical evidence showing that the model can be used to estimate
the underlying time-to-event distribution and the misclassification parameters without any
external information about the latter parameters. We also use simulated data to evaluate the
effect of neglecting the presence of misclassification in the analysis of clustered time-to-event
data.
Keywords: Bayesian approach; Mismeasured continuous response; Multivariate survival
data.
*
Email: [email protected], MJ. García’s research is supported by Fondecyt grant 11110033.
2
Clustering based on non-parametric density estimation: a
proposal
Adelchi Azzalini
Dipartimento di Scienze Statistiche Università di Padova
Abstract
Cluster analysis based on non-parametric density estimation represents an approach to the
clustering problem whose roots date back several decades, but it is only in recent times
that this approach could actually be developed. The talk presents one proposal within this
approach which is among the few ones which have been brought up to the operational stage.
3
Robustez en Modelos Aditivos
Alejandra Martínez*
Universidad de Buenos Aires y CONICET.
Resumen
En los modelos de regresión multivariados, los estimadores de la función de regresiónbasados en núcleos sufren de la bien conocida maldición de la dimensión, que ocurre debidoa
que el número de observaciones que yace en entornos de radio fijo decrece exponencialmentea medida que la dimensión aumenta. Para evitar este problema, se introdujeron los
modelosaditivos, que generalizan los modelos lineales, son de fácil interpretación y además
resuelvenla maldición de la dimensión. La mayoría de los procedimientos para estimar las
componentesde un modelo aditivo tienen la desventaja de ser muy sensibles a la presencia
de datos atípicosdado que se basan en promedios o polinomios locales usando ajustes por
mínimos cuadrados.Por esta razón, se necesitan procedimientos robustos para estimar las
componentes de losmodelos aditivos. En esta presentación, consideramos dos familias de estimadores robustospara los modelos aditivos basados en polinomios locales: basadas en el
procedimiento deintegración marginal y en el procedimiento de backfitting. Estos estimadores resuelven,simultáneamente, la maldición de la dimensión y la sensibilidad a observaciones
atípicas.
Esta charla está basada en trabajo conjunto con la Dra. Graciela Boente, Universidadde Buenos Aires y CONICET y con el Dr. Matías Salibián Barrera, University of British
Columbia.
Palabras claves: Modelos Aditivos, Backfitting, Integración Marginal, Respuestas Faltantes, Robustez.
*
Email: [email protected],
4
Métodos Multivariados en control y capacidad de
procesos
Marta Quaglino*
Escuela de Estadística.
Facultad de Ciencias Económicas y Estadística-UNR
Argentina
Resumen
La posibilidad de tener en cuenta varias variables de calidad oproductividad en forma
simultánea para los procedimientos de controlestadístico de los procesos es atractiva en las
organizaciones, dado quepermiten controlar, estudiar su capacidad y proponer mejoras, desde
unaperspectiva más realista e integradora. Sin embargo la mayoría de los métodosdisponibles
dependen han sido propuestos bajo ciertas condiciones deregularidad de las variables en control y si estos supuestos no se verifican, suspropiedades pueden variar, a veces drásticamente.
La presentación, mostrará los resultados de trabajos recientes, realizadosen colaboración
con miembros del equipo de investigación** , en los que seconsideran cambios en las condiciones de aplicación, evidenciando los efectosde los mismos sobre las propiedades de los métodos
de control. Serán tratadosprocedimientos de control estadístico multivariado de procesos, con
memoria eíndices de capacidad multivariados frente a alejamientos de la distribuciónnormal
de las variables bajo estudio.
Palabras claves: MSPC, MEWMA, Indices de Capacidad Multivariados.
*
**
Email: [email protected],
Mag.María Isabel Flury, Lic.Daniela Dianda, Dr.José A.Pagura
5
Marcos muestrales imperfectos: herramientas para su
tratamiento.
Juan José Goyeneche
Instituto de Estadística, Facultad de Ciencias Económicas, Universidad de La República
Resumen
En general las complejidades en los aspecto teóricos del muestreo de poblaciones finitas
sonde menor entidad si las comparamos con los problemas que surgen del punto de vista
práctico.Tener un marco muestral adecuado es fundamental para el proceso de estimación:
poblaciónobjetivo, marco muestral, diseño, etapas de relevamiento, estimación en sí (cálculo
deponderadores, ajustes por no respuesta, estimación de varianzas). Se presentarán varios
casosde investigaciones con marcos muestrales imperfectos y se discutirán las estrategiasadoptadas para mitigar los sesgos resultantes.
6
Probabilistic weather forecasting
Fabrizio Ruggeri
Research Director, Consiglio Nazionale delle Ricerche, Italy
Adjunct Professor, Queensland University of Technology, Australia
International Professor Affiliate, New York University, USA
Abstract
Two approaches are presented to estimate the thermal conductivity or diffusivity of a
homogeneous material from the temperature evolution acquired in few internal points. Temperature evolution is described by the classical one-dimensional heat equation, in which the
thermal conductivity (or diffusivity) is one of the coefficients.
In the first approach noisy measurements lead to a partial differential equation with
stochastic coefficients and, after discretisation in time and space, to a stochastic differential
equation. Euler approximation at sampled points leads to a likelihood function, used in the
Bayesian estimation of the thermal conductivity under different prior densities. An approach
for generating latent observations over time in points where the temperature is not acquired
is also included. Finally, the methodology is experimentally validated, considering a heated
piece of polymethyl methacrylate (PMMA) with temperature measurements available in few
points of the material and acquired at high frequency.
In the second approach a Bayesian setting is developed to infer unknown parameters that
appear into initial-boundary value problems for parabolic partial differential equations. The
realistic assumption that the boundary data are noisy is introduced, for a given prescribed
initial condition. We show how to derive the global likelihood function for the forward problem, given some measurements of the solution field subject to Gaussian noise. Given Gaussian priors for the time-dependent Dirichlet boundary values, we marginalize out analytically
the global likelihood using the linearity of the discretized solution. This approach is fully
implemented in the case of the heat equation where the thermal diffusivity is the unknown
parameter. We assume that the thermal diffusivity parameter can be modeled a priori through a lognormal random variable or by means of a space-dependent stationary lognormal
random field. Synthetic data are used to carry out the inference. We exploit the concentration of the posterior distribution of the thermal diffusivity, using the Laplace approximation
and therefore avoiding costly MCMC computations. Expected information gains and predictive posterior densities for observable quantities are numerically estimated for different
experimental setups.
7
Parte II
Sesiones invitadas
8
Estadística Bayesiana
Coordinador: Dr. Luis Mauricio Castro, Universidad de Concepción, Chile.
9
On the Geometry of Bayes
Garrit Page
Pontificia Universidad Católica de Chile
Abstract
We provide a geometric interpretation to Bayesian inference that allows us to introduce
a natural measure of the level of agreement between priors, likelihoods, and posteriors.
Estimators for all the quantities involved in our geometric setup are discussed, which can be
directly computed from the posterior simulation output. Some examples are used to illustrate
our methods.
10
Detecting changes in time series: A product partition
model with across-cluster correlation
Rosangela H. Loschi, Jacqueline A. Ferreira, Marcelo A. Costa
Universidade Federal de Minas Gerais, Brazil.
Abstract
The identification of multiple clusters and/or changepoints is a problem encountered in
many subject areas, ranging from machine learning, pattern recognition, genetics, criminality
and disease mapping to finance and industrial control.
We present a product partition model that, for the first time, includes dependence between clusters or segments. The inter-cluster dependence is introduced into the model through
the prior distributions of the parameters. We adopt a reversible jump MCMC algorithm to
sample from the posterior distributions. We compare the partition model with across-cluster
correlation to the usual product partition model (PPM), which assumes independence among
the clusters. Through simulations and analysis of real data sets, we show that the inclusion
of correlation between clusters leads to a superior model for change-point identification. By
accounting for this correlation, we achieve improvement in the parameter estimates.
11
Bayesian inference of logistic growth model in state space
representation
Carlos Montenegro and Márcia Branco
Departamento de Estatística, IME, Universidade de São Paulo, Brasil
Abstract
We study the logistic population growth model using state-space approach to update
the knowledge of a population of marine shrimp from the Chilean coast. The unobserved
state is the annual biomass of the shrimp’s population and the observation is the mean
annual #shing yield (mean cath per unit of eort). The observation equation is linear, with
one parameter (the catchability coefficient) and the state equation is nonlinear with two
parameters (carrying capacity and the intrinsic growth rate of the population). The models
include normal, lognormal, t-student, skew-normal and skew-t distributions. The posterior
distribution of states and parameters of the models are approximated using Markov Chain
Monte Carlo methods (MCMC) and for model selection we use DIC (Deviance Information
Criterion) and posterior predictive distribution. Of the fi#ve proposed models which presents
the lowest DIC is the one that considers skew-t observation error. The second best model is
the one that considers lognormal observation error. Furthermore, considering the posterior
predictive distribution of the autocorrelation of the observation error, the greatest evidence
points to these two models as the best for the analyzed dataset.
12
Bioestadística
Coordinador: Dr. Francisco Torres, Universidad de Santiago de Chile.
13
Shape and size dependent ROC analysis with an
application to schizophrenia diagnosis.
Vanda Inácio De Carvalho
Pontificia Universidad Católica de Chile.
Abstract
Modern technology have been leading to production of increasingly complex medical
diagnostic data, whose analysis often entails the development of new statistical methodology.
Taking advantage of this wealth of data to conduct accurate diagnosis of disease is a subject of
major concern in public health and medical research. In this work, we extend the approach of
Inácio et al. (2012) to the context of shape analysis; specifically we develop methodology for
the case where the test outcome is a scalar and the covariate affecting the diagnosis accuracy
is a shape. A simulation study to assess the performance of our estimator is conducted and
an application to schizophrenia diagnosis based on brain shape data is provided.
14
Air quality analysis via a continuous time dependent
Bayesian nonparametric model
Luis Gutiérrez*
Ramsés H. Mena**
Matteo Ruggiero***
Abstract
Air quality monitoring is based on pollutants concentration levels, typically recorded in
metropolitan areas. These exhibit spatial and temporal dependence as well as seasonality
trends, and their analysis demands flexible and robust statistical models. Here we propose
to model the measurements of particulate matter, composed by atmospheric carcinogenic
agents, by means of a Bayesian nonparametric dynamic model which accommodates the
dependence structures present in the data and allows for fast and efficient posterior computation. Lead by the need to infer the probability of threshold crossing at arbitrary time
points, crucial in contingency decision making, we apply the model to the time-varying density estimation for a PM2,5 dataset collected in Santiago, Chile, and analyze various other
quantities of interest derived from the estimate.
Keywords: Density Estimation; Particulate Matter; Dirichlet Process
*
Email: [email protected], Escuela de Salud Pública, Fac. Medicina, Universidad de Chile.
Email: [email protected], IIMAS-UNAM.
***
Email: [email protected], University of Torino & Collegio Carlo Alberto.
**
15
Evaluación de muestreos del k-esimo árbol en inventarios
de bosques naturales de Chile*
Christian Salas Eljatiba,** , Horacio Gilaber Peraltab
a Laboratorio
de Análisis Cuantitativo de Recursos Naturales , Departamento de Ciencias
Forestales,
Universidad de La Frontera, Temuco, Chile.
b Departamento de Ecosistemas y Medio Ambiente, Pontificia Universidad Católica de Chile,
Santiago,
Chile.
Resumen
El muestreo de bosques con unidades de muestreo (i.e., parcelas) de superficie fija es el
método más empleado para la estimación de parámetros de variables de los bosques. Una
alternativa a este tipo de muestreos, son aquellos que se basan en en la medición de distancias
desde puntos de muestreo a los individuos más cercanos. Estos muestreos se denominan del
k-ésimo árbol. Los muestreos del k-ésimo árbol poseen la ventaja de práctica de disminuir los
tiempos y costos asociados a la medición de las unidades muestrales. Una desventaja, aunque
no siempre reconocida en la práctica, es que los estimadores derivados de los muestreos del
k-ésimo árbol son sesgados. El presente estudio tiene por objetivo demostrar y cuantificar
el sesgo de los dos tipos de muestreos del k-ésimo árbol (i.e., k-árboles más cercanos y de
los cuartos) en la estimación del número de árboles y área basal de árboles en diferentes
tipos de bosques naturales en Chile. Para tal efecto, se definieron poblaciones de bosques
que fueron replanteadas en terreno, cada una de 1 ha donde se obtuvo la posicion cartesiana
de cada árbol. Mediante simulación estocástica, se construyeron la distribución empirica de
los estimadores derivados de los muestreos del k-ésimo árbol, y a partir del cual se analizó
el sesgo, varianza, y error cuadrático medio. Se evaluó también, y a modo de referencia, el
muestreo con parcelas de superficie fija. Los análisis consideraron la variación del tamaño
muestral, así como la distribución espacial de los bosques de referencia.
Palabras claves: método del sexto-árbol, método de los cuartos, sesgo, inventario forestal.
*
Enviado a 2014, the “XI Congreso Latinoamericano de Sociedades de Estadística”, La Serena, Chile,
20–23 Octubre, 2014.
**
Email: [email protected], Autor de correspondencia. Laboratorio de Análisis Cuantitativo de Recursos Naturales, Departamento de Ciencias Forestales, Universidad de La Frontera, Casilla 54-D,
Temuco, Chile . Tel. +56 (45) 2325652.
16
A Bayesian destructive weighted Poisson cure rate model
and an application to a cutaneous melanoma data
Josemar Rodrigues*
University of São Paulo-São Carlos-Brazil.
Abstract
In this article, we propose a new Bayesian flexible cure rate survival model, which generalises the stochastic model of Klebanov et al. [Klebanov LB, Rachev ST and Yakovlev AY.
A stochastic-model of radiation carcinogenesis latent time distributions and their properties. Math Biosci 1993; 113: 5175], and has much in common with the destructive model
formulated by Rodrigues et al. [Rodrigues J, de Castro M, Balakrishnan N and Cancho
VG. Destructive weighted Poisson cure rate models. Technical Report, Universidade Federal de So Carlos, So Carlos-SP. Brazil, 2009 (accepted in Lifetime Data Analysis)]. In our
approach, the accumulated number of lesions or altered cells follows a compound weighted
Poisson distribution. This model is more flexible than the promotion time cure model in
terms of dispersion. Moreover, it possesses an interesting and realistic interpretation of the
biological mechanism of the occurrence of the event of interest as it includes a destructive
process of tumour cells after an initial treatment or the capacity of an individual exposed
to irradiation to repair altered cells that results in cancer induction. In other words, what is
recorded is only the damaged portion of the original number of altered cells not eliminated by
the treatment or repaired by the repair system of an individual. Markov Chain Monte Carlo
(MCMC) methods are then used to develop Bayesian inference for the proposed model. Also,
some discussions on the model selection and an illustration with a cutaneous melanoma data
set analysed by Rodrigues et al. [Rodrigues J, de Castro M, Balakrishnan N and Cancho VG.
Destructive weighted Poisson cure rate models. Technical Report, Universidade Federal de
So Carlos, So Carlos-SP. Brazil, 2009 (accepted in Lifetime Data Analysis)] are presented.
Keywords: Competing risks, cure rate models, Conway Maxwell Poisson distribution,
weighted Poisson distribution.
*
Email: [email protected],
17
Bayesian inference for dependent chains applied to
neural phenomena
Laura Rifo*
Imecc-Unicamp.
Plinio Andrade
IME-USP.
Jesus Garca
Imecc-Unicamp.
Abstract
The main goal of this work is to modeling the neural activity under controlled stimulus.
The probabilistic model proposed consists in binary chains with memory, indicating the
presence or not of spike trains. The data set corresponds to the measurements obtained by
electrodes installed on the brain cortex in rats exposed by the first time to geometrically
complex objects. These records give the space-time configuration of the spike trains. Our
motivation is to verify the temporal dependence of this activity, and the interaction between
neurons. The model selection is made through Bayesian inference for the memory parameter
in stochastic process.
Keywords: Bayesian inference, binary process, neuromathematics.
*
Email: [email protected], This work was partially supported by FAPESP Center for Neuromathematics 2013/ 07699-0 and FAEPEX, Unicamp.
18
Sismomática
Coordinador: Dr. Bernardo Lagos Alvarez, Universidad de Concepción, Chile.
19
Spatio-temporal modelling of earthquakes through
second-order properties of point processes
Francisco J. Rodríguez-Cortésa,* , Jorge Mateua , Mohammad Ghorbanib and
Dietrich Stoyanc
a Department
of Mathematics, Universitat Jaume I, Castellón, Spain
Department of Mathematics Sciences, Aalborg University, Aalborg, Denmark
Institut für Stochastik, TU Bergakademie Freiberg, Freiberg, Germany
Abstract
There is an extensive literature on the analysis of point process data in time and in
space. However, methods for the analysis of spatio-temporal point processes are less well
established. Many spatial processes of scientific interest also have a temporal component that
may need to be considered when modelling the underlying phenomenon. The spatio-temporal
behaviour analysis is fundamental in areas such as environmental sciences, climate prediction
and meteorology, epidemiology, image analysis, agriculture, seismology and astronomy, and
so spatio-temporal point processes, rather than purely spatial point processes, must then be
considered as potential models. A natural starting point for the analysis of spatio-temporal
point process data is to investigate the nature of any stochastic interactions among the
points of the process. For these processes, second-order properties play an important role
for exploratory and explanatory analysis. Second-order methods provide indeed a natural
starting point for such analysis.
In this work, kernel estimates of the second-order product density function of a spatiotemporal point process with and without considering first- and second-order spatio-temporal
separability are given. The spatio-temporal second-order product density function is of interest as can be used to discriminate amongst several spatio-temporal point structures. Further,
the expectation and variance of this estimator are obtained. In addition, as we have developed close expressions for the variance under the Poisson case, we use them to generate the
corresponding confidence surfaces. We finally present a simulation study and an application
in earthquakes modelling making use of the library stpp and connected Fortran subroutines
to R.
Keywords and Phrases: Point processes, spatio-temporal separability, second-order
intensity-reweighted stationarity, inhomogeneous spatio-temporal K -function, second-order
spatio-temporal product density function, confidence surface.
References
Baddeley, A., Møller , J. and Waagepetersen, R. (2000). Non- and semi-parametric estimation of interaction in inhomogeneous point patterns, Statistica Neerlandica 54:
329–350.
Clements, R. A., Schoenberg, F. P., and Schorlemmer, D. (2011). Residual analysis for
space-time point processes with applications to earthquake forecast models in California, Annals of Applied Statistics 5(4): 2549–2571.
*
Email: [email protected],
20
Chiu, S. N., Stoyan, D., Kendall, W. S. and Mecke, J. (2013). Stochastic Geometry and Its
Applications, third edn, John Wiley & Sons.
Fiksel, T. (1988). Edge-corrected density estimators for point processes, Statistics 19: 67–75.
Gabriel, E. (2013). Estimating second-order characteristics of inhomogeneous spatiotemporal point processes, Methodology and Computing in Applied Probability 16(1): 1–21.
Gabriel, E. and Diggle, P. J. (2009). Second-order analysis of inhomogeneous spatio-temporal
point process data, Statistica Neerlandica 63: 43–51.
Gabriel, E., Rowlingson, B. and Diggle, P. J. (2012). Stpp: Space-time point pattern simulation, visualisation and analysis. R package version 0.2.
Ghorbani, M. (2013). Testing the weak stationarity of a spatio-temporal point process,
Stochastic Environonmental Research and Risk Assessesment 27: 517–524.
Musmeci, F. and Vere-Jones, D. (1992). A space-time clustering model for historical earthquakes, Annals of the Institute of Statistical Mathematics, Kluwer Academic Publishers
44: 1–11.
Møller, J. and Ghorbani, M. (2012). Aspects of second-order analysis of structured inhomogeneous spatio-temporal point processes. Statistica Neerlandica 66: 472-491.
Møller, J. and Ghorbani, M. (2013). Functional summary statistics for the johnson-mehl
model, Technical Report R-01-2013, Department of Mathematical Sciences, Aalborg
University.
Illian, J., Penttinen, A., Stoyan, H. and Stoyan, D. (2008). Statistical Analysis and Modelling of Spatial Point Patterns, John Wiley and Sons, Chichester.
Ogata, Y. (1998). Space-time point-process models for earthquake occurrences, Annals of
the Institute of Statistical Mathematics 50(2): 379–402.
Ogata, Y. and Zhuang, J. (2006). Space-time ETAS models and an improved extension.
Tectonophysics 413(1): 13-23.
Ohser, J. (1983). On estimators for the reduced second moment measure of point processes,
Mathematische Operationsforschung und Statistik, series Statistics 14: 63–71.
Stoyan, D. (1987). Statistical analysis of spatial point processes: A soft-core model and
cross-correlations of marks, Biometrical Journal 29: 971–980.
Stoyan, D., Bertram, U. and Wendrock, H. (1993). Estimation variances for estimators of
product densities and pair correlation functions of planar point processes, Annals of
the Institute of Statistical Mathematics 45: 211–221.
Stoyan, D., Kendall, W. S. and Mecke, J. (1995). Stochastic Geometry and Its Applications,second edn, Wiley, Chichester.
Wand, M. and Ripley, B. (2013). Functions for kernel smoothing for wand and jones (1995).
R package version 2.23-10.
21
Zhuang, J., Ogata, Y. and Vere-Jones, D. (2002). Stochastic declustering of space-time
earthquake cccurrences, Journal of the American Statistical Association 97: 369–380.
22
GEOSTATISTICAL CLUSTERING AN
COMPARISION WITH MAIN MULTIVARIATE
CLUSTERING PROCEDURES FOR
GEOREFERENCED DATASET
Roberto Fustos(1,2,3)
Xavier Emery(1,2)
1 Departament
of Mining Engineering, University of Chile.
Mining Technology Center, University of Chile.
3
[ ]CSIRO-Chile International Center of Excellence in Mining and Mineral Processing.
[2 ]Advanced
Abstract
This paper proposes a method of geostatistical clustering and provides a comparison
with multivariate clustering methods applied to georeferenced data. Clustering methods are
used to find subsets of observations that are related through a similarity measure, that is,
the observations of the same group are similar and very different from observations of other groups. This technique is very important in mining, because it allow the identification
of areas with geometallurgical characteristics of interest and also provides support when
geological domains are delimited. The geostatistical clustering algorithm is a variant of multivariate clustering, which considers the spatial continuity of regionalized variables based on
a modification of the Mahalanobis distance , instead of using the geographic coordinates as
additional variables. In this comparison study, we will use the Meuse data collected by Ruud
van Rijn and Mathieu Rikken (1993 )(∗)
The comparison method is based on observing the groups created by the traditional methods of multivariate clustering and created by geostatistical clustering, obtaining measures
of intra and inter-group.
Keywords and Phrases: Multivariate geostatistic, Clustering, Mahalanobis distance,
Geometallurgical Modelling.
REFERENCES
Allard D. and Guillot G. Clustering geostatistical data. In Proceedings of the sixth
geostatistical conference (2000).
Arnaud M., Emery X., De Fouquet C., Brouwers M. and Fortier M. L’analyse krigeante pour le classement d’observations spatiales et multivariée. Revue de Statistique
Appliquée.
Carme Hervada-Sala and Eusebi Jarauta-Bragulat. A program to perfom Ward’s
clustering method on several regionalized variables.
Oliver M. and Webster R. A Geostatistical Basis for Spatial Weighting in Multivariate
Classification.
Pawlowsky V., Simarro G. and Martin J. Spatial cluster analysis using a generalized Mahalanobis distance. In: Proceedings of the third Meeting of the International
Association for Mathematical Geology, Barcelona, Spain, pp. 169-174.
23
Rikken M. and Van Rijin R. Soil pollution with heavy metals -an inquiry into spatial
variation, cost of mapping and the risk evaluation of copper, cadmium, lead and zinc
in the floodplains of the Meuse west of Stein, the Netherlands (1993)(∗)
Romary T., Rivoirard J., Deraisme J., Quinones C., and Freulon X. Domainin
by clustering multivariate geostatistical data. Geostatistical Oslo 2012, Springer.
24
Clustering a multitude of time series
Daniil Ryabko*
Abstract
The problem of clustering is considered for the case where every point is a time series.
The time series are either given in batch (offline setting), or they are allowed to grow with
time and new time series can be added along the way (online setting). We propose a natural
notion of consistency for this problem, and show that there are simple, computationally
efficient algorithms that are asymptotically consistent under extremely weak assumptions on
the distributions that generate the data. The notion of consistency is as follows: a clustering
algorithm is called consistent if it puts two time series into the same cluster if and only if the
distribution that generates them is the same. In the considered framework the time series are
allowed to be highly dependent, and the dependence can have arbitrary form. For the case of a
known number of clusters, the only assumption we make is that the (marginal) distribution
of each time series is stationary ergodic. No parametric, memory or mixing assumptions
are made. For the case of unknown number of clusters, stronger assumptions are provably
necessary, but non-parametric algorithms consistent under very general conditions are still
possible.
Keywords: Stationary ergodic, time series, clustering.
*
Email: [email protected],
25
Geostatistical Mixed Beta Regression: A Bayesian
approach
B. Lagos-Alvarez* ; J. Figueroa - Zúñiga∗ ; R. Fustos-Toribio∗∗ ; F. Torres-Avilés∗ ∗ ∗
∗ Department
of Statistics, University of Concepción.
of Mining Engineering, University of Chile.
∗∗ Advanced Mining Technology Center, University of Chile.
∗∗ CSIRO-Chile International Center of Excellence in Mining and Mineral Processing.
∗ ∗ ∗ Department of Mathematic and Computation Science, University of Santiago of Chile.
∗∗ Department
Abstract
This paper is based on recent research that focuses on regression modeling for geostatistical data, with emphasis in proportions measured on a continuous scale. Specifically, it
deals with beta regression models with a mixed effect in order to control the spatial variability from a Bayesian approach. We use a suitable parameterization of the beta distribution
in terms of its mean and the precision parameter, which allows for both parameters to be
modeled through regression structures that may involve fixed and random effects. Specification of prior distributions is discussed, computational implementation via Gibbs sampling
is provided, and it is illustrated using simulated data.
Keywords: Bayesian analysis; Beta distribution; Beta regression; Continuous proportions; Mixed regression models; Geostatistical models.
*
Email: [email protected], The first author was supported by DIUC grant 213.014.022-1.0, the second author
by Fondecyt grant 11130483, third author would like to give thanks to Advanced Mining Technology Center,
University of Chile and CSIRO-Chile for having provided the facilities and equipment in which the data were
simulated and the fourth author by Fondecyt grant 11110119.
26
Assessing the Spatial Association Between Two Random
Fields: A Review
Ronny O. Vallejos*
Departamento de Matemática, Universidad Técnica Federico Santa María, Valparaíso, Chile.
Abstract
In the analysis of spatial data, the quantification of spatial associations between two
variables is an important issue, and considerable effort has been devoted to the construction
of appropriate methodologies to assess the association between two correlated variables. At
least three different approaches to tackle this problem can be found in the literature. First,
the coefficients of spatial association that in the same spirit as the usual correlation coefficient
provide a measure of the level of association between the variables in the interval [−1, 1].
Second, the problem is assessed from an hypothesis testing approach, mainly transforming
the t test in a suitable way to include the spatial information available for each process.
Alternatively, a computational method based on permutations and smoothing of the original
variables has been suggested to assess the significance of the correlation between two spatial
variables. Third, the problem is tackled by assuming that the bivariate process is normal
with a specific correlation structure (e.g. bivariate Matérn structure ). Then the association
between the components of the bivariate random field can be studied stating an hypothesis
testing procedure for a suitable parameter of the covariance function.
In this talk we review the methods mentioned above. In addition, existing graphical tools
to describe the spatial association between two spatial processes are discussed. Finally, some
remarks and an outline of topics to be addressed in future research are given.
Keywords: Spatial process, spatial association, hypothesis testing, coefficients of spatial
association.
*
Email: [email protected], This work has been funded by Fondecyt grant 1120048.
27
Adaptación espacial en regresión heterocedástica
Nora Serdyukova
Departamento de Estadística, Universidad de Concepción, Concepción, Chile.
Resumen
En el modelo de regresión no paramétrica se tiene que estimar la función de regresión
multidimensional cuando el ruido es "heterocedástico". Se propone un nuevo procedimiento
adaptativo que aproxima localmente el modelo verdadero par el lineal. Se presenta una
desigualdad de ”oráculo” para el procedimiento propuesto.
28
Modelamiento Estadístico del Riesgo
Coordinador: Dr. Miguel de Carvalho, Pontificia Universidad Católica de Chile.
29
Adaptive Tapers and Spatio-Temporal Covariances
Emilio Porcu
Department of Mathematics, University Federico Santa Maria
Abstract
We introduce a family of nonseparable space-time compactly supported correlation functions, that we call adaptive tapers. An important feature of the adaptive tapers is that
the compact support in space is a decreasing function of the lag in time, therefore the
compact support in space becomes smaller when the dependence in time becomes weaker,
and similarly when exchanging space and time. We explore covariance tapering combined
with maximum likelihood when estimating the covariance model of a space-time Gaussian
random field in the case of large datasets. The statistical and computational properties of
space-time adaptive covariance tapering are addressed under increasing domain asymptotics.
A simulation study and two real data examples illustrate the statistical and computational
performances of covariance tapering with respect to the maximum likelihood method using
the proposed space-time adaptive tapers. This is joint work with M. Bevilacqua.
Modelamiento Estadístico del Riesgo. Sesión Invitada. XI CLATSE 2014.
Inauguración de la Sección de Riesgo y Extremos, Sociedad Chilena de Estadística: SOCHE
30
Riesgo y Extremos: Las Lecciones de la Reciente Crisis
Económica
Miguel De Carvalho
Departamento de Estadística, Pontificia Universidad Católica de Chile
Resumen
El análisis del riesgo es un tema de amplio interés para la academia y para varios ‘business
players’ en la economía mundial. En esta charla revisamos varios modelos de estadística de
valores extremos con particular incidencia en sus aplicaciones en el modelamiento y evaluación del riesgo; las ventajas y limitaciones de los varios métodos serán discutidas y ilustradas
con ejemplos aplicados. Algunos ‘case studies’ de la reciente crisis económica y financiera,
son usados para motivar la necesidad creciente de prácticas de evaluación de riesgo rigurosas y del conocimiento de las limitaciones de las inferencias. La creciente necesidad del
desarrollo de modelos estadísticos capaces de modelar riesgos asintóticamente dependientes
y asintóticamente independientes, es otro tema de discusión.
Modelamiento Estadístico del Riesgo. Sesión Invitada. XI CLATSE 2014.
Inauguración de la Sección de Riesgo y Extremos, Sociedad Chilena de Estadística: SOCHE
31
Modelos Estadísticos de Medición de Riesgo Financiero
Wilfredo Palma
Departamento de Estadística, Pontificia Universidad Católica de Chile
Resumen
En esta charla se discutirán diversas metodologías estadísticas para el análisis de riesgo financiero. Se presentarán técnicas para la medición del riesgo asociado a una cartera
de instrumentos financieros compuesta de acciones, bonos, divisas u entre activos. Estas
metodologías de evaluación de riesgo involucran el uso de herramientas tales como modelos econométricos de heterocedasticidad condicional y modelos de volatilidad estocástica.
Asimismo, se discutirán métodos para de evaluación de riesgo comercial y algunos de los
diversos indicadores de desempeño de los modelos. Junto con la discusión de los métodos, se
presentaran aplicaciones a datos reales.
Modelamiento Estadístico del Riesgo. Sesión Invitada. XI CLATSE 2014.
Inauguración de la Sección de Riesgo y Extremos, Sociedad Chilena de Estadística: SOCHE
32
Enseñanza de la Estadística
Coordinador: Dr. Guido Del Pino, Pontificia Universidad Católica de Chile.
33
Enseñanza de R a distancia para actualización de
egresados. Desafíos y oportunidades
Esther Hochsztain*
Facultad de Ciencias Económicas y de Administracion. Universidad de la República. Uruguay.
Andrómaca Tasistro
Agencia de Gobierno Electrónico y Sociedad de la Información (AGESIC). Uruguay
Raúl Ramírez
Facultad de Ciencias Económicas y de Administración. Universidad de la República. Uruguay
Resumen
No cabe duda que el software libre es cada vez más valorado y requerido en el ámbito de
la estadística, así como en tantas otras disciplinas. En este sentido, R es un referente cuyo
uso se extiende cada vez más, tanto en diversas técnicas como un aplicaciones cada vez más
amplias.
Por otra parte, la actualización de egresados presenta particularidades que deben ser
contempladas especialmente (falta de tiempo, necesidad ineludible de capacitarse, exigencias
de eficiencia y productividad, ser multitarea, desarrollar solos trabajos que en otras épocas
requerían equipos, entre otros aspectos). Es por este motivo que muchos egresados necesitan
aprender a usar (entre otras herramientas) software estadístico, y en particular software
gratuito.
El software gratuito agrega la ventaja que el participante del curso puede instalarlo en su
lugar de trabajo, sin gastos extras y realizar pruebas con sus propios datos durante el curso.
Aplicando prácticamente los conocimientos en el momento que son adquiridos.
En este artículo se presenta y analiza la experiencia de varios dictados de cursos de R a
distancia en el marco de la actualización de egresados, esencialmente en el área de ciencias
económicas y administración.
Se muestra la integración de la enseñanza de R por línea de comando con el uso de
RCommander y RStudio.
Se detallan las características de los materiales autoinstruccionales utilizados, la forma
de evaluación, las características de las tareas propuestas, el rol y actitud de los docentes.
Asimismo se detallan las características de uso de la plataforma Moodle.
Se analizan las nuevas formas de aprendizaje, las formas de lograr un vínculo uno a uno
a distancia, la importancia y formas de crear redes a distancia, entre otros aspectos.
Palabras claves: R-project, enseñanza a distancia, Moodle, actualización de egresados.
*
Email: [email protected],
34
Propuesta pedagógica para mejorar la capacidad de
análisis estadísticos autónomos en estudiantes de
Odontología de la Universidad de Talca
Gloria Correa Beltrán*
Universidad de Talca, Instituto de Matemática y Física
Loreto Nuñez Franz
Universidad de Talca, Facultad de Ciencias de la Salud
Resumen
En el perfil de egreso de la Carrera de Odontología de la Universidad de Talca se plantea
que el profesional desarrolle competencias relacionadas con el área de la investigación. Para
ello, en el sexto año de la carrera, los estudiantes en el primer semestre elaboran un Proyecto de Memoria que ejecutan en el segundo semestre. El Programa de Estudios aborda los
módulos donde reciben la formación necesaria para esta tarea: Bioestadística Descriptiva,
Epidemiología, Bioestadística Inferencial, Proyecto de Memoria y Memoria, sin embargo, en
los años anteriores la mayoría de alumnos no han sido capaces de realizar en forma autónoma
el Análisis Estadístico de su Memoria.
El objetivo de esta propuesta es Capacitar a los estudiantes de sexto año de Odontología
de la Universidad de Talca (66 alumnos) a identificar a qué contexto estadístico particular
corresponde su proyecto de memoria y realizar los análisis estadísticos en forma autónoma. El
módulo “Bioestadística Inferencial” (sexto año) se ha formulado como un curso de “Estadística
Aplicada” en el que el énfasis no está en los fundamentos teóricos-matemáticos de los métodos
estadísticos, sino en aplicarlos e interpretar los resultados obtenidos mediante software (SPSS,
INFOSTAT, Rcmdr). Todas las unidades contemplan uno o más Diagramas de Flujo (DF),
estos indican todos los posibles caminos a seguir para tomar la decisión de cuál es el test
estadístico idóneo que se debe utilizar en una situación específica. Tradicionalmente en la
Enseñanza de la Estadística se abordan los tópicos de manera progresiva desde lo básico
a lo complejo. En esta propuesta se sigue el camino a la “inversa”: Al inicio del módulo se
explican todos los DF. Los alumnos quedan capacitados para identificar variables, parámetro,
hipótesis estadísticas, el DF apropiado y el o los test estadísticos que se podrían aplicar a
diversos problemas propuestos. En el resto de las sesiones se abordan los métodos estadísticos
en detalles y se profundizan los DF. Los objetivos de esta propuesta serán evaluados en los
módulos Bioestadística Inferencial, Proyecto de Memoria y Memoria durante.
Los resultados parciales obtenidos son que 64 alumnos lograron identificar a qué contexto
estadístico corresponden diversos problemas propuestos. Y 31 alumnos, de los 34 que han solicitado apoyo estadístico a la fecha, han sido capaces de identificar el los análisis estadísticos
apropiados a su investigación.
Palabras claves: Diagramas de Flujo.
*
Email: [email protected],
35
Invarianza y estadística descriptiva
Guido Del Pino M.
Pontificia Universidad Católica de Chile
Resumen
La importancia del Análisis Exploratorio de Datos reside en su uso para dar respuestas
tentativas a un problema que se ha planteado o para detector patrones que sugieran ciertas
afirmaciones. Por otro lado, para hacer un análisis exploratorio de datos hay que usar algunas
herramientas matemáticas, cuyas definiciones no toman en cuenta el contexto del problema.
Al conjunto de tales herramientas lo denominamos Estadística Descriptiva. Como esto se ve
como una colección de fórmulas (recetas) aisladas y la matemática empleada se reduce a las
cuatro operaciones y a la representación de puntos en la recta o en el plano, esta materia es
muy poco atractiva para los profesores y para los alumnos.
El objetivo de esta presentación es proveer una estructura unificadora para todas las herramientas mencionadas, a través de los conceptos matemáticos de invarianza y equivarianza
con respecto a un grupo de transformaciones. Las únicas transformaciones que se necesitan
son las permutaciones (tablas de frecuencia, tablas de contingencia, gráfico de puntos, gráficos de dispersión, etc.) y las traslaciones y los cambios de escala (medidas de tendencia
central, de escala y de posición). Las medidas de tendencia central y las medidas de posición
son equivariantes con respecto a cambios de localización y de escala, mientras que las medidas de dispersión son invariantes con respecto a cambios de localización y equivariantes con
respecto a cambios de escala.
Este punto de vista permite resolver dos problemas relacionados
(a) Definiciones formales de las medidas de resumen.
(b) Métodos para construir nuevas medidas de este tipo.
Palabras claves: Estadística descriptiva, distribuciones de frecuencia, medidas de resumen, invarianza, equivarianza.
36
Modelos culturales en la enseñanza de la estadística
Lina Wistuba M.
Pontificia Universidad Católica de Chile
Resumen
Este estudio trata acerca de una indagación para observar los modos culturales de la
enseñanza de la estadística en contextos educativos. Se tomaron como muestra los diseños y
planificaciones de profesores y diversos materiales educativos existentes en web y en foros, así
como también las pautas de algunos ramos de estadística de algunas casas de estudio nacionales y extranjeras (españolas y Latinoamericanas) con el propósito de generar aprendizaje
relativo al conocimiento estadístico en la formación docente.
Palabras claves: Didactica estadística, cultura
37
Estudio de Clases para el desarrollo profesional docente
en Educación Estadística
Soledad Estrella*
Pontificia Universidad Católica de Valparaíso
Raimundo Olfos
Pontificia Universidad Católica de Valparaíso
Resumen
La razón de ser de la enseñanza de la Estadística en la escuela es la alfabetización estadística necesaria para que los sujetos en el futuro sean competentes en la sociedad de la
información (del Pino y Estrella, 2012). Por ello la Educación Estadística está presente en
todos los niveles del currículo escolar (MINEDUC, 2012). Sin embargo, las exigencias de
alfabetización estadística estipuladas en el currículo no se condicen con las oportunidades de
actualización del profesorado para asumir estos cambios. La literatura internacional señala
que los profesores en ejercicio presentan una débil formación en la disciplina Estadística y en
su enseñanza (Shaughnessy, 2007; Franklin y Mewborn, 2006). En particular, deja ver que
malentienden los propósitos de la enseñanza de la estadística identificándolos con el aprendizaje de reglas para calcular medidas de tendencia y técnicas para representar datos por
medio de tablas y gráficos (Ben-Zvi y Sharett-Amir, 2005; Garfield y Ben-Zvi, 2007; Araneda
et al, 2011; del Pino y Estrella, 2012).
Para que el currículo decretado se implemente verdaderamente en las aulas es imprescindible la actualización de los docentes que enseñan Estadística. El Estudio de Clases (EC)
siendo una estrategia de formación continua para el profesorado ha sido citado como un
factor clave en la mejora de la enseñanza de las matemáticas en los sistemas educativos
(Fernández y Yoshida, 2004; Stigler y Hiebert, 1999). El EC es la principal estrategia de
desarrollo profesional en Japón y ha sido adoptado en una variedad de países, particularmente en los países miembros de la APEC, (Fang y Lee, 2009). En Estados Unidos se ha
valorado su aporte al mejoramiento de la formación docente (Hart, Alston y Murata, 2011;
Lewis et al, 2006). En Singapur, grupos de docentes de escuelas informan que el EC tiene un
enorme potencial para movilizar las concepciones docentes y la comprensión del aprendizaje
(Yoong, 2011). La evidencia da cuenta que el EC influye en el conocimiento y concepciones
de los docentes. Esta presentación muestra evidencias de la implementación del Estudio de
Clases en Educación Estadística realizadas por los autores en Chile, tanto en el contexto
de proyectos nacionales (Estrella y Olfos, 2013; Estrella et al, 2014) como internacionales
(Olfos, 2011; Olfos, Estrella y Morales, 2014).
Palabras claves: Estudio de Clases, Didáctica de la Estadística, Educación Estadística.
*
Email: [email protected], Agradecimientos a Proyectos: PIA-05 y APEC S HRD 04 13A.
38
Referencias
Araneda, A., del Pino, G., Estrella, S., Icaza, G., y San Martin, E. (2011). Recomendaciones para el currículo escolar del eje Estadística y Probabilidad. Recuperado de
soche.cl/archivos/Recomendaciones.pdf
Ben-Zvi, D., y Sharett-Amir, Y. (2005). How do Primary School Students Begin to Reason
about Distributions? En K. Makar (Ed.), Reasoning about distribution. Brisbane:
Queensland.
del Pino, G. y Estrella, S. (2012). Educación estadística: relaciones con la matemática.
Revista de Investigación Educacional Latinoamericana, Pensamiento Educativo, 49(1),
53-64.
Estrella, S., y Olfos, R. (2013). Estudio de Clases para el mejoramiento de la enseñanza
de la estadística en Chile. En Educación Estadística en América Latina: Tendencias
y Perspectivas, A. Salcedo (Ed.). Universidad Central de Venezuela, 2013. ISBN: 978980-00-2744-8, pp. 167 – 192.
Estrella, S., Olfos, R. y Morales, S. (2014). What Can We Learn from Natural Disasters to
Prevent Loss of Life in the Future? En Lessons Learned from Across the World-PreK-8.
NCTM, National Council of Teachers of Mathematics. VA: NCTM.
Fang, Y., y Lee, C. (2010). Lesson study and instructional improvement in Singapore (Research Brief No. 10-001). Singapore: National Institution of Singapore.
Fernández, C., y Yoshida, M. (2004). Lesson study: A case of a Japanese approach to
improving instruction through school-based teacher development. Mahwah: Lawrence
Erlbaum.
Franklin, C., y Mewborn, D. (2006). The statistical education of PreK-12 teachers: A shared
responsibility. En G. Burrill (Ed.), NCTM 2006 Yearbook: Thinking and reasoning with
data and chance (pp. 335- 344). Reston, VA: NCTM.
Garfield, J., y Ben-Zvi, D. (2007). How students learn statistics revisited: A current review
of research on teaching and learning statistics. International Statistical Review, 75(3),
372-396.
Hart, L. C., Alston, A., y Murata, A. (2011). Lesson study research and practice in mathematics education. Netherlands: Springer.
Lewis, C., Perry, R., Hurd, J., y O’Connell, M. P. (2006). Lesson study comes of age in
North America. Phi Delta Kappan, 88(4), 273–281.
MINEDUC (2012). Matemáticas Educación Básica. Bases Curriculares 2012. Santiago de
Chile: Ministerio de Educación.
Olfos, R. (2011). Lesson Study in Chile: The lesson of a collaboration Program. Fourth
APEC - Tsukuba International Conference: Innovation of Mathematics Teaching and
Learning. Tokyo, Japan.
39
Olfos, R., Estrella, S. y Morales, S. (2014). Open lessons impact statistics teaching teachers’
beliefs. En K. Makar, B. de Sousa, & R. Gould (Eds.), Sustainability in statistics education. Proceedings of the ICOTS9, Flagstaff, Arizona, USA. Voorburg, The Netherlands:
International Statistical Institute.
Shaughnessy, J.M. (2007). Research on statistics learning and reasoning. En F. Lester (Ed.),
Second handbook of research on mathematics teaching and learning (pp. 957-1009).
Greenwich, CT: Information Age Publishing, Inc. and NCTM.
Stigler, J., y Hiebert, J. (1999). The teaching gap. New York, NY: The Free Press.
Yoong, J. I. (2011, September/October). Let the students tell us how they learn. SingTeach,
32. Recuperado de http://singteach.nie.edu.sg/wp-content/uploads/SingTeach_Issue32.pdf
40
Parte III
Minicursos
41
Modelos de Regresión para Datos Censurados con
Aplicaciones en R
Víctor Hugo Lachos Dávila
UNICAMP-BRASIL
Resumen
Asumir que las observaciones siguen una distribución normal es una suposición rutinaria
en los modelos lineales para datos censurados, como fue visto en Park et al. (2007), Vaida
y Liu (2009), Barros et al. (2010), entre otros. Sin embargo, esta suposición puede no ser
realista, ocultando características importantes que están presente en los datos. Así, es conveniente considerar familias paramétricas de distribuciones que sean flexibles para capturar
una amplia variedad de comportamientos simétricos, que incluyam distribuciones como la
Normal, t de Student, slash y normal contaminada como casos especiales y que produzcan estimaciones robustas. En los últimos años, diversos resultados de naturaleza teórica y
aplicada surgieron como alternativas a los modelos con errores normales, como por ejemplo
un clase de distribuciones simétricas o Elípticas, Fang et al. (1990), o una sub clase de las
distribuciones simétricas, como por ejemplo las distribuciones de mixtura de escala normal
(SMN), definida por Lange y Sinsheimer (1993). Este tipo de distribuciones ha sido utilizado por muchos autores, como Cysneiros y Paula (2005), Osorio et al. (2007), Cysneiros y
Vanegas (2008), Paula y Cysneiros (2009), Russo et al. (2012), entre otros. En este sentido,
este curso tiene como objetivo presentar un estudio de inferencia clásica y Bayesiana en
modelos lineales para datos censurados (izquierda, derecha o intervalar) sobre distribuciones
mas robustas que la normal, esto es, las distribuciones SMN.
Desenvolveremos algoritmos de tipo EM y de tipo amostrador de Gibbs para realizar inferencias clásicas y Bayesianas, respecticvamente. Presentaremos Librerias del R para estudiar
los modelos censurados sob distribuciones SMN: 1)SMNCensReg, para el conteto clásico e
2)BayesCR para el contexto Bayesiano, quepueden ser instalados e utilizados libremente.
Para evaluar la performancia de la metodologia propuesta, serán presentados estudios de
simulación y aplicaciones utilizando datos reales.
Bibliografía
Barros, M., Galea, M., González, M. & Leiva, V. (2010). Influence diagnostics in the Tobit
censored ‘ response model. Statistical Methods & Applications, 19, 716–723.
Cysneiros, F. J. A. & Vanegas, L. H. (2008). Residuals and their statistical properties in
symmetrical nonlinear models. Statistics & Probability Letters, 78, 3269–3273.
Fang, K. T. & Zhang, Y. T. (1990). Generalized Multivariate Analysis. Springer.
Lange R, Sinsheimer JS (1993) Normal/independent distributions and their applications in
robust regression. J Comput Graph Stat 2:175–198.
Osorio, F., Paula, G. A. & Galea, M. (2007). Assessment of local influence in elliptical
linear models with longitudinal structure. Computational Statistics & Data Analysis,
51, 4354–4368.
42
Park, J. W., Genton, M. G. & Ghosh, S. K. (2007). Censored time series analysis with
autoregressive moving average models. Canadian Journal of Statistics, 35, 151–168.
Vaida, F. & Liu, L. (2009). Fast Implementation for Normal Mixed Effects Models with
Censored Response. Journal of Computational and Graphical Statistics, 18, 797–817.
43
Tópicos de estadística y data mining en Big Data
Ernesto Mislej*
Socio fundador de 7Puentes y Académico de la Universidad de Buenos Aires
Resumen
Las unidades temáticas y ejemplos están motivados mayormente en problemas actuales
derivados de la Web, su estructura y en los datos que ésta genera a partir de sitios de
noticias, redes sociales, buscadores de internet, sistemas de comercio electrónico, entre otros.
Para ello se han diseñado una recopilación de técnicas, algoritmos y problemas agrupado en
ejes temáticos.
Se dará énfasis a la problemática conocida como Big Data que trata sobre el tamaño de
los datos, el modelo de arquitectura y file systems distribuidos de gran escala.
Unidades temáticas
1er día:
1) Introducción al Big Data: Introducción a los problemas sobre volúmenes de datos muy
grandes (Big Data); arquitectura de datos y file system distribuidos de gran escala y
modelo map reduce para diseñar algoritmos paralelos. Principio de Bonferroni, límite
estadístico en el data-mining. Paradoja de Rhine, Detección de gente sospechosa
Ejemplos +académicos
2) Similitud de items: Métodos de búsqueda de items por similitud. Indicador de Jaccard
sobre conjuntos y bags, similitud de documentos. Técnica de Shingling de documentos,
Minhashing y hashing localmente sensible. Aplicaciones: detección de plagio, signature
de documentos.
3) Data Mining sobre flujo de datos Modelo de Stream Data. Ejemplos de orígenes de datos
del tipo stream. Técnicas de sampling y filtrado. Bloom filtering. Problema de estimación de eventos distintos, estimador de Flajolet-Martin y otros algoritmos. Problema de
almacenamiento, procesamiento, óptimo y estimados.
2do día:
4) Análisis de grafos de relaciones: Estudio de los fundamentos de los buscadores de In- ternet
modernos, Google’s PageRank, Hubs y autoridades, link spam farm y otros problemas.
Reconocimiento de líderes de opinión y eminencias en redes sociales
5) Sistemas de recomendación Introducción a los sistemas de recomendación. Matriz de
utilidad, Long tail. Aplicaciones. Sistemas basados en contenido. Representación de los
items, los usuarios y los votos. Filtros colaborativos. Similitud de items y usuarios, coldstart. Factorización de matrices. Modelos basados en conocimiento y modelos híbridos.
Modelos de obtención del feedback. Evaluación.
Bibliografía
http://infolab.stanford.edu/ ullman/mmds.html Jure Leskovec, Anand Rajaraman, Jeff
Ullman
Descarga gratuita: http://infolab.stanford.edu/ ullman/mmds.html
*
Email: [email protected],
44
Estadística Genética: herramientas y modelos para el
análisis de información genética de alta dimensionalidad
Lucía Gutiérrez
Departamento de Estadística, Facultad de Agronomía, Universidad de la República
Resumen
El mini-curso se enfoca en las herramientas y los modelos utilizados para el análisis de
información genética de alta dimensionalidad. Se cubrirá la teoría de los métodos de mapeo
de caracteres cuantitativos complejos (mapeo de QTL) y la predicción genómica incluyendo
la utilización de modelos mixtos, aplicaciones prácticas y el uso de software libre (R). Se
realizará una introducción al mapeo de QTL en poblaciones balanceadas (QTL tradicional)
que luego se extenderá al mapeo en poblaciones amplias (GWAS) y se describirá el uso de
modelos de predicción genómica. Se cubrirán diferentes estrategias para controlar por la
estructura poblacional incluyendo diferentes métodos para determinar estructura, así como
diferentes modelos para corregir por estructura. Se presentaran modelos mixtos con interacción genotipo por ambiente y QTL por ambiente, así como modelos mixtos para el control
de la estructura poblacional.
Antecedentes:
El mapeo con poblaciones bi-parentales (o Mapeo de QTL Tradicional) se basa en la construcción de poblaciones balanceadas, sobre las que se conoce la historia de recombinación.
Luego se busca una asociación entre un marcador molecular y un QTL (Hartl and Clark,
1998). Se espera que esta asociación estadística esté relacionada con un ligamiento físico (i.e.
que el marcador se encuentre cercano físicamente en el genoma al QTL asociado) debido a
que es conocido el número de meiosis ocurridas en la creación de la población. A su vez se
pueden estimar efectos de QTL entre marcadores a partir del cálculo de las probabilidades
condicionales de los QTL dados los marcadores y el tipo de población. El Mapeo Asociativo
(o GWAS) también se basa en la identificación de una asociación entre un marcador molecular y un QTL (Hartl and Clark, 1998). Sin embargo, debido a que las poblaciones que se
usan son muy diversas y se desconoce su historia de recombinación, se puede asumir que el
ligamiento físico no es la única causa del desequilibrio de ligamiento. El desequilibrio de ligamiento se puede generar debido a diversas condiciones como son la estructura poblacional,
la selección, las mezclas poblacionales, y otras causas evolutivas (Jannink et al., 2001). Por
lo tanto, en el mapeo asociativo por desequilibrio de ligamiento es importante controlar las
asociaciones espurias que se puedan generar debidas a estructura poblacional. El GWAS tiene algunas ventajas respecto al uso de poblaciones bi-parentales entre las que se encuentran:
1) evaluación de colecciones genéticamente diversas de germoplasma; 2) mayor resolución de
mapeo; 3) utilización de información histórica; 4) aplicación directa al mejoramiento genético
de plantas (Kraakman et al., 2004; (Dekkers and Hospital, 2002; Yu and Buckler, 2006)).
Esta metodología se ha utilizado en gran medida en plantas (Kraakman et al., 2004; 2006;
Hayes and Szücs, 2006; Stracke et al., 2009; Waugh et al., 2009; Roy et al., 2010; Bradbury
et al., 2011; von Zitzewitz et al., 2011; Gutierrez et al., 2011). Para el mapeo de QTL se
utilizan modelos con mezclas de distribuciones ((Lander and Botstein 1989), regresiones lineales (Haley and Knott 1992; Martínez and Curnow 1992) y modelos mixtos (Piepho 2000).
45
También existen modelos bayesianos (Bink et al. 2002; Yi and Shriner 2008). Las ventajas
relativas de los diferentes modelos dependen del tipo de población utilizada, del control de
la estrucutra poblacional y si se intenta modelar la interaccion genotipo por ambiente.
Por otro lado, los estudios de QTL tienen un poder limitado, por lo que no es posible
identificar todos los QTL involucrados en un carácter determinado. En general se identifican
los QTL de efectos mayores que pueden pasar los niveles de significancia impuestos y en
consecuencia los QTL de efectos menores no son identificados en la mayoría de los casos.
Esto es conocido como el “Beavis effect” (Beavis, 1998) y genera dos problemas, en primera
instancia que el número de QTL identificados sea menor que el existente, y en segundo
lugar, que el efecto de los QTL sea sobre-estimado (Bernardo, 2010). Para superar esta
limitante es que se propusieron alternativas de selección genómica (GS por su sigla en inglés:
Genomic Selection, Meuwissen et al., 2001) en la que no se hace énfasis en los marcadores
que superaran un determinado nivel de significancia sino que se utilizan todos los marcadores
para realizar una predicción del fenotípico que es directamente utilizada en el programa de
mejoramiento. GS es una herramienta que permite la predicción de caracteres complejos
basadas en el estado alélico de los marcadores moleculares (Heffner et al., 2009). Existe
una gran diversidad de modelos para predicción genómica ((Meuwissen et al., 2001; Gianola
et al 2006; Bernardo and Yu 2007; Lorenzana and Bernardo, 2009; de los Campos et al.,
2012): modelos basados en los BLUP obtenidos de modelos mixtos (RR-BLUP o G-BLUP),
modelos bayesianos con diferentes distribuciones a priori (Bayesian LASSO, Bayesian-RR,
Bayes A,B,C, etc.) y modelos semi-paramétricos (RKHS, PNN, etc.).
A su vez, los caracteres complejos que en general son objetivos de los programas de
mejoramiento genético muestran típicamente interacción genotipo por ambiente (Mathews et
al., 2008). Los modelos mixtos han sido utilizados para el estudio de la interacción Genotipo
x Ambiente modelando la estructura de varianzas y covarianzas, así como QTL x Ambiente
(QEI) (Piepho 2000; Verbyla et al., 2003; Malosetti et al., 2004; van Eeuwijk et al., 2005;
Boer et al., 2007; Mathews et al., 2008). Sin embargo, estos modelos no han sido utilizados
en poblaciones amplias (GWAS).
46
Taller de Enseñanza de la Estadística en Educación
Media
Ana María Araneda Levy
Pontificia Universidad Católica de Chile
Resumen
Este taller está dirigido a profesores de Matemáticas de Enseñanza Media que deseen
actualizar sus conocimientos en Estadística y Probabilidad para su enseñanza. El taller
propone esta enseñanza basada en actividades replicables en aula, que serán desarrolladas por
los asistentes para su posterior análisis y formalización de conceptos desde el punto de vista
teórico. Las actividades se desarrollarán en base a datos, ya sea recolectados en el momento
por los asistentes, u obtenidos a través de simulaciones que utilizan aplicaciones factibles de
llevar al aula escolar. La modalidad se focaliza en el desarrollo tanto del conocimiento común
de la estadística, como del conocimiento especializado que debe poseer un profesor a nivel
escolar para lograr aprendizajes significativos en aula.
47
Parte IV
Trabajos orales
48
Fully nonparametric regression models for compositional
data using dependent Bernstein polynomials
Alejandro Jara*
Andrés F. Barrientos
Department of Statistics, Pontificia Universidad Católica de Chile.
Abstract
Models for probability distributions based on convex combinations of densities from parametric families underly mainstream approaches to density estimation, including kernel techniques, nonparametric maximum likelihood and Bayesian nonparametric (BNP) approaches.
From a BNP point of view, the mixture model provides a convenient set up for density estimation in that a prior distribution on densities is induced by placing a prior distribution on
the mixing measure. On the real line, a mixture of normal densities induced by a Dirichlet
process (DP) is often used to model smooth densities. Due to the flexibility and ease in
computation, these models are now routinely implemented in a wide variety of applications.
While the normal kernel is a sensible choice on the real line, its usefulness is rather limited
when considering densities on convex and compact subspaces, suchPas the closed unit interval or the m–dimensional simplex ∆m = {(y1 , . . . , ym ) ∈ [0, 1]m : m
i=1 yi ≤ 1}. Although
methods based on the normal kernel could be used to deal with data supported on these
spaces, by using transformations, the resulting model is susceptible to boundary effects.
Motivated
by
its
uniform
approximation
properties,
frequentist
and
Bayesian methods based on univariate Bernstein polynomials (BP) and more general discrete mixtures of beta distributions have been proposed for the estimation of probability
distributions supported on bounded intervals. Extensions based on multivariate BP (MBP)
defined on the unit hyper-cube have been considered in the statistical literature. Multivariate extensions of Bernstein polynomials defined on ∆m were considered by Tenbusch (1994.
Metrika, 41: 233 – 253), to propose and study a density estimator for the data supported on
∆2 . Although Tenbusch’s estimator is consistent and optimal at the interior points of the
simplex, it is not a valid density function for finite sample size.
We discuss Bayesian nonparametric procedures for fully nonparametric regression for
data supported in a m–dimensional simplex ∆m . The procedures are based on modified
classes of multivariate Bernstein polynomials. We show that the modified classes retain
the well known approximation properties of the classical versions defined on [0, 1]m and ∆m ,
m ≥ 1. Based on these classes, we define prior distributions on the space predictor-dependent
collections of probability measures defined on ∆m , P(∆m )X , where X ⊆ RP is the predictors
spaces. Appealing theoretical properties such as support, continuity, marginal distribution,
correlation structure, and consistency of the posterior distribution are studied.
Keywords: Simplex; Random Bernstein polynomials; Dependent Dirichlet processes.
*
Email: [email protected] A. Jara’s research is supported by Fondecyt grant 1141193. The work of A.F.
Barrientos is supported by Fondecyt grant 3130400.
49
Estimación en el modelo de regresión lineal con errores
no normales: secante hiperbólica generalizada
Alvaro Alexander Burbano Moreno*
Facultad de Ciencias. Depto Estadística, Universidad Nacional de Colombia Sede Bogotá.
Oscar Orlando Melo Martinez**
Facultad de Ciencias. Depto Estadística, Universidad Nacional de Colombia Sede Bogotá.
Resumen
En un modelo de regresión lineal del tipo y = θx + e, a menudo se asume que los errores
ei , 1 ≤ i ≤ n son idd (independientes e idénticamente distribuidos) con distribución normal
N (0, σ 2 ). Sin embargo, hay muchas situaciones de la vida real en las cuales es evidente que la
respuesta no es normal. Por ejemplo, existen aplicaciones donde la respuesta es binaria (0 o 1)
y, por ello, su naturaleza es de Bernoulli. Otras veces, cuando la respuesta mide los tiempos
de vida o los tiempos de reacción, los errores normalmente tienen una distribución sesgada.
Por lo tanto, en este trabajo se asume que los ei tienen una distribución Secante Hiperbólica
Generalizada (SHG)(Vaughan 2002). Esta se compone de distribuciones simétricas tanto de
cola corta y larga con curtosis que van desde 1,8 a 9 e incluye la logística como un caso
particular, la uniforme como un caso límite y se aproxima estrechamente a las distribuciones
normal y t de Student. Debido al amplio tipo de distribuciones que pueden ser consideradas,
la SHG puede utilizarse eficazmente en la modelización de diferentes tipos de datos.
Las ecuaciones de verosimilitud para la SHG son insolubles y resolverlas por interacción
puede ser problemático (Barnett 1996a, Vaughan 1992, Tiku et al. 2004). Si los datos contienen valores atípicos, las interacciones con las ecuaciones de verosimilitud son a menudo no
convergentes (Puthenpura & Sinha 1986). Para mitigar estas dificultades, se puede utilizar
el método de máxima verosimilitud modificada (M V M ) (Tiku & Suresh 1992, Tiku 1967a),
donde los estimadores obtenidos, tienen formas algebraicas explícitas y son, por lo tanto,
fáciles para calcular y se sabe que tienen las propiedades bajo las condiciones de regularidad
habituales para la existencia de los estimadores de M V (máxima verosimilitud).
En este sentido, este trabajo tiene como objetivo presentar un estudio del modelo lineal
clásico con el supuesto de la distribución SHG de error, y emplear el método de estimación
de M V M para una serie de datos.
Palabras claves: Distribución Secante Hiperbólica Generalizada, Modelo lineal clásico,
Verosimilitud modificada, Mínimos cuadrados.
*
**
Email: [email protected]
Email: [email protected]
50
Optimización de Procesos Alimentarios con diseños
experimentales de una mezcla seca de polvo de cacao
mediante la metodología de superficie de respuesta
Alfonso Tesén Arroyo*
Elena Gabriela Chau Loo Kung
2 Universidad
Católica Santo Toribio De Mogrovejo, Chiclayo Perú
Jenny del Carmen Valdez Arana
3 Universidad
Agraria La Molina, Lima Perú
Resumen
El presente trabajo de investigación tuvo como objetivo optimizar la aceptabilidad general
mediante pruebas afectivas y metodología de superficie de respuesta de una bebida a base
de una mezcla seca de polvo de cacao. Se obtuvieron formulaciones de mezclas de polvo de
cacao con diferentes concentraciones del 15 %, 17,5 % y 20 %, así mismo con concentraciones
de lecitina de 0,1 %; 0,3 %; y 0,5 % manteniendo constante el contenido de azúcar (25 %),
vainillina (1 %) que incluyeron al polvo de cacao con diferente valor de pH: natural (pH 5) y
alcalinizado (pH 6,5 y pH 8) y agua por diferencia al 100 %, generándose un total de quince
tratamientos a evaluar, según el diseño Box-Behnken para tres factores. Los tratamientos
fueron sometidos a pruebas de grado de satisfacción para establecer la aceptabilidad en
general. El tratamiento que incluía polvo de cacao al 17,5 % de concentración, pH 6,5 y una
concentración de lecitina de 0,3 % obtuvo los mejores niveles de aceptabilidad. Se utilizó el
programa Statgraphics Plus 5.1 para obtener el tratamiento con máxima aceptabilidad que
correspondió a polvo de cacao a pH 6,81, con una concentración de 18,24 % y lecitina de soya
en un 0,28 % con tendencia a lo obtenido en las pruebas de grado de satisfacción. Finalmente
se caracterizó fisicoquímicamente y microbiológicamente a la formulación óptima así mismo
se le evaluó sensorialmente obteniendo una aceptabilidad de 6,17.
Palabras claves: Mezclas, Sensorial, Optimización, Superficie de Respuesta
*
Email: [email protected],
51
Proceso analítico jerárquico aplicado en la toma de
decisiones de nuevos productos
Alfonso Tesén Arroyo*
Universidad Nacional Pedro Ruiz Gallo de Lambayeque Perú.
Resumen
A medida que aumenta la complejidad de nuestro mundo, se hace más difícil tomar decisiones informadas e inteligentes. Con frecuencia, estas decisiones han de tomarse con un
conocimiento imperfecto de la situación y un grado considerable de incertidumbre. Sin embargo, las soluciones pertinentes son esenciales para nuestro bienestar e incluso para nuestra
supervivencia; por tal motivo, el presente trabajo de investigación, tiene como objetivo la
aplicación del Proceso Analítico de Jerarquias (PAJ) ( o AHP, de Analitic Hierarchy Process), esta técnica fue desarrollado por Thomas L. Saaty, diseñado para resolver problemas
complejos que tienen criterios multiples para la toma de decisiones sobre todo en la investigación de mercados.
La aplicación se realizara paso a paso con el Excel y posteriormente mediante un Software
especial elaborado exclusivamente para esta técnica por el ponente.
El Proceso Analítico de Jerarquías es muy parecida al Análisis Conjunto que trata de
determinar la importancia relativa que los consumidores dan a los atributos sobresalientes y
las utilidades que dan a los niveles de los atributos.
La aplicación de esta técnica es de mucha importancia para cualquier profesional que
tenga que tomar decisiones sobre todo en la creciente incertidumbre que cada día tiene que
afrontar un gerente o cualquier hombre de negocios.
Palabras clave: Toma de Decisiones Proceso analítico de procesos, análisis conjunto
*
Email: [email protected]
52
El proceso de investigación econométrica (PIE)
Alfredo Mario Baronio
Universidad Nacional de Río Cuarto – Universidad Nacional de Villa María
Ana María Vianco*
Universidad Nacional de Río Cuarto
Resumen
El Análisis de Clusters es una técnica descriptiva de clasificación no supervisada que
permite clasificar objetos en grupos homogéneos siguiendo un criterio de similitud. Así, los
grupos obtenidos contienen objetos que son similares en su interior y disímiles entre grupos.
Existe una vasta literatura, incluyendo varios algoritmos de clasificación y criterios de similitud, que tratan el caso en que los objetos son representados por un vector de medidas.
En esta aplicación se presentan los resultados de un Análisis de Cluster en el cual los
objetos son representados mediante funciones. Este tipo de datos de naturaleza infinita son
estudiados por la rama de la estadística conocida como Análisis de Datos Funcionales. Entre
los problemas a tratar se encuentra la representación de los datos y el uso de un criterio de
similitud consistente con la naturaleza de los objetos funcionales.
El trabajo está guiado por el análisis a la demanda de energía eléctrica en Uruguay.
El objetivo es obtener un agrupamiento que permita describir e interpretar diferencias de
comportamiento en la demanda diaria de energía eléctrica a nivel del sistema eléctrico. Los
objetos con los que se trata son trayectorias de procesos estocásticos que se representan como
funciones del tiempo. La no estacionariedad del proceso subyacente introduce una dificultad
adicional.
Se exploran diversas estrategias de pre-procesamiento de los datos funcionales en esta
situación y se comparan diferentes algoritmos de clustering y nociones de disimilitud entre
los objetos funcionales.
Palabras claves: análisis de datos funcionales; clustering ; medidas de disimilaridad
*
Email: [email protected],
53
Modelos multiniveles de series autorregresivas funcionales
Benjamín J. Castillo Fierro*
Resumen
Es común de hoy en día el aplicar los modelos propuestos por Box y Jenkins para la
estimación de todo tipo de series, sin embargo la aplicación se limita al uso habitual del
concepto de datos como un punto y no a una visión funcional de ésta. Más aún, la perspectiva
de datos que son recolectados en relación a estratos tal como un modelo jerárquico lineal
no es de uso común y por ende se pretende difundir el uso de esta metodología a nuevas
áreas de estudio. Los conceptos de autorregresivo y de media móvil pueden ser fácilmente
extrapolados a un texto funcional reconociendo la naturaleza métrica de éstos. De manera
similar, los modelos multinivel son de fácil reconocimiento y utilización, lo que amplía su uso
en distintas áreas de estudio.
A modo de ejemplo se pretende representar el estudio mediante un breve ejemplo en la
Bolsa de Comercio de Santiago el uso de series de tiempo funcionales en niveles de transacciones accionarias. La elección no estándar de la métrica asociada es un punto que se verá
puede traer grandes beneficios al momento de elegir un portafolio de inversión.
Palabras claves: Datos funcionales, Modelos multinivel funcionales, autorregresivo, medias móviles, Bolsa de Comercio de Santiago.
*
Email: [email protected],
54
Análisis de componentes principales funcionales aplicados
a opciones desestacionalizadas del IGPA
Benjamín J. Castillo Fierro*
Departamento de Estadística, Universidad del Bío-Bío.
Miguel Yañez Alvarado
Departamento de Estadística, Universidad del Bío-Bío.
Mauricio Gutierrez Urzua
Departamento de Economía y Finanzas, Universidad del Bío-Bío.
Resumen
El estudio de datos funcionales ha crecido enormemente en estos últimos años, no tan solo
por su versatilidad sino que además por el notable crecimiento de la potencia computadoriza.
El análisis de series vistas del punto de vista como datos funcionales no es nada nuevo. Más
aún, en las distintas opciones de desempeño económico agrupadas en un índice es de uso
iterativo, en esta propuesta es de tipo funcional ajustada no a el valor de opción sino que
a la serie desestacionalizada mediante el método X-13 ARIMA. Esto para evitar el efecto
calendario. El uso de la métrica es tema de estudio así como el del criterio de corte al
momento de decidir la cantidad de grupos a estudiar.
El seguimiento de las componentes principales corresponde a una agrupación de mínima
diferencia métrica que distingue las oscilaciones propias de cada activo y su influencia en
el IGPA. Las correlaciones métricas se distinguen y se explican en relación a su peso en el
mercado y volumen transado.
Palabras claves: IGPA, datos funcionales, componentes principales funcionales, métrica, X-13 ARIMA, efecto calendario.
*
Email: [email protected],
55
Small sample properties of Dirichlet process mixture
models for data supported on compact intervals
Claudia Wehrhahn*
Alejandro Jara
Andrés F. Barrientos
Pontificia Universidad Católica de Chile.
Abstract
Bayesian nonparametric (BNP) procedures have been the focus of a large amount of
research in recent years. They offer a highly flexible model-based framework when the parameter space is infinite dimensional. For instance, in a single density estimation problem
the parameter space corresponds to the collection of all the probability measures defined
on a given measurable space (S, S), such that they have density function w.r.t. Lebesgue
measure, P(S). In this setting, a BNP model corresponds to a prior distribution defined
on P(S), which is expected to satisfy minimal desirable properties: the topological support
should be large and the induced posterior distribution given a sample of observations should
be tractable and consistent.
The consistency properties of BNP models for single density estimation have been extensively studied from both Bayesian and frequentist points of view. In a frequentist context,
we say that a posterior distribution is d-consistent at P0 ∈ P(S) if, for every > 0,
lı́m Π {P ∈ P(S) : d(P, P0 ) < | X1 , . . . , Xn } = 1
n−→∞
where d is a metric on P(A) and Π{· | X1 , . . . , Xn } is the posterior distribution given the
random sample X1 , . . . , Xn , drawn from P0 . If consistency holds, another frequentist large
sample property of interest is the rate at which the posterior distribution concentrates around
the true P0 , referred to as the posterior convergence rate. We say that a posterior distribution
converges to P0 with rate n if, for some sufficiently large constant M ,
lı́m Π {P ∈ P(A) : d(P, P0 ) < M n | X1 , . . . , Xn } = 1,
n−→∞
where n is a sequence that converges to zero when n goes to infinity. Posterior convergence
rates have been derived for most BNP models and in a wide variety of contexts, and they
have became the standard criteria for model selection; the faster the rate, the better the
model.
The extremely weak conditions under which many BNP models have been shown to have
optimal rates of convergence might well trap the unwary into a false sense of security, by
suggesting that the best estimates can be obtained from the rate-optimal BNP models in
a wide range of settings and for every sample size n. Unfortunately, the use of asymptotic
justifications for modelling selection could lead to the choice of models poorly suited for
*
Email: [email protected], The work of the first author is supported by Conicyt. The work of A.F.
Barrientos is supported by Fondecyt grant 3130400. A. Jara’s research is supported by Fondecyt grant
1141193.
56
“small” datasets. The overriding problem is that rate-optimal models are not uniformly the
best with respect to the posterior mass assigned around the true for every sample size.
In this work we study the small sample properties of two BNP models for single density
estimation. Both models correspond to Dirichlet process mixture (DPM) of beta models and
have different posterior convergence rates. Specifically, we consider the Bernstein-Dirichlet
prior proposed by Petrone (1999. Scandinavian Journal of Statistics, 26: 373–393) and the
DPM of mixtures of beta models proposed by Kruijer & Van der Vaart (2008. Journal of
Statistical Planning and Inference 138: 1981–1992). Under the Hellinger metric, the posterior
distribution of the Bernstein-Dirichlet prior and the DPM of mixtures of beta models is
minimax suboptimal and optimal, respectively. Here, it is assumed that P0 is a probability
measure with density function w.r.t. the Lebesgue measure belonging to a Hölder class with
α-regularity of at most α = 1. The comparison of the model is performed using simulated
data under different scenarios, sample sizes and considering different metrics. The results
show that the suboptimal model outperformed the optimal one in most cases.
Keywords: Bayesian nonparametrics, density estimation, frequentist asymptotics.
57
Predictor-dependent modeling for bivariate extremes
D. A. Castro*
Pontificia Universidad Católica de Chile, Chile.
M. De Carvalho
Pontificia Universidad Católica de Chile, Chile.
J. L. Wadsworth
University of Cambridge, UK.
Abstract
The spectral density plays a key role in bivariate extremes, allowing us to understand how
extremes in one variable are related to those in another one. The limiting joint distribution
of two extremes that characterized the dependence structure has a nonparametric form. We
propose a regression model for the spectral density of a bivariate extreme value distribution that allows us to assess how extremal dependence evolves over a certain covariate. A
simulation study and a data application are given.
Keywords: Bivariate extremes values, Predictor-dependent probability measures, Spectral measure, Statistics of extremes.
*
Email: [email protected],
58
Determinantes de la probabilidad de aportar al Sistema
de Seguridad Social del Paraguay
Diego Bernardo Meza Bogado*
Facultad de Ciencias Exactas y Naturales. Universidad Nacional de Asunción. Paraguay
María Cristina Martín
Facultad de Ciencias Exactas y Naturales. Universidad Nacional de La Pampa. Argentina
Resumen
El Paraguay se caracteriza por un bajo grado de cobertura de la previsión social. Según
resultados de la Encuesta Permanente de Hogares del año 2011 (EPH 2011), publicados por
la Dirección General de Encuestas Estadísticas y Censos (DGEEC), solo el 25,6 % de los
trabajadores asalariados cotizan a alguna caja de jubilación. Esta característica es debida
al elevado índice de evasión al sistema, resultante de la deficiente calidad de los servicios
ofrecidos y de la poca efectividad del control y seguimiento de los mecanismos de percepción
de los aportes. Teniendo como uno de los objetivos fundamentales establecer recomendaciones
para la evaluación y diseño de políticas de gobierno que permitan ampliar el bajo nivel de
cobertura que el país tiene actualmente, en este trabajo se analizan los determinantes de
la probabilidad de aportar al Sistema de Seguridad Social del Paraguay, a partir ciertas
características sociodemográficas de los trabajadores del sector privado y de algunas variables
económicas. Utilizando la base de datos de la EPH 2011, luego de aplicar el Modelo Logit
Binario y la técnica Stepwise para seleccionar las variables que componen el modelo final,
se concluye que hay indicios para afirmar que la educación, el nivel de ingresos, los años de
experiencia de los trabajadores, además del tamaño de la empresa donde trabaja y la rama
de actividad inciden fuertemente en la probabilidad de aportar al Sistema de Seguridad
Social. El análisis descriptivo también permite observar que los empleados que trabajan en
empresas pequeñas de la rama de agricultura o construcción, con salarios bajos y pocos años
de experiencia, son los más afectados por el trabajo sin cobertura de jubilación. De igual
manera, de los resultados de los cocientes entre los cocientes odd, se puede destacar que las
personas que trabajan en empresas con muchos empleados (empresas grandes) tienen una
ventaja hasta 11 veces superior, con respecto a la probabilidad de aportar que tienen aquellas
personas que trabajan en empresas de 2 a 5 empleados (pequeñas empresas). Asimismo,
las personas con ingresos altos tienen probabilidad de aportar 16 veces mayores que los
empleados con salarios bajos. Clasificando a los individuos con probabilidad de aportar mayor
a 0,53 como aportantes a una caja, se obtiene para el modelo que la máxima Tasa de Aciertos
es igual a 81,88 %, por lo que la capacidad predictiva del modelo matemático propuesto es
buena. Similarmente, el valor del área bajo la curva ROC, igual a 0,872, permite considerar
que el modelo tiene capacidad de discriminación elevada. Finalmente, el modelo propuesto
ha sido validado mediante el análisis de los residuos. Sólo el 2,1 % de estos residuos ajustados
están fuera del intervalo ±2, pero ninguno de estos errores es potencialmente influyente en
el modelo.
Palabras claves: Seguridad social, Determinantes de la probabilidad de aportar, Modelo
Logit, Técnica Stepwise.
*
Email: [email protected],
59
Modelo Destructivo de Poisson Ponderado con fracción
de cura y efectos aleatorios: enfoques Clásico y
Bayesiano.
Diego Ignacio Gallardo Mateluna*
Heleno Bolfarine
Antonio Carlos Pedroso de Lima
Instituto de Matemática e Estatística - Universidade de São Paulo.
Resumen
En este trabajo incluímos efectos aleatorios en el modelo destructivo de Poisson Ponderado con fracción de cura propuesto en Rodrigues et al. (2011). Para la estimación de
parámetros, consideramos un enfoque clássico basado en el método de máxima verosimilitud
restringida (REML) propuesto en McGilchrist
and Yau (1995) y un enfoque Bayesiano a través de distribuciones a priori basadas en
Procesos de Dirichlet (Ferguson, 1973). Son presentados estudios de simulación para evaluar
el desempeño del modelo propuesto e ilustrado con una base de datos real.
Palabras claves: Restricted maximum likelihood (REML), Procesos de Dirichlet, Riesgos competitivos, Modelos con fracción de cura.
*
Email: [email protected], Financiado por Fundação de Amparo à pesquisa de São Paulo (FAPESP).
60
Improving Shewhart-type Generalized Variance Control
Charts for Multivariate Process Variability Monitoring
using Cornish-Fisher Quantile Correction, Meijer-G
Function and Other Tools
Emanuel Pimentel Barbosa* ,Mario A. Gneri, Ariane Meneguetti
Departamento de Estatística, IMECC-UNICAMP, Campinas, SP, Brazil
Abstract
This paper presents an improved version of the Shewhart-type generalized variance |S|
control chart for multivariate Gaussian process dispersion monitoring, based on the CornishFisher quantile formula for non-normality correction of the traditional normal based 3-sigma
chart limits.
Also, the exact sample distribution of |S| and its quantiles (chart exact limits) are obtained through the Meijer-G function (inverse Mellin-Barnes integral transform), and an
auxiliary control chart based on the trace of the standardized S matrix is introduced
in
P
order to avoid non detection of certain changes in the process variance-covariance
matrix.
The performance of the proposed CF-corrected control chart is compared, considering
false alarm risk (using analytical and simulation tools), with the traditional normal based
chart and with the exact distributed based chart (for dimensions d=2 and d=3). This study
shows that the proposed control limit corrections do remove the drawback of excess of false
alarm associated with the traditional normal based |S| control chart.
The proposed new chart (with its corresponding auxiliary chart) is illustrated with two
numerical examples.
Keywords: Cornish-Fisher, False Alarm, Generalized Variance, Multivariate Process,
Variability Monitoring.
*
Email: [email protected], Adress correspondence to Emanuel P. Barbosa, IMECC, UNICAMP,
Barão Geraldo, 13083-859, Campinas, SP, Brazil
61
La Determinación de la Dispersión de una Variable en
una Población Desconocida
Ernesto A. Rosa*
Departamento de Metodología, Estadística y Matemática
Universidad Nacional de Tres de Febrero (UNTREF)
Resumen
En los casos de estudios estadísticos sobre variables cuantitativas, las medidas de mayor importancia son usualmente el Promedio y el Desvío Estándar (DE) o la Variancia. El
Promedio, debido a que es el objeto usual de los métodos inferenciales (estimación o verificación), y el DE debido a que se constituye en un valor necesario para la aplicación de los
métodos.
Efectivamente, el Desvío Estándar de una Distribución de Frecuencias (o de una Función
de Probabilidad que genera los datos), no es por lo general el objeto directo de los trabajos
inferenciales de Estadística, sino que su importancia reside en que las aplicaciones de los
métodos de Estadística Inferencial, requieren usualmente el conocimiento de su valor, para
incluirlo dentro de los modelos de estimación, verificación de hipótesis, cálculo de tamaño de
muestras, etc.
Esta situación plantea una de las dudas que generaron este trabajo: ¿ Qué sucede cuándo
se desconoce la dimensión de la Dispersión de una distribución, y se debe realizar con la
misma algún trabajo de inferencia estadística sobre el Promedio o el Total de una población
?
Para paliar ese desconocimiento, usualmente se realizan algunos “supuestos previos” o
se recurre a “cifras anteriores” o a “sondeos pilotos”, mediante los cuales se determinan los
valores necesarios para su aplicación en los modelos inferenciales. Otra solución usual, es
utilizar la Amplitud (A) de la Distribución o función, para tener con ella alguna idea de la
dispersión de la variable, y estimar indirectamente el valor del necesario DE. Estas soluciones
a las que se recurre usualmente en la práctica, motivan las dudas principales tratadas en este
Proyecto:
¿ Son correctas estas soluciones para disponer de algún valor de la Dispersión ?
¿ Cuánto puede influir en el trabajo inferencial una incorrecta adjudicación de un valor
de Dispersión ?
Para responderlas se propuso la realización de este Proyecto en el marco de las investigaciones
de la UNTREF durante 2012 y 2013, en el que finalmente la tarea principal, consistió en
calcular y comparar los resultados de los DE y las A de una importante cantidad de Funciones
de Probabilidad y Distribuciones de Frecuencias.
Palabras claves: ispersión, Muestreo, Inferencia Estadística
*
Email: [email protected],
62
Forecasting High Frequency Time Series by using
Machine Learning
Erick López1* , Héctor Allende1,2
1 Universidad
2 Universidad
Técnica Federico Santa María, Dept. de Informática, Valparaíso - Chile.
Adolfo Ibañez, Facultad de Ingeniería y Ciencias, Viña del Mar - Chile.
Abstract
The ACM-ACD model, proposed by Russell and Engle [2005], models high frequency
financial time series using mainly two characteristics: the time series are irregularly spaced
on time and the price changes between consecutive prices takes discrete values. However, the
model imposes some distributional assumptions and is over-parametrized.
In this work, we propose a technique to model high frequency time series by using the
ACM-ACD approach and machine learning methods, such as Support Vector Machines
(SVM) and Feedforward Artificial Neural Networks (FANN). First, the duration between
transactions, {τi }i=1,...,T , are modeled by a multilayer network (FANN) or a Support Vector
Regression (SVR) model; after that, the price changes, {yi }i=1,...,T , which are discrete values,
are modeled by a support vector machine. Steps in forecasting process are: τ̂T +1 is forecasted,
using this prediction add its history, then ŷT +1 is forecasted.
The IBM’s intraday series (January, 1994) was used to measure the performance of the
proposed model. The proposed method was compared with the classical ACM-ACD technique of Russell and Engle [2005]. The error metrics used were least square error for τ and
percentage error for y. However, this last metric is not sufficient to explain if the model captures the underlying dynamics of {yi }i=1,...,T . In this regard, some metrics used in multi-class
classification problems were used. The results show that our proposal achieves comparable
performance, being slightly better in some cases. Additionally, the proposed method converges faster than the classical ACM-ACD technique on the same platform. On the other hand,
it is possible to identify scenarios in which the ACM-ACD model is better than the proposed
method to capture the dynamics of the underlying process.
Keywords: ime Series, Financial High Frequency Data, Forecasting, ACM-ACD, Machine Learning.
*
Email: [email protected], This work was supported in part Research Grant Fondecyt (Chile) 110854
and MECESUP FSM 1101.
63
Identificación de factores de éxito de emprendimientos en
base a reglas de asociación supervisadas y árboles de
decisión.
Esther Hochsztain*
Facultad de Ciencias Económicas. Universidad de la República. Uruguay.
Maria Messina**
Facultad de Ciencias Económicas. Universidad de la República. Uruguay
Resumen
La importancia del emprendedurismo en el logro de objetivos socioeconómicos es cada
vez mayor. La actividad emprendedora incide favorablemente en el desarrollo económico,
creación de puestos de trabajo, baja de la pobreza y fomento de la innovación, entre otros.
Para fomentarla se requiere el estudio de los factores que contribuyen al éxito de los emprendimientos. La universidad desempeña un rol fundamental en el proceso de desarrollo
emprendedor. Pasó de ser una institución de conservación, preservación y transmisión del
conocimiento a una entidad que busca promover la transferencia de los resultados de la investigación para la creación de nuevas empresas, productos y servicios. Los egresados deben
crear puestos de trabajo, y no solamente buscar su inserción laboral en las alternativas existentes. Se requiere tanto aprender a emprender como fomentar el espíritu de iniciativa en
la educación superior. Las universidades necesitan disponer de información para la mejor
adopción de decisiones en cada proyecto. En este artículo se presenta un caso de estudio de
aplicación de reglas de asociación supervisadas y árboles de decisión para anticipar el éxito
de un proyecto, en base a datos de los participantes del programa CCEEmprende de apoyo
a emprendedores Se propone indagar cuáles son los factores personales y del contexto que
determinan el éxito de un emprendedor. Luego de analizar la potencialidad de las diferentes
técnicas de análisis, se resolvió aplicar técnicas de data mining y aplicar reglas de asociación supervisadas y árbol de decisión. Los resultados muestran que los dos elementos más
relevantes para el éxito de un emprendimiento son contar con financiamiento y la situación
laboral previa del emprendedor. Los resultados obtenidos resultan relevantes para identificar
emprendimientos a priorizar y para identificar las áreas en las cuales brindar apoyo.
Palabras claves: árbol de decisión, reglas de asociación supervisadas, emprendedurismo.
*
**
Email: [email protected] ,
Email: [email protected],
64
Clusters probabilístico y mixtos en la medición
multidimensional de la pobreza
Laura Nalbarte*
Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.
Fernando Massa**
Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.
Silvia Altmark***
Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.
Resumen
La medición y caracterización de la pobreza constituye un tema de interés social que
estadísticamente puede ser abordado desde distintas perspectivas. Mediante la utilización de
técnicas de Análisis Factorial y/o Análisis de Cluster se definieron particiones representativas
de hogares con diferente grado de vulnerabilidad.
El objetivo de la investigación es la medición multidimensional de la pobreza y la construcción de tipologías de hogares (pobres, vulnerables y no pobres) a partir de datos relevados por la Encuesta Continua de Hogares (ECH) del Instituto Nacional de Estadística de
Uruguay (INE), entre los años 2008 y 2012. En este documento se presentan los resultados
correspondientes a un proceso de clustering, basado en una mezcla probabilística de distribuciones Bernoulli. El mismo asume la presencia de una variable categórica no observable
que dictamina la pertenencia de los individuos a los grupos. Los parámetros se estiman por
medio del algoritmo EM y los individuos se clasifican utilizando probabilidades “a posteriori”.
Las variables consideradas en el análisis refieren tanto a características de la vivienda (materiales de techos, paredes y pisos), como a características del hogar y de sus integrantes.
Respecto al hogar se tiene en cuenta: la composición del mismo, el clima educativo, la cantidad de niños menores de 6 años, la tenencia y acceso a tecnologías de la información y
la comunicación (TICS), así como la tenencia de bienes de confort. En lo que refiere a las
personas se considera la situación laboral del jefe, el ingreso y su etnia.
Los resultados indican la existencia de 3 ó 4 grupos los que determinan un gradiente de
vulnerabilidad, desde los hogares más críticos (pobres - más vulnerables) hasta los que se
encuentran en mejores condiciones (menos vulnerables).
Palabras claves: Pobreza multidimensional, Cluster probabilístico.
*
Email: [email protected],
Email: [email protected],
***
Email: [email protected],
**
65
Extreme value theory applied to commodity currencies
Fernanda Fuentes Lagos*
Universidad de Talca.
Rodrigo Herrera Leiva
Universidad de Talca.
Resumen
Una cartera de valores es una combinación de activos financieros en los que una institución o individuo decide invertir su dinero. Determinar la selección óptima de estos activos
que proporcionarán la mayor rentabilidad con el menor riesgo es la base para lograr una inversión eficiente, sin embargo, al formar una cartera de valores intrínsecamente el inversor se
ve expuesto a los riesgos de mercado que pueden favorecer o afectar el valor de su portafolio.
Reducir la incertidumbre y controlar la variabilidad constituye una ventaja competitiva para
los actores del mercado los cuales utilizando esta información pueden reaccionar anticipadamente tomando decisiones que permitan atenuar las consecuencias negativas del riesgo.
Este estudio se basa en el riesgo del tipo de cambio que corresponde a la variación en las
utilidades que genera un portafolio a causa de las alteraciones en los precios de la moneda
extranjera. Para esto se propone un análisis que estudia la relación existente entre el tipo
de cambio y el precio de una o más materias primas de exportación del país de origen. A
este tipo de monedas se les denomina monedas vinculadas a materias primas o en inglés
“commodity currency” y entre las más conocidos se encuentra el dólar Australiano (AUS),
el dólar Nuevo Zelandés (NZD), el dólar Canadiense (CAD) y el peso Chileno (CLP). Con
la finalidad de determinar la relación anteriormente planteada es común utilizar modelos
que analizan causalidad entre estas variables económicas, de los cuales el más relevante es el
análisis de co-integración. Sin embargo, hasta el momento ningún estudio realiza esta investigación desde el punto de vista de sus co-movimientos a niveles extremos.
En esta presentación se expondrán modelos avanzados de procesos puntuales multivariados y teoría de valores extremos para explicar la dinámica e intensidad de los eventos atípicos
que presentan las divisas basados principalmente en el comportamiento de los precios de una
o más materias primas de exportación, determinando el tipo de dependencia existente y
cómo los inversionistas pueden utilizar ésta información de manera ventajosa para gestionar
sus portafolios y lograr inversiones eficientes.
Palabras claves: Portafolio de inversión, teoría de valor extremo, commodity currency.
*
Email: [email protected],
66
Modelo de simulación mediante dinámica de sistemas
para la planificación de recursos humanos en salud.
Aplicación para la proyección de oferta y demanda de
neurocirujanos en Uruguay en el horizonte 2013-2015
Fiorella Cavalleri Ferrari*
[email protected]
[email protected]
Resumen
La planificación de recursos humanos en salud es un tema que en mayor o menor medida
se ha introducido en la agenda de la gran mayoría de los países, Uruguay no es ajeno a esta
realidad, la implementación del Sistema Nacional Integrado de Salud SNIS reflejó una crisis
de recursos humanos, afectando la asistencia quirúrgica en el sector público y dejando en
evidencia la inexistencia de una política nacional, universitaria, o de cualquier otro nivel, que
determine una orientación futura respecto al ingreso al postgrado. Esta problemática refuerza
la urgencia respecto de la necesidad de pasar de la esfera del diagnóstico (en el que existe
plena coincidencia sobre la necesidad de planificar) a la implementación de metodologías
que permitan generar conocimientos sistemáticos en esta materia de tal forma que exista
información calificada como insumo para la toma de decisiones.
Los objetivos planeados en esta investigación fueron comparar la realidad actual y tendencial de dotación (oferta) de Neurocirujanos con la demanda, así como también estimar
el déficit o superávit actual de Neurocirujanos en Uruguay, tomando como año base 2013,
y proyectando el déficit o superávit de neurocirujanos dinámicamente, año a año, para un
horizonte temporal 2013-2025.
Se abordó la metodología de dinámica de sistemas, la cual fue inventada en la década de
1950 por el Profesor Jay W. Forrester; esta utiliza modelos de simulación por computadora
para relacionar la estructura de un sistema con su comportamiento en el tiempo.
El software que se utilizó fue POWERSIM 2.5v el cual fue específicamente diseñado
para la simulación de sistemas dinámicos.
Palabras claves: dinámica de sistemas, simulación, proyecciones, planificación de recursos humanos.
*
Departamento de Métodos Cuantitativos, Facultad de Medicina, Universidad de la República. Uruguay.
67
Un test para detectar una distribución Poisson bivariante
Francisco Novoa Muñoz*
Universidad del Bío-Bío.
Ma. Dolores Jiménez Gamero
Universidad de Sevilla.
Resumen
Los datos de conteo aparecen bajo diferentes circunstancias. En el caso unidimensional,
la distribución Poisson es la que más se ha usado para modelar tales datos. En la práctica,
los datos de conteo bivariante surgen en distintas áreas del conocimiento y la distribución
Poisson bivariante (DPB), siendo una extensión de la distribución Poisson, juega un rol importante al momento de modelarlos, siempre que dichos datos presenten una correlación no
negativa.
Un aspecto crucial del análisis de datos es contrastar la bondad de ajuste de las observaciones dadas con las hipótesis distribucionales asumidas. Esta es la razón por la cual en este
trabajo proponemos y estudiamos un test de bondad de ajuste para la DPB. Este test está
basado en la función generatriz de probabilidad y es consistente contra alternativas fijas.
Además, es capaz de detectar alternativas contiguas que convergen a la distribución nula a
razón de n−1/2 .
Para estimar consistentemente la distribución nula del test estadístico utilizamos el método bootstrap paramétrico y a través de un experimento de simulación analizamos la bondad
de la aproximación bootstrap y la potencia para tamaños de muestra finito. Además, en
dicho estudio, comparamos el test propuesto con otros tests encontrados en la literatura
estadística. Finalmente, aplicamos el test estadístico propuesto a dos conjuntos de datos
reales.
Palabras claves: Distribución Poisson bivariante, test de bondad de ajuste, función
generatriz de probabilidad.
*
Email: [email protected], Agradecimientos: Universidad del Bío-Bío y programa MECESUP2.
68
Indicadores de Carencias y Carencias Severas
Daniel Ortega* , Héctor Conti**
Dirección General de Estadística y Censos de la Provincia de Córdoba - Argentina
Resumen
En el marco del proceso de evaluación de las solicitudes que realizan las personas/hogares
para ser beneficiarios de los planes sociales que pone a disposición el Ministerio de Desarrollo Social de la Provincia de Córdoba, donde se consideran múltiples aspectos o situaciones
que pueden generar situaciones de vulnerabilidad, surge la necesidad de contrastar los ingresos monetarios familiares con un parámetro objetivo y eficaz para determinar el estado de
vulnerabilidad socio-económica.
En la Argentina, el Instituto Nacional de Estadística y Censos (INDEC) construía y
difundía las llamadas “Línea de Indigencia” y “Línea de Pobreza”, con el objetivo de cuantificar la cantidad y porcentaje de personas en situación de pobreza y pobreza extrema bajo
una perspectiva indirecta y absoluta (Canasta Básica Alimentaria y Canasta Básica Total).
Dado que dichos parámetros monetarios fueron discontinuados a partir del año 2014, el Ministerio de Desarrollo Social de la Provincia de Córdoba le encargó a la Dirección General
de Estadística y Censos la elaboración de una propuesta de indicadores que sirvieran para
reemplazar los parámetros de Pobreza e Indigencia al momento de determinar situaciones
de vulnerabilidad socio-económica de las personas/hogares que solicitan planes sociales en
dicho Ministerio.
Para ello, la Dirección General de Estadística y Censos (DGEyC) presentó la propuesta
de generar los indicadores de “Carencias” y “Carencias Severas” a partir de una metodología
indirecta y relativa de aproximación a la medición de la Pobreza, basada en los ingresos
familiares captados en la Encuesta Permanente de Hogares (EPH) que la DGEyC elabora
en conjunto con el INDEC. Más precisamente, se construyen a partir de la mediana del
Ingreso Familiar Per Cápita captado en la EPH, donde el parámetro de Carencias Severas
para una persona adulta es equivalente al 25 % de dicho monto. Luego, persiguiendo también
el objetivo de reflejar una estructura de costos fijos del hogar, el parámetro de Carencias
para una persona adulta se equipara al 75 % de la mediana del ingreso per cápita (25 % que
determina las carencias severas más un 50 % de complemento). A partir de la conformación
de los montos para la primera persona adulta del hogar, se constituyen los parámetros para
los hogares no unipersonales a partir de asignarles un aporte o necesidad marginal de 0,74 a
cada persona extra.
Esta metodología, que fuera oficializada para su aplicación por resolución del Ministerio
de Desarrollo Social, están permitiendo tanto ampliar el universo de posibles beneficiarios
como una más certera evaluación de los solicitantes.
Palabras claves: Indicadores de vulnerabilidad y pobreza. Carencias. Planes Sociales.
Ministerio de Desarrollo Social.
*
**
Email: [email protected],
Email: [email protected],
69
Parametrización de la Distribución de Valor Extremo
Generalizada en el estudio de eventos climáticos
extremos en Centro América
Hellen Guillén Oviedo*
Universidad del Bío-Bío, Concepción, Chile
Luis Cid Serrano
Universidad del Bío-Bío, Concepción, Chile
Resumen
Se estudian las características distribucionales de los eventos de precipitaciones (lluvias)
extremas de las vertientes Caribe y Pacífico en Centro América. El objetivo es establecer si
existen diferencias en las parametrizaciones de la Distribución de Valor Extremo Generalizada (DVEG) como modelo probabilístico, para un estudio comparativo de eventos climáticos
extremos entre ambas vertientes. Se utilizan series de tiempo de precipitaciones diarias entre
1971 y 2000 de 103 estaciones meteorológicas en Centro América. Se estiman los parámetros
de la Distribución de Valor Extremo para los valores correspondientes al percentil 95 de cada
una de las 103 series de tiempo y se realiza un estudio comparativo, mediante análisis de
discriminante, entre la clasificación geográfica de la estaciones entre las Vertientes Caribe y
Pacífico, utilizando como variables discriminantes los estimadores de los tres parámetros de
la distribución de valor extremo correspondiente a cada serie. Se obtuvo una clasificación correcta en aproximadamente dos tercios de los casos, lo que es una indicación clara que existen
patrones diferenciados de comportamientos extremos de precipitación en ambas vertientes.
Adicionalmente se realizan pruebas de hipiótesis para verificar la igualdad de parámetros
entre ambas vertientes, utilizando tests de razón de verosimilitud generalizados.
Palabras claves: DVEG, Lluvias, Caribe, Pacífico, Centro América.
*
Email: [email protected],
70
Aprendizaje Bayesiano, estructura de red y difusión de
innovaciones
Ignacio Inostroza-Quezada*
Facultad de Ciencias Económicas y Empresariales, Universidad de los Andes.
Carlos Rodríguez-Sickert**
Facultad de Gobierno, Universidad del Desarrollo.
Resumen
Usando aprendizaje Bayesiano, investigamos la relación entre la topología de una red
social, donde se lanza una innovación, y su penetración. Específicamente, investigamos cómo
los parámetros globales de una red social y la posición de adoptadores tempranos (early
adopters) afectan al éxito de la innovación, medida por su tasa de adopción. Para entender
la importancia de la ubicación estratégica de adoptadores tempranos, usamos medidas de
centralidad en nuestro análisis. Identificamos atributos topológicos de adoptadores tempranos
para acelerar procesos de difusión de la innovación.
Palabras claves: Difusión de innovaciones, aprendizaje Bayesiano, redes de pequeño
mundo, adoptadores tempranos, marketing de influencia social.
*
**
Email: [email protected],
Email: [email protected],
71
Estimation of Equating Functions with Covariates: a
Bayesian Nonparametric Approach
Jorge González*
Department of Statistics, Pontificia Universidad Católica de Chile
Andrés F. Barrientos
Department of Statistics, Pontificia Universidad Católica de Chile
Fernando A. Quintana
Department of Statistics, Pontificia Universidad Católica de Chile
Abstract
Equating is an important step in the process of collecting, analyzing, and reporting test
scores in any program of assessment. Methods of equating utilize functions to transform
scores on two or more versions of a test, so that they can be compared and used interchangeably. In common practice, traditional methods of equating use either parametric or
semi-parametric models where, apart from the test scores themselves, no additional information is used to estimate the equating transformation function. We propose a flexible Bayesian
nonparametric model for test equating which allows the use of covariates in the estimation of
the score distribution functions that lead to the equating transformation. A major feature of
this approach is that the complete shape of the scores distribution may change as a function
of the covariates. As a consequence, the form of the equating transformation can change
according to covariate values. Applications of the proposed model to real and simulated data
are discussed and compared to other current methods of equating..
Keywords: Bayesian nonparametrics, dependent Bernstein polynomials, test equating.
*
Email: [email protected], The first author acknowledges partial support of Grants FONDECYT
11110044 and ANILLO SOC1107. The second author was supported by FONDECYT grant 3130400, and
the third author was supported by FONDECYT grants 1100010 and 1141057.
72
Robust Clustering of Banks in Argentina
Margarita Díaz1* , José M. Vargas1,2 and Fernando García
1 Department
2 Department
of Statistics, FCE UNC, Córdoba, Argentina,
of Mathematics, IAPCB UNVM, Villa María, Argentina
Abstract
The purpose of this paper is to classify and characterize 64 banks, active as of 2010 in
Argentina, by means of robust techniques used on information gathered during the period
2001-2010. Based on the strategy criteria established in [Wang (2007)] and [Werbin (2010)],
seven variables were selected. In agreement with bank theory, four “natural” clusters were obtained, named “Personal”, “Commercial”, “Typical and “Other banks”, using robust K-means
clustering as implemented in R statistical language through the function [Kondo (2011)] detecting six outliers in the process. In order to characterize each group, projection pursuit
based robust principal component analysis, [Croux (2005)], was conducted on each cluster
revealing approximately a similar component structure explained by three components in
excess of 80 %, granting a common principal components analysis as in [Boente (2002)]. This
allowed us to identify three variables which suffice for grouping and characterizing each cluster. Boente influence measures were used to detect extreme cases in the common principal
components analysis.
Keywords: Robust clustering Projection pursuit Common Principal Components Influence measures.
*
Email: [email protected], Corresponding author
73
Bibliografía
[Boente (2002)] Boente, G.,Pires, A. M., Rodrigues, I. M.. Influencefunctions and outlier
detection under the common principalcomponents model: A robust approach. Biometrika
(2002), 89, 4, pp. 861-875.
[Croux (2005)] Croux, C. and Ruiz-Gazen, A., 2005. High breakdown estimators for principal
components: the projection-pursuit approach revisited. Journal of Multivariate Analysis,
95, 206-226.
[Wang (2007)] Wang, D., 2007. Three Essays on Bank Technology, cost Structure, and Performance. PhD Dissertation, State University of New York at Binghamton.
[Werbin (2010)] Werbin, E., 2010. PhD thesis, Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.
[Kondo (2011)] Kondo, Y. R package RSKC.
74
Estimado la tasa de éxito en la cacería de pavos salvajes.
Un ejemplo de Spatial Confounding
Julio Ávila*
Estudiante del Doctorado en Estadística.
Departamento de Estadística.
Pontificia Universidad Católica de Chile.
Garrit Page**
Departamento de Estadística.
Pontificia Universidad Católica de Chile.
Resumen
Este trabajo explora el fenómeno de Spatial Confounding usando tasas de éxito en la
cacería del pavo salvaje en los condados del estado de Missouri, sobre datos provenientes
de una encuesta aplicada a los cazadores durante las dos semanas de caza de la temporada
1996. Exploramos Spatial Confounding por medio de una serie de modelos jerárquicos que
fueron ajustados considerando respuesta binomial (pavos capturados versus excurciones), el
porcentaje de bosque en el condado (covariable), los efectos de la semana de caza y la relación
espacial presente en la tasa de éxito. Un análisis exploratorio indicaba de que el porcentaje
de bosque en el condado tiene una relación significativa con tasas de éxito, pero al emplear
regresión espacial la relación se confunde. Investigamos las razones por la cual este conjunto
de datos sufre Spatial Confounding y proponemos algunas generalizaciones.
Palabras claves: Spatial Confounding, Conditional Autoregressive Model, Linear Mixed
Model, Hierarchical Bayes.
*
**
Email: [email protected],
Email: [email protected],
75
Aporte del sector turismo a la generación de valor
agregado en la provincia de Córdoba
Laura I. Luna1* , Mariana Díaz2** , Héctor Conti3***
1,2,3 Gobierno
de la Provincia de Córdoba- Dirección General de Estadística y Censos.
Resumen
El turismo tiene una importante relevancia económica en la Provincia de Córdoba ya
que, dada sus características intrínsecas, es una actividad proclive a la generación de ingreso y empleo. Es difícil delimitar con precisión el ámbito del turismo, ya que en realidad
abarca varios sectores de la realidad económica, constituyendo lo que se denomina un sector
transversal de los restantes. Debido a que en algunas regiones de la Provincia de Córdoba
las actividades turísticas constituyen el motor principal de sus economías, es creciente la
necesidad de cuantificar y medir dicho impacto a través de instrumentos estadísticos.
La Dirección General de Estadística y Censos, a través de su Dirección de Estadísticas
Económicas se encuentra realizando una serie de estudios con el objetivo de proporcionar
datos estadísticos oficiales sobre el rol que desempeña el turismo en la economía. Se intenta
satisfacer la creciente demanda de información tanto de organismos públicos como privados
interesados, en conocer la participación en términos de la generación de empleo y creación
de valor agregado del sector turismo, tales como la Agencia Córdoba Turismo, la Agencia de
Promoción de Empleo, etc. En este marco, se realizó una estimación del valor agregado del
sector turismo en la Provincia de Córdoba para el período 1993-2012, analizando y comparando las diferentes metodologías existentes, destacando la referida a las ramas características
de turismo.
La participación en el Producto Geográfico Bruto de las ramas características del turismo
a lo largo de la serie 1993-2012 ha sido en promedio del 5,0 %. Esta participación alcanzó
un valor máximo en el año 2006 con el 5,5 % y un valor mínimo en el año 2002 con el
4,4 %. Comparando con otros sectores de la economía cordobesa se observa que ha tenido
una participación similar al sector de la construcción que promedió un 6 %. Mientras que
los principales sectores económicos de la provincia, industrial y agropecuario promediaron
durante el período una participación del 16 % y 11 % respectivamente.
Palabras claves: Estadísticas oficiales, Dirección de Estadísticas Económicas de Córdoba, valor agregado del sector turismo.
*
Email: [email protected],
Email: [email protected],
***
Email: [email protected],
**
76
Algunos test de hipótesis mediante proyecciones al azar.
Leonardo Moreno*
Instituto de Estadística, Universidad de la República, Uruguay. Ricardo Fraiman
Facultad de Ciencias, Universidad de la República, Uruguay.
Sebastian Vallejo
Instituto de Estadística, Universidad de la República, Uruguay.
Resumen
En el trabajo se desarrollan dos test no paramétricos, uno sobre simetría central y el
otro sobre independencia, basados en proyecciones uno-direccionales al azar. Dichos test
son implementados en dimensión finita e infinita. Se demuestra la distribución libre y la
consistencia universal de ambos test. Se proponen diferentes mecanismos para mejorar la
potencia de dichas pruebas. Mediante un estudio de simulación se evalúa la eficiencia respecto
a otros posibles competidores, obteniendo resultados promisorios. Es realizada una aplicación
en una base de datos reales cuyos elementos pertenecen a un espacio de Banach.
Palabras claves: Proyecciones al azar; test simetría central; test de independencia;
consistencia universal; distribución libre; teorema de Cramer-Wold.
*
Email: [email protected],
77
Identificación adaptativa de estructuras de Series de
Tiempo Difusas
Ledys Llasmin Salazar Gomez*
Estudiante de Maestría en Estadística, Universidad de Valparaíso
Dr. Rodrigo Salas
Director Escuela Ingeniería Civil Biomédica, Universidad de Valparaíso
Resumen
Las series de tiempo difusas tienen asociado el factor de la incertidumbre debido a que
los datos de la serie temporal hacen parte de regiones de decisión. Por lo tanto, ubicar
los datos en una determinada región y modelar sobre los mismos permite comprender el
comportamiento de las variables a través de sus funciones de pertenencia.
En este trabajo se expone el proceso de modelamiento de una serie temporal basado en
técnicas difusas. La implementación de técnicas difusas se realiza particionando la región de
entrada en diferentes subregiones y aplicando el modelo difuso Takagi Sugeno Kang (TSK). El
TSK permite el reconocimiento del comportamiento local del proceso a través de un conjunto
de implicaciones, donde los antecedentes se refieren al comportamiento local, mientras que
los consecuentes describen la dinámica del proceso.
La propuesta brinda herramientas para una adecuada partición sobre el espacio de entrada, es decir, la correcta determinación del número de reglas difusas a aplicar sobre la serie
de tiempo. Posteriormente, se aplica el modelo TSK, el cual genera diferentes modelos de
series de tiempo para cada una de las subregiones de la región de entrada.
Los algoritmos propuestos son implementados utilizando un lenguaje de alto nivel, particularmente Matlab, allí se programan y se corren las diferentes simulaciones con el fin de
analizar su comportamiento. Para validar el modelo se realizan simulaciones sobre 2 conjuntos de datos sintéticos y 5 reales, con el fin de contrastar la técnica propuesta con varias
técnicas estándares, encontrando que el desempeño del modelo mejora al hacer una identificación adaptativa de la estructura de la serie de tiempo con respecto a estructuras fijas y
particiones regulares sobre la región de entrada, generando así, predicciones más robustas
sobre la serie de tiempo.
Palabras claves: Fuzzy time series, Takagi Sugeno Kang, incertidumbre, predicción.
*
Email: [email protected],
78
Estudio comparativo de la sobrevida de pacientes no
metastásicos de cáncer de mama
Luis Cid*
Universidad del Bio Bio, Chile.
Marcela Valdés
Universidad del Desarrollo, Chile.
Chyntia Fuentes
Universidad de Concepción, Chile.
Resumen
Se estudian algunas propiedades de los estimadores tradicionales de sobrevida, con la
finalidad de realizar un estudio comparativo de dos bases de datos de pacientes de cáncer
de mamas, desfasadas 20 años en el tiempo y tratadas con los protocolos estandarizados
correspondientes, para establecer si es posible detectar una evolución en las expectativas de
sobrevida de las pacientes. No se consideran en el estudio las pacientes clasificadas en el
estadio tres de la enfermedad, pues la presencia de metástasis impide estimar el efecto de
otros factores incidentes en la sobrevida de las pacientes.
Se incluyen los estimadores producto límite de Kaplan y Meier y los estimadores de
tiempo de sobrevidad residual mediano y cuartílicos, como medidas basadas solo en los
tiempos de sobrevida y de censura, por una parte y, para estimar el efecto de covariables
en la sobrevida, modelos de riesgos proporcionales (regresión de Cox) y semiparamétricos de
regresión quantílica, los que proporcionarían una forma más completa y robusta de estimar el
efecto de la covariables en la estimación de la sobrevida esperada, por otra. Para este efecto
se consideran dos grupos de variables, uno relacionado con las características propias de la
enfermedad, como tipo histológico del tumor, tamaño, compromiso ganglionar, etc., y un
segundo grupo que incluye factores de riesgo de contraer la enfermedad y que pudieran estar
relacionados con el pronóstico de la enfermedad, como edad de la paciente al momento del
diagnóstico, edad del primer parto, lactancia, antecedentes familiares de patologías malignas,
etc.
Se realiza un estudio comparativo entre los dos grupos de pacientes, en particular se utiliza
el método bootstrap para obtener estimadores de los intervalos de confianza respectivos a
cada base de datos.
Palabras claves: obrevida, sobrevida residual mediana, Estimador Producto Límite,
cáncer de mamas.
*
Email: [email protected],
79
Un Análisis Multivariado del Sistema Universitario en
Chile
Luis Firinguetti* - Miguel Yáñez**
Departamento de Estadística
Facultad de Ciencias
Universidad del Bío Bío
Concepción, Chile
Resumen
Desde 1980 el sistema de educación superior en Chile ha sufrido importantes cambios.
Un nuevo cuerpo legal permitió la creación de universidades financiadas por privados, y
reestructuró las universidades estatales existentes. En este trabajo describimos de manera
multidimensional el sistema universitario chileno, identificando aquellas variables que contribuyen a caracterizarlo de mejor manera. Con la información pública disponible fue posible
hacer un análisis objetivo del sistema con diversas técnicas estadísticas multivariantes, elaborando un ranking de las universidades.
Palabras claves: Acreditación; diversidad; análisis multivariante; rankings.
*
**
Email: [email protected],
Email: [email protected],
80
Un Estimador de Regresión Ridge No-estocástico y
Comparación con el Estimador de James-Stein
Luis Firinguetti*
Departamento de Estadística, Facultad de Ciencias, Universidad del Bío Bío
Avda. Collao 1202, Casilla 5C, Concepción, Chile
Hernán Rubio
Gerencia de Análisis Macroeconómico
Banco Central de Chile, Santiago, Chile
Yogendra P. Chaubey
Department of Mathematics and Statistics
Concordia University, Montréal, Canada H3J 1M8
Resumen
En este trabajo presentamos una versión no estocástica del estimador de Regresión Ridge Generalizado. El estimador es consecuencia de una discusión de las propiedades de un
estimador de Regresión Ridge Generalizado cuyos parámetros de contracción o sesgo estocásticos toman valores que se tienden a concentrar en la cota superior. El estimador sesgado
resultante es superior al estimador de Cuadrados Mínimos Ordinarios y, bajo ciertas condiciones, al estimador de James-Stein. Se presenta un estudio numérico en que se evalúa el
rango de valores de la señal ruido del nuevo estimador para el cual éste domina al estimador
de James-Stein con respecto al error cuadrático medio de predicción.
Palabras claves: Error Cuadrático Medio; Estimador de James-Stein; Multicolinealidad;
Regresión Ridge.
*
Email: [email protected],
81
Regresión Geográficamente Ponderada: Una aplicación a
datos de mortalidad
Luisa Rivas Calabrán* , Manuel Galea Rojas**
Resumen
Regresión Geográficamente Ponderada, GWR, es un método estadístico propuesto por
Fotheringham et al. (2002) para el análisis de datos espaciales con distribución Normal.
Nakaya et al.(2005) desarrollan esta técnica para datos con distribución Poisson, específicamente para analizar patrones de enfermedades resultante de procesos espaciales no estacionarios, Carvalho (2011) extiende el método a distribución Binomial Negativa, donde los
datos pertenecen al área del transporte y da Silva et al. (2013), comparan el modelo Poisson Geográficamente Ponderado con el Binomial Geográficamente Ponderado, para los dos
conjuntos de datos mencionados.
Los modelos geográficamente ponderados permiten estudiar la distribución geográfica de
las variables, suponiendo que las observaciones cercanas están correlacionadas, a diferencia
de la estadística convencional donde los fenómenos se analizan bajo el supuesto de independencia.
El propósito de este trabajo es comparar los Modelos Lineales Generalizados, específicamente aquellos que permiten explicar el comportamiento de datos de conteo, con su respectiva extensión de Modelos Geográficamente Ponderados. Para la estimación de los parámetros
se utilizan los algoritmos iterativos de Modelos Lineales Generalizados, ya que pueden ser
extendido al caso espacial, cuando consideramos distribuciones pertenecientes a la familia
exponencial.
Para llevar a cabo esta comparación se dispone de un conjunto de datos provenientes del
área metropolitana de Tokio, Japón, compuesta por 262 zonas municipales, donde el objetivo
principal es analizar la relación entre tasas de mortalidad y ciertos factores socio-económicos.
Para ello se considera la tasa de muerte según edad de los trabajadores (entre 25-64 años).
La edad-sexo y el número de muertes fueron tomadas del censo nacional de 1990 y de las
estadísticas de Japón, respectivamente.
En cuanto a la selección del modelo más adecuado para la describir el comportamiento
de los datos se utilizan los criterios de bondad de ajuste, tales como, AIC, validación cruzada
(CV), así también se realiza análisis de residuos y se estudia la presencia de datos influyentes.
Palabras claves: Regresión Geográficamente Ponderada (GWR), Modelos Lineales Generalizados, Análisis de Sensibilidad.
*
**
Email: [email protected], Pontificia Universidad Católica de Chile.
Email: [email protected], Pontificia Universidad Católica de Chile.
82
Comparación de métodos de medición en presencia de un
Gold Estándar
Manuel Galea*
Departamento de Estadística, Pontificia Universidad Católica de Chile
Resumen
En este trabajo discutimos inferencia estadística y diagnósticos de influencia en un modelo estadístico usado para comparar instrumentos de medición en presencia de un gold
estándar. Suponemos que las mediciones de los instrumentos siguen una distribución normal
multivariada. Consideramos test de hipótesis y regiones de confianza para parámetros de
interés, e implementamos el método de influencia local para analizar la sensibilidad de los
estimadores máximo verosímiles a perturbaciones del modelo estadístico y/o de los datos.
Finalmente ilustramos la metodología con datos reales
Palabras claves: Inferencia estadística, Diagnósticos de influencia, Comparación de
métodos de medición, Gold estándar.
*
Email: [email protected],
83
Estudio Comparativo por Métodos de Clasificación para
el Análisis del Desempleo en los Departamentos de la
Región Oriental del Paraguay
Lorena Leticia González*
Facultad de Ciencias Exactas y Naturales. Universidad Nacional de Asunción. Paraguay
María Cristina Martín
Facultad de Ciencias Exactas y Naturales. Universidad Nacional de La Pampa. Argentina
Resumen
Paraguay no es la excepción al fenómeno mundial del desempleo, el cual afecta de manera
negativa en diferentes aspectos de la vida diaria. A partir de la base de datos de la Encuesta
Permanente de Hogares del año 2011, utilizando características demográficas, sociodemográficas y económicas de los trabajadores residentes en Asunción y las áreas, tanto urbanas como
rurales, de la Región Oriental del Paraguay, se estudia la situación de empleado/desempleado
de los paraguayos a través de dos técnicas estadísticas diferentes: la Regresión Logística y
los Árboles de Clasificación. Un análisis exploratorio inicial, y a su vez confirmatorio, de las
características consideradas predictoras del desempleo, tales como Departamento de Residencia, Área de Residencia, Edad, Condición de Jefe de Hogar, Sexo, Estado Civil, Número de
Personas en el Hogar, Nivel de Educación y Categoría y Rama del Último Empleo, establece
que la Edad y el Área de Residencia no son significativas a la hora de explicar el desempleo,
y por ende, son excluidas de los procedimientos de selección de modelos. La Regresión Logística ofrece un modelo matemático que permite estimar la probabilidad de que un individuo
de nacionalidad paraguaya sea desempleado y el mismo está caracterizado por las variables
Jefe de Hogar, Nivel de Educación, Estado Civil, Sexo, Departamentos, Rama y Categoría
del Último Empleo. Distintos mecanismos permiten clasificar este modelo como aceptable,
siendo la capacidad predictiva del mismo buena, ya que realiza un 70 % de clasificaciones
correctas. Por otro lado, la técnica de Árboles de Clasificación arroja un modelo mucho más
simple, dado que involucra tan sólo las variables Jefe de Hogar, Nivel de Educación, Estado
Civil y Sexo, que también aparecen en el modelo logístico obtenido, considerándose, entonces,
razón suficiente para tenerlas en cuenta a la hora de diseñar políticas tendientes a disminuir
los niveles de desempleo de la sociedad paraguaya.
Palabras claves: Desempleo, Modelo Logit, Árboles de Clasificación.
*
Email: [email protected], Agradecimientos: A mi querida abuela Bernarda, a quien le tengo como
madre, por criarme con todo su amor y por todas sus bendiciones para este trabajo.
84
Ajuste de Modelos Longitudinales a datos de Ingreso de
Hogares a partir de la Encuesta Continua de Empleo de
Asunción y Departamento Central
Luis Antonio Gómez Martínez*
Facultad de Ciencias Exactas y Naturales. Universidad Nacional de Asunción. Paraguay
María Cristina Martín
Facultad de Ciencias Exactas y Naturales. Universidad Nacional de La Pampa. Argentina.
Resumen
La Encuesta Continua de Empleo (ECE) es reciente en Paraguay, y solo se tiene un seguimiento de los individuos para los años 2010 y 2011. Pese al corto período de relevamiento, se
considera que analizar y modelar el Ingreso de los Jefes de Hogares en Asunción y las Áreas
Urbanas del Departamento Central permite comenzar a tener una visión global y crítica del
mercado de trabajo en la región más desarrollada y poblada del país, que sirva de base para
el diseño e implementación de políticas tendientes a mejorar las condiciones de vida de la
población paraguaya en general. Así, a través del ajuste de Modelos para Datos Longitudinales, se propone investigar el Ingreso del Jefe de Hogar a lo largo de cinco (5) trimestres,
teniendo en cuenta el Sexo, el Nivel de Instrucción y el Lugar de Residencia de los mismos.
Las técnicas usuales para este tipo de datos que fueron aplicadas, Medidas Repetidas (análisis univariado de la varianza) y Análisis de Perfiles (análisis multivariado de la varianza),
muestran que el Ingreso medio de los Jefes de Hogares es significativamente el mismo en
cada trimestre, pero es significativamente diferente en cada uno de sus respectivos niveles si
se tiene en cuenta las características de Sexo y Nivel de Instrucción del individuo. En otras
palabras, el modelo lineal obtenido deja de lado el Lugar de Residencia como característica
explicativa a tener en cuenta. Debe destacarse que, al estar dando los primeros pasos en el
estudio de datos longitudinales, en este trabajo no se puso énfasis en la elección de factores
que podrían mejorar el ajuste y ofrecer un modelo estadístico más potente (mayor coeficiente
de explicación de la variabilidad global). Para la verificación de los supuestos de normalidad
de los modelos se ha optado por la transformación Minimax, verificándose la homocedasticidad de los datos transformados a través de las pruebas de esfericidad de Mauchly en el caso
univariado y de la prueba M- de Box en el caso multivariado.
Palabras claves: Jefe de Hogar, Análisis de Datos Longitudinales, Diseño de Medidas
Repetidas, Análisis de Perfiles.
*
Email: [email protected], El agradecimiento es a mis padres, por haberme brindado
la oportunidad de estudiar.
85
Indicador de actividad económica de la provincia de
Córdoba (INAEC)
Mariana Díaz* ; Héctor Conti**
1 y 2 Gobierno
de la Provincia de Córdoba, Dirección General de Estadística y Censos
Resumen
El principal indicador macroeconómico de un país es el Producto Interno Bruto (PIB), su
análogo a nivel de regiones o provincias lo constituye el Producto Geográfico Bruto (PGB).
En el caso de la provincia de Córdoba, por su metodología de cálculo, el PGB tiene una
periodicidad anual.
Debido a la importancia de medir la actividad económica de la provincia en un período
menor al año, y de esta forma conocer la evolución de la economía en el corto plazo, se
elaboró un indicador de actividad económica.
El cálculo del Indicador de Actividad Económica para la Provincia de Córdoba complementa el conjunto de estadísticas publicadas mensualmente por la Dirección General de
Estadísticas y Censos de esta Provincia. La importancia principal radica en que permite
describir el comportamiento coyuntural de la región de manera complementaria al PGB. Un
indicador de este tipo es útil para la toma de decisiones de los agentes económicos del sector
público y privado ya que proporciona información oportuna del comportamiento, evolución y
tendencia de la actividad económica regional en el corto plazo. Este indicador es utilizado por
diversos organismos provinciales (Agencia ProCórdoba, Secretaria de Industria, Secretaría
de Comercio, Cámara de Comercio de Córdoba) como herramienta de gestión.
La evidencia internacional describe dos enfoques para construir indicadores sintéticos de
actividad económica, uno estocástico y otro contable. Luego de evaluar ambos enfoques se
decidió realizar el cálculo en base a la metodología impulsada por el Banco Central de Chile,
enfoque contable. Esta metodología es la utilizada en los principales organismos oficiales de
estadísticas a nivel Latinoamericano y tiene como principal ventaja la de ser una extensión
de las técnicas y prácticas recomendadas por Naciones Unidas para el cálculo del PGB por
categoría, siendo por lo tanto más robusta.
En el mes de marzo de 2014, el Indicador de Actividad Económica de Córdoba, muestra
una variación del -4,5 % con respecto a igual trimestre del año anterior. Por otro lado, el
indicador desestacionalizado de marzo de 2014 evidencia una variación de -0,02 % relativa al
mes inmediato anterior.
Palabras claves: Indicador de actividad económica, Producto Geográfico Bruto, enfoque
contable, Córdoba.
*
**
Email: [email protected],
Email: [email protected],
86
Incorporación del Consideration Set en modelos de
estimación de demanda
Mariano Bonoli Escobar*
Universidad de Buenos Aires, Facultad de Ingeniería.
Johanna Mosca
Universidad de Buenos Aires, Facultad de Ingeniería.
Juan Ignacio Volpe
Universidad de Buenos Aires, Facultad de Ingeniería.
Emilio Picasso
Universidad de Buenos Aires, Facultad de Ingeniería.
Resumen
on frecuencia, en ocasiones de compra, los consumidores se encuentran frente a una elevada cantidad de alternativas entre las que deben elegir. Esto lleva a los consumidores realizar
una pre-selección de estas alternativas, para evaluar en una segunda etapa cuál de ellas es
la más conveniente. Este subconjunto de alternativas, al que llamaremos Consideration Set,
es relativamente constante para cada individuo a lo largo de sus decisiones. El proceso de
inclusión de alternativas dentro del Consideration Set puede ser consiente o inconsciente, e
intervienen diversos aspectos como el conocimiento que tenga de las alternativas, experiencias
anteriores y expectativas.
Los modelos de Discrete Choice (DCM) proporcionan una poderosa herramienta a la
hora de comprender el comportamiento de los consumidores. Sin embargo, esto modelos
DCM no tienen en cuenta las etapas en el proceso de decisión y consideran que el individuo
trabaja eligiendo entre todas las alternativas disponibles, cuando en realidad lo hace sobre
un subconjunto de ellas.
En el presente trabajo se propone una estrategia para incluir los Consideration Set en
los modelos DCM, útil en el caso de que cada encuestados realice varias tareas de selección y
se permita la realización de compras múltiples. Para poder evaluar esta estrategia, para un
caso real de 28 alternativas, se estimaron ambos modelos: el que utiliza todas las alternativas
y el que trabaja con los Consideration Set. Se expone en el presente trabajo la comparación
entre ambos modelos, en términos de bondad de ajuste y de aciertos en la predicción.
Palabras claves: Discret Choice Models, Consideration Set, Consumidores.
*
Email: [email protected],
87
¿Explica el efecto del muestreo las diferencias entre
mediciones de audiencias televisivas?
Ramón Álvarez*
Gabriel Camaño
María Eugenia Riaño
Instituto de Estadística, Facultad de Ciencias Económicas y de Administración, UdelaR.
Resumen
En el marco de un acuerdo celebrado entre el CMAT (Centro de Medición de audiencia
Televisiva) y el Instituto de Estadística de la Facultad de Ciencias Económicas y de Administración, se presentan los resultados de comparar los ratings televisivos estimados por dos
empresas que se dedican a esa actividad. Ambas utilizan paneles de hogares y peoplemeters
para la captura de datos, para lo cual usan diseños muestrales y tamaños de muestra diferentes.El problema que se presenta para el CMAT es como considerar los ratings reportados
por cada empresa, cuando estos difieren entre sí. Para eso, para un determinado período
del año se consideran los ratings reportados minuto a minuto por cada empresa, los cuales
se reproducen con los diseños muestrales usados por cada empresa, agregándolos en cuatro
franjas horarias, para los cuales se calculan estimaciones puntuales e intervalos de confianza.
Se presentan diferentes escenarios donde se analiza la diferencia efectivamente encontrada,
la sensibilidad de los resultados, a cambios en la composición de los paneles, así como la
pertinencia de combinar ambas muestras. Para eso se utiliza simulación montecarlo y métodos
de remuestreo.
Palabras claves: Datos de panel; diseño muestral; rating; remuestreo; simulación montecarlo.
*
Email: [email protected],
88
Consistencia de índices de validación en clasificación
difusa de datos morfométricos
Miguel Yáñez A.*
Departamento de Estadística, Universidad del Bío-Bío, Concepción.
Erich Rudolph L.
Departamento de Ciencias Biológicas y Biodiversidad, Universidad de Los Lagos, Osorno.
Resumen
En los últimos años, diversos índices de validación en análisis de clasificación difusa
c-medias han sido comparados para diferentes conjuntos de datos, algunos artificiales o simulados, y otros ampliamente usados en la literatura estadística con fines didácticos. Los
índices de validación presentados y propuestos en estos trabajos, tienen rendimientos variados, siendo algunos más precisos que otros, dependiendo de la forma y densidad de los grupos
visualizados. Pocos son los artículos que tratan con datos morfométricos. En este trabajo
para datos morfométricos del molinillo gástrico de cinco especies de la familia Parastacidae
(Parastacus nicoleti, Parastacus pugnax, Virilastacus rucapihuelensis, Virilastacus araucanius y Samastacus spinifrons) se estudian los principales índices de validación al realizar un
análisis de clasificación difusa c-medias. Los resultados obtenidos muestran la consistencia de
algunos índices en determinar el número correcto de conglomerados, siendo esto concordante
con la literatura, pero en otros casos se producen diferencias importantes.
Palabras claves: c-medias difusa, datos morfométricos, índices de validación.
*
Email: [email protected],
89
El Problema de Datos Censurados en el Contexto
Geoestadístico
Una Propuesta de Tratamiento
Mónica Cristina Morvillo*
Facultad de Ciencias Exactas, Fisicas y Naturales.
Universidad Nacional de San Juan. R. Argentina
Angela Magdalena Diblasi
Facultad de Ciencias Económicas.
Universidad Nacional de Cuyo. R. Argentina
Resumen
La geoestadística tiene por objeto modelar y completar con predicción -para la representación cartográfica- los valores en sitios no muestreados de un proceso estocástico Z(s)
definido en un dominio espacial D continuo y cerrado. El método predictivo produce en cada sitio una interpolación lineal (BLUE) de las observaciones condicionada a su disposición
espacial y bajo un modelo estructural que incluye la autocorrelación espacial sintetizada por
la función variograma.
Pero en algunos casos de muestreo, se producen valores no detectados o censurados por los
instrumentos de medición, que son de magnitud extrema y requieren ser imputados acordemente antes de la predicción, pues de lo contrario la interpolación generaría en los sitios y
entornos de estos datos, valores típicos en contraposición a su condición conocida.
En este trabajo se citan dos casos diferentes y reales de muestreo con datos censurados, uno
con valores por debajo de un límite de detección y el otro por arriba de una cota superior
de medición.
Se propone el criterio de Imputación de Pivote Cercano Corregionalizado (Morvillo (2012))
para tratar los datos no detectados por debajo del límite y se adapta su expresión para
imputar los valores mayores a la cota superior.
Por último se aplica el tratamiento a cada caso y se comparan las predicciones obtenidas en
la vecindad de sitios con datos censurados, con las correspondientes basadas en la muestra
sin tratamiento.
Palabras claves: Geoestadística, Censura, Imputación
*
Email: [email protected],
90
Análisis de complementariedad mediante el testeo
conjunto de restricciones de desigualdad: una aplicación
en el sector software de Argentina e innovación
Pablo Ortiz*
Departamento de Estadística y Matemática, Facultad de Ciencias Económicas, UNC, Argentina
Hernán Alejandro Morero
Centro de Investigaciones y Estudios sobre Cultura y Sociedad – CONICET y UNC, Argentina
Resumen
En este artículo presentamos un análisis de complementariedad entre variables que intervienen en el proceso de innovación de las empresas, siguiendo los antecedentes de Mohnen
y Röller (2005) y Cassiman y Veugelers (2006). Cuando la naturaleza de estas variables es
discreta, testear complementariedad entre dos variables implica testear si la función objetivo
involucrada es supermodular en esos argumentos. Así, atendiendo a la definición de supermodularidad, este marco deriva en el contraste de hipótesis planteadas en términos de un
sistema de restricciones de desigualdad, en la que intervienen los parámetros de la función de
innovación de las firmas. Para llevar adelante esta prueba de hipótesis consideramos el test
de Wald propuesto por Kodde y Palm (1986), para lo cual desarrollamos una rutina ad-hoc
en R.
Aplicamos esta metodología con el objetivo de analizar la complementariedad entre actividades innovativas internas y externas en empresas del sector de software en la Argentina.
Para ello empleamos datos provenientes de una encuesta tecnológica realizada durante el año
2011 a 257 empresas del país y que cubre el período 2008-2010. Especificamos funciones de
innovación alternativas, definiendo variables dependientes tanto discretas como continuas;
lo que implicó la estimación de distintos modelos (MCO, Probit, Probit Ordinal y Tobit).
En todos los casos, las variables explicativas están dadas por la recurrencia a actividades
innovativas internas y externas (de naturaleza discreta), otros determinantes típicos de la
innovación (competencias y vinculaciones), y a factores estructurales de las empresas tradicionalmente condicionantes de la innovación.
Los resultados de los test de Wald, construidos a partir de los coeficientes estimados,
muestran la existencia de una relación, estadísticamente significativa, de complementariedad
entre actividades innovativas internas y externas. Las hipótesis de supermodularidad entre
estas variables fueron aceptadas, independientemente del modelo considerado.
Palabras claves: Test de Wald, R, Políticas de Innovación, Sector software.
*
Email: [email protected],
91
Determinación del nivel de infección de bolsa periodontal
a través de la distribución de Bernoulli multivariada
Ramón Álvarez*
Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.
Fernando Massa**
Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.
Resumen
El presente trabajo muestra una posible aplicación de la distribución de Bernoulli multivariada (BM) en la caracterización de tipologías de infección para una patología odontológica
como es la bolsa periodontal en la población adulta uruguaya. Se trabajó sobre los datos del
primer relevamiento nacional de salud bucal, llevado a cabo durante los años 2011 y 2012
en diversos departamentos de Uruguay, donde se entrevistó a personas de 3 grupos etarios
(jóvenes, adultos y adultos mayores). El modelo probabilístico utilizado es una mezcla de K
distribuciones (BM), cada una caracterizada por un vector de intensidades y una matriz de
asociaciones. Con este tipo de modelo probabilístico, el número de grupos K seleccionado
es a través de la minimización del criterio BIC. En la formulación del problema se asume
la presencia de una variable latente (que indica la pertenencia de cada observación a cada
grupo), y la estimación se hace por medio del algoritmo (EM).
Los resultados indican la presencia de 3 grupos; el primero de ellos constituído por personas
completamente sanas, el segundo por personas con “infecciones localizadas” y un tercer grupo
con “infecciones generalizadas”.
Palabras claves: Asociación, Bolsa periodontal, Distribución Bernoulli Multivariada.
*
**
Email: [email protected],
Email: [email protected],
92
Estimador de Mínima Distancia en Procesos Localmente
Estacionarios
Ricardo Alonso Olea Ortega*
María Ignacia Vicuña Loyola**
Wilfredo Omar Palma Manríquez***
Pontificia Universidad Católica de Chile
Mauricio Enrique Zevallos Herencia****
Universidade Estadual de Campinas
Resumen
En el análisis de Series de Tiempo la estacionaridad es una hipótesis muy atractiva para su teoría, pero en la práctica la mayoría de estas no se ajustan a tal condición. Como
consecuencia de esto, se han propuestos varios enfoques a esta situación en la literatura.
Entre estas metodologías propuestas, la diferenciación y la estimación de tendencias son opciones comúnmente usadas. Otros enfoques incluyen por ejemplo, técnicas de la evolución
del espectro discutidas por Priestley (1965). En el mismo estilo, durante las últimas décadas
una serie de nuevos enfoques se han propuesto con respecto a la variación del espectro en el
tiempo. Una de estas metodologías, llamada procesos localmente estacionarias desarrollada
por Dahlhaus (1996, 1997, 2000), ha sido ampliamente discutida recientemente en la literatura de series de tiempo por Von Sachs and MacGibbon (2000), Jensen and Witcher (2000),
Guo et al. (2003), Genton and Perrin (2004), Orbe et al. (2005), Dahlhaus and Polonik
(2006, 2009), Chandler and Polonik (2006), Fryzlewicz et al. (2006), Beran (2009), Palma
and Olea (2010), Palma et al (2011), Ferreira et al. (2013), entre otros. Este enfoque permite
a procesos estocásticos que no son estacionarios considerarlos como si lo fuesen, suponiendo
que a un nivel local el modelo varía lo suficientemente suave en el tiempo para considerarlo
aproximadamente estacionario. En este trabajo se estudia el comportamiento del estimador
de mínima distancia (MDE), discutido en en la literatura por Tieslau, Schmidt and Baillie (1996), Baillie and Chung (2001), Mayoral (2007), Kouamé and Hili (2008) y Zevallos
and Palma (2013), entre otros, para el caso de procesos localmente estacionarios de medias
móviles y su comparación con otras técnicas de estimación desarrolladas para este tipo de
procesos como son los estimadores de Whittle y de Espacio Estado.
Palabras claves: Localmente Estacionario, Corta Memoria, Whittle, Kalman, MDE.
*
Email:
Email:
***
Email:
****
Email:
**
[email protected], Agradecimientos Fondecyt 11121128
[email protected],
[email protected], Agradecimientos Fondecyt 1120758
[email protected],
93
Prueba de hipótesis para la igualdad de vectores de
medias basada en observaciones multivariadas apareadas
doblemente intercambiables
Anuradha Roy
Department of Management Science and Statistics
The University of Texas at San Antonio
One UTSA Circle
San Antonio, TX 78249, USA
Ricardo A. Leiva*
Departamento de Matemática
F.C.E., Universidad Nacional de Cuyo
5500 Mendoza, Argentina
Ivan Žežula y Daniel Klein
Institute of Mathematics, Faculty of Science
P. J. Šafárik University
040 01 Košice, Slovakia.
Resumen
En este trabajo se presenta un método para contrastar la hipótesis de igualdad entre
vectores de medias obtenidos con datos apareados doblemente multivariados, con q variables respuesta y u sitios, con matriz de covarianza con simetría compuesta por bloques. Se
obtiene así el estadístico T 2 de bloques (BT 2 ), que es una extensión natural del estadístico
T 2 de Hotelling, resultado de una convolución de dos estadísticos T 2 . Este estadístico usa
estimadores insesgados de las matrices componentes de la transformación ortogonal de la
matriz de covarianza de simetría compuesta por bloques de los vectores muestrales. El nuevo estadístico de prueba se usa luego con dos conjuntos de datos reales y se comparan sus
resultados con aquellos que se obtienen usando el estadístico convencional T 2 de Hotelling.
Palabras claves: Estructura de covarianza de la simetría compuesta por bloques; Estadístico T 2 de bloques; Datos apareados doblemente multivariados; Estadístico T 2 de Hotelling.
*
Email: [email protected],
94
Imputation techniques for missing data in heterogeneous
data sets: the ADNI study
Sergio Campos*1 , Héctor Allende1,2 , Luis Pizarro3
1 Departamento
de Informática, Universidad Técnica Federico Santa María, Valparaíso, Chile
de Ciencias, Universidad Adolfo Ibáñez, Valparaíso, Chile
3 Centre for Medical Image Computing, University College London, London, United Kingdom
2 Facultad
Resumen
In real-world applications it is common to find data bases whose records contain missing
values – a problem that affects the data analysis and could bias its conclusions. As many
data analysis algorithms are not designed to work with missing data, all variables associated
with such records are generally removed from the analysis. This solution is valid when the
rate of missing data is low, in which case the statistical distribution of the data should
not be altered. Nevertheless, when the rate is high a better alternative is to employ data
imputation techniques to estimate the missing values using statistical relationships with the
other records.
The ADNI (Alzheimer’s Disease Neuroimaging Initiative) study provides a data base with
heterogeneous entries (clinical, genetic, chemical data, and biomedical images) of 800 patients
diagnosed at different stages of the Alzheimer’s disease. The study aims at investigating and
defining the progression patterns of the disease. Approximately 80 % of the patients contain
entries with missing values, which suggests that it is unpractical to remove the vast majority
of the data from the analysis.
In this work, we juxtapose different parametric and non-parametric data imputation
techniques for the ADNI study. Using various performance metrics, we provide results that
allow for the identification of the most suitable data imputation techniques under different
scenarios in which the data could be corrupted or completely missing.
Keywords: Missing data, Imputation techniques, Heterogeneous data sets, ADNI.
*
Email: [email protected],
95
Comparación de la Predicción del Consumo Eléctrico
Mediante diversos modelos de Series de Tiempo
Sergio Contreras Espinoza*
Universidad del Bío-Bío.
Pamela Vicuña Fernández
Universidad del Bío-Bío
Resumen
La predicción de la demanda del consumo energético para cualquier empresa, es un insumo fundamental para la toma de decisiones operativas y estratégicas, cuya falta de precisión
puede generar altos costos económicos. Es por ello que el objetivo de este artículo es realizar
una comparación entre la calidad de las predicciones realizadas usando los modelos de suavizamiento exponencial, de redes neuronales y de espacio estado para el consumo eléctrico
de una zona del sur de Chile.
En estos pronósticos no se considera la utilización de variables exógenas importantes,
como por ejemplo, el cambio de temperatura, el crecimiento de la población, la sensación
térmica, precio de energías sustitutas (ERNC), entre otras; debido a que no hay registro
confiable de ellas para el periodo y zona geográfica en estudio.
Palabras claves: Demanda de Energía Eléctrica, predicción, series de tiempo.
*
Email: [email protected],
96
Testing for Unit roots and Granger non-causality in time
series with multiple structural breaks. An international
stock markets application
Sergio Martín Buzzi*
Facultad de Ciencias Económicas de la Universidad Nacional de Córdoba.
Silvia María Ojeda
Facultad de Matemática, Astronomía y Física de la Universidad Nacional de Córdoba.
Abstract
In the current paper, we analyze the relationship amongst the dynamics of a group of
selected stock indices using daily data. In order to that, we explore the statistical properties
of the series, in particular the existence of breaks and unit roots. Two questions of interest
are whether or not there are markets that lead the others and which are them. The concept
of Granger causality, as a proxy of causality, enables us to address these issues. Moreover,
knowing that a market helps to forecast the movements of another market index provides
valuable information for traders. Also, this information is useful for improving the knowledge
on financial crisis transmission channels. The existence of multiple structural breaks generates problems on the unit roots and Granger non-causality testing. Given that, we design
procedures to lead with those issues.
Keywords: Time series, unit root, Granger causality, stock markets.
*
Email: [email protected],
97
Estudio del Gráfico de Control CCC-r para Procesos de
Alta Calidad y su Aplicación con Datos de una Planta de
Autopartes
Silvia Joekes*
Instituto de Estadística y Demografía, U.N.C.
Marcelo Smrekar**
Lab. de Ingeniería y Mantenimiento Industrial, U.N.C.
Emanuel Pimentel Barbosa***
Depto. Estatística, Imecc/UNICAMP, Campinas-SP, Brazil
Resumen
Los procesos industriales de alta calidad (baja fracción de unidades no conformes), requieren que se deba prestar especial atención a los métodos de control empleados, dado que
los tradicionales gráficos de control de Shewhart ya no son más apropiados. Una alternativa
consiste en la determinación de gráficos de control clasificados en la categoría de gráficos de
conformidades acumuladas, que tienen a la distribución geométrica o la distribución binomial
negativa o a alguna de sus variantes como distribuciones de probabilidad subyacente. En este
trabajo son considerados los gráficos CCC-r que se basan en el recuento acumulado de ítems
conformes producidos antes de que se observen r ítems no conformes. Sin embargo, aunque
estos gráficos han demostrado ser útiles en el seguimiento de procesos de alta calidad, poseen
la característica de que la longitud promedio de corrida (ARL) es sesgada. Para evitar esta
dificultad, existen dos propuestas en la literatura. Una basada en la determinación de límites de control mediante la incorporación de un coeficiente de ajuste obtenido a partir de la
maximización de la longitud media de corrida (ARL) y otra que propone determinar límites
de control del gráfico CCC-r, mediante un procedimiento iterativo tendiente a obtener un
ARL cuasi insesgado y cuasi maximal. A efectos de determinar la mejor opción, se realiza un
estudio computacional de validación estadística para comparar ambos procedimientos mediante un experimento de simulación para los casos r = 2, 3 y 4, evaluando la performance
en función de la longitud promedio de corrida (ARL). Los resultados muestran que una de
las propuestas es más eficiente para detectar el deterioro del proceso mientras que la otra es
más adecuada para monitorear la mejora del proceso. Finalmente se muestra la aplicación
del gráfico CCC-r a un proceso real con datos de una planta de autopartes, con análisis y
discusión de los resultados.
Palabras claves: Procesos de Alta Calidad, Gráficos de Control CCC-r, Distribución
binomial negativa, Longitud promedio de corrida (ARL)
*
Email: [email protected],
Email: [email protected],
***
Email: [email protected],
**
98
Predicción de la demanda diaria de energía eléctrica en
Uruguay
Silvia Rodríguez Collazo*
Instituto de Estadística. Facultad de Ciencias Económicas y Administración, UdelaR
Fernando Massa
Instituto de Estadística. Facultad de Ciencias Económicas y Administración, UdelaR
Resumen
Las series horarias con fuerte patrón estacional se caracterizadas por la alta frecuencia
con la que se registran los datos. En la medida que el registro es muy frecuente es posible
captar periodicidades en los datos que no son detectables cuando la información aparece
agregada. La modelización de la demanda horaria de energía eléctrica debería contemplar
la existencia de múltiples estacionalidades, el efecto de los días especiales, fines de semana,
feriados, e incluso la influencia de variables de tipo meteorológico. En este trabajo se estima
y predice la demanda por hora y a lo largo del día y hasta 10 días en adelante de energía
eléctrica de Uruguay, mediante 24 modelos horarios, uno para cada hora del día y un único
modelo diario. A partir de la aplicación del test HEGY adaptado a series de frecuencia diaria,
Rubia (2001), se define una representación determinística para captar las periodicidades
intrasemanales dentro del modelo. La estimación se realiza en dos etapas, en la primer
etapa el modelo recoge la periodicidad semanal, incorporando su interacción con los días
especiales. En la segunda etapa se incorpora la estacionalidad mensual mediante la inclusión
de variables meteorológicas considerando el vínculo no lineal entre la demanda de energía
eléctrica y la temperatura, así como los eventos atípicos y un componente ARMA para
recoger la estructura remanente. El vínculo no lineal entre demanda de energía eléctrica
y temperatura se especifica mediante la inclusión de umbrales. La búsqueda iterativa de
los umbrales se realiza siguiendo la propuesta de Cancelo y Espasa (1991) y Cancelo et al.
(2008).
Palabras claves: Demanda de energía eléctrica, series alta frecuencia, SARIMA, estacionalidad múltiple.
*
Email: [email protected],
99
Aplicación de un modelo de Análisis Factorial
Confirmatorio para determinar los scores de los factores
latentes que determinan la Calidad de Vida percibida.
Una aplicación web.
Valeria Gogni*
Universidad de Buenos Aires- Facultad de Ingeniería. Roberto Muiños
Universidad de Buenos Aires- Facultad de Psicología.
Resumen
Tanto a nivel teórico como práctico, no existe un consenso acerca de qué se entiende por
Calidad de Vida dado que este concepto posee un carácter complejo y multidimensional.
Campbell (1976) plantea que la satisfacción de una persona se integra con diversas componentes que cubren los distintos aspectos de la vida de una persona y que son evaluados
subjetivamente por los individuos tanto en lo referido a la importancia en su contexto vital,
como en relación a su felicidad o bienestar en dichos aspectos.
En este trabajo, se ajusta un modelo de Análisis Factorial Confirmatorio de Segundo
Orden a los datos provistos por el Inventario de Calidad de Vida, aplicado a una muestra
de 1336 individuos de entre 18 y 64 años de la ciudad de Buenos Aires, que permite identificar las dimensiones latentes que subyacen: Ambiente o hábitat del sujeto, su necesidad de
trascendencia, las redes sociales que lo contienen, y su Crecimiento Personal.
Se diseñó una aplicación web que permite obtener los scores en los factores latentes
mencionados, y los baremos que permiten su utilización con fines diagnósticos.
Palabras claves: Calidad de Vida - Análisis Factorial Confirmatorio - Modelos de Ecuaciones Estructurales – Factores Latentes
*
Email: [email protected],
100
Métodos MIS y POT para estimación de Vref en
proyectos de energía eólica
Valeria Gogni*
Mariano Bonoli Escobar
Diego Edwards Molina
Rubén Bufanio
Julia Contin
Grupo GESE. Universidad Tecnológica Nacional, Facultad Regional Haedo. Argentina.
Resumen
A la hora de proyectar la instalación de una planta de generación de energía utlizando
turbinas de viento, la caracterización estadística del recurso eólico juega un papel crítico.
Durante este proceso se estudia la intensidad y dirección del viento y su turbulencia, entre
otros aspectos.
Uno de los parámetros de este proceso es Vref, que la norma IEC 61400-12 define como
la velocidad extrema que tomará el viento con una recurrencia de 1 vez cada 50 años. Esta
parámetro se utiliza para definir la clase de aerogenerador que debe utilizarse. Una incorrecta selección de la clase llevaría a utilizar un molino cuyo diseño no es adecuado para las
condiciones de trabajo, afectando negativamente la vida útil del mismo.
Para estimar Vref se utilizan distribuciones de valores extremos, siendo el caso mas
general la distribución de valores extremos generalizada (GEV). El principal inconveniente
para realizar la estimación es la escacéz de información, ya que se requieren varios años de
mediciones en el sitio a caracterizar, rara vez disponibles. Surgen así, otras metodologías que
buscan obtener buenas estimaciones a partir de series de datos mas cortas. Son ejemplo de
estos métodos: Independent Storms Method (MIS), Peaks over Threshold (POT).
En el presente trabajo se describen los métodos MIS y POT aplicados a estimación de
Vref en proyectos de energía eólica. Se comparan ambos métodos y se describen las funciones
para realizar las estimaciones con el paquete R WindResource, de desarrollo propio.
Palabras claves: Recurso eólico, estimación Vref, distribuciones de extremos.
*
Email: [email protected],
101
Distribuición Geométrica Half-Normal Potencia con
fracción de cura
Yolanda M. Gómez*
Instituto de Matemática e Estatística, Universidade de São Paulo, Brazil.
Heleno Bolfarine
Instituto de Matemática e Estatística, Universidade de São Paulo, Brazil.
Resumen
En este trabajo se considera el modelo de cura geométrico de Rodrigues et al.(2009) usando para S0 (·), la función de sobrevivencia de las células cancerígenas, una extensión de la
distribuición half-normal basada en la distribuición del máximo de una muestra aleatoria. Es
discutida la estimación de máxima verosimilitud del modelo y finalmente, el modelo es ajustado a un banco de datos real (Melanoma), comparándolo finalmente con otras alternativas
para S0 (·).
Palabras claves: Distribuición del máximo de una muestra, Distribuición half-normal,
Máxima verosimilitud, Modelo de cura geométrico.
*
Email: [email protected],
102
Clustering de Datos Funcionales
Aplicación a Datos de Consumo Eléctrico
Andrés Castrillejo
Instituto de Estadística, FCEA. UdelaR.
Fernando Massa*
Instituto de Estadística, FCEA. UdelaR.
Abstract
El Análisis de Clusters es una técnica descriptiva de clasificación no supervisada que
permite clasificar objetos en grupos homogéneos siguiendo un criterio de similitud. Así, los
grupos obtenidos contienen objetos que son similares en su interior y disímiles entre grupos.
Existe una vasta literatura, incluyendo varios algoritmos de clasificación y criterios de similitud, que tratan el caso en que los objetos son representados por un vector de medidas.
En esta aplicación se presentan los resultados de un Análisis de Cluster en el cual los
objetos son representados mediante funciones. Este tipo de datos de naturaleza infinita son
estudiados por la rama de la estadística conocida como Análisis de Datos Funcionales. Entre
los problemas a tratar se encuentra la representación de los datos y el uso de un criterio de
similitud consistente con la naturaleza de los objetos funcionales.
El trabajo está guiado por el análisis a la demanda de energía eléctrica en Uruguay.
El objetivo es obtener un agrupamiento que permita describir e interpretar diferencias de
comportamiento en la demanda diaria de energía eléctrica a nivel del sistema eléctrico. Los
objetos con los que se trata son trayectorias de procesos estocásticos que se representan como
funciones del tiempo. La no estacionariedad del proceso subyacente introduce una dificultad
adicional.
Se dispone de datos de demanda de energía eléctrica muestreados cada 10 minutos sobre
un período de 5 años. Los datos históricos son segmentados en días, los que conforman
las unidades del análisis. La implementación propuesta implica un pre-procesamiento de los
datos y su representación adecuada, para poder aproximar las funciones diarias de demanda a
partir de las medidas discretas observadas, previo a la aplicación de algoritmos de clustering.
Se exploran diversas estrategias de pre-procesamiento de los datos funcionales en esta
situación y se comparan diferentes algoritmos de clustering y nociones de disimilitud entre
los objetos funcionales.
Keywords: análisis de datos funcionales; clustering ; medidas de disimilaridad
*
Email: [email protected],
103
STANOVA: A Smoothed-ANOVA-based model for
spatio-temporal disease mapping
Francisco Torres-Avilés*
Universidad de Santiago de Chile.
Miguel A. Martínez-Beneito
Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat
Valenciana (FISABIO), Valencia, Spain
CIBER de Epidemiologa y Salud Pública (CIBERESP), Madrid, Spain.
Abstract
Spatio-temporal disease mapping can be viewed as a multivariate disease mapping problem
with a given order of the geographic patterns to be studied. As a consequence, some of the
techniques in multivariate literature could also be used to build spatio-temporal models. In
this paper we propose using the smoothed ANOVA multivariate model for spatio-temporal
problems. Under our approach the time trend for each geographic unit is modeled parametrically, projecting it on a preset orthogonal basis of functions (the contrasts in the smoothed
ANOVA nomenclature), while the coefficients of these projections are considered to be spatially dependent random effects. Despite the parametric temporal nature of our proposal,
we show with both simulated and real datasets that it may be as flexible as other spatiotemporal smoothing models proposed in the literature and may model spatio-temporal data
with several sources of variability.
Keywords: Besag, York and Mollié’s model, Disease mapping, Spatio-temporal modeling.
*
Email: [email protected], Agradecimientos Fondecyt grant 11110119.
104
Aplicación de Procesos Localmente Estacionarios en
Modelos de Volatilidad Estocástica
Cristián Vásquez E.*
Pontificia Universidad Católica de Chile.
Wilfredo Palma
Pontificia Universidad Católica de Chile.
Resumen
En el presente trabajo, se propone una clase de modelos apropiados para series financieras
que presentan varianza condicional evolucionando en el tiempo. Esta clase, corresponde a
una extensión natural de los modelos de volatilidad estocástica propuestos por Taylor (1986.
Modelling Financial Time Series. Wiley, New York), donde el procesos latente no observado
que genera la volatilidad corresponde a una familia de modelos localmente estacionarios
propuestos por Dahlhaus (1997. Annals of Statistics 25: 1-37). Para dicha propuesta, se
presenta un mecanismo de estimación, la consistencia de los estimadores, el teorema del
límite central y un estudio de simulación de Montecarlo.
Palabras claves: Procesos Locamente Estacionarios, Volatilidad Estocástica y Determinística, Densidad Espectral.
*
Email: [email protected],
105
Parte V
Póster
106
Análisis de clúster aplicado al perfil de los ingresantes a
Ciencias Económicas de la UNC
Adrián Maximiliano Moneta Pizarro*
Departamento de Estadística y Matemática de la Facultad de Ciencias Económicas, Universidad
Nacional de Córdoba.
Laura Montero
Departamento de Estadística y Matemática de la Facultad de Ciencias Económicas, Universidad
Nacional de Córdoba.
María Alejandra Juárez
Departamento de Estadística y Matemática de la Facultad de Ciencias Económicas, Universidad
Nacional de Córdoba.
Valentina Caro
Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.
Julio Mine
Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.
Resumen
El perfil de los ingresantes es un insumo básico para la gestión académica y docente de
las universidades. Conocer este perfil permite diseñar políticas y estrategias de enseñanza y
aprendizaje de acuerdo a las características propias de los alumnos.
El objetivo del presente trabajo es identificar diferentes tipos de perfiles entre los alumnos ingresantes a la Facultad de Ciencias Económicas (FCE) de la Universidad Nacional
de Córdoba (UNC). Para ello se presenta un análisis de clúster aplicado sobre datos de las
características personales, familiares, académicas, laborales y tecnológicas de una muestra
aleatoria de ingresantes tomada en el año 2013. Se trata de un segundo avance de investigación realizado sobre la base de un trabajo exploratorio previo de los autores que indicaba la
posible existencia de tres grupos de perfiles. Los resultados permiten distinguir claramente
estos grupos de perfiles, pero también otros dos que no habían sido identificados en el estudio
anterior.
Palabras claves: ingresantes, universidad, clúster, conglomerados.
*
Email: [email protected],
107
Física Estadística y Finanzas Cuánticas: Una aplicación
de modelos matemáticas de la teoría cuántica de campos.
Ana María Pendino*
Facultad de Ciencias Económicas y Estadística, UNR, Bv. Oroño 1261, S2000DSM, Rosario
Ricardo Rubén Addad**
Facultad de Ciencias Exactas, Ingeniería y Agrimensura, UNR, Av. Pellegrini 250, S2000BTP,
Rosario.
Resumen
El término ‘Finanzas Cuánticas’ representa la síntesis de los conceptos, métodos y matemáticas de la teoría cuántica, con el campo de finanzas teóricas y aplicadas. El término
cuántico, que acompaña a Finanzas, se refiere al extracto matemático base de la teoría
cuántica que incluye la teoría de probabilidad, espacio estado, operadores, hamiltonianos,
ecuaciones de conmutación, lagrangianos, integrales de camino, cuantificación de campos,
bosones, fermiones etcétera.
En las dos o tres últimas décadas, los mercados financieros verificaron comportamientos
bursátiles con períodos de gran crecimiento o de gran baja, con su correspondiente incertidumbre. Por otro lado, en los últimos años la física teórica ha permitido añadir nuevas
técnicas matemáticas y computacionales a las finanzas, desde los métodos de la física clásica
y cuántica al uso de la integral de camino, mecánica estadística, etcétera. La gran cuestión es
aplicar el formalismo y las perspicacias de la física (cuántica) a la economía (“Econophysics”,
“Econofísica”, término acuñado por Brian Arthur en la década de 1990).
Se desarrolla una aplicación y conexión de los conceptos de la teoría cuántica de campos
al modelado de tasas de interés y la teoría de opciones, con énfasis particular en torno a las
integrales de camino y hamiltonianos.
Para la realización de los cálculos analíticos, se utilizan no sólo herramientas físicomatemáticas provenientes de la teoría cuántica de campos y de la mecánica estadística,
sino también herramientas matemáticas provenientes del cálculo estocástico, probabilidad y
estadística, econometría.
Palabras claves: Física estadística, Finanzas cuánticas, Probabilidad.
*
**
Email: [email protected],
Email: [email protected],
108
Diseño de planes de muestreo en la detección de
micotoxinas
Ana María Sancho*
Centro Nacional de Investigación en Agroindustria- Instituto Nacional de Tecnología Agropecuaria
CNIA - INTA. Ricardo Moschini
Instituto de Clima y Agua- INTA. Diana Giorgini
Universidad Nacional de Buenos Aires
Susana Olga Filippini
Universidad Nacional de Lujan
Resumen
Las micotoxinas son un grupo heterogéneo de sustancias químicas que tienen efectos
negativos agudos y/o crónicos sobre la salud de los animales y de los seres humanos. Estos metabolitos fúngicos están presentes en una gran parte de los suministros alimentarios
mundiales y pueden representar una amenaza potencial para la inocuidad de los alimentos.
La posible toxicidad crónica (en niveles bajos de exposición) puede deberse a: aflatoxinas,
ocratoxinas, fumonisinas, zearalenona, entre otras micotoxinas. En dosis inferiores suele suscitar mayor preocupación que la toxicidad aguda, dado que algunas de esas sustancias son
carcinógenos muy poderosos y la exposición a ellas es muy amplia. Nuestro objetivo fue desarrollar un muestreo racional de granos de maíz en terminales portuarias para determinar la
concentración de micotoxinas. Para el análisis distribucional y planificar los muestreos apropiados se utilizó la determinación de los niveles de micotoxinas realizado en el laboratorio
de Contaminantes Químicos del ITA- INTA de Castelar en las muestras de granos de maíz
realizadas en terminales portuarias por SENASA (Servicio Nacional de Sanidad y Calidad
Agroalimentaria) e identificadas según zonas geograficas. De estos análisis, la fumonisina
total (F T = F B1 + F B2 ) fue la más detectada en los muestreos de las diferentes regiones
maiceras de Argentina. El estudio de los aspectos distribucionales de la posible contaminación con micotoxinas es de importancia para un buen diseño de los planes de muestreo y en
los monitoreos de calidad. Debido a la escasa disponibilidad en Argentina de estudios que
provean estimaciones de los niveles de FT en granos de maíz para exportación la obtención
de buena información es de gran relevancia.
Palabras claves: Plan de muestreo, fumonisina total, distribuciones probabilísticas.
*
Email: [email protected], Agradecimientos: SENASA y Laboratorio de Contaminantes Químicos ITA INTA CNIA.
109
Modelo Zero Inflated Poisson en el control de procesos de
alta calidad: un caso de aplicación
Andrea Righetti* , Joekes Silvia, Cristian Abrego
Instituto de Estadística y Demografía Facultad de Ciencias Económicas.
Universidad Nacional de Córdoba.
Resumen
Los gráficos de control de atributos que se utilizan comúnmente para monitorear el número de disconformidades por unidad, suponen que la característica bajo estudio sigue una
distribución Poisson. Fruto de la evolución tecnológica, actualmente los procesos se caracterizan por producir artículos que presentan un número de disconformidades por unidad muy
bajo, de manera que los gráficos tradicionales ya no resultan adecuados. Estos procesos se
denominan procesos de alta calidad. En este trabajo se utiliza el gráfico Zero Inflated Poison
(ZIP) para monitorear el número de disconformidades por unidad en los procesos caracterizados por la incorporación de un exceso de ceros al modelo Poisson. Se muestra la importancia
de la aplicación de los modelos ZIP en procesos de alta calidad en un estudio con datos
reales y la comparación con el gráfico tradicional de Shewhart. Se indica la performance de
los procedimientos en base al cálculo de la longitud media de corrida (ARL) y el índice de
cobertura (ACP).
Palabras claves: Proceso de Alta Calidad, Distribución Zero Inflated Poisson, Control
Estadístico de Procesos.
*
Email: [email protected]. ,
110
Propuesta metodológica de diseño de un sistema de
evaluación para la gestión educativa en el nivel superior
Gladys Rouadi* ; Cecilia Savi; Andrea Righetti; Roberto Infante
Carlos Garibaldi;Ana María Strub; Clarisa Stefanich; Irene Rómoli
Universidad Tecnológica Nacional. Facultad Regional Córdoba.
Resumen
En la actualidad existe una justificada y creciente preocupación en relación con la garantía
de la calidad, tanto de la universidad como institución, como de sus programas académicos.
En este contexto surge la acreditación como un proceso por medio del cual un programa
o institución educativa brinda información sobre sus operaciones y logros a un organismo
externo que evalúa y juzga. Los requerimientos de calidad y productividad aplicados a un
proceso educativo implican no sólo identificar y comprender el comportamiento de las variables que inciden en este proceso, sino también determinar, por un lado, el nivel mínimo de
calidad y productividad necesarios para garantizar una educación superior eficaz y eficiente,
y por el otro la continuidad y desarrollo de la Institución. El nivel de calidad es un concepto
que puede ser medido y evaluado "per se"(normativo) o en términos relativos: comparación
con pares, percepción de los usuarios e interesados, entre otros. La creación de ïndicadores
estadísticos"permite relacionar funcionamiento, recursos y resultados respecto a actividades,
eventos, procesos, unidades organizacionales y otros componentes de la institución. Los indicadores tienen el atractivo de su claridad pero su limitante radica en que no es posible
traducir, con precisión, las complejidades del proceso de interacción que se da en la educación en términos numéricos. Es por esta razón, que solamente se proponen indicadores de
evaluación de la calidad y de la productividad para algunas áreas, ya que en otras, por su
fuerte contenido subjetivo, no es posible establecer indicadores y menos aún estándares. En
este trabajo se presenta la propuesta de diseño de un Sistema de Evaluación de Desempeño
a partir de la utilización de indicadores estadísticos específicos que satisfagan las necesidades
de información para la medición, el control y la toma de decisiones en los niveles: Alumnos,
Docentes y Egresados. A partir de la observación de variables internas e históricas dentro de
la Institución, se espera dilucidar y cuantificar los aspectos internos. La detección de fortalezas y debilidades, darán paso a la determinación de acciones correctivas cuando corresponda,
o bien a la generación de información adicional que permita profundizar en la problemática.
La información externa marcará la relación con las tendencias y acciones de otra/s Institución/es, para detectar las necesidades que el mundo exterior exige para la Educación, y en
particular, para la carrera/s universitaria/s.
Palabras claves: Sistema de Gestión Educativa, Indicadores estadísticos, Evaluación,
Acreditación.
*
Email: [email protected],
111
Estudio epidemiológico de la influenza asiática de
1955-1957 en la Región del Bío-Bío
Benjamín J. Castillo Fierro*
Departamento de Estadística, Universidad del Bío-Bío.
Gerardo Chowell-Puente
School of Mathematics & Statistical Sciences, Arizona State University, Tempe, AZ 85287, USA.
Nelly Gómez Fuentealba
Departamento de Estadística, Universidad del Bío-Bío.
Resumen
l estudio de las grandes epidemias que han ocurrido en la historia de Chile es aún una
fuente de trabajo para la comprensión de su comportamiento para efectos de nuevas apariciones de éstas. Para efectos del presente trabajo se planteó una metodología de dinámica
poblacional propiamente de los modelos epidemiológicos matemáticos, tal es el caso de los
modelos de los modelos tipo SEIR, en donde se plantea como principal problema de estudio
la búsqueda de la tasa de infecciosidad R0 , ya que ésta deduce si la influenza se extingue
o bien se propaga incontrolablemente. La distinción de la población de estudio son básicamente los Susceptibles (S), Latentes (L), Infectados (I) y Removidos (R). Los resultados
entregados en términos de la frecuencia de muertos por la influenza en la Región del Bío-Bío
están correspondidos a la población y el tratamiento propiamente tal en la época.
Palabras claves: Influenza, epidemiología matemática, SEIR, R0 .
*
Email: [email protected],
112
“Análisis comparativo de métodos de detección de
diferencias mínimas en promotores del crecimiento en
aves”
Luciano Palacios.
Universidad Nacional de Luján.
Carla Martinez.
Universidad Nacional de Luján.
Olga Susana Filippini.
Universidad Nacional de Luján.
Resumen
La producción avícola en la Republica Argentina afronta actualmente la prohibición del
uso de antimicrobianos como promotores del crecimiento; utilizando en su remplazo acidificantes, enzimas, antioxidantes, probióticos, beta-adrenérgicos, pigmentadores, estimulantes
y extractos vegetales, para mantener en niveles aceptables la productividad y eficiencia. Estos promotores presentan diferencias mínimas en los parámetros productivos, especialmente
peso, consumo y conversión alimenticia. Esta investigación tiene como objetivo probar y seleccionar métodos estadísticos de comparación de medias que detecten diferencias significativas
reales mínimas en promotores del crecimiento. Las distintas técnicas de comparaciones múltiples presentan ventajas y limitaciones. Se trata de seleccionar aquellas con posibilidad de
discriminar entre los grupos de tratamientos con máxima potencia. Se comparan las pruebas
según cumplan o no con la homogeneidad de variancias. En algunas variables, resultaron más
eficientes los test de Tukey, Scheffé, Hochberg ,Bonferroni y F de Ryan-Einot-Gabriel-Welsch.
En aquellas variables que no se cumplió el supuesto de homogeneidad de variancias, el procedimiento de T3 y C que described in Dunnett y T2 de Tamhane, son las más apropiadas
para el empleo en los diferentes análisis.
Palabras claves: Nutrición, Aves, Comparaciones Múltiples.
113
Inferencia sobre el coeficiente de correlación de
concordancia
Carla Leal Kaymalyz*
Estudiante de Doctorado en Estadística
Departamento de Estadística, Facultad de Matemáticas
Pontificia Universidad Católica de Chile.
Manuel Galea Rojas**
Departamento de Estadística, Facultad de Matemáticas
Pontificia Universidad Católica de Chile.
Resumen
La concordancia entre mediciones depende de la calibración del instrumento en el sentido
que éste pueda obtener medidas cercanas al valor real de la característica que se desea medir
(exactitud) y además pueda entregar resultados similares de diferentes mediciones obtenidas
bajo las mismas condiciones (precisión). Un indicador propuesto por Lin (1989) para evaluar
el grado de acuerdo o concordancia entre medidas obtenidas con diferentes instrumentos es
el Coeficiente de Correlación de Concordancia (CCC)*** .
En la práctica es común asumir que las observaciones siguen una distribución normal, no
obstante si el conjunto de datos presenta outliers, éste supuesto distribucional no es robusto
en el sentido que la estimación del CCC puede verse afectado y por ende las conclusiones
respecto a la concordancia de las observaciones.
Se presentan algunas inferencias sobre el CCC suponiendo que los datos siguen una distribución t-Student bivariada y se aplica la técnica de diagnóstico de influencia local, la
cual permite detectar la sensibilidad del estimador de CCC bajo diferentes esquemas de
perturbación. Se espera que el estimador del CCC bajo éste supuesto sea menos sensible
respecto al estimador del CCC bajo el supuesto distribucional Normal.
Palabras claves: Coficiente de correlación de concordancia, Grado de acuerdo, Distribución Normal, Distribución t-Student, Influencia local.
*
Email: [email protected],
Email: [email protected],
***
Lin, L.(1989). A Concordance Correlation Coefficient to Evaluate Reproducibility. Biometrics, 45, 255248.
**
114
Cambio Climático Mundial: Análisis Estadístico de las
Nuevas Experiencias en Latino-América
Claudia Castro-Kuriss*
Dto. Matemática, Instituto Tecnológico de Buenos Aires, ITBA.
Eduardo Fracassi
Centro de Estudios Estratégicos para el Desarrollo Sostenible, Escuela de Ingeniería y Gestión,
ITBA.
Fabián Szulanski
Dto. de Ingeniería Industrial, ITBA,Buenos Aires, Argentina.
Resumen
El Ejercicio de Cambio Climático Mundial se describe en el sitio interactivo http://www.
climateinteractive.org/simulations/world-climate como un juego de roles sobre una
simulación de clima diseñada conjuntamente por el MIT y Climate Interactive que permite
a los participantes experimentar cómo negociar para obtener un acuerdo mundial tendiente
a mitigar los efectos del cambio climático. Las autoridades del Capítulo Latinoamericano
de la Sociedad Internacional de Dinámica de Sistemas convocaron al ITBA a liderarla en
Argentina. El trabajo muestra cómo es posible incrementar la conciencia sobre el problema,
el riesgo percibido y la urgencia en mitigar las consecuencias en el corto-mediano plazo. Los
autores crearon un cuestionario que fue completado después de la participación y en algunos
casos antes y después, para un total de 11 talleres y 220 participantes en 2 Universidades, un
Colegio Secundario y una Asociación Técnica de Graduados durante los años 2013 y 2014.
Las respuestas se asociaron con una escala Likert de 5 categorías. Se realizó un análisis de
comparación múltiple de respuestas categóricas ordinales según lugar relevado. Para testear
si las probabilidades en cada categoría resultaban iguales según los centros se empleó el
test de Chi-cuadrado de Pearson y para comparar resultados antes-después las variables
fueron dispuestas en una tabla de contingencia 2x2 empleándose el test exacto de Fisher.
La asociación entre las variables ordinales se estudió mediante el coeficiente de correlación
de rangos de Kendall, Tau-b. Se calculó también el índice de consistencia interna mediante
el alpha de Cronbach que resultó mayor a 0.65 en tres de los cinco Centros estudiados.
Los resultados obtenidos no mostraron en general diferencia significativa entre los lugares
donde se impartieron los talleres ni asociación entre las categorías definidas. Las excepciones
fueron las variables definidas como Conciencia , Riesgo y Urgencia indicando distinto grado
de preocupación entre los participantes según su formación académica.
Palabras claves: Ejercicio de Cambio Climático Mundial, tests para variables categóricas.
*
Email: [email protected] ; [email protected],
115
Estimación del riesgo Microbiológico por Salmonella en
aguas grises de la provincia de Buenos Aires
Claudia P. Molinari*
Cátedra de Matemática-Facultad de Farmacia y Bioquímica-Universidad de Buenos Aires Lidia
Nuñez, Marta Paz, Carina Tornello, Julián Mantovano, Juan Morettón
Cátedra de Salud Pública e Higiene Ambiental -Facultad de Farmacia y Bioquímica-Universidad de
Buenos Aires
Resumen
Salmonella sp y Escherichia coli son microorganismos patógenos e indicadores de contaminación fecal presentes en aguas residuales domiciliarias conocidas como aguas grises,
originadas en duchas, piletas de cocina, etc. que se vierten separadas de las aguas negras.
De acuerdo a la carga microbiológica estas aguas grises pueden ser fuente de transmisión de
enfermedades sobre todo en lugares donde corren a través de zanjas o canales a cielo abierto.
El objetivo de este trabajo ha sido estimar el riesgo de infección debido a Salmonella sp y
analizar la reducción de dicho riesgo en el caso de la sedimentación espontánea y posterior
filtrado por arena del agua cruda, técnica que se propone como una alternativa de emergencia ante la ausencia de redes cloacales. El estudio se realizó aplicando los fundamentos del
QMRA (Quantitative microbial risk assessment). Para la estimación del riesgo se utilizó el
modelo correspondiente al patógeno aplicando técnicas de simulación de Montecarlo, ajustándose previamente las distribuciones en base a los datos relevados. Se consideró además la
relación Salmonella sp - coliformes fecales para la simulación de su concentración. Se tomaron en cuenta dos escenarios posibles de exposición: 1.Ingestión accidental de 0.01 a 0,1 g de
tierra por una sola exposición por parte de niños que jueguen en el lugar (96 días al año), 2.
Ingestión accidental de agua al salpicarse con el agua del canal: 10 mL de agua (48 días al
año), estimando el riesgo frente a una sola ingestión y el acumulado por ingesta anual. Para
cada uno de dichos escenarios se calculó el riesgo para agua cruda, agua sedimentada y agua
filtrada a fin de evaluar la reducción del riesgo en cada etapa. Los resultados obtenidos para
agua filtrada llevan a concluir que ésta es una buena alternativa para disminuir el riesgo de
contaminación con Salmonella sp en estas aguas.
Palabras claves: riesgo microbiológico; análisis cuantitativo, Salmonella ;simulación de
Montecarlo.
*
Email: [email protected],
116
Predicción de resultados de partidos de fútbol a través de
métodos bayesianos
Diego Marfetán Molina*
Facultad de Ciencias Económicas y Estadística, Universidad Nacional de Rosario.
Resumen
A lo largo de los últimos veinte años la comunidad estadística presenció la resurrección de
la inferencia bayesiana, la cual acrecentó paulatinamente su popularidad y logró ubicarse a
la par de los métodos clásicos o frecuentistas. Este cambio se vio sustentado, principalmente,
por el desarrollo de procesadores y algoritmos computacionales capaces de llevar a cabo
eficazmente el proceso de estimación requerido por los métodos bayesianos. Si bien el enfoque
bayesiano presenta algunas ventajas en cuanto a la interpretación de los resultados y su
validez no depende del cumplimiento de supuestos, la elección entre este paradigma y el
clásico depende generalmente de las características particulares del problema a resolver,
siendo inapropiado utilizar invariablemente un único método. Este trabajo constituye un
acercamiento a la escuela de inferencia bayesiana, escasamente difundida en la región, al
tiempo que compara la performance de ambos enfoques a la hora de interpretar los resultados
de los modelos ajustados. Se presentan los resultados obtenidos tras ajustar diversos modelos
de odds proporcionales desde una perspectiva tanto bayesiana como clásica, utilizando para
tal fin los paquetes estadísticos libres R y WinBUGS. Se considera al resultado final de un
partido de fútbol (victoria, empate o derrota) como una variable multicategórica ordinal,
modelándose en consecuencia dos ecuaciones logit. La primera de ellas puede interpretarse
como la razón entre la probabilidad de ganar y la probabilidad de no ganar, mientras que
la restante representa la razón entre las probabilidades de no perder y perder. El objetivo
principal del estudio consiste en identificar a las variables explicativas que mayor influencia
ejercen sobre el resultado final del encuentro.
Palabras claves: nferencia bayesiana, modelo de odds proporcionales, fútbol.
*
Email: [email protected], Agradecimientos: Mg. Leticia Hachuel.
117
El patrón social de las actitudes hacia el control del
tabaco en Argentina
Fernando De Maio*
DePaul.University
Jonatan Konfino
Ministerio de Salud de la Nación
Dolores Ondarsuhu
Instituto Nacional de Estadística y Censos
Lucila Goldberg
Ministerio de Salud de la Nación
Daniel Ferrante
Ministerio de Salud de la Nación
Resumen
La Argentina ha promulgado iniciativas de control del tabaco importantes de los últimos
años. Sin embargo, poco se sabe acerca de los patrones sociales de las actitudes hacia el
control del tabaco. Se necesita investigación para explorar lo que predice la oposición a
las iniciativas de control del tabaco, tales como impuestos más altos sobre el tabaco y la
prohibición de la publicidad del tabaco. El objetivo de este estudio es analizar el patrón
social de las actitudes hacia el control del tabaco en la Argentina, en particular, lo que
predice la oposición a las iniciativas de control del tabaco, tales como el aumento de los
impuestos sobre el tabaco y la prohibición de la publicidad.
En este trabajo se presenta un análisis secundario de la Encuesta Mundial de Tabaquismo
en Adultos 2012 (N = 6.645) a partir de un análisis de regresión logística binaria que pretende
examinar la oposición al aumento de los impuestos del tabaco y la prohibición de la publicidad
del tabaco. Los modelos fueron estratificados por condición actual de fumador.
Palabras claves: Análisis de regresión logística, control de tabaco, patrones sociales
*
Email: [email protected] ,
118
Estimación de sistemas de ecuaciones simultáneas
anidados
Dora silvia Maglione*
Universidad Nacional de la Patagonia Austral, Argentina
Angela Magdalena Diblasi
Universidad Nacional de Cuyo, Argentina
Resumen
Los modelos de Análisis de Demanda permiten predecir el comportamiento de la demanda de un grupo de productos en función de una serie de variables conocidas. En particular,
resulta de interés estimar la participación de cada artículo dentro de un grupo de artículos
que suelen estar asociados (por ejemplo los artículos básicos para la construcción) y la participación de diversos tipos de un único artículo (por ejemplo, diversas marcas de cementos)
en su comercialización. Existen diversos modelos de demanda analizados en la bibliografía.
En este trabajo se plantea un modelo de ecuaciones simultáneas que representan las participaciones entre categorías de artículos y otros modelos, también de ecuaciones simultáneas,
para las participaciones dentro de cada categoría.
A partir de los parámetros estimados de los modelos se estiman las elasticidades tanto
para las categorías como para los productos dentro de cada categoría. Por otra parte las
funciones de ganancias por categoría y entre categorías se aproximan por funciones lineales
utilizando las elasticidades respectivas. La maximización de las funciones de ganancias bajo
restricciones preestablecidas en los precios conduce a la obtención de precios óptimos. Con
ellos se generan por simulación intervalos de confianza para las ganancias. Esta metodología
se aplica a un conjunto de datos.
Palabras claves: modelo de ecuaciones simultáneas, elasticidades de demanda, variabilidad anidada, aproximación lineal.
*
Email: [email protected],
119
Diagnosticos de influência em modelo espaciais lineares
com ditribuição da família de contornos elipticos
Fernanda De Bastiani*
Departamento de Estatística, Universidade Federal de Pernambuco-Recife-Brasil.
Audrey Helen Mariz De Aquino Cysneiros
Departamento de Estatística, Universidade Federal de Pernambuco-Recife-Brasil.
Miguel Angel Uribe-Opazo
Centro de Ciências Exatas e Tecnológicas, Universidade Estadual Do Oeste do
Paraná-Paraná-Brasil.
Manuel Galea
Departamento de Estadística, Pontificia Universidad Católica de Chile- Santiago-Chile.
Resumo
Os modelos espaciais lineares com distribuição da família contorno elípticos constituem uma
alternativa para explicar a estrutura de variabilidade espacial de variáveis regionalizadas, visto ter a flexibilidade de estender a classes dos erros para outras distribuições além da normal.
O objetivo deste trabalho foi desenvolver métodos de influencia local em modelos espaciais
lineares com distribuição da família contorno elípticos utilizando diferentes esquemas de
perturbação na variável resposta, assim como avaliar a influencia na matriz de covariância.
Realizaram-se estudos de simulação e aplicação a dados reais na agricultura, possibilitando
avaliar a importância dos métodos desenvolvidos.
Palabras claves: Geoestatística, Influência Local, Variabilidade Espacial.
*
Email: [email protected],
120
La disponibilidad de los servicios bancarios en la
provincia de Córdoba (Argentina). Un estudio de sus
determinantes.
Fernando García*
Facultad de Ciencias Económicas – Universidad Nacional de Córdoba.
Margarita Díaz
Facultad de Ciencias Económicas – Universidad Nacional de Córdoba.
Resumen
En este trabajo se analiza la disponibilidad de los servicios bancarios en la provincia de
Córdoba (Argentina) utilizando una base de datos a nivel de localidad para el período 20002013. La distribución geográfica tanto de sucursales como cajeros automáticos exhibe una alta
concentración, observándose diferencias importantes entre departamentos. La tendencia en
los últimos años revela cambios importantes no sólo en el tamaño de la banca sino también
en su composición. Si bien el número de sucursales se mantuvo relativamente estable, el
dato más relevante es el aumento sustancial en los puntos de atención a través de cajeros
automáticos. Este comportamiento revela un mayor interés de los bancos por ofrecer servicios
financieros transaccionales.
Se utilizan Modelos Lineales Generalizados Multinevel Logit y Poisson a efectos de estudiar los determinantes de la disponibilidad de los servicios bancarios. Los resultados muestran
diferencias según la banca sea pública, privada de capital nacional o privada de capital extranjero. Asimismo se encontraron factores determinantes tanto a nivel local: población, tasa
de ocupación formal, nivel de educación, tasa de jubilados/pensionados, indicador de capacidad económica; como a nivel de departamental: superficie y Producto Bruto Geográfico.
Dada la estructura espacial que presentan los datos, se calculó el índice de Moran, que
capta la asociación espacial, el que resultó significativo por lo que se considera conveniente
la utilización de Modelos Autorregresivos Espaciales como alternativa a los modelos mencionados con anterioridad.
Palabras claves: Bancarización, Datos espaciales, Modelos Lineales Generalizados multinivel.
*
Email: [email protected] ,
121
M- estimadores vía modelos BIP-ARMA para series de
tiempo con diferentes esquemas de contaminación
Grisel Maribel Britos*
Facultad de Matemática Astronomía y Física. Universidad Nacional de Córdoba. Argentina.
Silvia María Ojeda
Facultad de Matemática Astronomía y Física. Universidad Nacional de Córdoba. Argentina.
Resumen
Dentro de la clase de estimadores robustos para los parámetros de modelos ARMA en
series de tiempo, se encuentran los M-estimadores, donde los residuos se calculan tal que el
efecto de una observación atípica está limitado al período donde ésta acontece. El planteo
de esta propuesta requiere definir una familia de modelos auxiliares llamados BIP-ARMA,
a partir de los cuales es posible establecer estimadores de los parámetros del modelo ARMA
unidimensional, los que resultan altamente robustos para el caso de outliers de tipo aditivo.
Sin embargo, no se ha estudiado aún su conducta frente a otros esquemas de contaminación
tales como outliers de tipo innovativo. En este trabajo proponemos analizar el comportamiento de los M estimadores robustos, vía modelos BIP-ARMA, para el caso de la estimación
paramétrica en series de tiempo afectadas por diferentes esquemas de contaminación. La
implementación computacional se realizará mediante el software estadístico R.
Palabras claves: Modelos ARMA, M-estimadores, modelos BIP-ARMA.
*
Email: [email protected] ,
122
Distribución Potencia-Cauchy: Propiedades e Inferencia
Gonzalo A. Montero*
Héctor W. Gómez**
Resumen
En este poster consideramos una extensión asimétrica de la distribución Cauchy basada en la distribución del máximo de una muestra aleatoria. Esta distribución pertenece a
la familia de distribuciones considerada por Pewsey et al. (2012). Algunas propiedades de
esta densidad son investigadas, estudios inferenciales son realizadas a través del método de
máxima verosimilitud y matriz de información, presentamos una ilustración con datos reales
y lo comparamos con otra extensión de la distribución Cauchy.
Palabras claves: Distribution Cauchy, Distribution skew-Cauchy, Verosimilitud.
*
Email: [email protected], Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad de Antofagasta, Antofagasta, Chile
**
Email: [email protected], Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad de Antofagasta, Antofagasta, Chile.
123
Truncated Positive Normal Distribution
Héctor Gómez*
Departamento de Matemáticas, Universidad de Antofagasta, Chile.
Neveka M. Olmos
Departamento de Matemáticas, Universidad de Antofagasta, Chile.
Héctor Varela Véliz
Departamento de Matemáticas, Universidad de Antofagasta, Chile.
Resumen
El objetivo de este artículo se centra en estudiar un modelo que nace al realizar una
truncación positiva del modelo normal, de esta forma se obtiene un modelo más flexible que
el modelo half-normal y que lo contiene como caso particular. Se estudian las propiedades
probabilistica de esta extensión y se realiza inferencia estadística por los métodos de momentos y de máxima verosimilitud. La metodología se aplica a un conjunto de datos reales, que
son observaciones no negativas, y se compara con otra extensión del modelo half-normal.
Palabras claves: Truncation, maximum likelihood, half-normal distribution.
*
Email: [email protected],
124
Validación del autoreporte de ansiedad en niños y
adolescentes chilenos no consultantes e invarianza por
sexo. Una aplicaciones de ecuaciones estructurales
Irene Schiattino1 , Claudia Silva1 , Gloria Toledo2 , Soledad Von Mühlenbrock3 , Consuelo
Aldunate4 , Marcela Larraguibel5
1 Escuela
de Salud Pública. Universidad de Chile. 2,3,5 Clínica Psiquiátrica. Universidad de Chile.
4 Doctorado en Ciencias Médicas. Universidad de Chile
Los trastornos ansiosos en la población chilena infantojuvenil son de alta prevalencia y
frecuentemente subdiagnosticados (8,3 %). Han existido múltiples intentos para crear instrumentos que ayuden a su tamizaje. Dentro de estos, la escala de ansiedad para niños y
adolescentes SCARED (Screen for Child Anxiety Related Emotional Disorders), es uno de
los más utilizados. Para la población hispanoamericana se adaptó este autoreporte en niños
y adolescente (AANA) con cinco dimensiones asociadas a este trastorno.
El objetivo del presente trabajo es estudiar la estructura factorial del AANA validado
en México y verificar si el modelo con cinco dimensiones (Pánico/somático, ansiedad de
separación, ansiedad generalizada, fobia social y fobia escolar) se ajusta a una población
infanto juvenil chilena no consultante. Adicionalmente evaluar la invarianza por sexo de la
estructura factorial.
Participantes: 560 niños y adolescentes no consultantes de edades entre 7 y 18 años con
una mediana de edad de 12 años (R.I. 6 años). 281 niñas y 279 niños con mediana de edad
de 11 años y el mismo RI por grupos (5 años).
La muestras fue determinada por muestreo aleatorio estratificado de una población de
niños y adolescentes entre segundo básico y cuarto medio de establecimientos educacionales
subvencionados de la comuna de Independencia en Santiago de Chile. Todos los padres de
los participantes firmaron el consentimiento informado.
Análisis estadístico: Mediante un Análisis Factorial exploratorio (AFE) se estudió la
consistencia interna (Cronbach α) global y en cada una de las cinco dimensiones computadas
como la suma de los puntajes de los items en cada dimensión y la pertinencia de aplicar
Análisis Factorial Confirmatorio (AFC). Se aplicó un modelo de ecuaciones estructurales
(SEM) con cinco variables medidas y un factor latente usando el método de estimación ADF
(Asymptotic Distribution Free) que permite la no normalidad multivariante. El ajuste fue
evaluado por el índice RMSEA (Root Mean Squared Error Aproximation) y TLI (TuckerLewis Non- Normed Fit Index), entre otros. Se aplicó el test de invarianza de los paramétros
según sexo.El análisis fue realizado usando el software STATA12
Resultados: El análisis factorial exploratorio y confirmatorio del autoreporte de ansiedad para niños y adolescentes corroboran que el instrumento logra discriminar un único
constructo (ansiedad) dentro de una población infantojuvenil no consultante. Y que los 41
ítems evaluados, conformarían las 5 dimensiones (pánico somático, ansiedad de separación,
ansiedad generalizada, fobia social y fobia escolar) descritas en la literatura internacional.
Adicionalmente la evaluación de la estructura sería invariante según sexo.
125
Nivel de Satisfacción en la Región del Bío Bío, utilizando
la Encuesta de Caracterización Socioeconómica Nacional
2011 (CASEN)
Judith Vanessa Gajardo Ríos*
Universidad del Bío Bío.
Andrea Fernanda González Contreras
Universidad del Bío Bío.
Resumen
La satisfacción con la vida es parte de un campo de estudio amplio, usualmente denominado ”Calidad de vida”. Las investigaciones en este tema intentan definir qué es una buena
vida e identificar qué variables influyen en ésta.
Ideológicamente, esta línea de investigación tiene su origen en el pensamiento ilustrado
del siglo XVIII. Desde este punto de vista, el propósito de la vida humana es la vida en sí
misma, más que el servicio al rey o a Dios. La realización personal y la felicidad son valores
centrales. La sociedad es considerada como un medio para proporcionar a los ciudadanos
una buena vida. En el siglo XIX, esta convicción se manifestó en el credo utilitarista de que
la mejor sociedad es aquella que proporciona “la mayor felicidad para el mayor número de
personas”. En el siglo XX inspiró intentos a gran escala de reforma social planificada e influyó
en el desarrollo de los estados del bienestar.
Los esfuerzos para crear una sociedad mejor comenzaron por el ataque a los males más
obvios: ignorancia, enfermedad y pobreza, por lo tanto, se medía el progreso en términos de
alfabetización, control de enfermedades epidémicas y eliminación del hambre.
Posteriormente apareció un nuevo tema de investigación. En los años 60, la mayoría de las
naciones occidentales se habían convertido en ricos estados de bienestar, por consecuencia
se dio importancia a los valores que no necesariamente representaban lo material. Como
resultado de esto, se introdujo el término “calidad de vida”. Sirvió para denotar que hay algo
más que simplemente bienestar material, lo que inspiró la necesidad de crear indicadores
sociales, los cuales fuesen capaces de medir la “Calidad con la vida” de las personas.
La satisfacción con la vida es uno de los indicadores de la calidad de vida “realizada”.
Junto con los indicadores de salud física y mental, muestra lo bien que le va a la gente.
Se define la satisfacción como un estado mental que genera una sensación de plenitud,
mientras que la insatisfacción produce inquietud y sufrimiento, sin embargo, la naturaleza
humana nos llevará a buscar maneras de satisfacción, dependiendo de los cambios externos
que vivamos, esto lleva a una inquietud constante y pasar por distintos niveles de satisfacción
o a veces llamada felicidad, aunque no son lo mismo, pues es necesario estar satisfechos para
obtener la felicidad.
Se analizarán los datos obtenidos en la encuesta de Caracterización Socioeconómica Nacional 2011 (CASEN), con el propósito de describir el nivel de satisfacción en la Región del
Bío-Bío.
Palabras claves: Satisfacción, CASEN, Región del Bío Bío, filiación.
*
Email: [email protected] ,
126
Modelo Zero Inflated Poisson en el control de procesos de
alta calidad: un caso de aplicación
Andrea Righetti* , Silvia Joekes, Cristian Abrego Instituto de Estadística y Demografía
Facultad de Ciencias Económicas.
Universidad Nacional de Córdoba.
Resumen
Los gráficos de control de atributos que se utilizan comúnmente para monitorear el número
de disconformidades por unidad, suponen que la característica bajo estudio sigue una distribución Poisson. Fruto de la evolución tecnológica, actualmente los procesos se caracterizan
por producir artículos que presentan un número de disconformidades por unidad muy bajo,
de manera que los gráficos tradicionales ya no resultan adecuados. Estos procesos se denominan procesos de alta calidad. En este trabajo se utiliza el gráfico Zero Inflated Poison (ZIP)
para monitorear el número de disconformidades por unidad en los procesos caracterizados
por la incorporación de un exceso de ceros al modelo Poisson. Se muestra la importancia
de la aplicación de los modelos ZIP en procesos de alta calidad en un estudio con datos
reales y la comparación con el gráfico tradicional de Shewhart. Se indica la performance de
los procedimientos en base al cálculo de la longitud media de corrida (ARL) y el índice de
cobertura (ACP).
Palabras claves: Proceso de Alta Calidad, Distribución Zero Inflated Poisson, Control
Estadístico de Procesos.
*
Email: [email protected],
127
Distribución con soporte positivo en base a la
Distribución exponencial potencia
Karol Santoro Pizarro*
Héctor Goméz G.**
Resumen
Se introduce una nueva clase de distribución no-negativas basada en distribución exponencial potencia. Estudiamos las principales propiedades de esta nueva densidad, se muestra
en particular sus momentos, generatriz de momento, estudio de inferencia a través del método
de momento y de máxima verosimilitud, algunas características de la teoría de confiabilidad
y prestamos una ilustración con datos reales. Finalizamos con una discusión y comentarios
finales.
Definición: Sea f0 (·) una función de densidad de probabilidad (fdp) que es simétrico
alrededor del cero y ∼ f0 (·) tal que E(Y 2 ) = k, entonces
2
fx (x; α, δ) = 3
δ
αδ 2 + c2
α+k
f0
x
δ
, x≥0
es una función de densidad, donde α ≥ 0, δ ≥ 0.
Donde f0 (·) es cualquier función simétrica, como por ejemplo: la distribución normal, tstudent, exponencial potencia, Laplace y logística.
El resto del artículo se presenta de la siguiente forma, se presenta la clase general de
distribuciones no-negativas, las cuales son el foco central de este trabajo, se muestra un
estudio de distribuciones no-negativas generadas por el caso particular de la distribución
normal estándar, además se presenta una ilustración con datos reales, y se muestran algunos
resultados de confiabilidad y tasa de falla, finalizando este trabajo con una discusión y
comentarios finales.
Palabras claves: Distribuciones simétricas en torno al cero, distribuciones no-negativas,
verosimilitud.
*
**
Email: [email protected], Primer autor
Email: [email protected], Segundo autor
128
Predicción de crisis financiera en empresas
latinoamericanas usando modelos de regresión logística:
tradicional y mixto
Karin Ayumi Tamura*
Universidad de Sao Paulo - Brasil Norma Patricia Caro
Universidad Nacional de Córdoba – Argentina
Viviana Giampaoli
Universidad de Sao Paulo - Brasil
Resumen
El desarrollo de métodos estadísticos para predecir la crisis financiera de las empresas
constituye un verdadero aporte a la investigación científica. Estos métodos identifican posibles situaciones financieras desfavorables de las empresas, a través del comportamiento de
sus indicadores contables. El estudio de la crisis empresarial consideró tres países latinoamericanos (Argentina, Chile y Perú) y fue desarrollado con 239 empresas observadas en el
período 2003-2011, en que un 7 % de ellas entran en crisis al año siguiente. El objetivo del
estudio es predecir si una empresa presentará un estado de crisis en el próximo año, dado
sus indicadores contables en los períodos anteriores. Fueron considerados los modelos logísticos tradicional y mixto. La base de datos fue dividida en dos, para construcción (muestra
balanceada de empresas de 2003-2008) y para predicción futura (empresas de 2009-2011).
El modelo mixto fue construido según los indicadores contables longitudinales; mientras el
modelo tradicional consideró estos indicadores contables consolidados en el período histórico,
por ejemplo, se trabajó con el promedio o variación histórica de la empresa. Los indicadores
significativos para los modelos fueron: índice de rentabilidad y flujo de fondos. La tasa de
clasificación correcta (1: crisis o 0: sanas) en la base de construcción fue aproximadamente
un 83 % para el modelo tradicional y un 94 % para el modelo mixto. En la base de predicción
futura, la predicción del modelo tradicional es sencilla, puesto que se puede utilizar la función
logit. No obstante, como el modelo mixto incorpora los efectos aleatorios que son estimados
individualmente para cada empresa, no es posible hacer la predicción directamente para el
caso de que haya nuevas empresas, pues no se conocen sus valores de los efectos aleatorios. La
literatura ha propuesto diversas maneras de hacer predicción, como por ejemplo, las metodologías naive, mejor predictor empírico, regresión lineal, regresión no paramétrica y vecinos
más cercanos. La contribución de este trabajo es comparar la clasificación binaria realizada
por el modelo logístico tradicional comparada con el modelo mixto para un período futuro.
Se espera que las metodologías de predicción del modelo mixto presenten mejores resultados
de clasificación, dado que este modelo considera los efectos aleatorios.
Palabras claves: logit, modelos mixtos, predicción futura, clasificación binaria.
*
Email: [email protected],
129
Aplicación de modelos de supervivencia para la
predicción de crisis en empresas argentinas y peruanas
Laura Isabel Luna* , Norma Patricia Caro
Facultad de Ciencias Económicas – Universidad Nacional de Córdoba
Resumen
A partir de la década del 2000 comienzan a tomar protagonismo los modelos para datos
longitudinales para la predicción de la crisis empresarial, incorporándose en el análisis de
la temática a los modelos de supervivencia. Uno de los elementos que distingue a estos
modelos de otros es la presencia de censura, a saber, aquellos casos en estudio que no han
experimentado el evento de interés durante el tiempo de observación.
El modelo de riesgos proporcionales de Cox, es una de las técnicas estadísticas de supervivencia, permite detectar los principales factores que determinan el riesgo que se produzca
un determinado acontecimiento, en este trabajo la crisis empresarial. El modelo genera una
función de supervivencia que pronostica la probabilidad de que se haya producido el evento
de interés en un momento dado del tiempo para determinados valores de las variables explicativas. La forma de la función de supervivencia y los coeficientes de regresión se estiman
mediante los casos observados. La información de los casos censurados, contribuye de manera
útil a la estimación del modelo.
Con la intención de contribuir a un tema de gran interés, como es la continuidad empresarial, en este trabajo se aplica un modelo de regresión de Cox, que es método semiparamétrico,
para modelar el riesgo de fracaso empresarial en empresas argentinas y peruanas que cotizan en bolsa para el período 2003 - 2010, utilizando la información contenida en los estados
contables de las empresas. Debido a que empresas con características financieras similares
pueden tener tasas de riesgo diferentes por el mero hecho de operar en un sector u otro, se
incorpora al sector como posible variable explicativa.
os resultados obtenidos ponen de manifiesto que el tamaño de la empresa, la ganancia
antes de intereses e impuestos sobre activo total, deudas sobre patrimonio neto y rentabilidad resultan estadísticamente significativas para explicar del riesgo de crisis empresarial.
También el sector económico en el que operan las empresas aparece como variable significativa, presentando una mayor tasa de riesgo el sector energético en Argentina, y el sector
agricultura, ganadería, aprovechamiento forestal, pesca y caza en Perú.
Palabras claves: modelos proporcionales de Cox, ratios contables, riesgo de crisis financiera.
*
Email: [email protected],
130
Un estudio espacio-temporal de las precipitaciones
extremas en el Estado de Guanajuato, México.
Leonardo Moreno*
Instituto de Estadística, Universidad de la República, Montevideo, Uruguay.
Joaquín Ortega Sanchez
Centro de Investigación en Matemáticas, CIMAT, Guanajuato, México.
Resumen
Un tema de vigente interés en gran parte de la sociedad son los eventos extremos climáticos. Se percibe una creciente preocupación por la variabilidad climática debido al gran
impacto que provoca sobre la población y la economía.
El objetivo es demarcar un modelo espacio-temporal para los valores de las precipitaciones
diarias máximas en el Estado de Guanajuato, México, a partir de los datos provenientes de
un conjunto estaciones meteorológicas ubicadas en la región.
Si bien el camino natural para la extensión espacial de la teoría de valores extremos
univariados son los procesos máx-estables, la inferencia sobre dicha familia de procesos es
actualmente poco flexible y de un costo computacional elevado. Ligado esto a la falta de estacionariedad espacial de los datos conlleva a que también se examinen caminos alternativos.
Se realizan ajustes finito dimensionales a través de cópulas extremas y una posible extensión
a dimensiones altas, regular vines. Se manifiesta en el trabajo la estrecha relación de las
distribuciones finito dimensionales de los procesos máx-estables con las cópulas extremas.
Son extraídas novedosas conclusiones acerca del comportamiento de las lluvias máximas
en la región. Las predicciones globales demuestran que es de esperar, en períodos de tiempo
no muy extensos, precipitaciones extremas que provoquen severas inundaciones en el Estado.
Palabras claves: Extremos multivariados, procesos máx-estables, cópulas de valores
extremos y regular vines.
*
Email: [email protected],
131
La importancia de la información contable y de mercado
en la toma de decisiones de inversión en empresas
argentinas y peruanas a través de modelos mixtos
Leticia Eva Tolosa* , María Claudia Nicolas y Giselle Judith Lujan Pons
Facultad de Ciencias Económicas. Universidad Nacional de Córdoba
Resumen
Los actores del mercado de capitales buscan, permanentemente, datos proporcionados
por las empresas y generados en los mercados para la toma de decisiones de inversión. Desde
los años sesenta, esta problemática moviliza a economistas e investigadores que analizan
los reportes financieros y los datos proporcionados por los mercados, a los fines de predecir
los retornos de las acciones, a través de la elaboración de modelos de análisis que surgen,
fundamentalmente, de investigaciones empíricas.
Estos modelos buscan asociar los precios de las acciones con datos obtenidos de los estados
contables publicados por las empresas que cotizan en los mercados y que son utilizados en
la toma de decisiones por los inversores.
Los mercados de capitales latinoamericanos presentan particularidades que se analizan
con el fin de contextualizar el problema de investigación. En este trabajo se compara el
mercado peruano con el argentino utilizando los modelos lineales mixtos para predecir los
retornos de las acciones.
Con la finalidad de realizar un análisis comparativo de valores o ratios contables que
influyen en los retornos se seleccionó el espacio temporal 2011-2013, en el cual se verifica la
aplicación, por parte de la mayoría de las empresas cotizantes en ambos mercados, de las
Normas Internacionales de Información Financiera (NIIF). Las mismas persiguen el propósito
de aumentar la calidad de la información contable y generar mayor confianza en los actores
económicos y fueron adoptándose en distintos momentos del tiempo en cada país.
Los modelos mixtos aplicados para mediciones repetidas en el tiempo consideraron las
variables explicativas del modelo empleado en Argentina, en el periodo 2003 -2009 (Tolosa,
2013).
Los resultados obtenidos de acuerdo a los datos muestrales evidencian que para explicar
la variación de precios de las acciones en el mercado, resulta significativo para las empresas
domésticas argentinas, el ratio formado por el cociente entre el Precio y el Valor de Libros
(RPVL) con una relación positiva, mientras que para las empresas peruanas con una relación
inversa el que resulta significativo es el ratio formado por el cociente Precio y Ganancia por
Acción (RPE).
Palabras claves: modelos mixtos, indicadores contables, indicadores de mercado, retornos anuales.
*
Email: [email protected],
132
¿Qué alumnos recibe la Universidad? ¿Cómo influyen
algunas de sus características en su paso por la
Universidad?
Griselda Negri*
Mabel Batto**
Erica Strangi***
Gabriel Strangi****
Matías Basso*****
Resumen
La deserción y la baja retención de alumnos y alumnas en las universidades, es una
constante preocupación tanto de cada una de las universidades como de las autoridades
nacionales. Si bien las cifras son altas para todas las carreras, lo es especialmente en las
Ingenierías, al punto tal que se han creado planes nacionales para disminuir la deserción y
favorecer la retención en éstas.
Muchas son las posibles causales, habiéndose detectado en trabajos anteriores que la escuela media no aporta conocimientos y formación suficiente para la inserción de sus egresados
en la educación superior. No es sólo ésta, se suman muchas otras de tipo personal, familiar,
social, y aporta también el desconocimiento de los aspirantes del medio universitario y el
propio aislamiento del individuo en dicho medio, por ser tan diferente al de la escuela media.
En este trabajo investigamos distintas variables que consideramos ayudan a conocer cómo
se interrelacionan ayudando o no a que quienes ingresaron en las Ingenierías continúen en
ella.
Estudiamos no sólo las características al momento de la inscripción y al ingreso, sino
también al cuarto año de permanencia en la carrera, independientemente del año curricular
en el que pudieran encontrarse.
Uno de los ejes troncales del análisis en los distintos momentos es realizarlo desde la
perspectiva de género. Es conocida la diferencia que existe respecto de mujeres y varones
en las ingenierías, y, mostramos acá, como un ejemplo más, lo que ocurre en esta universidad, analizando críticamente el proceso de permanencia en la búsqueda de modelos para la
disminución de la deserción.
Palabras claves: ingenierías, género, deserción.
*
Email: [email protected], Mg. en Metodología de la Investigación Científica. Univ. Nac. de
Luján, Dto. Cs. Básicas, División Estadística y UNNOBA, Dto. Cs. Básicas y Experimentales
**
Lic. En Estadística. Univ. Nac. De Lujàn. Dto. Cs. Básicas, División Estadística y UNTREF
***
Lic. En Psicología. Investigadora indep
****
Lic. En Ciencias Políticas. Investigador indep
*****
Ayudante alumno UNLu
133
Análisis geoestadístico de la intensidad del tizón
temprano en tres municipios de Cienfuegos, Cuba
Mailiu Díaz Peña*
Universidad de Cienfuegos “Carlos Rafael Rodríguez”, Cienfuegos, Cuba.
Gladys Casas Cardoso
Universidad Central de las Villas, Villa Clara, Cuba.
Leónides Castellanos González
Universidad de Cienfuegos “Carlos Rafael Rodríguez”, Cienfuegos, Cuba.
Resumen
Esta investigación se desarrolló a partir de la información del tizón temprano, un agente
nocivo que afecta al cultivo del tomate, en el territorio de la Estación de Protección de Plantas
(EPP) de Lajas en la Provincia de Cienfuegos que comprende los municipios: Lajas, Cruces
y Palmira, en la campaña 2012-2013. Se efectuó un análisis exploratorio de los datos, lo que
incluyó el ajuste a la distribución normal, la identificación de valores atípicos, el análisis
de la estadística básica y autocorrelación espacial; posteriormente, se representó el mapa
de variograma, para el análisis de anisotropía, que acompañado por los semivariogramas
direccionales permitieron determinar las direcciones de mayor y menor continuidad espacial;
y se ajustaron modelos teóricos a los semivariogramas experimentales. Como resultado se
obtuvo el mapa de estimación por el método de interpolación de krigeaje con el modelo de
mejor ajuste, con coeficientes de determinación mayor que el 95 % y coeficientes de correlación
mayores que 0,95. Se obtiene con este procesamiento, una mejor herramienta en la toma de
decisiones en la sanidad vegetal para establecer tácticas de control dirigidas hacia los focos
específicos de infestación y así mejorar el manejo del cultivo del tomate y otros cultivos que
pueden ser afectados por este agente nocivo.
Palabras claves: geoestadística, semivariograma, tizón temprano, tomate.
*
Email: [email protected] ,
134
Análisis estadístico de los factores que influyen en la
reducción de la demanda energética de calefacción para
dos tipos de vivienda
Mauricio Inzunza M.*
Universidad del Bío-Bío.
Paulina Wegertseder M.**
Universidad del Bío-Bío.
Gilda Vargas M.
Universidad del Bío-Bío.
Resumen
El presente estudio se basa en la utilización de diversas técnicas estadísticas para determinar mejoras a nivel energético y ambiental del país. La actividad humana y los consumos
que generan problemas ambientales derivados de la quema de combustibles fósiles, tales como efecto invernadero, calentamiento global, una creciente demanda energética y distintos
impactos de grandes emprendimientos energéticos en el medio ambiente y población, son
complicaciones ambientales que han establecido la necesidad de implementar políticas energéticas sustentables en la sociedad. A nivel mundial la crisis energética es hoy en día una
preocupación, lo que también afecta a nuestro país, por lo que se debe asegurar un óptimo
uso de los recursos energéticos, utilizando una menor cantidad de energía pero sin sacrificar
el confort o la actividad económica que le es útil. Además, nuestro país presenta altos índices
de contaminación tanto de dióxido de carbono como el desarrollo progresivo del efecto invernadero. Es por esta razón que se busca mejorar la infraestructura de viviendas, a partir del
estudio de distintos factores que influyen en ciertas tipologías de vivienda que presenten una
mayor demanda energética de calefacción. Este estudio está orientado a la identificación de
factores que influyen mayormente en la reducción de la demanda energética de calefacción.
Para ello, se consideran dos viviendas de estudio ubicadas en la comuna de Hualpén, Región
del Biobío, Chile. Para el análisis se utilizan técnicas multivariadas, tales como correspondencias múltiples para establecer la proximidad de los niveles de las variables consideradas,
metodología del árbol de decisión con el motivo de encontrar relaciones entre la demanda
energética de calefacción y las variables del estudio y diseño de experimentos donde se realizaron experimentos factoriales de factores fijos con la finalidad de establecer los modelos
correspondientes para cada tipo de vivienda de estudio.
Palabras claves: correspondencias múltiples, metodología árbol de decisiones, experimento factorial, demanda energética de calefacción.
*
**
Email: [email protected],
Email: [email protected],
135
Capacitación en Moodle desde la FCE UNPSJB.
Valoración del Curso Introductorio 2011-2013
María Elena Sendín*
FCE Universidad Nacional de la Patagonia SJB.
Resumen
El presente trabajo se enmarca en el proyecto de investigación, “Identificación de las
estrategias de uso de recursos y actividades en las aulas virtuales en la Facultad de Ciencias
Económicas de la UNPSJB”. Tuvo una duración de tres años, siendo iniciado en el 2011.
Forma parte de una línea de investigación que, desde el año 2003, puso en marcha la Facultad
de Ciencias Económicas de la UNPSJB.
Desde allí, se diseñó un curso de formación de nivel inicial en el uso de la plataforma
MOODLE –Curso Introductorio Moodle (CIM)-, para iniciar a la población educativa en la
incorporación de este sistema de gestión de los aprendizajes para la administración de sus
cursos on-line.
El objeto de este trabajo es realizar un análisis de los resultados de las instancias de capacitación, brindadas en el marco del PI Estrategias. En los CIM se realizan dos encuestas, una
al inicio y otra al finalizar. Para medir el éxito del curso, se contrastan las auto-valoraciones
entre la primera y segunda encuesta.
Se estudió también la gestión del curso CIM en cuanto a la búsqueda de factores de
calidad del curso que inciden en la opinión de los participantes.
Teniendo en cuenta la filosofía del aprendizaje en la plataforma Moodle, "pedagogía construccionista social", se estudian las respuestas dadas con análisis estadísticos descriptivos.
Se ponen de relieve relaciones empíricas y resultados de interés emergentes.
La conclusión a la que se puede arribar es que el CIM es exitoso independientemente del
grupo de la instancia de dictado. Siempre hubo un incremento en la autovaloración en todos
los indicadores propuestos en la evaluación.
Palabras claves: Componentes Principales. Correspondencia. Moodle.
*
Email: [email protected],
136
Aplicación de un modelo mixto para estimar el
comportamiento pegadizo de los costos en empresas
argentinas
María Inés Stimolo
Universidad Nacional de Córdoba-Facultad de Ciencias Económicas .
Margarita Díaz
Universidad Nacional de Córdoba-Facultad de Ciencias Económicas
Resumen
En este trabajo se aplica el modelo propuesto por Anderson et.al. (2003) a empresas Argentinas que hacen oferta pública de sus acciones durante el período 2004-2012, el que analiza
el comportamiento pegadizo (sticky costs) de los costos, planteando la falta de proporcionalidad simétrica entre el cambio en los costos y las ventas. El modelo estimado cuantifica el
incremento (o disminución) de los costos por cada incremento (o disminución) porcentual de
los ingresos por venta, e identifica factores que explican la proporcionalidad asimétrica. En
la muestra de análisis se incluyen 300 empresas clasificadas en cinco sectores: Agropecuario;
Comercio Construcción y Servicio; Energía y Combustible, Manufactura de origen Agropecuario y Manufactura de origen Industrial. En una primera etapa se obtuvo un modelo de
regresión para todas las empresas, rechazando la hipótesis de igualdad de pendientes para
los sectores, por lo que es necesario estimar el modelo en cada uno de ellos. Dada la estructura longitudinal de los datos se propone un modelo mixto y se comparan los resultados con
el modelo propuesto por Anderson, destacando la presencia de un coeficiente aleatorio, lo
que constituye el aporte de esta propuesta. En esta presentación se muestran los resultados
obtenidos para el sector Comercio, para el que se encontró mayor inflexibilidad a la baja.
Palabras claves: modelos mixtos- costos pegadizos- datos longitudinales.
137
Clasificación de empresas de mercados latinoamericanos
según su estado financiero a partir de sus ratios contables
Mariana Guardiola*
Facultad de Ciencias Económicas – Universidad Nacional de Córdoba
María Laura Mantovani**
Universidad Nacional de Córdoba
Norma Patricia Caro***
Facultad de Ciencias Económicas – Universidad Nacional de Córdoba
Resumen
La información económico-financiera que proveen los estados contables es esencial para
la toma de decisiones y evaluación del desempeño de las empresas. Ésta resulta aún más
relevante en la detección de situaciones de vulnerabilidad financiera. Con este propósito, el
presente trabajo explora el comportamiento de los ratios contables que caracterizan a las
empresas con problemas financieros (en crisis) y sin ellos (sanas), cuando se desconoce el
grupo de pertenencia de las mismas. El análisis se extiende a la comparación de diferentes
mercados de Latinoamérica (Argentina, Perú y Chile), en términos de los ratios contables
que reflejan el comportamiento de las empresas con inconvenientes financieros y sin ellos.
Para el análisis de las empresas que cotizan en los distintos mercados latinoamericanos
se utilizó la información de los estados contables disponibles en las respectivas Bolsas en la
década del 2000.
Se aplicó el análisis de conglomerados (cluster) que permitió una primera aproximación
a la conformación de grupos de empresas y a su caracterización en relación a su situación financiera. Para identificar los ratios contables que resultaron significativos en la aglomeración
de las empresas, se utilizaron métodos no paramétricos de comparación de medias.
Entre los resultados obtenidos, las empresas con dificultades financieras son de menor
tamaño y presentan índices de rentabilidad económica y flujo de fondos operativos sustancialmente menores a las empresas sin problemas de esta índole.
Palabras claves: análisis de conglomerados, métodos no paramétricos, ratios contables,
crisis financiera.
*
Email: [email protected],
Email: [email protected],
***
Email: [email protected],
**
138
análisis de conglomerados, métodos no paramétricos,
ratios contables, crisis financiera.
Mariana Verónica Gonzalez*
Instituto de Estadística y Demografía. Facultad de Ciencias Económicas.
Universidad Nacional de Córdoba
Leiza Camilo Caro
Facultad de Ciencias Económicas. Universidad Nacional de Córdoba
Guillermo Gohlke
Facultad de Ciencias Económicas. Universidad Nacional de Córdoba
Tamara Veppo
Facultad de Ciencias Económicas. Universidad Nacional de Córdoba
Resumen
Durante las últimas décadas, la política de dividendos seguidas por las empresas ha sido
un tema de interés en diversas investigaciones, con apreciaciones distintas sobre los resultados
conseguidos. En general, se admite que la decisión de distribuir dividendos por parte de una
empresa es el resultado de un conjunto de factores relacionados, desde limitaciones de carácter
jurídico hasta cuestiones vinculadas a la estructura financiera de la entidad y su situación de
liquidez, pasando por la capacidad de la empresa para generar beneficios de manera sostenida
y las necesidades de fondos impuestas por sus proyectos de inversión. En este sentido, muchos
autores utilizan un conjunto de ratios contables para medir la sensibilidad de dichas variables
frente a la decisión de repartir cantidades a cuenta de beneficios.
En este trabajo se compara el desempeño del modelo logístico estándar en relación con
el modelo logístico mixto para predecir la decisión de distribuir dividendos por parte de
empresas argentinas que cotizan en la Bolsa de Comercio de Buenos Aires, entre los años 2003
y 2010, utilizando información de los estados contables y ratios definidos en la bibliografía. Se
destaca el poder predictivo del indicador que mide la rentabilidad en función de las ganancias
de la explotación, definido como el cociente entre la Utilidad antes de intereses e impuestos
y el Activo Total de la empresa.
Palabras claves: modelos de respuesta binaria, dividendos, rentabilidad.
*
Email: [email protected],
139
Diferenciación espacial socio-económica a través de la
detección de conglomerados en la provincia de Córdoba
Nancy Stanecka*
Instituto de Estadística y Demografía, Facultad de Ciencias Económicas, UNC
Cecilia Díaz
Centro de Cómputos, Facultad de Ciencias Económicas, UNC
María Inés Ahumada
Instituto de Estadística y Demografía, Facultad de Ciencias Económicas, UNC
Resumen
Cuando se analizan territorios extensos nos vemos enfrentados a una realidad heterogénea
donde confluyen múltiples aspectos.
Detectar diferencias y similitudes espaciales o sectoriales es una necesidad que permitirá
aportar herramientas sólidas para la toma de decisiones.
Una importante fuente de datos está dada por los censos que proveen gran cantidad
de información. Sin embargo, es muy difícil encontrar patrones de interrelación entre las
numerosas variables que intervienen sólo con observar las medidas de resumen o sus tablas
de frecuencia.
En estos casos, resultan útiles los métodos basados en variables latentes o factores, que
consisten en reducir la dimensionalidad del conjunto de datos a dos o tres dimensiones
manteniendo la mayor parte de la información posible.
En el presente trabajo se intentó caracterizar el nivel educacional, demográfico y económico de las radios censales de la provincia de Córdoba, a partir la elección de variables
extraídas del Censo Argentino de Población y Vivienda 2010, visualizando la situación a
través de mapas temáticos.
Se seleccionaron determinadas variables que resultaron de interés para identificar distintas
dimensiones: educacional, demográfica y económica. En base a las mismas se calcularon los
correspondientes porcentajes por radio censal.
Con el objetivo de mostrar la estructura subyacente que influye en las respuestas se aplicó
la técnica multivariada de análisis factorial.
Según los resultados del análisis factorial se consideró oportuno realizar un análisis de
clúster observando una tendencia de agrupación de los tipos de radios en 4 aglomerados.
Una vez realizado el Análisis de Conglomerados se procedió a la clasificación de los
radios resultando posible la visualización gráfica de los aglomerados a través de un sistema
de georeferenciación.
Palabras claves: Análisis factorial, cluster, nivel socio-económico, georeferenciación.
*
Email: [email protected] ,
140
Comparación de modelos mixtos para la identificación de
QTL mediante mapeo asociativo
Natalia Berberian1* , Victoria Bonnecarrere2 , Pedro Blanco2 , Fernando Pérez de Vida2 ,
Juan Rosas2 , Silvia Garaycochea2 , Schubert Fernández2 , Lucía Gutiérrez1
1 Departamento
de Biometría, Estadística y Cómputo. Facultad de Agronomía, UdelaR, Uruguay.
2 Instituto Nacional de Investigación Agropecuaria, Uruguay.
Resumen
Los modelos mixtos han sido ampliamente utilizados en el mapeo de caracteres complejos
para tomar en cuenta que pueden existir sub-poblaciones y que los individuos se encuentran
genéticamente correlacionados. El objetivo del trabajo fue comparar cinco modelos mixtos
que incorporan información de estructura y/o parentesco en la identificación de regiones
genómicas asociadas a caracteres cuantitativos (QTL) de interés agrícola. Para ello se evaluaron 643 variedades de arroz (sp. Oryza sativa L. ssp. Indica y Japónica) del programa de
mejoramiento de, se trabajó con datos fenotípicos del 2011 y se utilizaron 57489 marcadores
moleculares para el mapeo. Los modelos comparados son variaciones del modelo lineal general [y − Xβ + Zu + ]. Se trabajó con una serie de variables de calidad arrocera y en todos los
casos se detectaron regiones genómicas que identifican QTL candidatos. No hubo un único
modelo con mejor desempeño para todas las variables, sin embargo se destaca el modelo
que incorpora como efecto aleatorio y la estructura poblacional a través de un análisis de
componentes principales.
Palabras claves: Modelos mixtos, Mapeo asociativo, Estructura poblacional.
*
Email: [email protected],
141
Simulación de diseños experimentales aplicados al
mejoramiento del cultivo de arroz
Natalia Berberian1* , Victoria Bonnecarrere2 , Pedro Blanco2 , Fernando Pérez de Vida2 ,
Juan Rosas2 , Silvia Garaycochea2 , Schubert Fernández2 , Alejandra Borges1 Lucía
Gutiérrez1
1 Departamento
de Biometría, Estadística y Cómputo. Facultad de Agronomía, UdelaR, Uruguay.
2 Instituto Nacional de Investigación Agropecuaria, Uruguay.
Resumen
Para el mejoramiento genético de plantas es necesario evaluar cientos de genotipos (tratamientos) en ensayos experimentales en el campo. Diseñar los experimentos que permitan
controlar la heterogenidad del campo experimental, permitiendo comparaciones apropiadas
entre genotipos, es por lo tanto un gran desafío. El objetivo de este trabajo es comparar por
un lado modelos de análisis de ensayos parcelarios de arroz (Oryza. sativa L.) con diferente
modelación de la heterogeneidad espacial, a partir de la utilización de modelos mixtos, y por
otro lado utilizar simulaciones para comparar la eficiencia de diseños experimentales alternativos. Para eso, se trabajo sobre los datos del año 2011 del proyecto de mejoramiento de
arroz uruguayo de INIA, donde se evaluaron 325 líneas elite en 12 ensayos, cada uno en un
Diseño en Bloques Completos al Azar con 3 repeticiones y 2 testigos. Se trabajó en variables
de interés agronómico tales como rendimiento y calidad arrocera. Utilizando indicadores de
eficiencia de los diseños simulados se observó que el diseño óptimo depende de la variable
considerada y que algunos se beneficiaron por la incorporación de un componente espacial
en el modelo de análisis.
Palabras claves: Diseños experimentales, Geoestadística, Simulación, Modelos mixtos.
*
Email: [email protected],
142
Geometric Ergodicity of Gibbs Samplers for Bayesian
General t Linear Mixed Models
Nathalie Humeniy Jacobs*
Department of Statistics, Faculty of Mathematics, Pontificia Universidad Católica de Chile.
Jorge Carlos Román**
Department of Public Health, School of Medicine and Department of Statistics, Faculty of
Mathematics, Pontificia Universidad Católica de Chile.
Abstract
We consider a Bayesian version of a general t linear mixed model. We develop a block
Gibbs sampler algorithm for estimating the posterior distribution in this model, and establish
conditions that nearly always hold in practice, the block Gibbs Markov chain is geometrically
ergodic.
Keywords: Geometric drift condition; Gibbs sampler.
*
**
Email: [email protected],
Email: [email protected],
143
Generalizacion del indice de Ware y Hedges para medir
asociacion multiple
Ricardo Camina*
Nélida Winzer
Depto. Matemática – Universidad Nacional del Sur – Bahía Blanca – Argentina
Resumen
El objeto de usar medidas de asociación múltiple, es decir, asociaciones entre más de
dos objetos, es encontrar relaciones que no se pueden deducir usando sólo las de a pares.
Una propiedad deseable en una medida de asociación múltiple es que la asociación entre k
objetos sea menor o igual a la asociación de cualquiera de sus subconjuntos (esto permite
una representación de las asociaciones mediante un dendrograma por aplicación de un cluster
jerárquico). No cualquier índice de a pares puede ser generalizado a más de dos cumpliendo
esta exigencia.
En el caso de datos de muestra x especies una medida de copresencia fácil de extender
es la de Russel y Rao que se interpreta como la proporción de especies en común que tienen
dos muestras. La extensión sería la proporción de especies en común que tienen k muestras.
La idea de este trabajo es mantener la base de esta definición pero reemplazar la copresencia por una medida cuantitativa que pese la abundancia diferencial existente entre las
muestras.
Se analiza toda una familia relacionada con la métrica de Canberra y se demuestra que
la única que cumple con la propiedad mencionada es la generalización de la similaridad
de Ware y Hedges (Gower 1985): para cada variable se toma como medida la abundancia
mínima sobre la máxima para las k muestras involucradas.
Palabras claves: asociación múltiple, Indice de Ware y Hedges, Indice de Russell y Rao.
*
Email: [email protected],
144
Indicadores del sector forestal. Provincia del Chaco
Primer Autor
Norma Esper
Segundo Autor
Constanza Annunziata
Tercer Autor
Adtiana Alcaire
Cuarto Autor
Florencia Bongiorno
Quinto Autor
María Mercedes Borrás
Resumen
En este trabajo se realiza un análisis de los datos estadísticos disponibles para la provincia
del Chaco, la cual tiene una importancia forestal muy relevante para el bosque nativo.
La provincia tiene una participación de su producción forestal maderable del 74 % en
relación con el total de la Zona del Parque Chaqueño y un 69 % en relación al total del país.
El producto forestal preponderante en la provincia es la leña con una representación del 82 %
respecto al total extraído en la misma.
El 98 % de las durmientes producidas en el país provienen de esta provincia. En todos
los productos forestales las extracciones proceden mayoritariamente de Planes de Manejo.
El valor total de la producción de madera en la provincia asciende a 482 millones de pesos
y representa el 52 % del valor nacional. En Chaco la leña es el producto que mayor valor
económico representa (58 %)
Además de los productos de la madera se consideran los productos forestales no madereros
definidos como: los bienes de origen biológico (distinto de la leña, madera y carbón vegetal)
y los servicios brindados por los bosques, otras áreas forestales y árboles fuera del bosque.
La participación porcentual de estos productos con respecto al total del país es de solo
un 1,2 %
El producto forestal no maderero predominante en la provincia es la Miel de Monte con
un 92 %.
Palabras claves: maderable, no maderable, extracción, bosque nativo, valor
145
Análisis exploratorio de variables acústicas con métodos
funcionales
Patricia Girimonte*
Fac. de Farmacia y Bioquímica- Fac. de Ciencias Económicas (UBA).
Natalia Elisei
Fac. de Ciencias Médicas (UBA).
Resumen
En la especialidad de otorrinolaringología y fonoaudiología es común el uso de escalas
acústicas para definir la calidad vocal producida por un hablante, si bien estas tienen sus
limitaciones, y la tendencia actual es complementarlas con el análisis perceptual.
Dentro de las escalas acústicas se encuentran aquellas que exploran mediciones acústicas
lineales no tradicionales como Espectros de Largo Plazo (LTAS), que corresponden a una
definición más amplia del término voz.
Para una muestra 194 sujetos hablantes del español de Buenos Aires se seleccionaron las
emisiones de las cinco vocales de cada grupo tanto normal como patológico, midiédose los
espectros de LTAS para cada individuo a través del analizador de PRAAT “Doing phonetics
by computer”, versión 4.6.06.
Se trabajó con 220 bandas frecuenciales registrándose para cada una los valores de energía.
Con el objeto de obtener perfiles de LTAS, se realizó un análisis exploratorio utilizando
diferentes ajustes con las funciones de R, loess para distintos valores de span, y smooth.spline.
Palabras claves: medidas acústicas, loess, splines cúbicos, R.
*
Email: [email protected] ,
146
Determinando la tasa de prematuros en la Región
Metropolitana
Perla Celis González
[email protected]
Pontificia Universidad Católica de Chile
Garritt Leland Page*
Pontificia Universidad Católica de Chile
Resumen
El nacimiento prematuro es la principal causa de mortalidad entre los recién nacidos
durante las primeras cuatro semanas de vida en Chile. El objetivo de este trabajo es investigar
la dependencia espacial de la tasa de nacimientos prematuros por comunas en la Región
Metropolitana, considerando la edad de la madre como covariable de interés. Para modelar
la tasa de prematuros se propone un modelo lineal generalizado con efectos aleatorios y
estructura espacial modelado con un Conditional Autoregressive Model (CAR). Dadas las
características de los datos y el modelo propuesto no existe una manera natural de incluir
las edades de las madres como covariables, por lo que proponemos un método novedoso para
incluir información individual junto al nivel de la comuna en términos de la edad.
Palabras claves: Conditional Autoregressive Model, Hierchical Bayes, General Linear
Model, Preterm birth poisson spatial.
*
Email: [email protected] ,
147
Distribución Slashed Truncada-Exponencial
Skew-Normal
Pilar A. Rivera* Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad de
Héctor W. Gómez
**
Antofagasta.
Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad
de Antofagasta.
Resumen
En este poster mostramos una extensión de la distribución truncada-exponencial skewnormal introducida por Nadarajah et al. (2013). Esta nueva distribución se construye en
base al cuociente de dos variables aleatorias independientes, cuyas distribuciones son la
distribución truncada-exponencial skew-normal y una potencia de la distribución uniforme
(0, 1) respectivamente. De esta forma el resultado es una distribución con mayor kurtosis.
Estudiamos algunas propiedades, momentos, coeficientes de asimetría y de kurtosis. Estudios
de inferencia lo hacemos por máxima verosimilitud. Realizamos una ajuste con datos reales.
Palabras claves: Distribución Skew-Normal, Distribución Slash, Kurtosis.
*
**
Email: [email protected],
Email: [email protected],
148
Distribución Birnbaum-Saunders Bimodal
Ricardo A. Guerrero*
Universidad de Antofagasta.
Héctor Gómez
Universidad de Antofagasta.
Resumen
El objeto principal de este trabajo es desarrollar una representación bimodal de una
distribución basada en la distribución Birdbath-Saunders, esto se logra mediante la composición de la distribución Skew-Normal-Bimodal con parámetro de forma introducido por
Elal-Olivero, Gómez y Quintana (2009) y la distribución Birdbath-Saunders (1969a, 1969b).
Generando así esta nueva distribución la cuál contiene 3 parámetros (α ;β; γ) que le entregan la bimodalidad, como la nueva distribución esta basada en la distribución BirdbathSaunders se genera una nueva distribución no simétrica. La construcción de esta distribución
busca encontrar una distribución bimodal que mantenga las propiedades de la distribución
Birdbath-Saunders y además que sus modas no sean necesariamente simétricas. Se estudian
propiedades básicas, representaciones estocásticas, y momentos. Además busca aplicaciones
en datos reales para su mejor análisis.
Palabras claves: Bimodal, Skew, Birnbaum-Saunders
*
Email: [email protected],
149
Aplicación de Análisis de Componentes Principales como
método para la detección de asociación de imágenes
Rodolfo C. J. Salomón*
Comisión de Investigaciones Científicas de la Provincia de Buenos Aires, Argentina
Departamento de Geología, Universidad Nacional del Sur, Argentina
Silvia P. Melo
Departamento de Matemática, Universidad Nacional del Sur, Argentina
Resumen
El objetivo de este trabajo es cumplir con aquella frase que dice: “una imagen vale más
que mil palabras”, pero quitando la subjetividad del investigador.
Al trabajar con imágenes que muestran el efecto de un determinado tratamiento en
el tiempo, es deseable identificar el momento en que éste resulta significativo, quedando
evidenciado por una pérdida de la asociación que presentan las imágenes. El método realizado
está basado en la aplicación de un Análisis de Componentes Principales a la matriz de
orden pxn construida con los valores de luminosidad correspondientes a p imágenes de n
puntos de resolución. El análisis de las correlaciones Variables/Componentes nos permite
identificar grupos de imágenes. Aquéllas que presenten alta correlación con alguna de las
nuevas variables construidas constituyen un grupo, es decir, la variable obtenida por ACP
asocia puntos con luminosidad semejante. Luego por la incorrelación entre éstas podemos
obtener el momento en que el tratamiento fue efectivo.
Palabras claves: Componentes Principales, asociación, imagen.
*
Email: [email protected],
150
Evaluación del Modelo de Ecuaciones Estructurales. Una
Aplicación a Estudios de Mercado
Mgter. Rosanna Beatriz Casini*
Instituto de Estadística. Facultad de Ciencias Económicas. UNC. Argentina
Resumen
El análisis de ecuaciones estructurales es una poderosa técnica de análisis multivariable
cada vez más utilizada en investigaciones en marketing y en las Ciencias Sociales. Resulta
de la conjunción de varias aproximaciones metodológicas, el análisis de variables latentes,
los modelos de ecuaciones simultáneas y los análisis de sendero o path análisis.
La técnica usa simultáneamente variables observadas y latentes. El modelo de ecuaciones
estructurales para variables latentes es una combinación de un sistema de ecuaciones estructurales llamado modelo estructural, con un modelo de medida donde las variables observadas
y latentes son medidas en términos de desviaciones respecto a sus medias.
En el desarrollo de estos modelos basados en ecuaciones estructurales es necesario realizar
cuatro fases: especificación, estimación, evaluación e interpretación. Una vez que el modelo
ha sido identificado y estimado el siguiente es necesario evaluar cuan bien los datos se han
ajustado por el modelo. Esta evaluación debe realizarse a tres niveles: evaluación del ajuste
del modelo global, evaluación del ajuste del modelo de medida y evaluación del ajuste del
modelo estructural.
En este sentido el presente trabajo se centrará en la aplicación del MEE en una encuesta
de mercado con el propósito de indagar sobre las posibles medidas de evaluación del modelo
de ecuaciones estructurales tomando como ejemplo dos modelos propuestos basados en la
teoría del consumidor.
Palabras claves: Modelo de Ecuaciones Estructurales. Medidas de Evaluación. Investigación de Mercados
*
Email: [email protected],
151
Portafolio Didáctico basado en el Modelo Estratégico de
Educación Comunicativa para metodología b learning.
Una aplicación al tema: distribución de probabilidad.
Mgter. Rosanna Beatriz Casini*
Instituto de Estadística. Facultad de Ciencias Económicas . UNC. Argentina Lic. Julio Rosales
Rosales**
Departamento de Matemática. Facultad de Ciencias Económicas .UNC. Argentina
Lic. Roberto Adrián Infante***
Departamento de Matemática. Facultad de Ciencias Económicas. UNC. Argentina
Resumen
La enseñanza virtual en la que participan técnicas diversas, métodos de enseñanza, técnicas de colaboración e instructores, eleva la enseñanza a niveles inalcanzables por los métodos
tradicionales, sobre todo en lo que respecta a flexibilidad y disponibilidad (en cualquier momento y desde cualquier lugar), alcanza su apogeo si se desarrolla la tecnología hasta el punto
en que se integren los tres métodos de enseñanza: asíncrona, síncrona y de autoformación.
Es de destacar que si bien, incorporar TIC en el proceso de enseñanza para responder a la
nueva concepción de aprendizaje, es indiscutible y necesario para todos los planes de estudio
de las carreras que se imparten en la actualidad, estadística es una asignatura en la que la
tecnología juega un rol fundamental para el logro de aprendizaje significativo acorde a la
nueva sociedad del conocimiento, su aplicación no es posible por otros medios que no sea con
fuerte incorporación de tecnología. En este sentido, el presente trabajo detalla una propuesta
metodológica b_learning para el dictado de la materia Estadística I, del ciclo básico de las
carreras de la Facultad de Ciencias Económicas, Universidad Nacional de Córdoba, en la
unidad de distribución de probabilidad.
La propuesta se centrará en la presentación de un portafolio de materiales didácticos sincronizados basado en el modelo estratégico de educación comunicativa para enseñanza mixta,
cuya elaboración surge como resultado de la retroalimentación proveniente de experiencias
realizadas en la materia en períodos anteriores.
Los resultados de la propuesta surgen como consecuencia de estudios cualitativos y cuantitativos sobre percepción y rendimiento de los estudiantes en la aplicación del portafolio
didáctico. Estos resultados indican alta participación, buen rendimiento y alta valoración
del método, de parte de los estudiantes involucrados.
Palabras claves: modelo estratégico de educación comunicativa, enseñanza de estadística, b_learning
*
Email: [email protected],
Email: [email protected],
***
Email: [email protected],
**
152
Una aplicación SEM a la Validación de Instrumentos de
medición del estrés laboral en trabajadores.
Rosa Montaño Espinoza*
Universidad de Santiago de Chile.
Elisa Ansoleaga M
Universidad Diego Portales.
Resumen
os instrumentos provenientes de los Modelos Demanda/Control-Soporte de Karasek y del
Desbalance Esfuerzo-Recompensas de Siegrist han sido ampliamente utilizados para evaluar
exposición a riesgos psicosociales laborales, precursores de estrés y asociados al surgimiento
de patología física y mental. El mecanismo por el cual la exposición al riesgos psicosociales laborales se vincula con resultados adversos de salud es lo que sido denominado estrés
laboral(Artazcoz, Escriba-Aguir, & Cortes, 2006).
Este trabajo abordó la estructura factorial, la validez concurrente y de criterio en dos
instrumentos cortos de medición de riesgo psicosocial laboral, la escala corta del ERI test de
Siegrist y el instrumento JCQ utilizado en el estudio Quebequense sobre condiciones de salud
y seguridad en el trabajo. Los análisis incluyeron, correlaciones, ecuaciones estructurales
(SEM) y regresión logística (controlando por confusores), en una muestra de trabajadores
chilenos.
Palabras claves: Propiedades psicométricas, Soporte demanda-control.
*
Email: [email protected],
153
Aplicación de modelos multinivel para variables binarias
en estudios sobre logros académicos en escolares
Ramón Álvarez*
Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.
Sebastián Gadea**
Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.
Emilia Trinidad - Daniela Ferreiro***
Centro INTER-IN NICOLICH
Resumen
En un estudio sobre las dificultades de aprendizaje llevado adelante por equipos de maestros, psiquiatras y psicomotricistas en escolares de contexto socio-económico bajo, se analizan
los logros académicos.
Cuando los individuos forman grupos o clusters, podríamos esperar que dos seleccionados
de un mismo grupo tenderán a ser más parecidos que dos individuos seleccionados de entre los
diferentes grupos. Por ejemplo, los niños aprenden en las clases, las condiciones de su grupo,
tales como características de los maestros y la capacidad de otros niños en la clase, lo que
puede influir en el logro educativo de un niño. Por lo tanto, para evaluar tales dependencias
se recurre a los modelos multinivel - también conocidos como modelos jerárquicos lineales,
modelos mixtos, modelos de efectos aleatorios y los modelos de componentes de la varianza
- para analizar los datos con una estructura jerárquica.
Para eso se toma en cuenta las variables contextuales relativas a escuela, grupo en la
escuela y maestra, en 372 niños del departamento de Canelones de 1er grado, que forman
parte de 7 escuelas públicas y 22 grupos. Se evalúa una escala de logro académico (ELA) que
está conformada por 6 subescalas para medir logros en lectura de frases y palabras, adquisición de código escrito y dominio de repertorio numérico. El constructo ELA se dicotomiza
tomando como categorías si logra la totalidad de las subescalas o no y sobre éste se aplica
análisis multinivel .
Palabras claves: Análisis Multinivel, Dificultades de aprendizaje,Escala de logro académico, Variables binarias.
*
Email: [email protected],
Email: [email protected],
***
Email: [email protected],
**
154
Segmentación de la población chilena por medio de
algoritmos iterativos.
Sergio Contreras1* , Javiera Ortiz1** , Susana Vera1***
1 Departamento
Estadística, Universidad del Bío-Bío.
Resumen
El objetivo de este trabajo es estudiar y analizar los datos del último censo valido para
realizar una clasificación geodemográfica en la población chilena por medio de un método
de segmentación, a saber, K-medias, concluyendo que el algoritmo de K-medias es eficaz y
eficiente, de acuerdo con los requerimientos de la empresa Mapcity S.A. Este método permite
identificar si los individuos de una población se dividen en diferentes grupos, haciendo comparaciones cuantitativas de múltiples características con la suposición de que las diferencias
dentro de cualquier grupo deben ser menores que las diferencias entre los grupos.
Con la colaboración de la empresa Mapcity Chile S.A se muestra gráficamente por medio
de un mapa de perfiles de habitantes, los grupos obtenidos por el algoritmo K-medias en el
estudio de la población chilena, identificando claramente a que manzana corresponde cada
grupo abalando así los resultados obtenidos por el estudio.
Palabras claves: K-medias, segmentación, cluster.
*
Email: [email protected],
Email: [email protected],
***
Email: [email protected],
**
155
Modelo LS-ARFIMA en Anillos de Crecimiento
Ricardo Alonso Olea Ortega*
Valeria Isabel Saez Gomez**
Resumen
En las regiones templadas, los vegetales leñosos forman cada año una capa de madera
bien definida y de forma concéntrica a las capas formadas en años anteriores, las que se
denominan anillos de crecimiento. El espesor es estos anillos varía año a año, siendo el estudio de esta variación el objetivo principal de la dendrocronología, Ferguson (1970). Parte
importante de la variabilidad de los anillos de crecimiento se debe a variaciones climáticas. Trabajos de Huber and Trarandt (1941), Fritts (1965), Schulman (1956), Serre (1973),
entre otros, han intentado establecer la respuesta de distintas especies a las variaciones climáticas y reconstruir la evolución del clima a lo largo del tiempo, lo que se conoce como
dendroclimatología. En general las series de tiempo de anillos de crecimiento, exhiben un
comportamiento no estacionario. Para ello, técnica de diferenciación y remoción de tendencia
han sido ampliamente discutido en la literatura. En la última década nuevas metodologías
basadas en la variación temporal de parámetros han sido introducidas. Un importante ejemplo de estas metodologías son los llamados Procesos Localmente Estacionarios desarrollados
por Dahlhaus (1996, 1997, 2000) principalmente en corta memoria. Recientemente Beran
(2009), Palma and Olea (2010), Palma et al (2011), Olea et al. (2013) han extendido los
resultados al caso de larga dependencia. En particular, Palma and Olea (2010) presentan y
aplican sus métodos a series de anillos de crecimiento. En este trabajo se aplica el modelo
LS-ARFIMA a una serie de anillo de crecimiento, median el estimador de Whittle y su comparación con el modelo ARFIMA estacionario. Además se ilustraran técnicas gráficas para
la detección de procesos localmente estacionarios.
Palabras claves: Larga memoria, procesos localmente estacionarios, detección, estimación, anillos de crecimiento, whittle.
*
**
Email: [email protected], Agradecimientos Fondecyt 11121128
Email: [email protected],
156
Índice de Autores
Casas Cardoso, Gladys, 134
Casini, Rosanna Beatriz, 151, 152
Castellanos González, Leónides, 134
Castillo Fierro, Benjamín J., 54, 55, 112
Castrillejo, Andrés, 103
Castro, D. A., 58
Castro-Kuriss, Claudia, 115
Cavalleri Ferrari, Fiorella, 67
Celis González, Perla, 147
Chau Kung, Elena Gabriela, 51
Chaubey, Yogendra P., 81
Chowell-Puente, Gerardo, 112
Cid Serrano, Luis, 70
Cid, Luis, 79
Conti, Héctor, 69, 76, 86
Contreras Espinoza, Sergio, 96
Contreras, Sergio, 155
Correa Beltrán, Gloria, 35
Costa, Marcelo A., 11
Abrego, Cristian, 110, 127
Addad, Ricardo Rubén, 108
Ahumada, María Inés, 140
Alcaire, Adtiana, 145
Aldunate, Consuelo, 125
Allende, Héctor, 63, 95
Altmark, Silvia, 65
Álvarez Ramón, 88, 92, 154
Andrade, Plinio, 18
Annunziata, Constanza, 145
Ansoleaga M, Elisa, 153
Araneda Levy, Ana María, 47
Ávila Julio, 75
Azzalini, Adelchi, 3
Baronio, Alfredo Mario, 53
Barrientos, Andrés F., 49, 56, 72
Basso, Matías, 133
Batto, Mabel, 133
Berberian, Natalia, 141, 142
Blanco, Pedro, 141, 142
Bolfarine, Heleno, 60, 102
Bongiorno, Florencia, 145
Bonnecarrere, Victoria, 141, 142
Bonoli Escobar, Mariano, 87
Borges, Alejandra, 142
Borrás, María Mercedes, 145
Branco, Márcia, 12
Britos, Grisel Maribel, 122
Burbano Moreno, Alvaro Alexander , 50
Buzzi, Sergio Martín, 97
De Aquino Cysneiros, Audrey Helen
Mariz, 120
De Bastiani, Fernanda, 120
De Carvalho, M., 58
De Carvalho, Miguel, 31
De Carvalho, Vanda Inácio, 14
De Maio, Fernando, 118
Del Pino M., Guido, 36
Díaz Margarita, 121, 137
Díaz Peña, Mailiu, 134
Díaz, Cecilia, 140
Díaz, Margarita, 73
Díaz, Mariana, 76, 86
Diblasi, Angela Magdalena, 90, 119
Camaño, Gabriel, 88
Camina, Ricardo, 144
Campos, Sergio, 95
Caro, Leiza Camilo, 139
Caro, Norma Patricia, 129, 130, 138
Caro, Valentina, 107
Elisei, Natalia, 146
Emery, Xavier, 23
Esper, Norma, 145
157
Guardiola, Mariana, 138
Guerrero, Ricardo A., 149
Guillén Oviedo, Hellen, 70
Gutiérrez, Lucía, 45, 141, 142
Gutierrez Urzua, Mauricio, 55
Gutiérrez, Luis, 15
Estrella, Soledad, 38
Fernández, Schubert, 141, 142
Ferrante, Daniel, 118
Ferreira, Jacqueline A., 11
Ferreiro, Daniela, 154
Figueroa - Zúñiga, J., 26
Filippini, Olga Susana, 113
Filippini, Susana Olga, 109
Firinguetti, Luis, 80, 81
Fracassi, Eduardo, 115
Fraiman, Ricardo, 77
Fuentes Lagos, Fernanda, 66
Fuentes, Chyntia, 79
Fustos, Roberto, 23
Fustos-Toribio, R., 26
Herrera Leiva, Rodrigo, 66
Hochsztain, Esther, 34, 64
Humeniy Jacobs, Nathalie, 143
Infante, Roberto, 111
Infante, Roberto Adrián, 152
Inostroza-Quezada, Ignacio, 71
Inzunza M., Mauricio, 135
Jara, Alejandro, 49, 56
Jiménez Gamero, Ma. Dolores, 68
Joekes, Silvia, 98, 127
Juárez, María Alejandra, 107
Gómez Martínez, Luis Antonio, 85
Gómez, Héctor, 124, 149
Gómez, Héctor W., 123, 148
Gómez, Yolanda M., 102
Gadea, Sebastián, 154
Gajardo Ríos, Judith Vanessa, 126
Galea Rojas, Manuel, 82, 114
Galea, Manuel, 83, 120
Gallardo Mateluna, Diego Ignacio, 60
Garaycochea, Silvia, 141, 142
García, Fernando, 121
Garca, Jesus, 18
García Fernando, 73
García Zattera, María José, 2
Garibaldi, Carlos, 111
Ghorbani, Mohammad, 20
Giampaoli, Viviana, 129
Gilaber Peralta, Horacio, 16
Giorgini, Diana, 109
Girimonte, Patricia, 146
Gneri, Mario A., 61
Gogni, Valeria, 100, 101
Gohlke, Guillermo, 139
Goldberg, Lucila, 118
Goméz G., Héctor, 128
González Contreras, Andrea Fernanda,
126
González, Lorena Leticia, 84
González, Jorge, 72
Gonzalez, Mariana Verónica, 139
Goyeneche, Juan José, 6
Klein, Daniel, 94
Konfino, Jonatan, 118
López, Erick, 63
Lachos Dávila, Víctor Hugo, 42
Lagos-Alvarez, B., 26
Larraguibel, Marcela, 125
Leal Kaymalyz, Carla, 114
Leiva, Ricardo A., 94
Loschi, Rosangela H., 11
Lujan Pons, Giselle Judith, 132
Luna, Laura I., 76
Luna, Laura Isabel, 130
Maglione, Dora silvia, 119
Mantovani, María Laura, 138
Mantovano, Julián, 116
Marfetán Molina, Diego, 117
Martín, María Cristina, 59, 84, 85
Martínez, Alejandra, 4
Martinez, Carla, 113
Martínez-Beneito, Miguel A., 104
Massa, Fernando, 65, 92, 99, 103
Mateu, Jorge, 20
Melo, Silvia P., 150
Mena, Ramsés H., 15
Meneguetti, Ariane, 61
Messina, Maria, 64
158
Meza Bogado, Diego Bernardo, 59
Mine, Julio, 107
Mislej, Ernesto, 44
Molinari, Claudia P., 116
Moneta Pizarro, Adrián Maximiliano, 107
Montaño Espinoza, Rosa, 153
Montenegro, Carlos, 12
Montero, Gonzalo A., 123
Montero, Laura, 107
Moreno, Leonardo, 77, 131
Morero, Hernán Alejandro, 91
Morettón, Juan, 116
Morvillo, Mónica Cristina, 90
Mosca, Johanna, 87
Moschini, Ricardo, 109
Muiños, Roberto, 100
Quintana, Fernando A., 72
Ramírez, Raúl, 34
Riaño, María Eugenia, 88
Rifo, Laura, 18
Righetti, Andrea, 110, 111, 127
Rivas Calabrán, Luisa, 82
Rivera, Pilar A., 148
Rodríguez Collazo, Silvia, 99
Rodríguez-Sickert, Carlos, 71
Rodrigues, Josemar, 17
Rodríguez-Cortés, Francisco J., 20
Román, Jorge Carlos, 143
Rómoli, Irene, 111
Rosa, Ernesto A., 62
Rosales Rosales, Julio, 152
Rosas, Juan, 141, 142
Rouadi, Gladys, 111
Roy, Anuradha, 94
Rubio, Hernán, 81
Rudolph L., Erich, 89
Ruggeri, Fabrizio, 7
Ruggiero, Matteo, 15
Ryabko, Daniil, 25
Nalbarte, Laura, 65
Negri, Griselda, 133
Nicolas, María Claudia, 132
Novoa Muñoz, Francisco, 68
Nuñez Franz, Loreto, 35
Nuñez, Lidia, 116
Ojeda, Silvia María, 97, 122
Olea Ortega, Ricardo Alonso, 93, 156
Olfos, Raimundo, 38
Olmos, Neveka M., 124
Ondarsuhu, Dolores, 118
Ortega Sanchez, Joaquín, 131
Ortega, Daniel, 69
Ortiz, Javiera, 155
Ortiz, Pablo, 91
Saez Gomez, Valeria Isabel, 156
Salas Eljatib, Christian, 16
Salas, Rodrigo, 78
Salazar Gomez, Ledys Llasmin, 78
Salomón, Rodolfo C. J., 150
Sancho, Ana María, 109
Santoro Pizarro, Karol, 128
Savi, Cecilia, 111
Schiattino, Irene, 125
Sendín, María Elena, 136
Serdyukova, Nora, 28
Silva, Claudia, 125
Silvia, Joekes, 110
Smrekar, Marcelo, 98
Stanecka, Nancy, 140
Stefanich, Clarisa, 111
Stimolo, María Inés, 137
Stoyan, Dietrich, 20
Strangi, Erica, 133
Strangi, Gabriel, 133
Strub, Ana María, 111
Szulanski, Fabián, 115
Page, Garrit, 10, 75
Page, Garritt Leland, 147
Palacios, Luciano, 113
Palma Manríquez, Wilfredo Omar, 93
Palma, Wilfredo, 32, 105
Paz, Marta, 116
Pedroso de Lima, Antonio Carlos, 60
Pendino, Ana María, 108
Pérez de Vida, 141, 142
Picasso, Emilio, 87
Pimentel Barbosa, Emanuel, 61, 98
Pizarro, Luis, 95
Porcu, Emilio, 30
Quaglino, Marta, 5
159
Tamura, Karin Ayumi, 129
Tasistro, Andrómaca, 34
Tesén Arroyo, Alfonso, 51, 52
Toledo, Gloria, 125
Tolosa, Leticia Eva, 132
Tornello, Carina, 116
Torres-Avilés, F., 26
Torres-Avilés, Francisco, 104
Trinidad, Emilia, 154
Veppo, Tamara, 139
Vera, Susana, 155
Vianco, Ana María, 53
Vicuña Fernández, Pamela, 96
Vicuña Loyola, María Ignacia, 93
Volpe, Juan Ignacio, 87
Von Mühlenbrock, Soledad, 125
Wadsworth, J. L., 58
Wegertseder M., Paulina, 135
Wehrhahn, Claudia, 56
Winzer, Nélida, 144
Wistuba M., Lina, 37
Uribe-Opazo, Miguel Angel, 120
Valdés, Marcela, 79
Valdez Arana, Jenny del Carmen, 51
Vallejo, Sebastian, 77
Vallejos, Ronny O., 27
Varela Véliz, Héctor, 124
Vargas M., Gilda, 135
Vargas José M., 73
Vásquez E., Christián, 105
Yáñez A., Miguel, 89
Yáñez, Miguel, 80
Yañez Alvarado, Miguel, 55
Zevallos Herencia, Mauricio Enrique, 93
Žežula Ivan, 94
160

Documentos relacionados