XI Congreso Latinoamericano de Sociedades de Estadística

Libro de Resúmenes XI Congreso Latinoamericano de Sociedades de Estadística XLI Jornadas Nacionales de Estadística XLII Coloquio Argentino de Estadís

0 downloads 86 Views 1MB Size

Recommend Stories


SEGUNDO CONGRESO CONTINENTAL LATINOAMERICANO
SEGUNDO CONGRESO CONTINENTAL LATINOAMERICANO DE VOCACIONES 2011 31 de enero al 5 de febrero de 2011 Cartago, Costa Rica SEGUNDO CONGRESO CONTINENTAL

XI Congreso Argentino de Antropología Social
XI Congreso Argentino de Antropología Social Rosario, 23 al 26 de Julio de 2014 GRUPO DE TRABAJO GT36 - REDES DE CUIDADOS EN SALUD: CUIDADORXS E INST

XI Congreso Argentino de Antropología Social
XI Congreso Argentino de Antropología Social Rosario, 23 al 26 de Julio de 2014 GRUPO DE TRABAJO Políticas y Lugares de la Memoria: Acontecimientos,

VI CONGRESO LATINOAMERICANO DE TRADUCCIÓN E INTERPRETACIÓN
VI CONGRESO 2016 Programa preliminar al 22/3/2016 VI CONGRESO LATINOAMERICANO DE TRADUCCIÓN E INTERPRETACIÓN PROGRAMA PRELIMINAR Versión al 22/3/20

XI CONGRESO ESPAÑOL DE CIENCIA POLÍTICA Y DE LA ADMINISTRACIÓN
XI CONGRESO ESPAÑOL DE CIENCIA POLÍTICA Y DE LA ADMINISTRACIÓN “La política en tiempos de incertidumbre” Universidad Pablo de Olavide de Sevilla 18-20

Story Transcript

Libro de Resúmenes

XI Congreso Latinoamericano de Sociedades de Estadística XLI Jornadas Nacionales de Estadística XLII Coloquio Argentino de Estadística

XI Congreso Latinoamericano de Sociedades de Estadística XLI Jornadas Nacionales de Estadística XLII Coloquio Argentino de Estadística La Serena, Chile. 2014 COMITÉ ORGANIZADOR Carlos Navarrete (Presidente), Universidad de La Serena Francisco Torres, Universidad de Santiago de Chile Gloria Icaza, Universidad de Talca Miguel Yáñez, Universidad del Bío-Bío Harvey Rosas, Universidad de Valparaíso Ronny Vallejos, Universidad Técnica Federico Santa María Bernardo Lagos, Universidad de Concepción Ignacio Vidal, Universidad de Talca Cristian Meza, Universidad de Valparaíso Jorge González, Pontificia Universidad Católica de Chile Héctor Varela, Universidad de Antofagasta COMITÉ CIENTÍFICO Sociedad Uruguaya de Estadística (SUE) Gabriel Camaño (Presidente), Universidad de la República Laura Nalbarte, Universidad de la República Lucía Gutiérrez, Universidad de la República Sociedad Chilena de Estadística (SOCHE) Héctor Gómez, Universidad de Antofagasta Soledad Torres, Universidad de Valparaíso Miguel de Carvalho, Pontificia Universidad Católica de Chile Luis Mauricio castro, Universidad de Concepción Sociedad Argentina de Estadística (SAE) Olga Susana Filippini, Universidad de Buenos Aires Diana Kelmansky, Universidad de Buenos Aires Ángela Diblassi, Universidad Nacional de Cuyo COMITE ORGANIZADOR LOCAL UNIVERSIDAD DE LA SERENA Carlos Navarrete Ken Matsuda Nabor Castillo Carlos Díaz Christian Lorca Héctor García

ii

Índice general I

Conferencias Regression modelling of misclassified correlated interval-censored data . . . . . . . . . .

1.2

Clustering based on non-parametric density estimation: a proposal . . . . . . . . . . .

1.3

Robustez en Modelos Aditivos

1.4 1.5 1.6

II

1

1.1

. . . . . . . . . . . . . . . . . . Métodos Multivariados en control y capacidad de procesos . . . . . Marcos muestrales imperfectos: herramientas para su tratamiento. . Probabilistic weather forecasting . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Sesiones invitadas

8

2 Estadística Bayesiana 2.1

On the Geometry of Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.2

Detecting changes in time series: A product partition model with across-cluster correlation

2.3

Bayesian inference of logistic growth model in state space representation

. . . . . . . .

3 Bioestadística 3.1

Shape and size dependent ROC analysis with an application to schizophrenia diagnosis. .

3.2

Air quality analysis via a continuous time dependent Bayesian nonparametric model . . .

3.3

Evaluación de muestreos del k-esimo árbol en inventarios de bosques naturales de Chile

3.4

A Bayesian destructive weighted Poisson cure rate model and an application to a cutaneous melanoma data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3.5

2 3 4 5 6 7

.

Bayesian inference for dependent chains applied to neural phenomena . . . . . . . . . .

9 10 11 12 13 14 15 16 17 18

4 Sismomática 4.1 4.2 4.3 4.4 4.5 4.6

19 Spatio-temporal modelling of earthquakes through second-order properties of point processes 20 Geostatistical clustering an comparasion with main multivariate clustering procedures for georeferenced datset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . Assessing the Spatial Association Between Two Random Fields: A Review . Adaptación espacial en regresión heterocedástica . . . . . . . . . . . . . Clustering a multitude of time series

Geostatistical Mixed Beta Regression: A Bayesian approach

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

5 Modelamiento Estadístico del Riesgo 5.1

Adaptive Tapers and Spatio-Temporal Covariances . . . . . . . . . . . . . . . . . . .

5.2

Riesgo y Extremos: Las Lecciones de la Reciente Crisis Económica . . . . . . . . . . .

5.3

Modelos Estadísticos de Medición de Riesgo Financiero . . . . . . . . . . . . . . . . .

iii

23 25 26 27 28 29 30 31 32

6 Enseñanza de la Estadística 6.1 6.2

Enseñanza de R a distancia para actualización de egresados. Desafíos y oportunidades Propuesta pedagógica para mejorar la capacidad de análisis estadísticos autónomos en tudiantes de Odontología de la Universidad de Talca . . . . . . . . . . . . . . . . Invarianza y estadística descriptiva . . . . . . . . . . . . . . . . . . . . . . . . Modelos culturales en la enseñanza de la estadística . . . . . . . . . . . . . . . . Estudio de Clases para el desarrollo profesional docente en Educación Estadística . .

6.3 6.4 6.5

III

es-

. . . .

. . . .

Minicursos

6.4

. . . . . . . . . . . .

7.2 7.3 7.4 7.5 7.6 7.7 7.8 7.9 7.10 7.11 7.12

7.13 7.14 7.15 7.16 7.17 7.18 7.19

42 44

genética de

. . . . . . . . . . . .

Trabajos orales

7.1

35 36 37 38

41

Modelos de Regresión para Datos Censurados con Aplicaciones en R . . . . Tópicos de estadística y data mining en Big Data . . . . . . . . . . . . . Estadística Genética: herramientas y modelos para el análisis de información alta dimensionalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . Taller de Enseñanza de la Estadística en Educación Media . . . . . . . . .

6.1 6.2 6.3

IV

. .

33 34

45 47

48

Fully nonparametric regression models for compositional data using dependent Bernstein polynomials . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estimación en el modelo de regresión lineal con errores no normales: secante hiperbólica generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Optimización de Procesos Alimentarios con diseños experimentales de una mezcla seca de polvo de cacao mediante la metodología de superficie de respuesta . . . . . . . . . . . Proceso analítico jerárquico aplicado en la toma de decisiones de nuevos productos . . . . El proceso de investigación econométrica (PIE) . . . . . . . . . . . . . . . . . . . . Modelos multiniveles de series autorregresivas funcionales . . . . . . . . . . . . . . . Análisis de componentes principales funcionales aplicados a opciones desestacionalizadas del IGPA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Small sample properties of Dirichlet process mixture models for data supported on compact intervals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Predictor-dependent modeling for bivariate extremes . . . . . . . . . . . . . . . . . . Determinantes de la probabilidad de aportar al Sistema de Seguridad Social del Paraguay Modelo Destructivo de Poisson Ponderado con fracción de cura y efectos aleatorios: enfoques Clásico y Bayesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Improving Shewhart-type Generalized Variance Control Charts for Multivariate Process Variability Monitoring using Cornish-Fisher Quantile Correction, Meijer-G Function and Other Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La Determinación de la Dispersión de una Variable en una Población Desconocida . . . . Forecasting High Frequency Time Series by using Machine Learning . . . . . . . . . . Identificación de factores de éxito de emprendimientos en base a reglas de asociación supervisadas y árboles de decisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . Clusters probabilístico y mixtos en la medición multidimensional de la pobreza . . . . . Extreme value theory applied to commodity currencies . . . . . . . . . . . . . . . . . Modelo de simulación mediante dinámica de sistemas para la planificación de recursos humanos en salud. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Un test para detectar una distribución Poisson bivariante . . . . . . . . . . . . . . . .

iv

49 50 51 52 53 54 55 56 58 59 60

61 62 63 64 65 66 67 68

7.20 Indicadores de Carencias y Carencias Severas . . . . . . . . . . . . . . . . . . . . . 7.21 Parametrización de la Distribución de Valor Extremo Generalizada en el estudio de eventos climáticos extremos en Centro América . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . 7.23 Estimation of Equating Functions with Covariates: a Bayesian Nonparametric Approach . 7.24 Robust Clustering of Banks in Argentina . . . . . . . . . . . . . . . . . . . . . . . 7.22 Aprendizaje Bayesiano, estructura de red y difusión de innovaciones

7.25 Estimado la tasa de éxito en la cacería de pavos salvajes. Un ejemplo de Spatial Confounding . . . . . . . . . . . . . . . . . . . . . . . . . . 7.26 Aporte del sector turismo a la generación de valor agregado en la provincia de Córdoba 7.27 Algunos test de hipótesis mediante proyecciones al azar. . . . . . . . . . . . . . . . 7.28 Identificación adaptativa de estructuras de Series de Tiempo Difusas . . . . . . . . . 7.29 Estudio comparativo de la sobrevida de pacientes no metastásicos de cáncer de mama . 7.30 Un Análisis Multivariado del Sistema Universitario en Chile

. . . . . . . . . . . . .

. . . . .

7.31 Un Estimador de Regresión Ridge No-estocástico y Comparación con el Estimador de James-Stein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69 70 71 72 73 75 76 77 78 79 80

. . . . . . . .

81 82 83

7.34 Estudio Comparativo por Métodos de Clasificación para el Análisis del Desempleo en los Departamentos de la Región Oriental del Paraguay . . . . . . . . . . . . . . . . . . .

84

7.32 Regresión Geográficamente Ponderada: Una aplicación a datos de mortalidad . . . . . . 7.33 Comparación de métodos de medición en presencia de un Gold Estándar

7.35 Ajuste de Modelos Longitudinales a datos de Ingreso de Hogares a partir de la Encuesta Continua de Empleo de Asunción y Departamento Central . . . . . . . . . . . . . . .

. . .

85 86 87 88 89

7.40 El Problema de Datos Censurados en el Contexto Geoestadístico Una Propuesta de Tratamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . .

90

7.41 Análisis de complementariedad mediante el testeo conjunto de restricciones de desigualdad: una aplicación en el sector software de Argentina e innovación . . . . . . . . . . . . .

91

7.36 Indicador de actividad económica de la provincia de Córdoba (INAEC) . . . . . . . . . 7.37 Incorporación del Consideration Set en modelos de estimación de demanda . . . . . . . 7.38 ¿Explica el efecto del muestreo las diferencias entre mediciones de audiencias televisivas? . 7.39 Consistencia de índices de validación en clasificación difusa de datos morfométricos

7.42 Determinación del nivel de infección de bolsa periodontal a través de la distribución de Bernoulli multivariada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.43 Estimador de Mínima Distancia en Procesos Localmente Estacionarios

. . . . . . . . .

7.44 Prueba de hipótesis para la igualdad de vectores de medias basada en observaciones multivariadas apareadas doblemente intercambiables . . . . . . . . . . . . . . . . . . . .

92 93

7.45 Imputation techniques for missing data in heterogeneous data sets: the ADNI study . . .

94 95

7.46 Comparación de la Predicción del Consumo Eléctrico Mediante diversos modelos de Series de Tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

96

7.47 Testing for Unit roots and Granger non-causality in time series with multiple structural breaks. An international stock markets application . . . . . . . . . . . . . . . . . . .

97

7.48 Estudio del Gráfico de Control CCC-r para Procesos de Alta Calidad y su Aplicación con Datos de una Planta de Autopartes . . . . . . . . . . . . . . . . . . . . . . . . . . 7.49 Predicción de la demanda diaria de energía eléctrica en Uruguay . . . . . . . . . . . . 7.50 Aplicación de un modelo de Análisis Factorial Confirmatorio para determinar los scores de los factores latentes que determinan la Calidad de Vida percibida. Una aplicación web. . .

98 99

100 7.51 Métodos MIS y POT para estimación de Vref en proyectos de energía eólica . . . . . . . 101 7.52 Distribuición Geométrica Half-Normal Potencia con fracción de cura . . . . . . . . . . 102 v

7.53 Clustering de Datos Funcionales Aplicación a Datos de Consumo Eléctrico . . . . . . . . . . . . . . . . . . . . . . .

103 7.54 STANOVA: A Smoothed-ANOVA-based model for spatio-temporal disease mapping . . . 104 7.55 Aplicación de Procesos Localmente Estacionarios en Modelos de Volatilidad Estocástica . 105

V

Póster

106

8.1

Análisis de clúster aplicado al perfil de los ingresantes a Ciencias Económicas de la UNC .

8.2

Física Estadística y Finanzas Cuánticas: Una aplicación de modelos matemáticas de la teoría cuántica de campos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8.3 8.4 8.5 8.6 8.7 8.8 8.9

107

108 Diseño de planes de muestreo en la detección de micotoxinas . . . . . . . . . . . . . . 109 Modelo Zero Inflated Poisson en el control de procesos de alta calidad: un caso de aplicación 110 Propuesta metodológica de diseño de un sistema de evaluación para la gestión educativa en el nivel superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

111 Estudio epidemiológico de la influenza asiática de 1955-1957 en la Región del Bío-Bío . . 112

“Análisis comparativo de métodos de detección de diferencias mínimas en promotores del crecimiento en aves” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

113 Inferencia sobre el coeficiente de correlación de concordancia . . . . . . . . . . . . . . 114 Cambio Climático Mundial: Análisis Estadístico de las Nuevas Experiencias en Latino-América 115

8.10 Estimación del riesgo Microbiológico por Salmonella en aguas grises de la provincia de Buenos Aires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

116 8.11 Predicción de resultados de partidos de fútbol a través de métodos bayesianos . . . . . . 117 8.12 El patrón social de las actitudes hacia el control del tabaco en Argentina . . . . . . . . 118 8.13 Estimación de sistemas de ecuaciones simultáneas anidados . . . . . . . . . . . . . . . 119 8.14 Diagnosticos de influência em modelo espaciais lineares com ditribuição da família de contornos elipticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

120

8.15 La disponibilidad de los servicios bancarios en la provincia de Córdoba (Argentina). Un estudio de sus determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

121

8.16 M- estimadores vía modelos BIP-ARMA para series de tiempo con diferentes esquemas de contaminación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

122 . . . . . . . . . . . . . . . . 123 8.18 Truncated Positive Normal Distribution . . . . . . . . . . . . . . . . . . . . . . . . 124 8.17 Distribución Potencia-Cauchy: Propiedades e Inferencia

8.19 Validación del autoreporte de ansiedad en niños y adolescentes chilenos no consultantes e invarianza por sexo. Una aplicaciones de ecuaciones estructurales . . . . . . . . . . . .

125

8.20 Nivel de Satisfacción en la Región del Bío Bío, utilizando la Encuesta de Caracterización Socioeconómica Nacional 2011 (CASEN) . . . . . . . . . . . . . . . . . . . . . . .

126 8.21 Modelo Zero Inflated Poisson en el control de procesos de alta calidad: un caso de aplicación 127 8.22 Distribución con soporte positivo en base a la Distribución exponencial potencia . . . . . 128 8.23 Predicción de crisis financiera en empresas latinoamericanas usando modelos de regresión logística: tradicional y mixto . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

129

8.24 Aplicación de modelos de supervivencia para la predicción de crisis en empresas argentinas y peruanas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

130

8.25 Un estudio espacio-temporal de las precipitaciones extremas en el Estado de Guanajuato, México. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

131

8.26 La importancia de la información contable y de mercado en la toma de decisiones de inversión en empresas argentinas y peruanas a través de modelos mixtos . . . . . . . . . . .

132

vi

8.27 ¿Qué alumnos recibe la Universidad? ¿Cómo influyen algunas de sus características en su paso por la Universidad? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.28 Análisis geoestadístico de la intensidad del tizón temprano en tres municipios de Cienfuegos, Cuba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.29 Análisis estadístico de los factores que influyen en la reducción de la demanda energética de calefacción para dos tipos de vivienda . . . . . . . . . . . . . . . . . . . . . . . 8.30 Capacitación en Moodle desde la FCE UNPSJB. Valoración del Curso Introductorio 2011-2013 . . . . . . . . . . . . . . . . . . . . . 8.31 Aplicación de un modelo mixto para estimar el comportamiento pegadizo de los costos en empresas argentinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.32 Clasificación de empresas de mercados latinoamericanos según su estado financiero a partir de sus ratios contables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.33 análisis de conglomerados, métodos no paramétricos, ratios contables, crisis financiera. . . 8.34 Diferenciación espacial socio-económica a través de la detección de conglomerados en la provincia de Córdoba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.35 Comparación de modelos mixtos para la identificación de QTL mediante mapeo asociativo 8.36 Simulación de diseños experimentales aplicados al mejoramiento del cultivo de arroz . . . 8.37 Geometric Ergodicity of Gibbs Samplers for Bayesian General t Linear Mixed Models . . 8.38 Generalizacion del indice de Ware y Hedges para medir asociacion multiple . . . . . . . 8.39 Indicadores del sector forestal. Provincia del Chaco . . . . . . . . . . . . . . . . . . 8.40 Análisis exploratorio de variables acústicas con métodos funcionales . . . . . . . . . . . 8.41 Determinando la tasa de prematuros en la Región Metropolitana . . . . . . . . . . . . 8.42 Distribución Slashed Truncada-Exponencial Skew-Normal . . . . . . . . . . . . . . . 8.43 Distribución Birnbaum-Saunders Bimodal . . . . . . . . . . . . . . . . . . . . . . . 8.44 Aplicación de Análisis de Componentes Principales como método para la detección de asociación de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.45 Evaluación del Modelo de Ecuaciones Estructurales. Una Aplicación a Estudios de Mercado 8.46 Portafolio Didáctico basado en el Modelo Estratégico de Educación Comunicativa para metodología b learning. Una aplicación al tema: distribución de probabilidad. . . . . . . 8.47 Una aplicación SEM a la Validación de Instrumentos de medición del estrés laboral en trabajadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.48 Aplicación de modelos multinivel para variables binarias en estudios sobre logros académicos en escolares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.49 Segmentación de la población chilena por medio de algoritmos iterativos. . . . . . . . . 8.50 Modelo LS-ARFIMA en Anillos de Crecimiento . . . . . . . . . . . . . . . . . . . .

Índice de Autores

133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157

vii

viii

Parte I Conferencias

1

Regression modelling of misclassified correlated interval-censored data María José García Zattera* Department of Statistics, Pontificia Universidad Católica de Chile.

Resumen Motivated by a longitudinal oral health study, we propose a flexible modelling approach for clustered time-to-event data, when the response of interest can only be determined to lie in an interval obtained from a sequence of examination times (interval-censored data) and the determination of the occurrence of the event is subject to misclassification. The clustered time-to-event data are modelled using an accelerated failure time model with random effects and by assuming a penalised Gaussian mixture model for the random effects terms. A general misclassification model is discussed in detail, considering the possibility that different examiners were involved in the assessment of the occurrence of the events for a given subject across time. A Bayesian implementation of the proposed model is described in a detailed manner. We provide empirical evidence showing that the model can be used to estimate the underlying time-to-event distribution and the misclassification parameters without any external information about the latter parameters. We also use simulated data to evaluate the effect of neglecting the presence of misclassification in the analysis of clustered time-to-event data. Keywords: Bayesian approach; Mismeasured continuous response; Multivariate survival data.

*

Email: [email protected], MJ. García’s research is supported by Fondecyt grant 11110033.

2

Clustering based on non-parametric density estimation: a proposal Adelchi Azzalini Dipartimento di Scienze Statistiche Università di Padova

Abstract Cluster analysis based on non-parametric density estimation represents an approach to the clustering problem whose roots date back several decades, but it is only in recent times that this approach could actually be developed. The talk presents one proposal within this approach which is among the few ones which have been brought up to the operational stage.

3

Robustez en Modelos Aditivos Alejandra Martínez* Universidad de Buenos Aires y CONICET.

Resumen En los modelos de regresión multivariados, los estimadores de la función de regresiónbasados en núcleos sufren de la bien conocida maldición de la dimensión, que ocurre debidoa que el número de observaciones que yace en entornos de radio fijo decrece exponencialmentea medida que la dimensión aumenta. Para evitar este problema, se introdujeron los modelosaditivos, que generalizan los modelos lineales, son de fácil interpretación y además resuelvenla maldición de la dimensión. La mayoría de los procedimientos para estimar las componentesde un modelo aditivo tienen la desventaja de ser muy sensibles a la presencia de datos atípicosdado que se basan en promedios o polinomios locales usando ajustes por mínimos cuadrados.Por esta razón, se necesitan procedimientos robustos para estimar las componentes de losmodelos aditivos. En esta presentación, consideramos dos familias de estimadores robustospara los modelos aditivos basados en polinomios locales: basadas en el procedimiento deintegración marginal y en el procedimiento de backfitting. Estos estimadores resuelven,simultáneamente, la maldición de la dimensión y la sensibilidad a observaciones atípicas. Esta charla está basada en trabajo conjunto con la Dra. Graciela Boente, Universidadde Buenos Aires y CONICET y con el Dr. Matías Salibián Barrera, University of British Columbia. Palabras claves: Modelos Aditivos, Backfitting, Integración Marginal, Respuestas Faltantes, Robustez.

*

Email: [email protected],

4

Métodos Multivariados en control y capacidad de procesos Marta Quaglino* Escuela de Estadística. Facultad de Ciencias Económicas y Estadística-UNR Argentina

Resumen La posibilidad de tener en cuenta varias variables de calidad oproductividad en forma simultánea para los procedimientos de controlestadístico de los procesos es atractiva en las organizaciones, dado quepermiten controlar, estudiar su capacidad y proponer mejoras, desde unaperspectiva más realista e integradora. Sin embargo la mayoría de los métodosdisponibles dependen han sido propuestos bajo ciertas condiciones deregularidad de las variables en control y si estos supuestos no se verifican, suspropiedades pueden variar, a veces drásticamente. La presentación, mostrará los resultados de trabajos recientes, realizadosen colaboración con miembros del equipo de investigación** , en los que seconsideran cambios en las condiciones de aplicación, evidenciando los efectosde los mismos sobre las propiedades de los métodos de control. Serán tratadosprocedimientos de control estadístico multivariado de procesos, con memoria eíndices de capacidad multivariados frente a alejamientos de la distribuciónnormal de las variables bajo estudio. Palabras claves: MSPC, MEWMA, Indices de Capacidad Multivariados.

* **

Email: [email protected], Mag.María Isabel Flury, Lic.Daniela Dianda, Dr.José A.Pagura

5

Marcos muestrales imperfectos: herramientas para su tratamiento. Juan José Goyeneche Instituto de Estadística, Facultad de Ciencias Económicas, Universidad de La República

Resumen En general las complejidades en los aspecto teóricos del muestreo de poblaciones finitas sonde menor entidad si las comparamos con los problemas que surgen del punto de vista práctico.Tener un marco muestral adecuado es fundamental para el proceso de estimación: poblaciónobjetivo, marco muestral, diseño, etapas de relevamiento, estimación en sí (cálculo deponderadores, ajustes por no respuesta, estimación de varianzas). Se presentarán varios casosde investigaciones con marcos muestrales imperfectos y se discutirán las estrategiasadoptadas para mitigar los sesgos resultantes.

6

Probabilistic weather forecasting Fabrizio Ruggeri Research Director, Consiglio Nazionale delle Ricerche, Italy Adjunct Professor, Queensland University of Technology, Australia International Professor Affiliate, New York University, USA

Abstract Two approaches are presented to estimate the thermal conductivity or diffusivity of a homogeneous material from the temperature evolution acquired in few internal points. Temperature evolution is described by the classical one-dimensional heat equation, in which the thermal conductivity (or diffusivity) is one of the coefficients. In the first approach noisy measurements lead to a partial differential equation with stochastic coefficients and, after discretisation in time and space, to a stochastic differential equation. Euler approximation at sampled points leads to a likelihood function, used in the Bayesian estimation of the thermal conductivity under different prior densities. An approach for generating latent observations over time in points where the temperature is not acquired is also included. Finally, the methodology is experimentally validated, considering a heated piece of polymethyl methacrylate (PMMA) with temperature measurements available in few points of the material and acquired at high frequency. In the second approach a Bayesian setting is developed to infer unknown parameters that appear into initial-boundary value problems for parabolic partial differential equations. The realistic assumption that the boundary data are noisy is introduced, for a given prescribed initial condition. We show how to derive the global likelihood function for the forward problem, given some measurements of the solution field subject to Gaussian noise. Given Gaussian priors for the time-dependent Dirichlet boundary values, we marginalize out analytically the global likelihood using the linearity of the discretized solution. This approach is fully implemented in the case of the heat equation where the thermal diffusivity is the unknown parameter. We assume that the thermal diffusivity parameter can be modeled a priori through a lognormal random variable or by means of a space-dependent stationary lognormal random field. Synthetic data are used to carry out the inference. We exploit the concentration of the posterior distribution of the thermal diffusivity, using the Laplace approximation and therefore avoiding costly MCMC computations. Expected information gains and predictive posterior densities for observable quantities are numerically estimated for different experimental setups.

7

Parte II Sesiones invitadas

8

Estadística Bayesiana Coordinador: Dr. Luis Mauricio Castro, Universidad de Concepción, Chile.

9

On the Geometry of Bayes Garrit Page Pontificia Universidad Católica de Chile

Abstract We provide a geometric interpretation to Bayesian inference that allows us to introduce a natural measure of the level of agreement between priors, likelihoods, and posteriors. Estimators for all the quantities involved in our geometric setup are discussed, which can be directly computed from the posterior simulation output. Some examples are used to illustrate our methods.

10

Detecting changes in time series: A product partition model with across-cluster correlation Rosangela H. Loschi, Jacqueline A. Ferreira, Marcelo A. Costa Universidade Federal de Minas Gerais, Brazil.

Abstract The identification of multiple clusters and/or changepoints is a problem encountered in many subject areas, ranging from machine learning, pattern recognition, genetics, criminality and disease mapping to finance and industrial control. We present a product partition model that, for the first time, includes dependence between clusters or segments. The inter-cluster dependence is introduced into the model through the prior distributions of the parameters. We adopt a reversible jump MCMC algorithm to sample from the posterior distributions. We compare the partition model with across-cluster correlation to the usual product partition model (PPM), which assumes independence among the clusters. Through simulations and analysis of real data sets, we show that the inclusion of correlation between clusters leads to a superior model for change-point identification. By accounting for this correlation, we achieve improvement in the parameter estimates.

11

Bayesian inference of logistic growth model in state space representation Carlos Montenegro and Márcia Branco Departamento de Estatística, IME, Universidade de São Paulo, Brasil

Abstract We study the logistic population growth model using state-space approach to update the knowledge of a population of marine shrimp from the Chilean coast. The unobserved state is the annual biomass of the shrimp’s population and the observation is the mean annual #shing yield (mean cath per unit of eort). The observation equation is linear, with one parameter (the catchability coefficient) and the state equation is nonlinear with two parameters (carrying capacity and the intrinsic growth rate of the population). The models include normal, lognormal, t-student, skew-normal and skew-t distributions. The posterior distribution of states and parameters of the models are approximated using Markov Chain Monte Carlo methods (MCMC) and for model selection we use DIC (Deviance Information Criterion) and posterior predictive distribution. Of the fi#ve proposed models which presents the lowest DIC is the one that considers skew-t observation error. The second best model is the one that considers lognormal observation error. Furthermore, considering the posterior predictive distribution of the autocorrelation of the observation error, the greatest evidence points to these two models as the best for the analyzed dataset.

12

Bioestadística Coordinador: Dr. Francisco Torres, Universidad de Santiago de Chile.

13

Shape and size dependent ROC analysis with an application to schizophrenia diagnosis. Vanda Inácio De Carvalho Pontificia Universidad Católica de Chile.

Abstract Modern technology have been leading to production of increasingly complex medical diagnostic data, whose analysis often entails the development of new statistical methodology. Taking advantage of this wealth of data to conduct accurate diagnosis of disease is a subject of major concern in public health and medical research. In this work, we extend the approach of Inácio et al. (2012) to the context of shape analysis; specifically we develop methodology for the case where the test outcome is a scalar and the covariate affecting the diagnosis accuracy is a shape. A simulation study to assess the performance of our estimator is conducted and an application to schizophrenia diagnosis based on brain shape data is provided.

14

Air quality analysis via a continuous time dependent Bayesian nonparametric model Luis Gutiérrez*

Ramsés H. Mena**

Matteo Ruggiero***

Abstract Air quality monitoring is based on pollutants concentration levels, typically recorded in metropolitan areas. These exhibit spatial and temporal dependence as well as seasonality trends, and their analysis demands flexible and robust statistical models. Here we propose to model the measurements of particulate matter, composed by atmospheric carcinogenic agents, by means of a Bayesian nonparametric dynamic model which accommodates the dependence structures present in the data and allows for fast and efficient posterior computation. Lead by the need to infer the probability of threshold crossing at arbitrary time points, crucial in contingency decision making, we apply the model to the time-varying density estimation for a PM2,5 dataset collected in Santiago, Chile, and analyze various other quantities of interest derived from the estimate. Keywords: Density Estimation; Particulate Matter; Dirichlet Process

*

Email: [email protected], Escuela de Salud Pública, Fac. Medicina, Universidad de Chile. Email: [email protected], IIMAS-UNAM. *** Email: [email protected], University of Torino & Collegio Carlo Alberto. **

15

Evaluación de muestreos del k-esimo árbol en inventarios de bosques naturales de Chile* Christian Salas Eljatiba,** , Horacio Gilaber Peraltab a Laboratorio

de Análisis Cuantitativo de Recursos Naturales , Departamento de Ciencias Forestales, Universidad de La Frontera, Temuco, Chile. b Departamento de Ecosistemas y Medio Ambiente, Pontificia Universidad Católica de Chile, Santiago, Chile.

Resumen El muestreo de bosques con unidades de muestreo (i.e., parcelas) de superficie fija es el método más empleado para la estimación de parámetros de variables de los bosques. Una alternativa a este tipo de muestreos, son aquellos que se basan en en la medición de distancias desde puntos de muestreo a los individuos más cercanos. Estos muestreos se denominan del k-ésimo árbol. Los muestreos del k-ésimo árbol poseen la ventaja de práctica de disminuir los tiempos y costos asociados a la medición de las unidades muestrales. Una desventaja, aunque no siempre reconocida en la práctica, es que los estimadores derivados de los muestreos del k-ésimo árbol son sesgados. El presente estudio tiene por objetivo demostrar y cuantificar el sesgo de los dos tipos de muestreos del k-ésimo árbol (i.e., k-árboles más cercanos y de los cuartos) en la estimación del número de árboles y área basal de árboles en diferentes tipos de bosques naturales en Chile. Para tal efecto, se definieron poblaciones de bosques que fueron replanteadas en terreno, cada una de 1 ha donde se obtuvo la posicion cartesiana de cada árbol. Mediante simulación estocástica, se construyeron la distribución empirica de los estimadores derivados de los muestreos del k-ésimo árbol, y a partir del cual se analizó el sesgo, varianza, y error cuadrático medio. Se evaluó también, y a modo de referencia, el muestreo con parcelas de superficie fija. Los análisis consideraron la variación del tamaño muestral, así como la distribución espacial de los bosques de referencia. Palabras claves: método del sexto-árbol, método de los cuartos, sesgo, inventario forestal.

*

Enviado a 2014, the “XI Congreso Latinoamericano de Sociedades de Estadística”, La Serena, Chile, 20–23 Octubre, 2014. ** Email: [email protected], Autor de correspondencia. Laboratorio de Análisis Cuantitativo de Recursos Naturales, Departamento de Ciencias Forestales, Universidad de La Frontera, Casilla 54-D, Temuco, Chile . Tel. +56 (45) 2325652.

16

A Bayesian destructive weighted Poisson cure rate model and an application to a cutaneous melanoma data Josemar Rodrigues* University of São Paulo-São Carlos-Brazil.

Abstract In this article, we propose a new Bayesian flexible cure rate survival model, which generalises the stochastic model of Klebanov et al. [Klebanov LB, Rachev ST and Yakovlev AY. A stochastic-model of radiation carcinogenesis latent time distributions and their properties. Math Biosci 1993; 113: 5175], and has much in common with the destructive model formulated by Rodrigues et al. [Rodrigues J, de Castro M, Balakrishnan N and Cancho VG. Destructive weighted Poisson cure rate models. Technical Report, Universidade Federal de So Carlos, So Carlos-SP. Brazil, 2009 (accepted in Lifetime Data Analysis)]. In our approach, the accumulated number of lesions or altered cells follows a compound weighted Poisson distribution. This model is more flexible than the promotion time cure model in terms of dispersion. Moreover, it possesses an interesting and realistic interpretation of the biological mechanism of the occurrence of the event of interest as it includes a destructive process of tumour cells after an initial treatment or the capacity of an individual exposed to irradiation to repair altered cells that results in cancer induction. In other words, what is recorded is only the damaged portion of the original number of altered cells not eliminated by the treatment or repaired by the repair system of an individual. Markov Chain Monte Carlo (MCMC) methods are then used to develop Bayesian inference for the proposed model. Also, some discussions on the model selection and an illustration with a cutaneous melanoma data set analysed by Rodrigues et al. [Rodrigues J, de Castro M, Balakrishnan N and Cancho VG. Destructive weighted Poisson cure rate models. Technical Report, Universidade Federal de So Carlos, So Carlos-SP. Brazil, 2009 (accepted in Lifetime Data Analysis)] are presented. Keywords: Competing risks, cure rate models, Conway Maxwell Poisson distribution, weighted Poisson distribution.

*

Email: [email protected],

17

Bayesian inference for dependent chains applied to neural phenomena Laura Rifo* Imecc-Unicamp.

Plinio Andrade IME-USP.

Jesus Garca Imecc-Unicamp.

Abstract The main goal of this work is to modeling the neural activity under controlled stimulus. The probabilistic model proposed consists in binary chains with memory, indicating the presence or not of spike trains. The data set corresponds to the measurements obtained by electrodes installed on the brain cortex in rats exposed by the first time to geometrically complex objects. These records give the space-time configuration of the spike trains. Our motivation is to verify the temporal dependence of this activity, and the interaction between neurons. The model selection is made through Bayesian inference for the memory parameter in stochastic process. Keywords: Bayesian inference, binary process, neuromathematics.

*

Email: [email protected], This work was partially supported by FAPESP Center for Neuromathematics 2013/ 07699-0 and FAEPEX, Unicamp.

18

Sismomática Coordinador: Dr. Bernardo Lagos Alvarez, Universidad de Concepción, Chile.

19

Spatio-temporal modelling of earthquakes through second-order properties of point processes Francisco J. Rodríguez-Cortésa,* , Jorge Mateua , Mohammad Ghorbanib and Dietrich Stoyanc a Department

of Mathematics, Universitat Jaume I, Castellón, Spain Department of Mathematics Sciences, Aalborg University, Aalborg, Denmark Institut für Stochastik, TU Bergakademie Freiberg, Freiberg, Germany

Abstract There is an extensive literature on the analysis of point process data in time and in space. However, methods for the analysis of spatio-temporal point processes are less well established. Many spatial processes of scientific interest also have a temporal component that may need to be considered when modelling the underlying phenomenon. The spatio-temporal behaviour analysis is fundamental in areas such as environmental sciences, climate prediction and meteorology, epidemiology, image analysis, agriculture, seismology and astronomy, and so spatio-temporal point processes, rather than purely spatial point processes, must then be considered as potential models. A natural starting point for the analysis of spatio-temporal point process data is to investigate the nature of any stochastic interactions among the points of the process. For these processes, second-order properties play an important role for exploratory and explanatory analysis. Second-order methods provide indeed a natural starting point for such analysis. In this work, kernel estimates of the second-order product density function of a spatiotemporal point process with and without considering first- and second-order spatio-temporal separability are given. The spatio-temporal second-order product density function is of interest as can be used to discriminate amongst several spatio-temporal point structures. Further, the expectation and variance of this estimator are obtained. In addition, as we have developed close expressions for the variance under the Poisson case, we use them to generate the corresponding confidence surfaces. We finally present a simulation study and an application in earthquakes modelling making use of the library stpp and connected Fortran subroutines to R. Keywords and Phrases: Point processes, spatio-temporal separability, second-order intensity-reweighted stationarity, inhomogeneous spatio-temporal K -function, second-order spatio-temporal product density function, confidence surface. References Baddeley, A., Møller , J. and Waagepetersen, R. (2000). Non- and semi-parametric estimation of interaction in inhomogeneous point patterns, Statistica Neerlandica 54: 329–350. Clements, R. A., Schoenberg, F. P., and Schorlemmer, D. (2011). Residual analysis for space-time point processes with applications to earthquake forecast models in California, Annals of Applied Statistics 5(4): 2549–2571. *

Email: [email protected],

20

Chiu, S. N., Stoyan, D., Kendall, W. S. and Mecke, J. (2013). Stochastic Geometry and Its Applications, third edn, John Wiley & Sons. Fiksel, T. (1988). Edge-corrected density estimators for point processes, Statistics 19: 67–75. Gabriel, E. (2013). Estimating second-order characteristics of inhomogeneous spatiotemporal point processes, Methodology and Computing in Applied Probability 16(1): 1–21. Gabriel, E. and Diggle, P. J. (2009). Second-order analysis of inhomogeneous spatio-temporal point process data, Statistica Neerlandica 63: 43–51. Gabriel, E., Rowlingson, B. and Diggle, P. J. (2012). Stpp: Space-time point pattern simulation, visualisation and analysis. R package version 0.2. Ghorbani, M. (2013). Testing the weak stationarity of a spatio-temporal point process, Stochastic Environonmental Research and Risk Assessesment 27: 517–524. Musmeci, F. and Vere-Jones, D. (1992). A space-time clustering model for historical earthquakes, Annals of the Institute of Statistical Mathematics, Kluwer Academic Publishers 44: 1–11. Møller, J. and Ghorbani, M. (2012). Aspects of second-order analysis of structured inhomogeneous spatio-temporal point processes. Statistica Neerlandica 66: 472-491. Møller, J. and Ghorbani, M. (2013). Functional summary statistics for the johnson-mehl model, Technical Report R-01-2013, Department of Mathematical Sciences, Aalborg University. Illian, J., Penttinen, A., Stoyan, H. and Stoyan, D. (2008). Statistical Analysis and Modelling of Spatial Point Patterns, John Wiley and Sons, Chichester. Ogata, Y. (1998). Space-time point-process models for earthquake occurrences, Annals of the Institute of Statistical Mathematics 50(2): 379–402. Ogata, Y. and Zhuang, J. (2006). Space-time ETAS models and an improved extension. Tectonophysics 413(1): 13-23. Ohser, J. (1983). On estimators for the reduced second moment measure of point processes, Mathematische Operationsforschung und Statistik, series Statistics 14: 63–71. Stoyan, D. (1987). Statistical analysis of spatial point processes: A soft-core model and cross-correlations of marks, Biometrical Journal 29: 971–980. Stoyan, D., Bertram, U. and Wendrock, H. (1993). Estimation variances for estimators of product densities and pair correlation functions of planar point processes, Annals of the Institute of Statistical Mathematics 45: 211–221. Stoyan, D., Kendall, W. S. and Mecke, J. (1995). Stochastic Geometry and Its Applications,second edn, Wiley, Chichester. Wand, M. and Ripley, B. (2013). Functions for kernel smoothing for wand and jones (1995). R package version 2.23-10. 21

Zhuang, J., Ogata, Y. and Vere-Jones, D. (2002). Stochastic declustering of space-time earthquake cccurrences, Journal of the American Statistical Association 97: 369–380.

22

GEOSTATISTICAL CLUSTERING AN COMPARISION WITH MAIN MULTIVARIATE CLUSTERING PROCEDURES FOR GEOREFERENCED DATASET Roberto Fustos(1,2,3)

Xavier Emery(1,2)

1 Departament

of Mining Engineering, University of Chile. Mining Technology Center, University of Chile. 3 [ ]CSIRO-Chile International Center of Excellence in Mining and Mineral Processing. [2 ]Advanced

Abstract This paper proposes a method of geostatistical clustering and provides a comparison with multivariate clustering methods applied to georeferenced data. Clustering methods are used to find subsets of observations that are related through a similarity measure, that is, the observations of the same group are similar and very different from observations of other groups. This technique is very important in mining, because it allow the identification of areas with geometallurgical characteristics of interest and also provides support when geological domains are delimited. The geostatistical clustering algorithm is a variant of multivariate clustering, which considers the spatial continuity of regionalized variables based on a modification of the Mahalanobis distance , instead of using the geographic coordinates as additional variables. In this comparison study, we will use the Meuse data collected by Ruud van Rijn and Mathieu Rikken (1993 )(∗) The comparison method is based on observing the groups created by the traditional methods of multivariate clustering and created by geostatistical clustering, obtaining measures of intra and inter-group. Keywords and Phrases: Multivariate geostatistic, Clustering, Mahalanobis distance, Geometallurgical Modelling. REFERENCES Allard D. and Guillot G. Clustering geostatistical data. In Proceedings of the sixth geostatistical conference (2000). Arnaud M., Emery X., De Fouquet C., Brouwers M. and Fortier M. L’analyse krigeante pour le classement d’observations spatiales et multivariée. Revue de Statistique Appliquée. Carme Hervada-Sala and Eusebi Jarauta-Bragulat. A program to perfom Ward’s clustering method on several regionalized variables. Oliver M. and Webster R. A Geostatistical Basis for Spatial Weighting in Multivariate Classification. Pawlowsky V., Simarro G. and Martin J. Spatial cluster analysis using a generalized Mahalanobis distance. In: Proceedings of the third Meeting of the International Association for Mathematical Geology, Barcelona, Spain, pp. 169-174. 23

Rikken M. and Van Rijin R. Soil pollution with heavy metals -an inquiry into spatial variation, cost of mapping and the risk evaluation of copper, cadmium, lead and zinc in the floodplains of the Meuse west of Stein, the Netherlands (1993)(∗) Romary T., Rivoirard J., Deraisme J., Quinones C., and Freulon X. Domainin by clustering multivariate geostatistical data. Geostatistical Oslo 2012, Springer.

24

Clustering a multitude of time series Daniil Ryabko* Abstract The problem of clustering is considered for the case where every point is a time series. The time series are either given in batch (offline setting), or they are allowed to grow with time and new time series can be added along the way (online setting). We propose a natural notion of consistency for this problem, and show that there are simple, computationally efficient algorithms that are asymptotically consistent under extremely weak assumptions on the distributions that generate the data. The notion of consistency is as follows: a clustering algorithm is called consistent if it puts two time series into the same cluster if and only if the distribution that generates them is the same. In the considered framework the time series are allowed to be highly dependent, and the dependence can have arbitrary form. For the case of a known number of clusters, the only assumption we make is that the (marginal) distribution of each time series is stationary ergodic. No parametric, memory or mixing assumptions are made. For the case of unknown number of clusters, stronger assumptions are provably necessary, but non-parametric algorithms consistent under very general conditions are still possible. Keywords: Stationary ergodic, time series, clustering.

*

Email: [email protected],

25

Geostatistical Mixed Beta Regression: A Bayesian approach B. Lagos-Alvarez* ; J. Figueroa - Zúñiga∗ ; R. Fustos-Toribio∗∗ ; F. Torres-Avilés∗ ∗ ∗ ∗ Department

of Statistics, University of Concepción. of Mining Engineering, University of Chile. ∗∗ Advanced Mining Technology Center, University of Chile. ∗∗ CSIRO-Chile International Center of Excellence in Mining and Mineral Processing. ∗ ∗ ∗ Department of Mathematic and Computation Science, University of Santiago of Chile. ∗∗ Department

Abstract This paper is based on recent research that focuses on regression modeling for geostatistical data, with emphasis in proportions measured on a continuous scale. Specifically, it deals with beta regression models with a mixed effect in order to control the spatial variability from a Bayesian approach. We use a suitable parameterization of the beta distribution in terms of its mean and the precision parameter, which allows for both parameters to be modeled through regression structures that may involve fixed and random effects. Specification of prior distributions is discussed, computational implementation via Gibbs sampling is provided, and it is illustrated using simulated data. Keywords: Bayesian analysis; Beta distribution; Beta regression; Continuous proportions; Mixed regression models; Geostatistical models.

*

Email: [email protected], The first author was supported by DIUC grant 213.014.022-1.0, the second author by Fondecyt grant 11130483, third author would like to give thanks to Advanced Mining Technology Center, University of Chile and CSIRO-Chile for having provided the facilities and equipment in which the data were simulated and the fourth author by Fondecyt grant 11110119.

26

Assessing the Spatial Association Between Two Random Fields: A Review Ronny O. Vallejos* Departamento de Matemática, Universidad Técnica Federico Santa María, Valparaíso, Chile.

Abstract In the analysis of spatial data, the quantification of spatial associations between two variables is an important issue, and considerable effort has been devoted to the construction of appropriate methodologies to assess the association between two correlated variables. At least three different approaches to tackle this problem can be found in the literature. First, the coefficients of spatial association that in the same spirit as the usual correlation coefficient provide a measure of the level of association between the variables in the interval [−1, 1]. Second, the problem is assessed from an hypothesis testing approach, mainly transforming the t test in a suitable way to include the spatial information available for each process. Alternatively, a computational method based on permutations and smoothing of the original variables has been suggested to assess the significance of the correlation between two spatial variables. Third, the problem is tackled by assuming that the bivariate process is normal with a specific correlation structure (e.g. bivariate Matérn structure ). Then the association between the components of the bivariate random field can be studied stating an hypothesis testing procedure for a suitable parameter of the covariance function. In this talk we review the methods mentioned above. In addition, existing graphical tools to describe the spatial association between two spatial processes are discussed. Finally, some remarks and an outline of topics to be addressed in future research are given. Keywords: Spatial process, spatial association, hypothesis testing, coefficients of spatial association.

*

Email: [email protected], This work has been funded by Fondecyt grant 1120048.

27

Adaptación espacial en regresión heterocedástica Nora Serdyukova Departamento de Estadística, Universidad de Concepción, Concepción, Chile.

Resumen En el modelo de regresión no paramétrica se tiene que estimar la función de regresión multidimensional cuando el ruido es "heterocedástico". Se propone un nuevo procedimiento adaptativo que aproxima localmente el modelo verdadero par el lineal. Se presenta una desigualdad de ”oráculo” para el procedimiento propuesto.

28

Modelamiento Estadístico del Riesgo Coordinador: Dr. Miguel de Carvalho, Pontificia Universidad Católica de Chile.

29

Adaptive Tapers and Spatio-Temporal Covariances Emilio Porcu Department of Mathematics, University Federico Santa Maria

Abstract We introduce a family of nonseparable space-time compactly supported correlation functions, that we call adaptive tapers. An important feature of the adaptive tapers is that the compact support in space is a decreasing function of the lag in time, therefore the compact support in space becomes smaller when the dependence in time becomes weaker, and similarly when exchanging space and time. We explore covariance tapering combined with maximum likelihood when estimating the covariance model of a space-time Gaussian random field in the case of large datasets. The statistical and computational properties of space-time adaptive covariance tapering are addressed under increasing domain asymptotics. A simulation study and two real data examples illustrate the statistical and computational performances of covariance tapering with respect to the maximum likelihood method using the proposed space-time adaptive tapers. This is joint work with M. Bevilacqua. Modelamiento Estadístico del Riesgo. Sesión Invitada. XI CLATSE 2014. Inauguración de la Sección de Riesgo y Extremos, Sociedad Chilena de Estadística: SOCHE

30

Riesgo y Extremos: Las Lecciones de la Reciente Crisis Económica Miguel De Carvalho Departamento de Estadística, Pontificia Universidad Católica de Chile

Resumen El análisis del riesgo es un tema de amplio interés para la academia y para varios ‘business players’ en la economía mundial. En esta charla revisamos varios modelos de estadística de valores extremos con particular incidencia en sus aplicaciones en el modelamiento y evaluación del riesgo; las ventajas y limitaciones de los varios métodos serán discutidas y ilustradas con ejemplos aplicados. Algunos ‘case studies’ de la reciente crisis económica y financiera, son usados para motivar la necesidad creciente de prácticas de evaluación de riesgo rigurosas y del conocimiento de las limitaciones de las inferencias. La creciente necesidad del desarrollo de modelos estadísticos capaces de modelar riesgos asintóticamente dependientes y asintóticamente independientes, es otro tema de discusión. Modelamiento Estadístico del Riesgo. Sesión Invitada. XI CLATSE 2014. Inauguración de la Sección de Riesgo y Extremos, Sociedad Chilena de Estadística: SOCHE

31

Modelos Estadísticos de Medición de Riesgo Financiero Wilfredo Palma Departamento de Estadística, Pontificia Universidad Católica de Chile

Resumen En esta charla se discutirán diversas metodologías estadísticas para el análisis de riesgo financiero. Se presentarán técnicas para la medición del riesgo asociado a una cartera de instrumentos financieros compuesta de acciones, bonos, divisas u entre activos. Estas metodologías de evaluación de riesgo involucran el uso de herramientas tales como modelos econométricos de heterocedasticidad condicional y modelos de volatilidad estocástica. Asimismo, se discutirán métodos para de evaluación de riesgo comercial y algunos de los diversos indicadores de desempeño de los modelos. Junto con la discusión de los métodos, se presentaran aplicaciones a datos reales. Modelamiento Estadístico del Riesgo. Sesión Invitada. XI CLATSE 2014. Inauguración de la Sección de Riesgo y Extremos, Sociedad Chilena de Estadística: SOCHE

32

Enseñanza de la Estadística Coordinador: Dr. Guido Del Pino, Pontificia Universidad Católica de Chile.

33

Enseñanza de R a distancia para actualización de egresados. Desafíos y oportunidades Esther Hochsztain* Facultad de Ciencias Económicas y de Administracion. Universidad de la República. Uruguay.

Andrómaca Tasistro Agencia de Gobierno Electrónico y Sociedad de la Información (AGESIC). Uruguay

Raúl Ramírez Facultad de Ciencias Económicas y de Administración. Universidad de la República. Uruguay

Resumen No cabe duda que el software libre es cada vez más valorado y requerido en el ámbito de la estadística, así como en tantas otras disciplinas. En este sentido, R es un referente cuyo uso se extiende cada vez más, tanto en diversas técnicas como un aplicaciones cada vez más amplias. Por otra parte, la actualización de egresados presenta particularidades que deben ser contempladas especialmente (falta de tiempo, necesidad ineludible de capacitarse, exigencias de eficiencia y productividad, ser multitarea, desarrollar solos trabajos que en otras épocas requerían equipos, entre otros aspectos). Es por este motivo que muchos egresados necesitan aprender a usar (entre otras herramientas) software estadístico, y en particular software gratuito. El software gratuito agrega la ventaja que el participante del curso puede instalarlo en su lugar de trabajo, sin gastos extras y realizar pruebas con sus propios datos durante el curso. Aplicando prácticamente los conocimientos en el momento que son adquiridos. En este artículo se presenta y analiza la experiencia de varios dictados de cursos de R a distancia en el marco de la actualización de egresados, esencialmente en el área de ciencias económicas y administración. Se muestra la integración de la enseñanza de R por línea de comando con el uso de RCommander y RStudio. Se detallan las características de los materiales autoinstruccionales utilizados, la forma de evaluación, las características de las tareas propuestas, el rol y actitud de los docentes. Asimismo se detallan las características de uso de la plataforma Moodle. Se analizan las nuevas formas de aprendizaje, las formas de lograr un vínculo uno a uno a distancia, la importancia y formas de crear redes a distancia, entre otros aspectos. Palabras claves: R-project, enseñanza a distancia, Moodle, actualización de egresados.

*

Email: [email protected],

34

Propuesta pedagógica para mejorar la capacidad de análisis estadísticos autónomos en estudiantes de Odontología de la Universidad de Talca Gloria Correa Beltrán* Universidad de Talca, Instituto de Matemática y Física

Loreto Nuñez Franz Universidad de Talca, Facultad de Ciencias de la Salud

Resumen En el perfil de egreso de la Carrera de Odontología de la Universidad de Talca se plantea que el profesional desarrolle competencias relacionadas con el área de la investigación. Para ello, en el sexto año de la carrera, los estudiantes en el primer semestre elaboran un Proyecto de Memoria que ejecutan en el segundo semestre. El Programa de Estudios aborda los módulos donde reciben la formación necesaria para esta tarea: Bioestadística Descriptiva, Epidemiología, Bioestadística Inferencial, Proyecto de Memoria y Memoria, sin embargo, en los años anteriores la mayoría de alumnos no han sido capaces de realizar en forma autónoma el Análisis Estadístico de su Memoria. El objetivo de esta propuesta es Capacitar a los estudiantes de sexto año de Odontología de la Universidad de Talca (66 alumnos) a identificar a qué contexto estadístico particular corresponde su proyecto de memoria y realizar los análisis estadísticos en forma autónoma. El módulo “Bioestadística Inferencial” (sexto año) se ha formulado como un curso de “Estadística Aplicada” en el que el énfasis no está en los fundamentos teóricos-matemáticos de los métodos estadísticos, sino en aplicarlos e interpretar los resultados obtenidos mediante software (SPSS, INFOSTAT, Rcmdr). Todas las unidades contemplan uno o más Diagramas de Flujo (DF), estos indican todos los posibles caminos a seguir para tomar la decisión de cuál es el test estadístico idóneo que se debe utilizar en una situación específica. Tradicionalmente en la Enseñanza de la Estadística se abordan los tópicos de manera progresiva desde lo básico a lo complejo. En esta propuesta se sigue el camino a la “inversa”: Al inicio del módulo se explican todos los DF. Los alumnos quedan capacitados para identificar variables, parámetro, hipótesis estadísticas, el DF apropiado y el o los test estadísticos que se podrían aplicar a diversos problemas propuestos. En el resto de las sesiones se abordan los métodos estadísticos en detalles y se profundizan los DF. Los objetivos de esta propuesta serán evaluados en los módulos Bioestadística Inferencial, Proyecto de Memoria y Memoria durante. Los resultados parciales obtenidos son que 64 alumnos lograron identificar a qué contexto estadístico corresponden diversos problemas propuestos. Y 31 alumnos, de los 34 que han solicitado apoyo estadístico a la fecha, han sido capaces de identificar el los análisis estadísticos apropiados a su investigación. Palabras claves: Diagramas de Flujo.

*

Email: [email protected],

35

Invarianza y estadística descriptiva Guido Del Pino M. Pontificia Universidad Católica de Chile

Resumen La importancia del Análisis Exploratorio de Datos reside en su uso para dar respuestas tentativas a un problema que se ha planteado o para detector patrones que sugieran ciertas afirmaciones. Por otro lado, para hacer un análisis exploratorio de datos hay que usar algunas herramientas matemáticas, cuyas definiciones no toman en cuenta el contexto del problema. Al conjunto de tales herramientas lo denominamos Estadística Descriptiva. Como esto se ve como una colección de fórmulas (recetas) aisladas y la matemática empleada se reduce a las cuatro operaciones y a la representación de puntos en la recta o en el plano, esta materia es muy poco atractiva para los profesores y para los alumnos. El objetivo de esta presentación es proveer una estructura unificadora para todas las herramientas mencionadas, a través de los conceptos matemáticos de invarianza y equivarianza con respecto a un grupo de transformaciones. Las únicas transformaciones que se necesitan son las permutaciones (tablas de frecuencia, tablas de contingencia, gráfico de puntos, gráficos de dispersión, etc.) y las traslaciones y los cambios de escala (medidas de tendencia central, de escala y de posición). Las medidas de tendencia central y las medidas de posición son equivariantes con respecto a cambios de localización y de escala, mientras que las medidas de dispersión son invariantes con respecto a cambios de localización y equivariantes con respecto a cambios de escala. Este punto de vista permite resolver dos problemas relacionados (a) Definiciones formales de las medidas de resumen. (b) Métodos para construir nuevas medidas de este tipo. Palabras claves: Estadística descriptiva, distribuciones de frecuencia, medidas de resumen, invarianza, equivarianza.

36

Modelos culturales en la enseñanza de la estadística Lina Wistuba M. Pontificia Universidad Católica de Chile

Resumen Este estudio trata acerca de una indagación para observar los modos culturales de la enseñanza de la estadística en contextos educativos. Se tomaron como muestra los diseños y planificaciones de profesores y diversos materiales educativos existentes en web y en foros, así como también las pautas de algunos ramos de estadística de algunas casas de estudio nacionales y extranjeras (españolas y Latinoamericanas) con el propósito de generar aprendizaje relativo al conocimiento estadístico en la formación docente. Palabras claves: Didactica estadística, cultura

37

Estudio de Clases para el desarrollo profesional docente en Educación Estadística Soledad Estrella* Pontificia Universidad Católica de Valparaíso

Raimundo Olfos Pontificia Universidad Católica de Valparaíso

Resumen La razón de ser de la enseñanza de la Estadística en la escuela es la alfabetización estadística necesaria para que los sujetos en el futuro sean competentes en la sociedad de la información (del Pino y Estrella, 2012). Por ello la Educación Estadística está presente en todos los niveles del currículo escolar (MINEDUC, 2012). Sin embargo, las exigencias de alfabetización estadística estipuladas en el currículo no se condicen con las oportunidades de actualización del profesorado para asumir estos cambios. La literatura internacional señala que los profesores en ejercicio presentan una débil formación en la disciplina Estadística y en su enseñanza (Shaughnessy, 2007; Franklin y Mewborn, 2006). En particular, deja ver que malentienden los propósitos de la enseñanza de la estadística identificándolos con el aprendizaje de reglas para calcular medidas de tendencia y técnicas para representar datos por medio de tablas y gráficos (Ben-Zvi y Sharett-Amir, 2005; Garfield y Ben-Zvi, 2007; Araneda et al, 2011; del Pino y Estrella, 2012). Para que el currículo decretado se implemente verdaderamente en las aulas es imprescindible la actualización de los docentes que enseñan Estadística. El Estudio de Clases (EC) siendo una estrategia de formación continua para el profesorado ha sido citado como un factor clave en la mejora de la enseñanza de las matemáticas en los sistemas educativos (Fernández y Yoshida, 2004; Stigler y Hiebert, 1999). El EC es la principal estrategia de desarrollo profesional en Japón y ha sido adoptado en una variedad de países, particularmente en los países miembros de la APEC, (Fang y Lee, 2009). En Estados Unidos se ha valorado su aporte al mejoramiento de la formación docente (Hart, Alston y Murata, 2011; Lewis et al, 2006). En Singapur, grupos de docentes de escuelas informan que el EC tiene un enorme potencial para movilizar las concepciones docentes y la comprensión del aprendizaje (Yoong, 2011). La evidencia da cuenta que el EC influye en el conocimiento y concepciones de los docentes. Esta presentación muestra evidencias de la implementación del Estudio de Clases en Educación Estadística realizadas por los autores en Chile, tanto en el contexto de proyectos nacionales (Estrella y Olfos, 2013; Estrella et al, 2014) como internacionales (Olfos, 2011; Olfos, Estrella y Morales, 2014). Palabras claves: Estudio de Clases, Didáctica de la Estadística, Educación Estadística.

*

Email: [email protected], Agradecimientos a Proyectos: PIA-05 y APEC S HRD 04 13A.

38

Referencias Araneda, A., del Pino, G., Estrella, S., Icaza, G., y San Martin, E. (2011). Recomendaciones para el currículo escolar del eje Estadística y Probabilidad. Recuperado de soche.cl/archivos/Recomendaciones.pdf Ben-Zvi, D., y Sharett-Amir, Y. (2005). How do Primary School Students Begin to Reason about Distributions? En K. Makar (Ed.), Reasoning about distribution. Brisbane: Queensland. del Pino, G. y Estrella, S. (2012). Educación estadística: relaciones con la matemática. Revista de Investigación Educacional Latinoamericana, Pensamiento Educativo, 49(1), 53-64. Estrella, S., y Olfos, R. (2013). Estudio de Clases para el mejoramiento de la enseñanza de la estadística en Chile. En Educación Estadística en América Latina: Tendencias y Perspectivas, A. Salcedo (Ed.). Universidad Central de Venezuela, 2013. ISBN: 978980-00-2744-8, pp. 167 – 192. Estrella, S., Olfos, R. y Morales, S. (2014). What Can We Learn from Natural Disasters to Prevent Loss of Life in the Future? En Lessons Learned from Across the World-PreK-8. NCTM, National Council of Teachers of Mathematics. VA: NCTM. Fang, Y., y Lee, C. (2010). Lesson study and instructional improvement in Singapore (Research Brief No. 10-001). Singapore: National Institution of Singapore. Fernández, C., y Yoshida, M. (2004). Lesson study: A case of a Japanese approach to improving instruction through school-based teacher development. Mahwah: Lawrence Erlbaum. Franklin, C., y Mewborn, D. (2006). The statistical education of PreK-12 teachers: A shared responsibility. En G. Burrill (Ed.), NCTM 2006 Yearbook: Thinking and reasoning with data and chance (pp. 335- 344). Reston, VA: NCTM. Garfield, J., y Ben-Zvi, D. (2007). How students learn statistics revisited: A current review of research on teaching and learning statistics. International Statistical Review, 75(3), 372-396. Hart, L. C., Alston, A., y Murata, A. (2011). Lesson study research and practice in mathematics education. Netherlands: Springer. Lewis, C., Perry, R., Hurd, J., y O’Connell, M. P. (2006). Lesson study comes of age in North America. Phi Delta Kappan, 88(4), 273–281. MINEDUC (2012). Matemáticas Educación Básica. Bases Curriculares 2012. Santiago de Chile: Ministerio de Educación. Olfos, R. (2011). Lesson Study in Chile: The lesson of a collaboration Program. Fourth APEC - Tsukuba International Conference: Innovation of Mathematics Teaching and Learning. Tokyo, Japan. 39

Olfos, R., Estrella, S. y Morales, S. (2014). Open lessons impact statistics teaching teachers’ beliefs. En K. Makar, B. de Sousa, & R. Gould (Eds.), Sustainability in statistics education. Proceedings of the ICOTS9, Flagstaff, Arizona, USA. Voorburg, The Netherlands: International Statistical Institute. Shaughnessy, J.M. (2007). Research on statistics learning and reasoning. En F. Lester (Ed.), Second handbook of research on mathematics teaching and learning (pp. 957-1009). Greenwich, CT: Information Age Publishing, Inc. and NCTM. Stigler, J., y Hiebert, J. (1999). The teaching gap. New York, NY: The Free Press. Yoong, J. I. (2011, September/October). Let the students tell us how they learn. SingTeach, 32. Recuperado de http://singteach.nie.edu.sg/wp-content/uploads/SingTeach_Issue32.pdf

40

Parte III Minicursos

41

Modelos de Regresión para Datos Censurados con Aplicaciones en R Víctor Hugo Lachos Dávila UNICAMP-BRASIL

Resumen Asumir que las observaciones siguen una distribución normal es una suposición rutinaria en los modelos lineales para datos censurados, como fue visto en Park et al. (2007), Vaida y Liu (2009), Barros et al. (2010), entre otros. Sin embargo, esta suposición puede no ser realista, ocultando características importantes que están presente en los datos. Así, es conveniente considerar familias paramétricas de distribuciones que sean flexibles para capturar una amplia variedad de comportamientos simétricos, que incluyam distribuciones como la Normal, t de Student, slash y normal contaminada como casos especiales y que produzcan estimaciones robustas. En los últimos años, diversos resultados de naturaleza teórica y aplicada surgieron como alternativas a los modelos con errores normales, como por ejemplo un clase de distribuciones simétricas o Elípticas, Fang et al. (1990), o una sub clase de las distribuciones simétricas, como por ejemplo las distribuciones de mixtura de escala normal (SMN), definida por Lange y Sinsheimer (1993). Este tipo de distribuciones ha sido utilizado por muchos autores, como Cysneiros y Paula (2005), Osorio et al. (2007), Cysneiros y Vanegas (2008), Paula y Cysneiros (2009), Russo et al. (2012), entre otros. En este sentido, este curso tiene como objetivo presentar un estudio de inferencia clásica y Bayesiana en modelos lineales para datos censurados (izquierda, derecha o intervalar) sobre distribuciones mas robustas que la normal, esto es, las distribuciones SMN. Desenvolveremos algoritmos de tipo EM y de tipo amostrador de Gibbs para realizar inferencias clásicas y Bayesianas, respecticvamente. Presentaremos Librerias del R para estudiar los modelos censurados sob distribuciones SMN: 1)SMNCensReg, para el conteto clásico e 2)BayesCR para el contexto Bayesiano, quepueden ser instalados e utilizados libremente. Para evaluar la performancia de la metodologia propuesta, serán presentados estudios de simulación y aplicaciones utilizando datos reales. Bibliografía Barros, M., Galea, M., González, M. & Leiva, V. (2010). Influence diagnostics in the Tobit censored ‘ response model. Statistical Methods & Applications, 19, 716–723. Cysneiros, F. J. A. & Vanegas, L. H. (2008). Residuals and their statistical properties in symmetrical nonlinear models. Statistics & Probability Letters, 78, 3269–3273. Fang, K. T. & Zhang, Y. T. (1990). Generalized Multivariate Analysis. Springer. Lange R, Sinsheimer JS (1993) Normal/independent distributions and their applications in robust regression. J Comput Graph Stat 2:175–198. Osorio, F., Paula, G. A. & Galea, M. (2007). Assessment of local influence in elliptical linear models with longitudinal structure. Computational Statistics & Data Analysis, 51, 4354–4368. 42

Park, J. W., Genton, M. G. & Ghosh, S. K. (2007). Censored time series analysis with autoregressive moving average models. Canadian Journal of Statistics, 35, 151–168. Vaida, F. & Liu, L. (2009). Fast Implementation for Normal Mixed Effects Models with Censored Response. Journal of Computational and Graphical Statistics, 18, 797–817.

43

Tópicos de estadística y data mining en Big Data Ernesto Mislej* Socio fundador de 7Puentes y Académico de la Universidad de Buenos Aires

Resumen Las unidades temáticas y ejemplos están motivados mayormente en problemas actuales derivados de la Web, su estructura y en los datos que ésta genera a partir de sitios de noticias, redes sociales, buscadores de internet, sistemas de comercio electrónico, entre otros. Para ello se han diseñado una recopilación de técnicas, algoritmos y problemas agrupado en ejes temáticos. Se dará énfasis a la problemática conocida como Big Data que trata sobre el tamaño de los datos, el modelo de arquitectura y file systems distribuidos de gran escala. Unidades temáticas 1er día: 1) Introducción al Big Data: Introducción a los problemas sobre volúmenes de datos muy grandes (Big Data); arquitectura de datos y file system distribuidos de gran escala y modelo map reduce para diseñar algoritmos paralelos. Principio de Bonferroni, límite estadístico en el data-mining. Paradoja de Rhine, Detección de gente sospechosa Ejemplos +académicos 2) Similitud de items: Métodos de búsqueda de items por similitud. Indicador de Jaccard sobre conjuntos y bags, similitud de documentos. Técnica de Shingling de documentos, Minhashing y hashing localmente sensible. Aplicaciones: detección de plagio, signature de documentos. 3) Data Mining sobre flujo de datos Modelo de Stream Data. Ejemplos de orígenes de datos del tipo stream. Técnicas de sampling y filtrado. Bloom filtering. Problema de estimación de eventos distintos, estimador de Flajolet-Martin y otros algoritmos. Problema de almacenamiento, procesamiento, óptimo y estimados. 2do día: 4) Análisis de grafos de relaciones: Estudio de los fundamentos de los buscadores de In- ternet modernos, Google’s PageRank, Hubs y autoridades, link spam farm y otros problemas. Reconocimiento de líderes de opinión y eminencias en redes sociales 5) Sistemas de recomendación Introducción a los sistemas de recomendación. Matriz de utilidad, Long tail. Aplicaciones. Sistemas basados en contenido. Representación de los items, los usuarios y los votos. Filtros colaborativos. Similitud de items y usuarios, coldstart. Factorización de matrices. Modelos basados en conocimiento y modelos híbridos. Modelos de obtención del feedback. Evaluación. Bibliografía http://infolab.stanford.edu/ ullman/mmds.html Jure Leskovec, Anand Rajaraman, Jeff Ullman Descarga gratuita: http://infolab.stanford.edu/ ullman/mmds.html *

Email: [email protected],

44

Estadística Genética: herramientas y modelos para el análisis de información genética de alta dimensionalidad Lucía Gutiérrez Departamento de Estadística, Facultad de Agronomía, Universidad de la República

Resumen El mini-curso se enfoca en las herramientas y los modelos utilizados para el análisis de información genética de alta dimensionalidad. Se cubrirá la teoría de los métodos de mapeo de caracteres cuantitativos complejos (mapeo de QTL) y la predicción genómica incluyendo la utilización de modelos mixtos, aplicaciones prácticas y el uso de software libre (R). Se realizará una introducción al mapeo de QTL en poblaciones balanceadas (QTL tradicional) que luego se extenderá al mapeo en poblaciones amplias (GWAS) y se describirá el uso de modelos de predicción genómica. Se cubrirán diferentes estrategias para controlar por la estructura poblacional incluyendo diferentes métodos para determinar estructura, así como diferentes modelos para corregir por estructura. Se presentaran modelos mixtos con interacción genotipo por ambiente y QTL por ambiente, así como modelos mixtos para el control de la estructura poblacional. Antecedentes: El mapeo con poblaciones bi-parentales (o Mapeo de QTL Tradicional) se basa en la construcción de poblaciones balanceadas, sobre las que se conoce la historia de recombinación. Luego se busca una asociación entre un marcador molecular y un QTL (Hartl and Clark, 1998). Se espera que esta asociación estadística esté relacionada con un ligamiento físico (i.e. que el marcador se encuentre cercano físicamente en el genoma al QTL asociado) debido a que es conocido el número de meiosis ocurridas en la creación de la población. A su vez se pueden estimar efectos de QTL entre marcadores a partir del cálculo de las probabilidades condicionales de los QTL dados los marcadores y el tipo de población. El Mapeo Asociativo (o GWAS) también se basa en la identificación de una asociación entre un marcador molecular y un QTL (Hartl and Clark, 1998). Sin embargo, debido a que las poblaciones que se usan son muy diversas y se desconoce su historia de recombinación, se puede asumir que el ligamiento físico no es la única causa del desequilibrio de ligamiento. El desequilibrio de ligamiento se puede generar debido a diversas condiciones como son la estructura poblacional, la selección, las mezclas poblacionales, y otras causas evolutivas (Jannink et al., 2001). Por lo tanto, en el mapeo asociativo por desequilibrio de ligamiento es importante controlar las asociaciones espurias que se puedan generar debidas a estructura poblacional. El GWAS tiene algunas ventajas respecto al uso de poblaciones bi-parentales entre las que se encuentran: 1) evaluación de colecciones genéticamente diversas de germoplasma; 2) mayor resolución de mapeo; 3) utilización de información histórica; 4) aplicación directa al mejoramiento genético de plantas (Kraakman et al., 2004; (Dekkers and Hospital, 2002; Yu and Buckler, 2006)). Esta metodología se ha utilizado en gran medida en plantas (Kraakman et al., 2004; 2006; Hayes and Szücs, 2006; Stracke et al., 2009; Waugh et al., 2009; Roy et al., 2010; Bradbury et al., 2011; von Zitzewitz et al., 2011; Gutierrez et al., 2011). Para el mapeo de QTL se utilizan modelos con mezclas de distribuciones ((Lander and Botstein 1989), regresiones lineales (Haley and Knott 1992; Martínez and Curnow 1992) y modelos mixtos (Piepho 2000). 45

También existen modelos bayesianos (Bink et al. 2002; Yi and Shriner 2008). Las ventajas relativas de los diferentes modelos dependen del tipo de población utilizada, del control de la estrucutra poblacional y si se intenta modelar la interaccion genotipo por ambiente. Por otro lado, los estudios de QTL tienen un poder limitado, por lo que no es posible identificar todos los QTL involucrados en un carácter determinado. En general se identifican los QTL de efectos mayores que pueden pasar los niveles de significancia impuestos y en consecuencia los QTL de efectos menores no son identificados en la mayoría de los casos. Esto es conocido como el “Beavis effect” (Beavis, 1998) y genera dos problemas, en primera instancia que el número de QTL identificados sea menor que el existente, y en segundo lugar, que el efecto de los QTL sea sobre-estimado (Bernardo, 2010). Para superar esta limitante es que se propusieron alternativas de selección genómica (GS por su sigla en inglés: Genomic Selection, Meuwissen et al., 2001) en la que no se hace énfasis en los marcadores que superaran un determinado nivel de significancia sino que se utilizan todos los marcadores para realizar una predicción del fenotípico que es directamente utilizada en el programa de mejoramiento. GS es una herramienta que permite la predicción de caracteres complejos basadas en el estado alélico de los marcadores moleculares (Heffner et al., 2009). Existe una gran diversidad de modelos para predicción genómica ((Meuwissen et al., 2001; Gianola et al 2006; Bernardo and Yu 2007; Lorenzana and Bernardo, 2009; de los Campos et al., 2012): modelos basados en los BLUP obtenidos de modelos mixtos (RR-BLUP o G-BLUP), modelos bayesianos con diferentes distribuciones a priori (Bayesian LASSO, Bayesian-RR, Bayes A,B,C, etc.) y modelos semi-paramétricos (RKHS, PNN, etc.). A su vez, los caracteres complejos que en general son objetivos de los programas de mejoramiento genético muestran típicamente interacción genotipo por ambiente (Mathews et al., 2008). Los modelos mixtos han sido utilizados para el estudio de la interacción Genotipo x Ambiente modelando la estructura de varianzas y covarianzas, así como QTL x Ambiente (QEI) (Piepho 2000; Verbyla et al., 2003; Malosetti et al., 2004; van Eeuwijk et al., 2005; Boer et al., 2007; Mathews et al., 2008). Sin embargo, estos modelos no han sido utilizados en poblaciones amplias (GWAS).

46

Taller de Enseñanza de la Estadística en Educación Media Ana María Araneda Levy Pontificia Universidad Católica de Chile

Resumen Este taller está dirigido a profesores de Matemáticas de Enseñanza Media que deseen actualizar sus conocimientos en Estadística y Probabilidad para su enseñanza. El taller propone esta enseñanza basada en actividades replicables en aula, que serán desarrolladas por los asistentes para su posterior análisis y formalización de conceptos desde el punto de vista teórico. Las actividades se desarrollarán en base a datos, ya sea recolectados en el momento por los asistentes, u obtenidos a través de simulaciones que utilizan aplicaciones factibles de llevar al aula escolar. La modalidad se focaliza en el desarrollo tanto del conocimiento común de la estadística, como del conocimiento especializado que debe poseer un profesor a nivel escolar para lograr aprendizajes significativos en aula.

47

Parte IV Trabajos orales

48

Fully nonparametric regression models for compositional data using dependent Bernstein polynomials Alejandro Jara* Andrés F. Barrientos Department of Statistics, Pontificia Universidad Católica de Chile.

Abstract Models for probability distributions based on convex combinations of densities from parametric families underly mainstream approaches to density estimation, including kernel techniques, nonparametric maximum likelihood and Bayesian nonparametric (BNP) approaches. From a BNP point of view, the mixture model provides a convenient set up for density estimation in that a prior distribution on densities is induced by placing a prior distribution on the mixing measure. On the real line, a mixture of normal densities induced by a Dirichlet process (DP) is often used to model smooth densities. Due to the flexibility and ease in computation, these models are now routinely implemented in a wide variety of applications. While the normal kernel is a sensible choice on the real line, its usefulness is rather limited when considering densities on convex and compact subspaces, suchPas the closed unit interval or the m–dimensional simplex ∆m = {(y1 , . . . , ym ) ∈ [0, 1]m : m i=1 yi ≤ 1}. Although methods based on the normal kernel could be used to deal with data supported on these spaces, by using transformations, the resulting model is susceptible to boundary effects. Motivated by its uniform approximation properties, frequentist and Bayesian methods based on univariate Bernstein polynomials (BP) and more general discrete mixtures of beta distributions have been proposed for the estimation of probability distributions supported on bounded intervals. Extensions based on multivariate BP (MBP) defined on the unit hyper-cube have been considered in the statistical literature. Multivariate extensions of Bernstein polynomials defined on ∆m were considered by Tenbusch (1994. Metrika, 41: 233 – 253), to propose and study a density estimator for the data supported on ∆2 . Although Tenbusch’s estimator is consistent and optimal at the interior points of the simplex, it is not a valid density function for finite sample size. We discuss Bayesian nonparametric procedures for fully nonparametric regression for data supported in a m–dimensional simplex ∆m . The procedures are based on modified classes of multivariate Bernstein polynomials. We show that the modified classes retain the well known approximation properties of the classical versions defined on [0, 1]m and ∆m , m ≥ 1. Based on these classes, we define prior distributions on the space predictor-dependent collections of probability measures defined on ∆m , P(∆m )X , where X ⊆ RP is the predictors spaces. Appealing theoretical properties such as support, continuity, marginal distribution, correlation structure, and consistency of the posterior distribution are studied. Keywords: Simplex; Random Bernstein polynomials; Dependent Dirichlet processes.

*

Email: [email protected] A. Jara’s research is supported by Fondecyt grant 1141193. The work of A.F. Barrientos is supported by Fondecyt grant 3130400.

49

Estimación en el modelo de regresión lineal con errores no normales: secante hiperbólica generalizada Alvaro Alexander Burbano Moreno* Facultad de Ciencias. Depto Estadística, Universidad Nacional de Colombia Sede Bogotá.

Oscar Orlando Melo Martinez** Facultad de Ciencias. Depto Estadística, Universidad Nacional de Colombia Sede Bogotá.

Resumen En un modelo de regresión lineal del tipo y = θx + e, a menudo se asume que los errores ei , 1 ≤ i ≤ n son idd (independientes e idénticamente distribuidos) con distribución normal N (0, σ 2 ). Sin embargo, hay muchas situaciones de la vida real en las cuales es evidente que la respuesta no es normal. Por ejemplo, existen aplicaciones donde la respuesta es binaria (0 o 1) y, por ello, su naturaleza es de Bernoulli. Otras veces, cuando la respuesta mide los tiempos de vida o los tiempos de reacción, los errores normalmente tienen una distribución sesgada. Por lo tanto, en este trabajo se asume que los ei tienen una distribución Secante Hiperbólica Generalizada (SHG)(Vaughan 2002). Esta se compone de distribuciones simétricas tanto de cola corta y larga con curtosis que van desde 1,8 a 9 e incluye la logística como un caso particular, la uniforme como un caso límite y se aproxima estrechamente a las distribuciones normal y t de Student. Debido al amplio tipo de distribuciones que pueden ser consideradas, la SHG puede utilizarse eficazmente en la modelización de diferentes tipos de datos. Las ecuaciones de verosimilitud para la SHG son insolubles y resolverlas por interacción puede ser problemático (Barnett 1996a, Vaughan 1992, Tiku et al. 2004). Si los datos contienen valores atípicos, las interacciones con las ecuaciones de verosimilitud son a menudo no convergentes (Puthenpura & Sinha 1986). Para mitigar estas dificultades, se puede utilizar el método de máxima verosimilitud modificada (M V M ) (Tiku & Suresh 1992, Tiku 1967a), donde los estimadores obtenidos, tienen formas algebraicas explícitas y son, por lo tanto, fáciles para calcular y se sabe que tienen las propiedades bajo las condiciones de regularidad habituales para la existencia de los estimadores de M V (máxima verosimilitud). En este sentido, este trabajo tiene como objetivo presentar un estudio del modelo lineal clásico con el supuesto de la distribución SHG de error, y emplear el método de estimación de M V M para una serie de datos. Palabras claves: Distribución Secante Hiperbólica Generalizada, Modelo lineal clásico, Verosimilitud modificada, Mínimos cuadrados.

* **

Email: [email protected] Email: [email protected]

50

Optimización de Procesos Alimentarios con diseños experimentales de una mezcla seca de polvo de cacao mediante la metodología de superficie de respuesta Alfonso Tesén Arroyo* Elena Gabriela Chau Loo Kung 2 Universidad

Católica Santo Toribio De Mogrovejo, Chiclayo Perú

Jenny del Carmen Valdez Arana 3 Universidad

Agraria La Molina, Lima Perú

Resumen El presente trabajo de investigación tuvo como objetivo optimizar la aceptabilidad general mediante pruebas afectivas y metodología de superficie de respuesta de una bebida a base de una mezcla seca de polvo de cacao. Se obtuvieron formulaciones de mezclas de polvo de cacao con diferentes concentraciones del 15 %, 17,5 % y 20 %, así mismo con concentraciones de lecitina de 0,1 %; 0,3 %; y 0,5 % manteniendo constante el contenido de azúcar (25 %), vainillina (1 %) que incluyeron al polvo de cacao con diferente valor de pH: natural (pH 5) y alcalinizado (pH 6,5 y pH 8) y agua por diferencia al 100 %, generándose un total de quince tratamientos a evaluar, según el diseño Box-Behnken para tres factores. Los tratamientos fueron sometidos a pruebas de grado de satisfacción para establecer la aceptabilidad en general. El tratamiento que incluía polvo de cacao al 17,5 % de concentración, pH 6,5 y una concentración de lecitina de 0,3 % obtuvo los mejores niveles de aceptabilidad. Se utilizó el programa Statgraphics Plus 5.1 para obtener el tratamiento con máxima aceptabilidad que correspondió a polvo de cacao a pH 6,81, con una concentración de 18,24 % y lecitina de soya en un 0,28 % con tendencia a lo obtenido en las pruebas de grado de satisfacción. Finalmente se caracterizó fisicoquímicamente y microbiológicamente a la formulación óptima así mismo se le evaluó sensorialmente obteniendo una aceptabilidad de 6,17. Palabras claves: Mezclas, Sensorial, Optimización, Superficie de Respuesta

*

Email: [email protected],

51

Proceso analítico jerárquico aplicado en la toma de decisiones de nuevos productos Alfonso Tesén Arroyo* Universidad Nacional Pedro Ruiz Gallo de Lambayeque Perú.

Resumen A medida que aumenta la complejidad de nuestro mundo, se hace más difícil tomar decisiones informadas e inteligentes. Con frecuencia, estas decisiones han de tomarse con un conocimiento imperfecto de la situación y un grado considerable de incertidumbre. Sin embargo, las soluciones pertinentes son esenciales para nuestro bienestar e incluso para nuestra supervivencia; por tal motivo, el presente trabajo de investigación, tiene como objetivo la aplicación del Proceso Analítico de Jerarquias (PAJ) ( o AHP, de Analitic Hierarchy Process), esta técnica fue desarrollado por Thomas L. Saaty, diseñado para resolver problemas complejos que tienen criterios multiples para la toma de decisiones sobre todo en la investigación de mercados. La aplicación se realizara paso a paso con el Excel y posteriormente mediante un Software especial elaborado exclusivamente para esta técnica por el ponente. El Proceso Analítico de Jerarquías es muy parecida al Análisis Conjunto que trata de determinar la importancia relativa que los consumidores dan a los atributos sobresalientes y las utilidades que dan a los niveles de los atributos. La aplicación de esta técnica es de mucha importancia para cualquier profesional que tenga que tomar decisiones sobre todo en la creciente incertidumbre que cada día tiene que afrontar un gerente o cualquier hombre de negocios. Palabras clave: Toma de Decisiones Proceso analítico de procesos, análisis conjunto

*

Email: [email protected]

52

El proceso de investigación econométrica (PIE) Alfredo Mario Baronio Universidad Nacional de Río Cuarto – Universidad Nacional de Villa María

Ana María Vianco* Universidad Nacional de Río Cuarto

Resumen El Análisis de Clusters es una técnica descriptiva de clasificación no supervisada que permite clasificar objetos en grupos homogéneos siguiendo un criterio de similitud. Así, los grupos obtenidos contienen objetos que son similares en su interior y disímiles entre grupos. Existe una vasta literatura, incluyendo varios algoritmos de clasificación y criterios de similitud, que tratan el caso en que los objetos son representados por un vector de medidas. En esta aplicación se presentan los resultados de un Análisis de Cluster en el cual los objetos son representados mediante funciones. Este tipo de datos de naturaleza infinita son estudiados por la rama de la estadística conocida como Análisis de Datos Funcionales. Entre los problemas a tratar se encuentra la representación de los datos y el uso de un criterio de similitud consistente con la naturaleza de los objetos funcionales. El trabajo está guiado por el análisis a la demanda de energía eléctrica en Uruguay. El objetivo es obtener un agrupamiento que permita describir e interpretar diferencias de comportamiento en la demanda diaria de energía eléctrica a nivel del sistema eléctrico. Los objetos con los que se trata son trayectorias de procesos estocásticos que se representan como funciones del tiempo. La no estacionariedad del proceso subyacente introduce una dificultad adicional. Se exploran diversas estrategias de pre-procesamiento de los datos funcionales en esta situación y se comparan diferentes algoritmos de clustering y nociones de disimilitud entre los objetos funcionales. Palabras claves: análisis de datos funcionales; clustering ; medidas de disimilaridad

*

Email: [email protected],

53

Modelos multiniveles de series autorregresivas funcionales Benjamín J. Castillo Fierro* Resumen Es común de hoy en día el aplicar los modelos propuestos por Box y Jenkins para la estimación de todo tipo de series, sin embargo la aplicación se limita al uso habitual del concepto de datos como un punto y no a una visión funcional de ésta. Más aún, la perspectiva de datos que son recolectados en relación a estratos tal como un modelo jerárquico lineal no es de uso común y por ende se pretende difundir el uso de esta metodología a nuevas áreas de estudio. Los conceptos de autorregresivo y de media móvil pueden ser fácilmente extrapolados a un texto funcional reconociendo la naturaleza métrica de éstos. De manera similar, los modelos multinivel son de fácil reconocimiento y utilización, lo que amplía su uso en distintas áreas de estudio. A modo de ejemplo se pretende representar el estudio mediante un breve ejemplo en la Bolsa de Comercio de Santiago el uso de series de tiempo funcionales en niveles de transacciones accionarias. La elección no estándar de la métrica asociada es un punto que se verá puede traer grandes beneficios al momento de elegir un portafolio de inversión. Palabras claves: Datos funcionales, Modelos multinivel funcionales, autorregresivo, medias móviles, Bolsa de Comercio de Santiago.

*

Email: [email protected],

54

Análisis de componentes principales funcionales aplicados a opciones desestacionalizadas del IGPA Benjamín J. Castillo Fierro* Departamento de Estadística, Universidad del Bío-Bío.

Miguel Yañez Alvarado Departamento de Estadística, Universidad del Bío-Bío.

Mauricio Gutierrez Urzua Departamento de Economía y Finanzas, Universidad del Bío-Bío.

Resumen El estudio de datos funcionales ha crecido enormemente en estos últimos años, no tan solo por su versatilidad sino que además por el notable crecimiento de la potencia computadoriza. El análisis de series vistas del punto de vista como datos funcionales no es nada nuevo. Más aún, en las distintas opciones de desempeño económico agrupadas en un índice es de uso iterativo, en esta propuesta es de tipo funcional ajustada no a el valor de opción sino que a la serie desestacionalizada mediante el método X-13 ARIMA. Esto para evitar el efecto calendario. El uso de la métrica es tema de estudio así como el del criterio de corte al momento de decidir la cantidad de grupos a estudiar. El seguimiento de las componentes principales corresponde a una agrupación de mínima diferencia métrica que distingue las oscilaciones propias de cada activo y su influencia en el IGPA. Las correlaciones métricas se distinguen y se explican en relación a su peso en el mercado y volumen transado. Palabras claves: IGPA, datos funcionales, componentes principales funcionales, métrica, X-13 ARIMA, efecto calendario.

*

Email: [email protected],

55

Small sample properties of Dirichlet process mixture models for data supported on compact intervals Claudia Wehrhahn* Alejandro Jara Andrés F. Barrientos Pontificia Universidad Católica de Chile.

Abstract Bayesian nonparametric (BNP) procedures have been the focus of a large amount of research in recent years. They offer a highly flexible model-based framework when the parameter space is infinite dimensional. For instance, in a single density estimation problem the parameter space corresponds to the collection of all the probability measures defined on a given measurable space (S, S), such that they have density function w.r.t. Lebesgue measure, P(S). In this setting, a BNP model corresponds to a prior distribution defined on P(S), which is expected to satisfy minimal desirable properties: the topological support should be large and the induced posterior distribution given a sample of observations should be tractable and consistent. The consistency properties of BNP models for single density estimation have been extensively studied from both Bayesian and frequentist points of view. In a frequentist context, we say that a posterior distribution is d-consistent at P0 ∈ P(S) if, for every  > 0, l´ım Π {P ∈ P(S) : d(P, P0 ) <  | X1 , . . . , Xn } = 1

n−→∞

where d is a metric on P(A) and Π{· | X1 , . . . , Xn } is the posterior distribution given the random sample X1 , . . . , Xn , drawn from P0 . If consistency holds, another frequentist large sample property of interest is the rate at which the posterior distribution concentrates around the true P0 , referred to as the posterior convergence rate. We say that a posterior distribution converges to P0 with rate n if, for some sufficiently large constant M , l´ım Π {P ∈ P(A) : d(P, P0 ) < M n | X1 , . . . , Xn } = 1,

n−→∞

where n is a sequence that converges to zero when n goes to infinity. Posterior convergence rates have been derived for most BNP models and in a wide variety of contexts, and they have became the standard criteria for model selection; the faster the rate, the better the model. The extremely weak conditions under which many BNP models have been shown to have optimal rates of convergence might well trap the unwary into a false sense of security, by suggesting that the best estimates can be obtained from the rate-optimal BNP models in a wide range of settings and for every sample size n. Unfortunately, the use of asymptotic justifications for modelling selection could lead to the choice of models poorly suited for *

Email: [email protected], The work of the first author is supported by Conicyt. The work of A.F. Barrientos is supported by Fondecyt grant 3130400. A. Jara’s research is supported by Fondecyt grant 1141193.

56

“small” datasets. The overriding problem is that rate-optimal models are not uniformly the best with respect to the posterior mass assigned around the true for every sample size. In this work we study the small sample properties of two BNP models for single density estimation. Both models correspond to Dirichlet process mixture (DPM) of beta models and have different posterior convergence rates. Specifically, we consider the Bernstein-Dirichlet prior proposed by Petrone (1999. Scandinavian Journal of Statistics, 26: 373–393) and the DPM of mixtures of beta models proposed by Kruijer & Van der Vaart (2008. Journal of Statistical Planning and Inference 138: 1981–1992). Under the Hellinger metric, the posterior distribution of the Bernstein-Dirichlet prior and the DPM of mixtures of beta models is minimax suboptimal and optimal, respectively. Here, it is assumed that P0 is a probability measure with density function w.r.t. the Lebesgue measure belonging to a Hölder class with α-regularity of at most α = 1. The comparison of the model is performed using simulated data under different scenarios, sample sizes and considering different metrics. The results show that the suboptimal model outperformed the optimal one in most cases. Keywords: Bayesian nonparametrics, density estimation, frequentist asymptotics.

57

Predictor-dependent modeling for bivariate extremes D. A. Castro* Pontificia Universidad Católica de Chile, Chile.

M. De Carvalho Pontificia Universidad Católica de Chile, Chile.

J. L. Wadsworth University of Cambridge, UK.

Abstract The spectral density plays a key role in bivariate extremes, allowing us to understand how extremes in one variable are related to those in another one. The limiting joint distribution of two extremes that characterized the dependence structure has a nonparametric form. We propose a regression model for the spectral density of a bivariate extreme value distribution that allows us to assess how extremal dependence evolves over a certain covariate. A simulation study and a data application are given. Keywords: Bivariate extremes values, Predictor-dependent probability measures, Spectral measure, Statistics of extremes.

*

Email: [email protected],

58

Determinantes de la probabilidad de aportar al Sistema de Seguridad Social del Paraguay Diego Bernardo Meza Bogado* Facultad de Ciencias Exactas y Naturales. Universidad Nacional de Asunción. Paraguay

María Cristina Martín Facultad de Ciencias Exactas y Naturales. Universidad Nacional de La Pampa. Argentina

Resumen El Paraguay se caracteriza por un bajo grado de cobertura de la previsión social. Según resultados de la Encuesta Permanente de Hogares del año 2011 (EPH 2011), publicados por la Dirección General de Encuestas Estadísticas y Censos (DGEEC), solo el 25,6 % de los trabajadores asalariados cotizan a alguna caja de jubilación. Esta característica es debida al elevado índice de evasión al sistema, resultante de la deficiente calidad de los servicios ofrecidos y de la poca efectividad del control y seguimiento de los mecanismos de percepción de los aportes. Teniendo como uno de los objetivos fundamentales establecer recomendaciones para la evaluación y diseño de políticas de gobierno que permitan ampliar el bajo nivel de cobertura que el país tiene actualmente, en este trabajo se analizan los determinantes de la probabilidad de aportar al Sistema de Seguridad Social del Paraguay, a partir ciertas características sociodemográficas de los trabajadores del sector privado y de algunas variables económicas. Utilizando la base de datos de la EPH 2011, luego de aplicar el Modelo Logit Binario y la técnica Stepwise para seleccionar las variables que componen el modelo final, se concluye que hay indicios para afirmar que la educación, el nivel de ingresos, los años de experiencia de los trabajadores, además del tamaño de la empresa donde trabaja y la rama de actividad inciden fuertemente en la probabilidad de aportar al Sistema de Seguridad Social. El análisis descriptivo también permite observar que los empleados que trabajan en empresas pequeñas de la rama de agricultura o construcción, con salarios bajos y pocos años de experiencia, son los más afectados por el trabajo sin cobertura de jubilación. De igual manera, de los resultados de los cocientes entre los cocientes odd, se puede destacar que las personas que trabajan en empresas con muchos empleados (empresas grandes) tienen una ventaja hasta 11 veces superior, con respecto a la probabilidad de aportar que tienen aquellas personas que trabajan en empresas de 2 a 5 empleados (pequeñas empresas). Asimismo, las personas con ingresos altos tienen probabilidad de aportar 16 veces mayores que los empleados con salarios bajos. Clasificando a los individuos con probabilidad de aportar mayor a 0,53 como aportantes a una caja, se obtiene para el modelo que la máxima Tasa de Aciertos es igual a 81,88 %, por lo que la capacidad predictiva del modelo matemático propuesto es buena. Similarmente, el valor del área bajo la curva ROC, igual a 0,872, permite considerar que el modelo tiene capacidad de discriminación elevada. Finalmente, el modelo propuesto ha sido validado mediante el análisis de los residuos. Sólo el 2,1 % de estos residuos ajustados están fuera del intervalo ±2, pero ninguno de estos errores es potencialmente influyente en el modelo. Palabras claves: Seguridad social, Determinantes de la probabilidad de aportar, Modelo Logit, Técnica Stepwise. *

Email: [email protected],

59

Modelo Destructivo de Poisson Ponderado con fracción de cura y efectos aleatorios: enfoques Clásico y Bayesiano. Diego Ignacio Gallardo Mateluna* Heleno Bolfarine Antonio Carlos Pedroso de Lima Instituto de Matemática e Estatística - Universidade de São Paulo.

Resumen En este trabajo incluímos efectos aleatorios en el modelo destructivo de Poisson Ponderado con fracción de cura propuesto en Rodrigues et al. (2011). Para la estimación de parámetros, consideramos un enfoque clássico basado en el método de máxima verosimilitud restringida (REML) propuesto en McGilchrist and Yau (1995) y un enfoque Bayesiano a través de distribuciones a priori basadas en Procesos de Dirichlet (Ferguson, 1973). Son presentados estudios de simulación para evaluar el desempeño del modelo propuesto e ilustrado con una base de datos real. Palabras claves: Restricted maximum likelihood (REML), Procesos de Dirichlet, Riesgos competitivos, Modelos con fracción de cura.

*

Email: [email protected], Financiado por Fundação de Amparo à pesquisa de São Paulo (FAPESP).

60

Improving Shewhart-type Generalized Variance Control Charts for Multivariate Process Variability Monitoring using Cornish-Fisher Quantile Correction, Meijer-G Function and Other Tools Emanuel Pimentel Barbosa* ,Mario A. Gneri, Ariane Meneguetti Departamento de Estatística, IMECC-UNICAMP, Campinas, SP, Brazil

Abstract This paper presents an improved version of the Shewhart-type generalized variance |S| control chart for multivariate Gaussian process dispersion monitoring, based on the CornishFisher quantile formula for non-normality correction of the traditional normal based 3-sigma chart limits. Also, the exact sample distribution of |S| and its quantiles (chart exact limits) are obtained through the Meijer-G function (inverse Mellin-Barnes integral transform), and an auxiliary control chart based on the trace of the standardized S matrix is introduced in P order to avoid non detection of certain changes in the process variance-covariance matrix. The performance of the proposed CF-corrected control chart is compared, considering false alarm risk (using analytical and simulation tools), with the traditional normal based chart and with the exact distributed based chart (for dimensions d=2 and d=3). This study shows that the proposed control limit corrections do remove the drawback of excess of false alarm associated with the traditional normal based |S| control chart. The proposed new chart (with its corresponding auxiliary chart) is illustrated with two numerical examples. Keywords: Cornish-Fisher, False Alarm, Generalized Variance, Multivariate Process, Variability Monitoring.

*

Email: [email protected], Adress correspondence to Emanuel P. Barbosa, IMECC, UNICAMP, Barão Geraldo, 13083-859, Campinas, SP, Brazil

61

La Determinación de la Dispersión de una Variable en una Población Desconocida Ernesto A. Rosa* Departamento de Metodología, Estadística y Matemática Universidad Nacional de Tres de Febrero (UNTREF)

Resumen En los casos de estudios estadísticos sobre variables cuantitativas, las medidas de mayor importancia son usualmente el Promedio y el Desvío Estándar (DE) o la Variancia. El Promedio, debido a que es el objeto usual de los métodos inferenciales (estimación o verificación), y el DE debido a que se constituye en un valor necesario para la aplicación de los métodos. Efectivamente, el Desvío Estándar de una Distribución de Frecuencias (o de una Función de Probabilidad que genera los datos), no es por lo general el objeto directo de los trabajos inferenciales de Estadística, sino que su importancia reside en que las aplicaciones de los métodos de Estadística Inferencial, requieren usualmente el conocimiento de su valor, para incluirlo dentro de los modelos de estimación, verificación de hipótesis, cálculo de tamaño de muestras, etc. Esta situación plantea una de las dudas que generaron este trabajo: ¿ Qué sucede cuándo se desconoce la dimensión de la Dispersión de una distribución, y se debe realizar con la misma algún trabajo de inferencia estadística sobre el Promedio o el Total de una población ? Para paliar ese desconocimiento, usualmente se realizan algunos “supuestos previos” o se recurre a “cifras anteriores” o a “sondeos pilotos”, mediante los cuales se determinan los valores necesarios para su aplicación en los modelos inferenciales. Otra solución usual, es utilizar la Amplitud (A) de la Distribución o función, para tener con ella alguna idea de la dispersión de la variable, y estimar indirectamente el valor del necesario DE. Estas soluciones a las que se recurre usualmente en la práctica, motivan las dudas principales tratadas en este Proyecto: ¿ Son correctas estas soluciones para disponer de algún valor de la Dispersión ? ¿ Cuánto puede influir en el trabajo inferencial una incorrecta adjudicación de un valor de Dispersión ? Para responderlas se propuso la realización de este Proyecto en el marco de las investigaciones de la UNTREF durante 2012 y 2013, en el que finalmente la tarea principal, consistió en calcular y comparar los resultados de los DE y las A de una importante cantidad de Funciones de Probabilidad y Distribuciones de Frecuencias. Palabras claves: ispersión, Muestreo, Inferencia Estadística

*

Email: [email protected],

62

Forecasting High Frequency Time Series by using Machine Learning Erick López1* , Héctor Allende1,2 1 Universidad 2 Universidad

Técnica Federico Santa María, Dept. de Informática, Valparaíso - Chile. Adolfo Ibañez, Facultad de Ingeniería y Ciencias, Viña del Mar - Chile.

Abstract The ACM-ACD model, proposed by Russell and Engle [2005], models high frequency financial time series using mainly two characteristics: the time series are irregularly spaced on time and the price changes between consecutive prices takes discrete values. However, the model imposes some distributional assumptions and is over-parametrized. In this work, we propose a technique to model high frequency time series by using the ACM-ACD approach and machine learning methods, such as Support Vector Machines (SVM) and Feedforward Artificial Neural Networks (FANN). First, the duration between transactions, {τi }i=1,...,T , are modeled by a multilayer network (FANN) or a Support Vector Regression (SVR) model; after that, the price changes, {yi }i=1,...,T , which are discrete values, are modeled by a support vector machine. Steps in forecasting process are: τˆT +1 is forecasted, using this prediction add its history, then yˆT +1 is forecasted. The IBM’s intraday series (January, 1994) was used to measure the performance of the proposed model. The proposed method was compared with the classical ACM-ACD technique of Russell and Engle [2005]. The error metrics used were least square error for τ and percentage error for y. However, this last metric is not sufficient to explain if the model captures the underlying dynamics of {yi }i=1,...,T . In this regard, some metrics used in multi-class classification problems were used. The results show that our proposal achieves comparable performance, being slightly better in some cases. Additionally, the proposed method converges faster than the classical ACM-ACD technique on the same platform. On the other hand, it is possible to identify scenarios in which the ACM-ACD model is better than the proposed method to capture the dynamics of the underlying process. Keywords: ime Series, Financial High Frequency Data, Forecasting, ACM-ACD, Machine Learning.

*

Email: [email protected], This work was supported in part Research Grant Fondecyt (Chile) 110854 and MECESUP FSM 1101.

63

Identificación de factores de éxito de emprendimientos en base a reglas de asociación supervisadas y árboles de decisión. Esther Hochsztain* Facultad de Ciencias Económicas. Universidad de la República. Uruguay.

Maria Messina** Facultad de Ciencias Económicas. Universidad de la República. Uruguay

Resumen La importancia del emprendedurismo en el logro de objetivos socioeconómicos es cada vez mayor. La actividad emprendedora incide favorablemente en el desarrollo económico, creación de puestos de trabajo, baja de la pobreza y fomento de la innovación, entre otros. Para fomentarla se requiere el estudio de los factores que contribuyen al éxito de los emprendimientos. La universidad desempeña un rol fundamental en el proceso de desarrollo emprendedor. Pasó de ser una institución de conservación, preservación y transmisión del conocimiento a una entidad que busca promover la transferencia de los resultados de la investigación para la creación de nuevas empresas, productos y servicios. Los egresados deben crear puestos de trabajo, y no solamente buscar su inserción laboral en las alternativas existentes. Se requiere tanto aprender a emprender como fomentar el espíritu de iniciativa en la educación superior. Las universidades necesitan disponer de información para la mejor adopción de decisiones en cada proyecto. En este artículo se presenta un caso de estudio de aplicación de reglas de asociación supervisadas y árboles de decisión para anticipar el éxito de un proyecto, en base a datos de los participantes del programa CCEEmprende de apoyo a emprendedores Se propone indagar cuáles son los factores personales y del contexto que determinan el éxito de un emprendedor. Luego de analizar la potencialidad de las diferentes técnicas de análisis, se resolvió aplicar técnicas de data mining y aplicar reglas de asociación supervisadas y árbol de decisión. Los resultados muestran que los dos elementos más relevantes para el éxito de un emprendimiento son contar con financiamiento y la situación laboral previa del emprendedor. Los resultados obtenidos resultan relevantes para identificar emprendimientos a priorizar y para identificar las áreas en las cuales brindar apoyo. Palabras claves: árbol de decisión, reglas de asociación supervisadas, emprendedurismo.

* **

Email: [email protected] , Email: [email protected],

64

Clusters probabilístico y mixtos en la medición multidimensional de la pobreza Laura Nalbarte* Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.

Fernando Massa** Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.

Silvia Altmark*** Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.

Resumen La medición y caracterización de la pobreza constituye un tema de interés social que estadísticamente puede ser abordado desde distintas perspectivas. Mediante la utilización de técnicas de Análisis Factorial y/o Análisis de Cluster se definieron particiones representativas de hogares con diferente grado de vulnerabilidad. El objetivo de la investigación es la medición multidimensional de la pobreza y la construcción de tipologías de hogares (pobres, vulnerables y no pobres) a partir de datos relevados por la Encuesta Continua de Hogares (ECH) del Instituto Nacional de Estadística de Uruguay (INE), entre los años 2008 y 2012. En este documento se presentan los resultados correspondientes a un proceso de clustering, basado en una mezcla probabilística de distribuciones Bernoulli. El mismo asume la presencia de una variable categórica no observable que dictamina la pertenencia de los individuos a los grupos. Los parámetros se estiman por medio del algoritmo EM y los individuos se clasifican utilizando probabilidades “a posteriori”. Las variables consideradas en el análisis refieren tanto a características de la vivienda (materiales de techos, paredes y pisos), como a características del hogar y de sus integrantes. Respecto al hogar se tiene en cuenta: la composición del mismo, el clima educativo, la cantidad de niños menores de 6 años, la tenencia y acceso a tecnologías de la información y la comunicación (TICS), así como la tenencia de bienes de confort. En lo que refiere a las personas se considera la situación laboral del jefe, el ingreso y su etnia. Los resultados indican la existencia de 3 ó 4 grupos los que determinan un gradiente de vulnerabilidad, desde los hogares más críticos (pobres - más vulnerables) hasta los que se encuentran en mejores condiciones (menos vulnerables). Palabras claves: Pobreza multidimensional, Cluster probabilístico.

*

Email: [email protected], Email: [email protected], *** Email: [email protected], **

65

Extreme value theory applied to commodity currencies Fernanda Fuentes Lagos* Universidad de Talca.

Rodrigo Herrera Leiva Universidad de Talca.

Resumen Una cartera de valores es una combinación de activos financieros en los que una institución o individuo decide invertir su dinero. Determinar la selección óptima de estos activos que proporcionarán la mayor rentabilidad con el menor riesgo es la base para lograr una inversión eficiente, sin embargo, al formar una cartera de valores intrínsecamente el inversor se ve expuesto a los riesgos de mercado que pueden favorecer o afectar el valor de su portafolio. Reducir la incertidumbre y controlar la variabilidad constituye una ventaja competitiva para los actores del mercado los cuales utilizando esta información pueden reaccionar anticipadamente tomando decisiones que permitan atenuar las consecuencias negativas del riesgo.

Este estudio se basa en el riesgo del tipo de cambio que corresponde a la variación en las utilidades que genera un portafolio a causa de las alteraciones en los precios de la moneda extranjera. Para esto se propone un análisis que estudia la relación existente entre el tipo de cambio y el precio de una o más materias primas de exportación del país de origen. A este tipo de monedas se les denomina monedas vinculadas a materias primas o en inglés “commodity currency” y entre las más conocidos se encuentra el dólar Australiano (AUS), el dólar Nuevo Zelandés (NZD), el dólar Canadiense (CAD) y el peso Chileno (CLP). Con la finalidad de determinar la relación anteriormente planteada es común utilizar modelos que analizan causalidad entre estas variables económicas, de los cuales el más relevante es el análisis de co-integración. Sin embargo, hasta el momento ningún estudio realiza esta investigación desde el punto de vista de sus co-movimientos a niveles extremos.

En esta presentación se expondrán modelos avanzados de procesos puntuales multivariados y teoría de valores extremos para explicar la dinámica e intensidad de los eventos atípicos que presentan las divisas basados principalmente en el comportamiento de los precios de una o más materias primas de exportación, determinando el tipo de dependencia existente y cómo los inversionistas pueden utilizar ésta información de manera ventajosa para gestionar sus portafolios y lograr inversiones eficientes. Palabras claves: Portafolio de inversión, teoría de valor extremo, commodity currency.

*

Email: [email protected],

66

Modelo de simulación mediante dinámica de sistemas para la planificación de recursos humanos en salud. Aplicación para la proyección de oferta y demanda de neurocirujanos en Uruguay en el horizonte 2013-2015 Fiorella Cavalleri Ferrari* [email protected] [email protected]

Resumen La planificación de recursos humanos en salud es un tema que en mayor o menor medida se ha introducido en la agenda de la gran mayoría de los países, Uruguay no es ajeno a esta realidad, la implementación del Sistema Nacional Integrado de Salud SNIS reflejó una crisis de recursos humanos, afectando la asistencia quirúrgica en el sector público y dejando en evidencia la inexistencia de una política nacional, universitaria, o de cualquier otro nivel, que determine una orientación futura respecto al ingreso al postgrado. Esta problemática refuerza la urgencia respecto de la necesidad de pasar de la esfera del diagnóstico (en el que existe plena coincidencia sobre la necesidad de planificar) a la implementación de metodologías que permitan generar conocimientos sistemáticos en esta materia de tal forma que exista información calificada como insumo para la toma de decisiones. Los objetivos planeados en esta investigación fueron comparar la realidad actual y tendencial de dotación (oferta) de Neurocirujanos con la demanda, así como también estimar el déficit o superávit actual de Neurocirujanos en Uruguay, tomando como año base 2013, y proyectando el déficit o superávit de neurocirujanos dinámicamente, año a año, para un horizonte temporal 2013-2025. Se abordó la metodología de dinámica de sistemas, la cual fue inventada en la década de 1950 por el Profesor Jay W. Forrester; esta utiliza modelos de simulación por computadora para relacionar la estructura de un sistema con su comportamiento en el tiempo. El software que se utilizó fue POWERSIM 2.5v el cual fue específicamente diseñado para la simulación de sistemas dinámicos. Palabras claves: dinámica de sistemas, simulación, proyecciones, planificación de recursos humanos.

*

Departamento de Métodos Cuantitativos, Facultad de Medicina, Universidad de la República. Uruguay.

67

Un test para detectar una distribución Poisson bivariante Francisco Novoa Muñoz* Universidad del Bío-Bío.

Ma. Dolores Jiménez Gamero Universidad de Sevilla.

Resumen Los datos de conteo aparecen bajo diferentes circunstancias. En el caso unidimensional, la distribución Poisson es la que más se ha usado para modelar tales datos. En la práctica, los datos de conteo bivariante surgen en distintas áreas del conocimiento y la distribución Poisson bivariante (DPB), siendo una extensión de la distribución Poisson, juega un rol importante al momento de modelarlos, siempre que dichos datos presenten una correlación no negativa. Un aspecto crucial del análisis de datos es contrastar la bondad de ajuste de las observaciones dadas con las hipótesis distribucionales asumidas. Esta es la razón por la cual en este trabajo proponemos y estudiamos un test de bondad de ajuste para la DPB. Este test está basado en la función generatriz de probabilidad y es consistente contra alternativas fijas. Además, es capaz de detectar alternativas contiguas que convergen a la distribución nula a razón de n−1/2 . Para estimar consistentemente la distribución nula del test estadístico utilizamos el método bootstrap paramétrico y a través de un experimento de simulación analizamos la bondad de la aproximación bootstrap y la potencia para tamaños de muestra finito. Además, en dicho estudio, comparamos el test propuesto con otros tests encontrados en la literatura estadística. Finalmente, aplicamos el test estadístico propuesto a dos conjuntos de datos reales. Palabras claves: Distribución Poisson bivariante, test de bondad de ajuste, función generatriz de probabilidad.

*

Email: [email protected], Agradecimientos: Universidad del Bío-Bío y programa MECESUP2.

68

Indicadores de Carencias y Carencias Severas Daniel Ortega* , Héctor Conti** Dirección General de Estadística y Censos de la Provincia de Córdoba - Argentina

Resumen En el marco del proceso de evaluación de las solicitudes que realizan las personas/hogares para ser beneficiarios de los planes sociales que pone a disposición el Ministerio de Desarrollo Social de la Provincia de Córdoba, donde se consideran múltiples aspectos o situaciones que pueden generar situaciones de vulnerabilidad, surge la necesidad de contrastar los ingresos monetarios familiares con un parámetro objetivo y eficaz para determinar el estado de vulnerabilidad socio-económica. En la Argentina, el Instituto Nacional de Estadística y Censos (INDEC) construía y difundía las llamadas “Línea de Indigencia” y “Línea de Pobreza”, con el objetivo de cuantificar la cantidad y porcentaje de personas en situación de pobreza y pobreza extrema bajo una perspectiva indirecta y absoluta (Canasta Básica Alimentaria y Canasta Básica Total). Dado que dichos parámetros monetarios fueron discontinuados a partir del año 2014, el Ministerio de Desarrollo Social de la Provincia de Córdoba le encargó a la Dirección General de Estadística y Censos la elaboración de una propuesta de indicadores que sirvieran para reemplazar los parámetros de Pobreza e Indigencia al momento de determinar situaciones de vulnerabilidad socio-económica de las personas/hogares que solicitan planes sociales en dicho Ministerio. Para ello, la Dirección General de Estadística y Censos (DGEyC) presentó la propuesta de generar los indicadores de “Carencias” y “Carencias Severas” a partir de una metodología indirecta y relativa de aproximación a la medición de la Pobreza, basada en los ingresos familiares captados en la Encuesta Permanente de Hogares (EPH) que la DGEyC elabora en conjunto con el INDEC. Más precisamente, se construyen a partir de la mediana del Ingreso Familiar Per Cápita captado en la EPH, donde el parámetro de Carencias Severas para una persona adulta es equivalente al 25 % de dicho monto. Luego, persiguiendo también el objetivo de reflejar una estructura de costos fijos del hogar, el parámetro de Carencias para una persona adulta se equipara al 75 % de la mediana del ingreso per cápita (25 % que determina las carencias severas más un 50 % de complemento). A partir de la conformación de los montos para la primera persona adulta del hogar, se constituyen los parámetros para los hogares no unipersonales a partir de asignarles un aporte o necesidad marginal de 0,74 a cada persona extra. Esta metodología, que fuera oficializada para su aplicación por resolución del Ministerio de Desarrollo Social, están permitiendo tanto ampliar el universo de posibles beneficiarios como una más certera evaluación de los solicitantes. Palabras claves: Indicadores de vulnerabilidad y pobreza. Carencias. Planes Sociales. Ministerio de Desarrollo Social.

* **

Email: [email protected], Email: [email protected],

69

Parametrización de la Distribución de Valor Extremo Generalizada en el estudio de eventos climáticos extremos en Centro América Hellen Guillén Oviedo* Universidad del Bío-Bío, Concepción, Chile

Luis Cid Serrano Universidad del Bío-Bío, Concepción, Chile

Resumen Se estudian las características distribucionales de los eventos de precipitaciones (lluvias) extremas de las vertientes Caribe y Pacífico en Centro América. El objetivo es establecer si existen diferencias en las parametrizaciones de la Distribución de Valor Extremo Generalizada (DVEG) como modelo probabilístico, para un estudio comparativo de eventos climáticos extremos entre ambas vertientes. Se utilizan series de tiempo de precipitaciones diarias entre 1971 y 2000 de 103 estaciones meteorológicas en Centro América. Se estiman los parámetros de la Distribución de Valor Extremo para los valores correspondientes al percentil 95 de cada una de las 103 series de tiempo y se realiza un estudio comparativo, mediante análisis de discriminante, entre la clasificación geográfica de la estaciones entre las Vertientes Caribe y Pacífico, utilizando como variables discriminantes los estimadores de los tres parámetros de la distribución de valor extremo correspondiente a cada serie. Se obtuvo una clasificación correcta en aproximadamente dos tercios de los casos, lo que es una indicación clara que existen patrones diferenciados de comportamientos extremos de precipitación en ambas vertientes. Adicionalmente se realizan pruebas de hipiótesis para verificar la igualdad de parámetros entre ambas vertientes, utilizando tests de razón de verosimilitud generalizados. Palabras claves: DVEG, Lluvias, Caribe, Pacífico, Centro América.

*

Email: [email protected],

70

Aprendizaje Bayesiano, estructura de red y difusión de innovaciones Ignacio Inostroza-Quezada* Facultad de Ciencias Económicas y Empresariales, Universidad de los Andes.

Carlos Rodríguez-Sickert** Facultad de Gobierno, Universidad del Desarrollo. Resumen Usando aprendizaje Bayesiano, investigamos la relación entre la topología de una red social, donde se lanza una innovación, y su penetración. Específicamente, investigamos cómo los parámetros globales de una red social y la posición de adoptadores tempranos (early adopters) afectan al éxito de la innovación, medida por su tasa de adopción. Para entender la importancia de la ubicación estratégica de adoptadores tempranos, usamos medidas de centralidad en nuestro análisis. Identificamos atributos topológicos de adoptadores tempranos para acelerar procesos de difusión de la innovación. Palabras claves: Difusión de innovaciones, aprendizaje Bayesiano, redes de pequeño mundo, adoptadores tempranos, marketing de influencia social.

* **

Email: [email protected], Email: [email protected],

71

Estimation of Equating Functions with Covariates: a Bayesian Nonparametric Approach Jorge González* Department of Statistics, Pontificia Universidad Católica de Chile

Andrés F. Barrientos Department of Statistics, Pontificia Universidad Católica de Chile

Fernando A. Quintana Department of Statistics, Pontificia Universidad Católica de Chile

Abstract Equating is an important step in the process of collecting, analyzing, and reporting test scores in any program of assessment. Methods of equating utilize functions to transform scores on two or more versions of a test, so that they can be compared and used interchangeably. In common practice, traditional methods of equating use either parametric or semi-parametric models where, apart from the test scores themselves, no additional information is used to estimate the equating transformation function. We propose a flexible Bayesian nonparametric model for test equating which allows the use of covariates in the estimation of the score distribution functions that lead to the equating transformation. A major feature of this approach is that the complete shape of the scores distribution may change as a function of the covariates. As a consequence, the form of the equating transformation can change according to covariate values. Applications of the proposed model to real and simulated data are discussed and compared to other current methods of equating.. Keywords: Bayesian nonparametrics, dependent Bernstein polynomials, test equating.

*

Email: [email protected], The first author acknowledges partial support of Grants FONDECYT 11110044 and ANILLO SOC1107. The second author was supported by FONDECYT grant 3130400, and the third author was supported by FONDECYT grants 1100010 and 1141057.

72

Robust Clustering of Banks in Argentina Margarita Díaz1* , José M. Vargas1,2 and Fernando García 1 Department 2 Department

of Statistics, FCE UNC, Córdoba, Argentina, of Mathematics, IAPCB UNVM, Villa María, Argentina

Abstract The purpose of this paper is to classify and characterize 64 banks, active as of 2010 in Argentina, by means of robust techniques used on information gathered during the period 2001-2010. Based on the strategy criteria established in [Wang (2007)] and [Werbin (2010)], seven variables were selected. In agreement with bank theory, four “natural” clusters were obtained, named “Personal”, “Commercial”, “Typical and “Other banks”, using robust K-means clustering as implemented in R statistical language through the function [Kondo (2011)] detecting six outliers in the process. In order to characterize each group, projection pursuit based robust principal component analysis, [Croux (2005)], was conducted on each cluster revealing approximately a similar component structure explained by three components in excess of 80 %, granting a common principal components analysis as in [Boente (2002)]. This allowed us to identify three variables which suffice for grouping and characterizing each cluster. Boente influence measures were used to detect extreme cases in the common principal components analysis. Keywords: Robust clustering Projection pursuit Common Principal Components Influence measures.

*

Email: [email protected], Corresponding author

73

Bibliografía [Boente (2002)] Boente, G.,Pires, A. M., Rodrigues, I. M.. Influencefunctions and outlier detection under the common principalcomponents model: A robust approach. Biometrika (2002), 89, 4, pp. 861-875. [Croux (2005)] Croux, C. and Ruiz-Gazen, A., 2005. High breakdown estimators for principal components: the projection-pursuit approach revisited. Journal of Multivariate Analysis, 95, 206-226. [Wang (2007)] Wang, D., 2007. Three Essays on Bank Technology, cost Structure, and Performance. PhD Dissertation, State University of New York at Binghamton. [Werbin (2010)] Werbin, E., 2010. PhD thesis, Facultad de Ciencias Económicas, Universidad Nacional de Córdoba. [Kondo (2011)] Kondo, Y. R package RSKC.

74

Estimado la tasa de éxito en la cacería de pavos salvajes. Un ejemplo de Spatial Confounding Julio Ávila* Estudiante del Doctorado en Estadística. Departamento de Estadística. Pontificia Universidad Católica de Chile.

Garrit Page** Departamento de Estadística. Pontificia Universidad Católica de Chile.

Resumen Este trabajo explora el fenómeno de Spatial Confounding usando tasas de éxito en la cacería del pavo salvaje en los condados del estado de Missouri, sobre datos provenientes de una encuesta aplicada a los cazadores durante las dos semanas de caza de la temporada 1996. Exploramos Spatial Confounding por medio de una serie de modelos jerárquicos que fueron ajustados considerando respuesta binomial (pavos capturados versus excurciones), el porcentaje de bosque en el condado (covariable), los efectos de la semana de caza y la relación espacial presente en la tasa de éxito. Un análisis exploratorio indicaba de que el porcentaje de bosque en el condado tiene una relación significativa con tasas de éxito, pero al emplear regresión espacial la relación se confunde. Investigamos las razones por la cual este conjunto de datos sufre Spatial Confounding y proponemos algunas generalizaciones. Palabras claves: Spatial Confounding, Conditional Autoregressive Model, Linear Mixed Model, Hierarchical Bayes.

* **

Email: [email protected], Email: [email protected],

75

Aporte del sector turismo a la generación de valor agregado en la provincia de Córdoba Laura I. Luna1* , Mariana Díaz2** , Héctor Conti3*** 1,2,3 Gobierno

de la Provincia de Córdoba- Dirección General de Estadística y Censos.

Resumen El turismo tiene una importante relevancia económica en la Provincia de Córdoba ya que, dada sus características intrínsecas, es una actividad proclive a la generación de ingreso y empleo. Es difícil delimitar con precisión el ámbito del turismo, ya que en realidad abarca varios sectores de la realidad económica, constituyendo lo que se denomina un sector transversal de los restantes. Debido a que en algunas regiones de la Provincia de Córdoba las actividades turísticas constituyen el motor principal de sus economías, es creciente la necesidad de cuantificar y medir dicho impacto a través de instrumentos estadísticos. La Dirección General de Estadística y Censos, a través de su Dirección de Estadísticas Económicas se encuentra realizando una serie de estudios con el objetivo de proporcionar datos estadísticos oficiales sobre el rol que desempeña el turismo en la economía. Se intenta satisfacer la creciente demanda de información tanto de organismos públicos como privados interesados, en conocer la participación en términos de la generación de empleo y creación de valor agregado del sector turismo, tales como la Agencia Córdoba Turismo, la Agencia de Promoción de Empleo, etc. En este marco, se realizó una estimación del valor agregado del sector turismo en la Provincia de Córdoba para el período 1993-2012, analizando y comparando las diferentes metodologías existentes, destacando la referida a las ramas características de turismo. La participación en el Producto Geográfico Bruto de las ramas características del turismo a lo largo de la serie 1993-2012 ha sido en promedio del 5,0 %. Esta participación alcanzó un valor máximo en el año 2006 con el 5,5 % y un valor mínimo en el año 2002 con el 4,4 %. Comparando con otros sectores de la economía cordobesa se observa que ha tenido una participación similar al sector de la construcción que promedió un 6 %. Mientras que los principales sectores económicos de la provincia, industrial y agropecuario promediaron durante el período una participación del 16 % y 11 % respectivamente. Palabras claves: Estadísticas oficiales, Dirección de Estadísticas Económicas de Córdoba, valor agregado del sector turismo.

*

Email: [email protected], Email: [email protected], *** Email: [email protected], **

76

Algunos test de hipótesis mediante proyecciones al azar. Leonardo Moreno* Instituto de Estadística, Universidad de la República, Uruguay. Ricardo Fraiman Facultad de Ciencias, Universidad de la República, Uruguay.

Sebastian Vallejo Instituto de Estadística, Universidad de la República, Uruguay.

Resumen En el trabajo se desarrollan dos test no paramétricos, uno sobre simetría central y el otro sobre independencia, basados en proyecciones uno-direccionales al azar. Dichos test son implementados en dimensión finita e infinita. Se demuestra la distribución libre y la consistencia universal de ambos test. Se proponen diferentes mecanismos para mejorar la potencia de dichas pruebas. Mediante un estudio de simulación se evalúa la eficiencia respecto a otros posibles competidores, obteniendo resultados promisorios. Es realizada una aplicación en una base de datos reales cuyos elementos pertenecen a un espacio de Banach. Palabras claves: Proyecciones al azar; test simetría central; test de independencia; consistencia universal; distribución libre; teorema de Cramer-Wold.

*

Email: [email protected],

77

Identificación adaptativa de estructuras de Series de Tiempo Difusas Ledys Llasmin Salazar Gomez* Estudiante de Maestría en Estadística, Universidad de Valparaíso

Dr. Rodrigo Salas Director Escuela Ingeniería Civil Biomédica, Universidad de Valparaíso

Resumen Las series de tiempo difusas tienen asociado el factor de la incertidumbre debido a que los datos de la serie temporal hacen parte de regiones de decisión. Por lo tanto, ubicar los datos en una determinada región y modelar sobre los mismos permite comprender el comportamiento de las variables a través de sus funciones de pertenencia. En este trabajo se expone el proceso de modelamiento de una serie temporal basado en técnicas difusas. La implementación de técnicas difusas se realiza particionando la región de entrada en diferentes subregiones y aplicando el modelo difuso Takagi Sugeno Kang (TSK). El TSK permite el reconocimiento del comportamiento local del proceso a través de un conjunto de implicaciones, donde los antecedentes se refieren al comportamiento local, mientras que los consecuentes describen la dinámica del proceso. La propuesta brinda herramientas para una adecuada partición sobre el espacio de entrada, es decir, la correcta determinación del número de reglas difusas a aplicar sobre la serie de tiempo. Posteriormente, se aplica el modelo TSK, el cual genera diferentes modelos de series de tiempo para cada una de las subregiones de la región de entrada. Los algoritmos propuestos son implementados utilizando un lenguaje de alto nivel, particularmente Matlab, allí se programan y se corren las diferentes simulaciones con el fin de analizar su comportamiento. Para validar el modelo se realizan simulaciones sobre 2 conjuntos de datos sintéticos y 5 reales, con el fin de contrastar la técnica propuesta con varias técnicas estándares, encontrando que el desempeño del modelo mejora al hacer una identificación adaptativa de la estructura de la serie de tiempo con respecto a estructuras fijas y particiones regulares sobre la región de entrada, generando así, predicciones más robustas sobre la serie de tiempo. Palabras claves: Fuzzy time series, Takagi Sugeno Kang, incertidumbre, predicción.

*

Email: [email protected],

78

Estudio comparativo de la sobrevida de pacientes no metastásicos de cáncer de mama Luis Cid* Universidad del Bio Bio, Chile.

Marcela Valdés Universidad del Desarrollo, Chile.

Chyntia Fuentes Universidad de Concepción, Chile.

Resumen Se estudian algunas propiedades de los estimadores tradicionales de sobrevida, con la finalidad de realizar un estudio comparativo de dos bases de datos de pacientes de cáncer de mamas, desfasadas 20 años en el tiempo y tratadas con los protocolos estandarizados correspondientes, para establecer si es posible detectar una evolución en las expectativas de sobrevida de las pacientes. No se consideran en el estudio las pacientes clasificadas en el estadio tres de la enfermedad, pues la presencia de metástasis impide estimar el efecto de otros factores incidentes en la sobrevida de las pacientes. Se incluyen los estimadores producto límite de Kaplan y Meier y los estimadores de tiempo de sobrevidad residual mediano y cuartílicos, como medidas basadas solo en los tiempos de sobrevida y de censura, por una parte y, para estimar el efecto de covariables en la sobrevida, modelos de riesgos proporcionales (regresión de Cox) y semiparamétricos de regresión quantílica, los que proporcionarían una forma más completa y robusta de estimar el efecto de la covariables en la estimación de la sobrevida esperada, por otra. Para este efecto se consideran dos grupos de variables, uno relacionado con las características propias de la enfermedad, como tipo histológico del tumor, tamaño, compromiso ganglionar, etc., y un segundo grupo que incluye factores de riesgo de contraer la enfermedad y que pudieran estar relacionados con el pronóstico de la enfermedad, como edad de la paciente al momento del diagnóstico, edad del primer parto, lactancia, antecedentes familiares de patologías malignas, etc. Se realiza un estudio comparativo entre los dos grupos de pacientes, en particular se utiliza el método bootstrap para obtener estimadores de los intervalos de confianza respectivos a cada base de datos. Palabras claves: obrevida, sobrevida residual mediana, Estimador Producto Límite, cáncer de mamas.

*

Email: [email protected],

79

Un Análisis Multivariado del Sistema Universitario en Chile Luis Firinguetti* - Miguel Yáñez** Departamento de Estadística Facultad de Ciencias Universidad del Bío Bío Concepción, Chile

Resumen Desde 1980 el sistema de educación superior en Chile ha sufrido importantes cambios. Un nuevo cuerpo legal permitió la creación de universidades financiadas por privados, y reestructuró las universidades estatales existentes. En este trabajo describimos de manera multidimensional el sistema universitario chileno, identificando aquellas variables que contribuyen a caracterizarlo de mejor manera. Con la información pública disponible fue posible hacer un análisis objetivo del sistema con diversas técnicas estadísticas multivariantes, elaborando un ranking de las universidades. Palabras claves: Acreditación; diversidad; análisis multivariante; rankings.

* **

Email: [email protected], Email: [email protected],

80

Un Estimador de Regresión Ridge No-estocástico y Comparación con el Estimador de James-Stein Luis Firinguetti* Departamento de Estadística, Facultad de Ciencias, Universidad del Bío Bío Avda. Collao 1202, Casilla 5C, Concepción, Chile

Hernán Rubio Gerencia de Análisis Macroeconómico Banco Central de Chile, Santiago, Chile

Yogendra P. Chaubey Department of Mathematics and Statistics Concordia University, Montréal, Canada H3J 1M8

Resumen En este trabajo presentamos una versión no estocástica del estimador de Regresión Ridge Generalizado. El estimador es consecuencia de una discusión de las propiedades de un estimador de Regresión Ridge Generalizado cuyos parámetros de contracción o sesgo estocásticos toman valores que se tienden a concentrar en la cota superior. El estimador sesgado resultante es superior al estimador de Cuadrados Mínimos Ordinarios y, bajo ciertas condiciones, al estimador de James-Stein. Se presenta un estudio numérico en que se evalúa el rango de valores de la señal ruido del nuevo estimador para el cual éste domina al estimador de James-Stein con respecto al error cuadrático medio de predicción. Palabras claves: Error Cuadrático Medio; Estimador de James-Stein; Multicolinealidad; Regresión Ridge.

*

Email: [email protected],

81

Regresión Geográficamente Ponderada: Una aplicación a datos de mortalidad Luisa Rivas Calabrán* , Manuel Galea Rojas** Resumen Regresión Geográficamente Ponderada, GWR, es un método estadístico propuesto por Fotheringham et al. (2002) para el análisis de datos espaciales con distribución Normal. Nakaya et al.(2005) desarrollan esta técnica para datos con distribución Poisson, específicamente para analizar patrones de enfermedades resultante de procesos espaciales no estacionarios, Carvalho (2011) extiende el método a distribución Binomial Negativa, donde los datos pertenecen al área del transporte y da Silva et al. (2013), comparan el modelo Poisson Geográficamente Ponderado con el Binomial Geográficamente Ponderado, para los dos conjuntos de datos mencionados. Los modelos geográficamente ponderados permiten estudiar la distribución geográfica de las variables, suponiendo que las observaciones cercanas están correlacionadas, a diferencia de la estadística convencional donde los fenómenos se analizan bajo el supuesto de independencia. El propósito de este trabajo es comparar los Modelos Lineales Generalizados, específicamente aquellos que permiten explicar el comportamiento de datos de conteo, con su respectiva extensión de Modelos Geográficamente Ponderados. Para la estimación de los parámetros se utilizan los algoritmos iterativos de Modelos Lineales Generalizados, ya que pueden ser extendido al caso espacial, cuando consideramos distribuciones pertenecientes a la familia exponencial. Para llevar a cabo esta comparación se dispone de un conjunto de datos provenientes del área metropolitana de Tokio, Japón, compuesta por 262 zonas municipales, donde el objetivo principal es analizar la relación entre tasas de mortalidad y ciertos factores socio-económicos. Para ello se considera la tasa de muerte según edad de los trabajadores (entre 25-64 años). La edad-sexo y el número de muertes fueron tomadas del censo nacional de 1990 y de las estadísticas de Japón, respectivamente. En cuanto a la selección del modelo más adecuado para la describir el comportamiento de los datos se utilizan los criterios de bondad de ajuste, tales como, AIC, validación cruzada (CV), así también se realiza análisis de residuos y se estudia la presencia de datos influyentes. Palabras claves: Regresión Geográficamente Ponderada (GWR), Modelos Lineales Generalizados, Análisis de Sensibilidad.

* **

Email: [email protected], Pontificia Universidad Católica de Chile. Email: [email protected], Pontificia Universidad Católica de Chile.

82

Comparación de métodos de medición en presencia de un Gold Estándar Manuel Galea* Departamento de Estadística, Pontificia Universidad Católica de Chile

Resumen En este trabajo discutimos inferencia estadística y diagnósticos de influencia en un modelo estadístico usado para comparar instrumentos de medición en presencia de un gold estándar. Suponemos que las mediciones de los instrumentos siguen una distribución normal multivariada. Consideramos test de hipótesis y regiones de confianza para parámetros de interés, e implementamos el método de influencia local para analizar la sensibilidad de los estimadores máximo verosímiles a perturbaciones del modelo estadístico y/o de los datos. Finalmente ilustramos la metodología con datos reales Palabras claves: Inferencia estadística, Diagnósticos de influencia, Comparación de métodos de medición, Gold estándar.

*

Email: [email protected],

83

Estudio Comparativo por Métodos de Clasificación para el Análisis del Desempleo en los Departamentos de la Región Oriental del Paraguay Lorena Leticia González* Facultad de Ciencias Exactas y Naturales. Universidad Nacional de Asunción. Paraguay

María Cristina Martín Facultad de Ciencias Exactas y Naturales. Universidad Nacional de La Pampa. Argentina

Resumen Paraguay no es la excepción al fenómeno mundial del desempleo, el cual afecta de manera negativa en diferentes aspectos de la vida diaria. A partir de la base de datos de la Encuesta Permanente de Hogares del año 2011, utilizando características demográficas, sociodemográficas y económicas de los trabajadores residentes en Asunción y las áreas, tanto urbanas como rurales, de la Región Oriental del Paraguay, se estudia la situación de empleado/desempleado de los paraguayos a través de dos técnicas estadísticas diferentes: la Regresión Logística y los Árboles de Clasificación. Un análisis exploratorio inicial, y a su vez confirmatorio, de las características consideradas predictoras del desempleo, tales como Departamento de Residencia, Área de Residencia, Edad, Condición de Jefe de Hogar, Sexo, Estado Civil, Número de Personas en el Hogar, Nivel de Educación y Categoría y Rama del Último Empleo, establece que la Edad y el Área de Residencia no son significativas a la hora de explicar el desempleo, y por ende, son excluidas de los procedimientos de selección de modelos. La Regresión Logística ofrece un modelo matemático que permite estimar la probabilidad de que un individuo de nacionalidad paraguaya sea desempleado y el mismo está caracterizado por las variables Jefe de Hogar, Nivel de Educación, Estado Civil, Sexo, Departamentos, Rama y Categoría del Último Empleo. Distintos mecanismos permiten clasificar este modelo como aceptable, siendo la capacidad predictiva del mismo buena, ya que realiza un 70 % de clasificaciones correctas. Por otro lado, la técnica de Árboles de Clasificación arroja un modelo mucho más simple, dado que involucra tan sólo las variables Jefe de Hogar, Nivel de Educación, Estado Civil y Sexo, que también aparecen en el modelo logístico obtenido, considerándose, entonces, razón suficiente para tenerlas en cuenta a la hora de diseñar políticas tendientes a disminuir los niveles de desempleo de la sociedad paraguaya. Palabras claves: Desempleo, Modelo Logit, Árboles de Clasificación.

*

Email: [email protected], Agradecimientos: A mi querida abuela Bernarda, a quien le tengo como madre, por criarme con todo su amor y por todas sus bendiciones para este trabajo.

84

Ajuste de Modelos Longitudinales a datos de Ingreso de Hogares a partir de la Encuesta Continua de Empleo de Asunción y Departamento Central Luis Antonio Gómez Martínez* Facultad de Ciencias Exactas y Naturales. Universidad Nacional de Asunción. Paraguay

María Cristina Martín Facultad de Ciencias Exactas y Naturales. Universidad Nacional de La Pampa. Argentina.

Resumen La Encuesta Continua de Empleo (ECE) es reciente en Paraguay, y solo se tiene un seguimiento de los individuos para los años 2010 y 2011. Pese al corto período de relevamiento, se considera que analizar y modelar el Ingreso de los Jefes de Hogares en Asunción y las Áreas Urbanas del Departamento Central permite comenzar a tener una visión global y crítica del mercado de trabajo en la región más desarrollada y poblada del país, que sirva de base para el diseño e implementación de políticas tendientes a mejorar las condiciones de vida de la población paraguaya en general. Así, a través del ajuste de Modelos para Datos Longitudinales, se propone investigar el Ingreso del Jefe de Hogar a lo largo de cinco (5) trimestres, teniendo en cuenta el Sexo, el Nivel de Instrucción y el Lugar de Residencia de los mismos. Las técnicas usuales para este tipo de datos que fueron aplicadas, Medidas Repetidas (análisis univariado de la varianza) y Análisis de Perfiles (análisis multivariado de la varianza), muestran que el Ingreso medio de los Jefes de Hogares es significativamente el mismo en cada trimestre, pero es significativamente diferente en cada uno de sus respectivos niveles si se tiene en cuenta las características de Sexo y Nivel de Instrucción del individuo. En otras palabras, el modelo lineal obtenido deja de lado el Lugar de Residencia como característica explicativa a tener en cuenta. Debe destacarse que, al estar dando los primeros pasos en el estudio de datos longitudinales, en este trabajo no se puso énfasis en la elección de factores que podrían mejorar el ajuste y ofrecer un modelo estadístico más potente (mayor coeficiente de explicación de la variabilidad global). Para la verificación de los supuestos de normalidad de los modelos se ha optado por la transformación Minimax, verificándose la homocedasticidad de los datos transformados a través de las pruebas de esfericidad de Mauchly en el caso univariado y de la prueba M- de Box en el caso multivariado. Palabras claves: Jefe de Hogar, Análisis de Datos Longitudinales, Diseño de Medidas Repetidas, Análisis de Perfiles.

*

Email: [email protected], El agradecimiento es a mis padres, por haberme brindado la oportunidad de estudiar.

85

Indicador de actividad económica de la provincia de Córdoba (INAEC) Mariana Díaz* ; Héctor Conti** 1 y 2 Gobierno

de la Provincia de Córdoba, Dirección General de Estadística y Censos

Resumen El principal indicador macroeconómico de un país es el Producto Interno Bruto (PIB), su análogo a nivel de regiones o provincias lo constituye el Producto Geográfico Bruto (PGB). En el caso de la provincia de Córdoba, por su metodología de cálculo, el PGB tiene una periodicidad anual. Debido a la importancia de medir la actividad económica de la provincia en un período menor al año, y de esta forma conocer la evolución de la economía en el corto plazo, se elaboró un indicador de actividad económica. El cálculo del Indicador de Actividad Económica para la Provincia de Córdoba complementa el conjunto de estadísticas publicadas mensualmente por la Dirección General de Estadísticas y Censos de esta Provincia. La importancia principal radica en que permite describir el comportamiento coyuntural de la región de manera complementaria al PGB. Un indicador de este tipo es útil para la toma de decisiones de los agentes económicos del sector público y privado ya que proporciona información oportuna del comportamiento, evolución y tendencia de la actividad económica regional en el corto plazo. Este indicador es utilizado por diversos organismos provinciales (Agencia ProCórdoba, Secretaria de Industria, Secretaría de Comercio, Cámara de Comercio de Córdoba) como herramienta de gestión. La evidencia internacional describe dos enfoques para construir indicadores sintéticos de actividad económica, uno estocástico y otro contable. Luego de evaluar ambos enfoques se decidió realizar el cálculo en base a la metodología impulsada por el Banco Central de Chile, enfoque contable. Esta metodología es la utilizada en los principales organismos oficiales de estadísticas a nivel Latinoamericano y tiene como principal ventaja la de ser una extensión de las técnicas y prácticas recomendadas por Naciones Unidas para el cálculo del PGB por categoría, siendo por lo tanto más robusta. En el mes de marzo de 2014, el Indicador de Actividad Económica de Córdoba, muestra una variación del -4,5 % con respecto a igual trimestre del año anterior. Por otro lado, el indicador desestacionalizado de marzo de 2014 evidencia una variación de -0,02 % relativa al mes inmediato anterior. Palabras claves: Indicador de actividad económica, Producto Geográfico Bruto, enfoque contable, Córdoba.

* **

Email: [email protected], Email: [email protected],

86

Incorporación del Consideration Set en modelos de estimación de demanda Mariano Bonoli Escobar* Universidad de Buenos Aires, Facultad de Ingeniería.

Johanna Mosca Universidad de Buenos Aires, Facultad de Ingeniería.

Juan Ignacio Volpe Universidad de Buenos Aires, Facultad de Ingeniería.

Emilio Picasso Universidad de Buenos Aires, Facultad de Ingeniería.

Resumen on frecuencia, en ocasiones de compra, los consumidores se encuentran frente a una elevada cantidad de alternativas entre las que deben elegir. Esto lleva a los consumidores realizar una pre-selección de estas alternativas, para evaluar en una segunda etapa cuál de ellas es la más conveniente. Este subconjunto de alternativas, al que llamaremos Consideration Set, es relativamente constante para cada individuo a lo largo de sus decisiones. El proceso de inclusión de alternativas dentro del Consideration Set puede ser consiente o inconsciente, e intervienen diversos aspectos como el conocimiento que tenga de las alternativas, experiencias anteriores y expectativas. Los modelos de Discrete Choice (DCM) proporcionan una poderosa herramienta a la hora de comprender el comportamiento de los consumidores. Sin embargo, esto modelos DCM no tienen en cuenta las etapas en el proceso de decisión y consideran que el individuo trabaja eligiendo entre todas las alternativas disponibles, cuando en realidad lo hace sobre un subconjunto de ellas. En el presente trabajo se propone una estrategia para incluir los Consideration Set en los modelos DCM, útil en el caso de que cada encuestados realice varias tareas de selección y se permita la realización de compras múltiples. Para poder evaluar esta estrategia, para un caso real de 28 alternativas, se estimaron ambos modelos: el que utiliza todas las alternativas y el que trabaja con los Consideration Set. Se expone en el presente trabajo la comparación entre ambos modelos, en términos de bondad de ajuste y de aciertos en la predicción. Palabras claves: Discret Choice Models, Consideration Set, Consumidores.

*

Email: [email protected],

87

¿Explica el efecto del muestreo las diferencias entre mediciones de audiencias televisivas? Ramón Álvarez* Gabriel Camaño María Eugenia Riaño Instituto de Estadística, Facultad de Ciencias Económicas y de Administración, UdelaR.

Resumen En el marco de un acuerdo celebrado entre el CMAT (Centro de Medición de audiencia Televisiva) y el Instituto de Estadística de la Facultad de Ciencias Económicas y de Administración, se presentan los resultados de comparar los ratings televisivos estimados por dos empresas que se dedican a esa actividad. Ambas utilizan paneles de hogares y peoplemeters para la captura de datos, para lo cual usan diseños muestrales y tamaños de muestra diferentes.El problema que se presenta para el CMAT es como considerar los ratings reportados por cada empresa, cuando estos difieren entre sí. Para eso, para un determinado período del año se consideran los ratings reportados minuto a minuto por cada empresa, los cuales se reproducen con los diseños muestrales usados por cada empresa, agregándolos en cuatro franjas horarias, para los cuales se calculan estimaciones puntuales e intervalos de confianza. Se presentan diferentes escenarios donde se analiza la diferencia efectivamente encontrada, la sensibilidad de los resultados, a cambios en la composición de los paneles, así como la pertinencia de combinar ambas muestras. Para eso se utiliza simulación montecarlo y métodos de remuestreo. Palabras claves: Datos de panel; diseño muestral; rating; remuestreo; simulación montecarlo.

*

Email: [email protected],

88

Consistencia de índices de validación en clasificación difusa de datos morfométricos Miguel Yáñez A.* Departamento de Estadística, Universidad del Bío-Bío, Concepción.

Erich Rudolph L. Departamento de Ciencias Biológicas y Biodiversidad, Universidad de Los Lagos, Osorno.

Resumen En los últimos años, diversos índices de validación en análisis de clasificación difusa c-medias han sido comparados para diferentes conjuntos de datos, algunos artificiales o simulados, y otros ampliamente usados en la literatura estadística con fines didácticos. Los índices de validación presentados y propuestos en estos trabajos, tienen rendimientos variados, siendo algunos más precisos que otros, dependiendo de la forma y densidad de los grupos visualizados. Pocos son los artículos que tratan con datos morfométricos. En este trabajo para datos morfométricos del molinillo gástrico de cinco especies de la familia Parastacidae (Parastacus nicoleti, Parastacus pugnax, Virilastacus rucapihuelensis, Virilastacus araucanius y Samastacus spinifrons) se estudian los principales índices de validación al realizar un análisis de clasificación difusa c-medias. Los resultados obtenidos muestran la consistencia de algunos índices en determinar el número correcto de conglomerados, siendo esto concordante con la literatura, pero en otros casos se producen diferencias importantes. Palabras claves: c-medias difusa, datos morfométricos, índices de validación.

*

Email: [email protected],

89

El Problema de Datos Censurados en el Contexto Geoestadístico Una Propuesta de Tratamiento Mónica Cristina Morvillo* Facultad de Ciencias Exactas, Fisicas y Naturales. Universidad Nacional de San Juan. R. Argentina

Angela Magdalena Diblasi Facultad de Ciencias Económicas. Universidad Nacional de Cuyo. R. Argentina

Resumen La geoestadística tiene por objeto modelar y completar con predicción -para la representación cartográfica- los valores en sitios no muestreados de un proceso estocástico Z(s) definido en un dominio espacial D continuo y cerrado. El método predictivo produce en cada sitio una interpolación lineal (BLUE) de las observaciones condicionada a su disposición espacial y bajo un modelo estructural que incluye la autocorrelación espacial sintetizada por la función variograma. Pero en algunos casos de muestreo, se producen valores no detectados o censurados por los instrumentos de medición, que son de magnitud extrema y requieren ser imputados acordemente antes de la predicción, pues de lo contrario la interpolación generaría en los sitios y entornos de estos datos, valores típicos en contraposición a su condición conocida. En este trabajo se citan dos casos diferentes y reales de muestreo con datos censurados, uno con valores por debajo de un límite de detección y el otro por arriba de una cota superior de medición. Se propone el criterio de Imputación de Pivote Cercano Corregionalizado (Morvillo (2012)) para tratar los datos no detectados por debajo del límite y se adapta su expresión para imputar los valores mayores a la cota superior. Por último se aplica el tratamiento a cada caso y se comparan las predicciones obtenidas en la vecindad de sitios con datos censurados, con las correspondientes basadas en la muestra sin tratamiento. Palabras claves: Geoestadística, Censura, Imputación

*

Email: [email protected],

90

Análisis de complementariedad mediante el testeo conjunto de restricciones de desigualdad: una aplicación en el sector software de Argentina e innovación Pablo Ortiz* Departamento de Estadística y Matemática, Facultad de Ciencias Económicas, UNC, Argentina

Hernán Alejandro Morero Centro de Investigaciones y Estudios sobre Cultura y Sociedad – CONICET y UNC, Argentina

Resumen En este artículo presentamos un análisis de complementariedad entre variables que intervienen en el proceso de innovación de las empresas, siguiendo los antecedentes de Mohnen y Röller (2005) y Cassiman y Veugelers (2006). Cuando la naturaleza de estas variables es discreta, testear complementariedad entre dos variables implica testear si la función objetivo involucrada es supermodular en esos argumentos. Así, atendiendo a la definición de supermodularidad, este marco deriva en el contraste de hipótesis planteadas en términos de un sistema de restricciones de desigualdad, en la que intervienen los parámetros de la función de innovación de las firmas. Para llevar adelante esta prueba de hipótesis consideramos el test de Wald propuesto por Kodde y Palm (1986), para lo cual desarrollamos una rutina ad-hoc en R. Aplicamos esta metodología con el objetivo de analizar la complementariedad entre actividades innovativas internas y externas en empresas del sector de software en la Argentina. Para ello empleamos datos provenientes de una encuesta tecnológica realizada durante el año 2011 a 257 empresas del país y que cubre el período 2008-2010. Especificamos funciones de innovación alternativas, definiendo variables dependientes tanto discretas como continuas; lo que implicó la estimación de distintos modelos (MCO, Probit, Probit Ordinal y Tobit). En todos los casos, las variables explicativas están dadas por la recurrencia a actividades innovativas internas y externas (de naturaleza discreta), otros determinantes típicos de la innovación (competencias y vinculaciones), y a factores estructurales de las empresas tradicionalmente condicionantes de la innovación. Los resultados de los test de Wald, construidos a partir de los coeficientes estimados, muestran la existencia de una relación, estadísticamente significativa, de complementariedad entre actividades innovativas internas y externas. Las hipótesis de supermodularidad entre estas variables fueron aceptadas, independientemente del modelo considerado. Palabras claves: Test de Wald, R, Políticas de Innovación, Sector software.

*

Email: [email protected],

91

Determinación del nivel de infección de bolsa periodontal a través de la distribución de Bernoulli multivariada Ramón Álvarez* Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.

Fernando Massa** Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.

Resumen El presente trabajo muestra una posible aplicación de la distribución de Bernoulli multivariada (BM) en la caracterización de tipologías de infección para una patología odontológica como es la bolsa periodontal en la población adulta uruguaya. Se trabajó sobre los datos del primer relevamiento nacional de salud bucal, llevado a cabo durante los años 2011 y 2012 en diversos departamentos de Uruguay, donde se entrevistó a personas de 3 grupos etarios (jóvenes, adultos y adultos mayores). El modelo probabilístico utilizado es una mezcla de K distribuciones (BM), cada una caracterizada por un vector de intensidades y una matriz de asociaciones. Con este tipo de modelo probabilístico, el número de grupos K seleccionado es a través de la minimización del criterio BIC. En la formulación del problema se asume la presencia de una variable latente (que indica la pertenencia de cada observación a cada grupo), y la estimación se hace por medio del algoritmo (EM). Los resultados indican la presencia de 3 grupos; el primero de ellos constituído por personas completamente sanas, el segundo por personas con “infecciones localizadas” y un tercer grupo con “infecciones generalizadas”. Palabras claves: Asociación, Bolsa periodontal, Distribución Bernoulli Multivariada.

* **

Email: [email protected], Email: [email protected],

92

Estimador de Mínima Distancia en Procesos Localmente Estacionarios Ricardo Alonso Olea Ortega* María Ignacia Vicuña Loyola** Wilfredo Omar Palma Manríquez*** Pontificia Universidad Católica de Chile

Mauricio Enrique Zevallos Herencia**** Universidade Estadual de Campinas

Resumen En el análisis de Series de Tiempo la estacionaridad es una hipótesis muy atractiva para su teoría, pero en la práctica la mayoría de estas no se ajustan a tal condición. Como consecuencia de esto, se han propuestos varios enfoques a esta situación en la literatura. Entre estas metodologías propuestas, la diferenciación y la estimación de tendencias son opciones comúnmente usadas. Otros enfoques incluyen por ejemplo, técnicas de la evolución del espectro discutidas por Priestley (1965). En el mismo estilo, durante las últimas décadas una serie de nuevos enfoques se han propuesto con respecto a la variación del espectro en el tiempo. Una de estas metodologías, llamada procesos localmente estacionarias desarrollada por Dahlhaus (1996, 1997, 2000), ha sido ampliamente discutida recientemente en la literatura de series de tiempo por Von Sachs and MacGibbon (2000), Jensen and Witcher (2000), Guo et al. (2003), Genton and Perrin (2004), Orbe et al. (2005), Dahlhaus and Polonik (2006, 2009), Chandler and Polonik (2006), Fryzlewicz et al. (2006), Beran (2009), Palma and Olea (2010), Palma et al (2011), Ferreira et al. (2013), entre otros. Este enfoque permite a procesos estocásticos que no son estacionarios considerarlos como si lo fuesen, suponiendo que a un nivel local el modelo varía lo suficientemente suave en el tiempo para considerarlo aproximadamente estacionario. En este trabajo se estudia el comportamiento del estimador de mínima distancia (MDE), discutido en en la literatura por Tieslau, Schmidt and Baillie (1996), Baillie and Chung (2001), Mayoral (2007), Kouamé and Hili (2008) y Zevallos and Palma (2013), entre otros, para el caso de procesos localmente estacionarios de medias móviles y su comparación con otras técnicas de estimación desarrolladas para este tipo de procesos como son los estimadores de Whittle y de Espacio Estado. Palabras claves: Localmente Estacionario, Corta Memoria, Whittle, Kalman, MDE.

*

Email: Email: *** Email: **** Email: **

[email protected], Agradecimientos Fondecyt 11121128 [email protected], [email protected], Agradecimientos Fondecyt 1120758 [email protected],

93

Prueba de hipótesis para la igualdad de vectores de medias basada en observaciones multivariadas apareadas doblemente intercambiables Anuradha Roy Department of Management Science and Statistics The University of Texas at San Antonio One UTSA Circle San Antonio, TX 78249, USA

Ricardo A. Leiva* Departamento de Matemática F.C.E., Universidad Nacional de Cuyo 5500 Mendoza, Argentina

Ivan Žežula y Daniel Klein Institute of Mathematics, Faculty of Science P. J. Šafárik University 040 01 Košice, Slovakia.

Resumen En este trabajo se presenta un método para contrastar la hipótesis de igualdad entre vectores de medias obtenidos con datos apareados doblemente multivariados, con q variables respuesta y u sitios, con matriz de covarianza con simetría compuesta por bloques. Se obtiene así el estadístico T 2 de bloques (BT 2 ), que es una extensión natural del estadístico T 2 de Hotelling, resultado de una convolución de dos estadísticos T 2 . Este estadístico usa estimadores insesgados de las matrices componentes de la transformación ortogonal de la matriz de covarianza de simetría compuesta por bloques de los vectores muestrales. El nuevo estadístico de prueba se usa luego con dos conjuntos de datos reales y se comparan sus resultados con aquellos que se obtienen usando el estadístico convencional T 2 de Hotelling. Palabras claves: Estructura de covarianza de la simetría compuesta por bloques; Estadístico T 2 de bloques; Datos apareados doblemente multivariados; Estadístico T 2 de Hotelling.

*

Email: [email protected],

94

Imputation techniques for missing data in heterogeneous data sets: the ADNI study Sergio Campos*1 , Héctor Allende1,2 , Luis Pizarro3 1 Departamento

de Informática, Universidad Técnica Federico Santa María, Valparaíso, Chile de Ciencias, Universidad Adolfo Ibáñez, Valparaíso, Chile 3 Centre for Medical Image Computing, University College London, London, United Kingdom 2 Facultad

Resumen In real-world applications it is common to find data bases whose records contain missing values – a problem that affects the data analysis and could bias its conclusions. As many data analysis algorithms are not designed to work with missing data, all variables associated with such records are generally removed from the analysis. This solution is valid when the rate of missing data is low, in which case the statistical distribution of the data should not be altered. Nevertheless, when the rate is high a better alternative is to employ data imputation techniques to estimate the missing values using statistical relationships with the other records. The ADNI (Alzheimer’s Disease Neuroimaging Initiative) study provides a data base with heterogeneous entries (clinical, genetic, chemical data, and biomedical images) of 800 patients diagnosed at different stages of the Alzheimer’s disease. The study aims at investigating and defining the progression patterns of the disease. Approximately 80 % of the patients contain entries with missing values, which suggests that it is unpractical to remove the vast majority of the data from the analysis. In this work, we juxtapose different parametric and non-parametric data imputation techniques for the ADNI study. Using various performance metrics, we provide results that allow for the identification of the most suitable data imputation techniques under different scenarios in which the data could be corrupted or completely missing. Keywords: Missing data, Imputation techniques, Heterogeneous data sets, ADNI.

*

Email: [email protected],

95

Comparación de la Predicción del Consumo Eléctrico Mediante diversos modelos de Series de Tiempo Sergio Contreras Espinoza* Universidad del Bío-Bío.

Pamela Vicuña Fernández Universidad del Bío-Bío

Resumen La predicción de la demanda del consumo energético para cualquier empresa, es un insumo fundamental para la toma de decisiones operativas y estratégicas, cuya falta de precisión puede generar altos costos económicos. Es por ello que el objetivo de este artículo es realizar una comparación entre la calidad de las predicciones realizadas usando los modelos de suavizamiento exponencial, de redes neuronales y de espacio estado para el consumo eléctrico de una zona del sur de Chile. En estos pronósticos no se considera la utilización de variables exógenas importantes, como por ejemplo, el cambio de temperatura, el crecimiento de la población, la sensación térmica, precio de energías sustitutas (ERNC), entre otras; debido a que no hay registro confiable de ellas para el periodo y zona geográfica en estudio. Palabras claves: Demanda de Energía Eléctrica, predicción, series de tiempo.

*

Email: [email protected],

96

Testing for Unit roots and Granger non-causality in time series with multiple structural breaks. An international stock markets application Sergio Martín Buzzi* Facultad de Ciencias Económicas de la Universidad Nacional de Córdoba.

Silvia María Ojeda Facultad de Matemática, Astronomía y Física de la Universidad Nacional de Córdoba.

Abstract In the current paper, we analyze the relationship amongst the dynamics of a group of selected stock indices using daily data. In order to that, we explore the statistical properties of the series, in particular the existence of breaks and unit roots. Two questions of interest are whether or not there are markets that lead the others and which are them. The concept of Granger causality, as a proxy of causality, enables us to address these issues. Moreover, knowing that a market helps to forecast the movements of another market index provides valuable information for traders. Also, this information is useful for improving the knowledge on financial crisis transmission channels. The existence of multiple structural breaks generates problems on the unit roots and Granger non-causality testing. Given that, we design procedures to lead with those issues. Keywords: Time series, unit root, Granger causality, stock markets.

*

Email: [email protected],

97

Estudio del Gráfico de Control CCC-r para Procesos de Alta Calidad y su Aplicación con Datos de una Planta de Autopartes Silvia Joekes* Instituto de Estadística y Demografía, U.N.C.

Marcelo Smrekar** Lab. de Ingeniería y Mantenimiento Industrial, U.N.C.

Emanuel Pimentel Barbosa*** Depto. Estatística, Imecc/UNICAMP, Campinas-SP, Brazil

Resumen Los procesos industriales de alta calidad (baja fracción de unidades no conformes), requieren que se deba prestar especial atención a los métodos de control empleados, dado que los tradicionales gráficos de control de Shewhart ya no son más apropiados. Una alternativa consiste en la determinación de gráficos de control clasificados en la categoría de gráficos de conformidades acumuladas, que tienen a la distribución geométrica o la distribución binomial negativa o a alguna de sus variantes como distribuciones de probabilidad subyacente. En este trabajo son considerados los gráficos CCC-r que se basan en el recuento acumulado de ítems conformes producidos antes de que se observen r ítems no conformes. Sin embargo, aunque estos gráficos han demostrado ser útiles en el seguimiento de procesos de alta calidad, poseen la característica de que la longitud promedio de corrida (ARL) es sesgada. Para evitar esta dificultad, existen dos propuestas en la literatura. Una basada en la determinación de límites de control mediante la incorporación de un coeficiente de ajuste obtenido a partir de la maximización de la longitud media de corrida (ARL) y otra que propone determinar límites de control del gráfico CCC-r, mediante un procedimiento iterativo tendiente a obtener un ARL cuasi insesgado y cuasi maximal. A efectos de determinar la mejor opción, se realiza un estudio computacional de validación estadística para comparar ambos procedimientos mediante un experimento de simulación para los casos r = 2, 3 y 4, evaluando la performance en función de la longitud promedio de corrida (ARL). Los resultados muestran que una de las propuestas es más eficiente para detectar el deterioro del proceso mientras que la otra es más adecuada para monitorear la mejora del proceso. Finalmente se muestra la aplicación del gráfico CCC-r a un proceso real con datos de una planta de autopartes, con análisis y discusión de los resultados. Palabras claves: Procesos de Alta Calidad, Gráficos de Control CCC-r, Distribución binomial negativa, Longitud promedio de corrida (ARL)

*

Email: [email protected], Email: [email protected], *** Email: [email protected], **

98

Predicción de la demanda diaria de energía eléctrica en Uruguay Silvia Rodríguez Collazo* Instituto de Estadística. Facultad de Ciencias Económicas y Administración, UdelaR

Fernando Massa Instituto de Estadística. Facultad de Ciencias Económicas y Administración, UdelaR

Resumen Las series horarias con fuerte patrón estacional se caracterizadas por la alta frecuencia con la que se registran los datos. En la medida que el registro es muy frecuente es posible captar periodicidades en los datos que no son detectables cuando la información aparece agregada. La modelización de la demanda horaria de energía eléctrica debería contemplar la existencia de múltiples estacionalidades, el efecto de los días especiales, fines de semana, feriados, e incluso la influencia de variables de tipo meteorológico. En este trabajo se estima y predice la demanda por hora y a lo largo del día y hasta 10 días en adelante de energía eléctrica de Uruguay, mediante 24 modelos horarios, uno para cada hora del día y un único modelo diario. A partir de la aplicación del test HEGY adaptado a series de frecuencia diaria, Rubia (2001), se define una representación determinística para captar las periodicidades intrasemanales dentro del modelo. La estimación se realiza en dos etapas, en la primer etapa el modelo recoge la periodicidad semanal, incorporando su interacción con los días especiales. En la segunda etapa se incorpora la estacionalidad mensual mediante la inclusión de variables meteorológicas considerando el vínculo no lineal entre la demanda de energía eléctrica y la temperatura, así como los eventos atípicos y un componente ARMA para recoger la estructura remanente. El vínculo no lineal entre demanda de energía eléctrica y temperatura se especifica mediante la inclusión de umbrales. La búsqueda iterativa de los umbrales se realiza siguiendo la propuesta de Cancelo y Espasa (1991) y Cancelo et al. (2008). Palabras claves: Demanda de energía eléctrica, series alta frecuencia, SARIMA, estacionalidad múltiple.

*

Email: [email protected],

99

Aplicación de un modelo de Análisis Factorial Confirmatorio para determinar los scores de los factores latentes que determinan la Calidad de Vida percibida. Una aplicación web. Valeria Gogni* Universidad de Buenos Aires- Facultad de Ingeniería. Roberto Muiños Universidad de Buenos Aires- Facultad de Psicología.

Resumen Tanto a nivel teórico como práctico, no existe un consenso acerca de qué se entiende por Calidad de Vida dado que este concepto posee un carácter complejo y multidimensional. Campbell (1976) plantea que la satisfacción de una persona se integra con diversas componentes que cubren los distintos aspectos de la vida de una persona y que son evaluados subjetivamente por los individuos tanto en lo referido a la importancia en su contexto vital, como en relación a su felicidad o bienestar en dichos aspectos. En este trabajo, se ajusta un modelo de Análisis Factorial Confirmatorio de Segundo Orden a los datos provistos por el Inventario de Calidad de Vida, aplicado a una muestra de 1336 individuos de entre 18 y 64 años de la ciudad de Buenos Aires, que permite identificar las dimensiones latentes que subyacen: Ambiente o hábitat del sujeto, su necesidad de trascendencia, las redes sociales que lo contienen, y su Crecimiento Personal. Se diseñó una aplicación web que permite obtener los scores en los factores latentes mencionados, y los baremos que permiten su utilización con fines diagnósticos. Palabras claves: Calidad de Vida - Análisis Factorial Confirmatorio - Modelos de Ecuaciones Estructurales – Factores Latentes

*

Email: [email protected],

100

Métodos MIS y POT para estimación de Vref en proyectos de energía eólica Valeria Gogni* Mariano Bonoli Escobar Diego Edwards Molina Rubén Bufanio Julia Contin Grupo GESE. Universidad Tecnológica Nacional, Facultad Regional Haedo. Argentina.

Resumen A la hora de proyectar la instalación de una planta de generación de energía utlizando turbinas de viento, la caracterización estadística del recurso eólico juega un papel crítico. Durante este proceso se estudia la intensidad y dirección del viento y su turbulencia, entre otros aspectos. Uno de los parámetros de este proceso es Vref, que la norma IEC 61400-12 define como la velocidad extrema que tomará el viento con una recurrencia de 1 vez cada 50 años. Esta parámetro se utiliza para definir la clase de aerogenerador que debe utilizarse. Una incorrecta selección de la clase llevaría a utilizar un molino cuyo diseño no es adecuado para las condiciones de trabajo, afectando negativamente la vida útil del mismo. Para estimar Vref se utilizan distribuciones de valores extremos, siendo el caso mas general la distribución de valores extremos generalizada (GEV). El principal inconveniente para realizar la estimación es la escacéz de información, ya que se requieren varios años de mediciones en el sitio a caracterizar, rara vez disponibles. Surgen así, otras metodologías que buscan obtener buenas estimaciones a partir de series de datos mas cortas. Son ejemplo de estos métodos: Independent Storms Method (MIS), Peaks over Threshold (POT). En el presente trabajo se describen los métodos MIS y POT aplicados a estimación de Vref en proyectos de energía eólica. Se comparan ambos métodos y se describen las funciones para realizar las estimaciones con el paquete R WindResource, de desarrollo propio. Palabras claves: Recurso eólico, estimación Vref, distribuciones de extremos.

*

Email: [email protected],

101

Distribuición Geométrica Half-Normal Potencia con fracción de cura Yolanda M. Gómez* Instituto de Matemática e Estatística, Universidade de São Paulo, Brazil.

Heleno Bolfarine Instituto de Matemática e Estatística, Universidade de São Paulo, Brazil.

Resumen En este trabajo se considera el modelo de cura geométrico de Rodrigues et al.(2009) usando para S0 (·), la función de sobrevivencia de las células cancerígenas, una extensión de la distribuición half-normal basada en la distribuición del máximo de una muestra aleatoria. Es discutida la estimación de máxima verosimilitud del modelo y finalmente, el modelo es ajustado a un banco de datos real (Melanoma), comparándolo finalmente con otras alternativas para S0 (·). Palabras claves: Distribuición del máximo de una muestra, Distribuición half-normal, Máxima verosimilitud, Modelo de cura geométrico.

*

Email: [email protected],

102

Clustering de Datos Funcionales Aplicación a Datos de Consumo Eléctrico Andrés Castrillejo Instituto de Estadística, FCEA. UdelaR.

Fernando Massa* Instituto de Estadística, FCEA. UdelaR.

Abstract El Análisis de Clusters es una técnica descriptiva de clasificación no supervisada que permite clasificar objetos en grupos homogéneos siguiendo un criterio de similitud. Así, los grupos obtenidos contienen objetos que son similares en su interior y disímiles entre grupos. Existe una vasta literatura, incluyendo varios algoritmos de clasificación y criterios de similitud, que tratan el caso en que los objetos son representados por un vector de medidas. En esta aplicación se presentan los resultados de un Análisis de Cluster en el cual los objetos son representados mediante funciones. Este tipo de datos de naturaleza infinita son estudiados por la rama de la estadística conocida como Análisis de Datos Funcionales. Entre los problemas a tratar se encuentra la representación de los datos y el uso de un criterio de similitud consistente con la naturaleza de los objetos funcionales. El trabajo está guiado por el análisis a la demanda de energía eléctrica en Uruguay. El objetivo es obtener un agrupamiento que permita describir e interpretar diferencias de comportamiento en la demanda diaria de energía eléctrica a nivel del sistema eléctrico. Los objetos con los que se trata son trayectorias de procesos estocásticos que se representan como funciones del tiempo. La no estacionariedad del proceso subyacente introduce una dificultad adicional. Se dispone de datos de demanda de energía eléctrica muestreados cada 10 minutos sobre un período de 5 años. Los datos históricos son segmentados en días, los que conforman las unidades del análisis. La implementación propuesta implica un pre-procesamiento de los datos y su representación adecuada, para poder aproximar las funciones diarias de demanda a partir de las medidas discretas observadas, previo a la aplicación de algoritmos de clustering. Se exploran diversas estrategias de pre-procesamiento de los datos funcionales en esta situación y se comparan diferentes algoritmos de clustering y nociones de disimilitud entre los objetos funcionales. Keywords: análisis de datos funcionales; clustering ; medidas de disimilaridad

*

Email: [email protected],

103

STANOVA: A Smoothed-ANOVA-based model for spatio-temporal disease mapping Francisco Torres-Avilés* Universidad de Santiago de Chile.

Miguel A. Martínez-Beneito Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana (FISABIO), Valencia, Spain CIBER de Epidemiologa y Salud Pública (CIBERESP), Madrid, Spain.

Abstract Spatio-temporal disease mapping can be viewed as a multivariate disease mapping problem with a given order of the geographic patterns to be studied. As a consequence, some of the techniques in multivariate literature could also be used to build spatio-temporal models. In this paper we propose using the smoothed ANOVA multivariate model for spatio-temporal problems. Under our approach the time trend for each geographic unit is modeled parametrically, projecting it on a preset orthogonal basis of functions (the contrasts in the smoothed ANOVA nomenclature), while the coefficients of these projections are considered to be spatially dependent random effects. Despite the parametric temporal nature of our proposal, we show with both simulated and real datasets that it may be as flexible as other spatiotemporal smoothing models proposed in the literature and may model spatio-temporal data with several sources of variability. Keywords: Besag, York and Mollié’s model, Disease mapping, Spatio-temporal modeling.

*

Email: [email protected], Agradecimientos Fondecyt grant 11110119.

104

Aplicación de Procesos Localmente Estacionarios en Modelos de Volatilidad Estocástica Cristián Vásquez E.* Pontificia Universidad Católica de Chile.

Wilfredo Palma Pontificia Universidad Católica de Chile.

Resumen En el presente trabajo, se propone una clase de modelos apropiados para series financieras que presentan varianza condicional evolucionando en el tiempo. Esta clase, corresponde a una extensión natural de los modelos de volatilidad estocástica propuestos por Taylor (1986. Modelling Financial Time Series. Wiley, New York), donde el procesos latente no observado que genera la volatilidad corresponde a una familia de modelos localmente estacionarios propuestos por Dahlhaus (1997. Annals of Statistics 25: 1-37). Para dicha propuesta, se presenta un mecanismo de estimación, la consistencia de los estimadores, el teorema del límite central y un estudio de simulación de Montecarlo. Palabras claves: Procesos Locamente Estacionarios, Volatilidad Estocástica y Determinística, Densidad Espectral.

*

Email: [email protected],

105

Parte V Póster

106

Análisis de clúster aplicado al perfil de los ingresantes a Ciencias Económicas de la UNC Adrián Maximiliano Moneta Pizarro* Departamento de Estadística y Matemática de la Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.

Laura Montero Departamento de Estadística y Matemática de la Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.

María Alejandra Juárez Departamento de Estadística y Matemática de la Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.

Valentina Caro Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.

Julio Mine Facultad de Ciencias Económicas, Universidad Nacional de Córdoba.

Resumen El perfil de los ingresantes es un insumo básico para la gestión académica y docente de las universidades. Conocer este perfil permite diseñar políticas y estrategias de enseñanza y aprendizaje de acuerdo a las características propias de los alumnos. El objetivo del presente trabajo es identificar diferentes tipos de perfiles entre los alumnos ingresantes a la Facultad de Ciencias Económicas (FCE) de la Universidad Nacional de Córdoba (UNC). Para ello se presenta un análisis de clúster aplicado sobre datos de las características personales, familiares, académicas, laborales y tecnológicas de una muestra aleatoria de ingresantes tomada en el año 2013. Se trata de un segundo avance de investigación realizado sobre la base de un trabajo exploratorio previo de los autores que indicaba la posible existencia de tres grupos de perfiles. Los resultados permiten distinguir claramente estos grupos de perfiles, pero también otros dos que no habían sido identificados en el estudio anterior. Palabras claves: ingresantes, universidad, clúster, conglomerados.

*

Email: [email protected],

107

Física Estadística y Finanzas Cuánticas: Una aplicación de modelos matemáticas de la teoría cuántica de campos. Ana María Pendino* Facultad de Ciencias Económicas y Estadística, UNR, Bv. Oroño 1261, S2000DSM, Rosario

Ricardo Rubén Addad** Facultad de Ciencias Exactas, Ingeniería y Agrimensura, UNR, Av. Pellegrini 250, S2000BTP, Rosario.

Resumen El término ‘Finanzas Cuánticas’ representa la síntesis de los conceptos, métodos y matemáticas de la teoría cuántica, con el campo de finanzas teóricas y aplicadas. El término cuántico, que acompaña a Finanzas, se refiere al extracto matemático base de la teoría cuántica que incluye la teoría de probabilidad, espacio estado, operadores, hamiltonianos, ecuaciones de conmutación, lagrangianos, integrales de camino, cuantificación de campos, bosones, fermiones etcétera. En las dos o tres últimas décadas, los mercados financieros verificaron comportamientos bursátiles con períodos de gran crecimiento o de gran baja, con su correspondiente incertidumbre. Por otro lado, en los últimos años la física teórica ha permitido añadir nuevas técnicas matemáticas y computacionales a las finanzas, desde los métodos de la física clásica y cuántica al uso de la integral de camino, mecánica estadística, etcétera. La gran cuestión es aplicar el formalismo y las perspicacias de la física (cuántica) a la economía (“Econophysics”, “Econofísica”, término acuñado por Brian Arthur en la década de 1990). Se desarrolla una aplicación y conexión de los conceptos de la teoría cuántica de campos al modelado de tasas de interés y la teoría de opciones, con énfasis particular en torno a las integrales de camino y hamiltonianos. Para la realización de los cálculos analíticos, se utilizan no sólo herramientas físicomatemáticas provenientes de la teoría cuántica de campos y de la mecánica estadística, sino también herramientas matemáticas provenientes del cálculo estocástico, probabilidad y estadística, econometría. Palabras claves: Física estadística, Finanzas cuánticas, Probabilidad.

* **

Email: [email protected], Email: [email protected],

108

Diseño de planes de muestreo en la detección de micotoxinas Ana María Sancho* Centro Nacional de Investigación en Agroindustria- Instituto Nacional de Tecnología Agropecuaria CNIA - INTA. Ricardo Moschini Instituto de Clima y Agua- INTA. Diana Giorgini Universidad Nacional de Buenos Aires

Susana Olga Filippini Universidad Nacional de Lujan

Resumen Las micotoxinas son un grupo heterogéneo de sustancias químicas que tienen efectos negativos agudos y/o crónicos sobre la salud de los animales y de los seres humanos. Estos metabolitos fúngicos están presentes en una gran parte de los suministros alimentarios mundiales y pueden representar una amenaza potencial para la inocuidad de los alimentos. La posible toxicidad crónica (en niveles bajos de exposición) puede deberse a: aflatoxinas, ocratoxinas, fumonisinas, zearalenona, entre otras micotoxinas. En dosis inferiores suele suscitar mayor preocupación que la toxicidad aguda, dado que algunas de esas sustancias son carcinógenos muy poderosos y la exposición a ellas es muy amplia. Nuestro objetivo fue desarrollar un muestreo racional de granos de maíz en terminales portuarias para determinar la concentración de micotoxinas. Para el análisis distribucional y planificar los muestreos apropiados se utilizó la determinación de los niveles de micotoxinas realizado en el laboratorio de Contaminantes Químicos del ITA- INTA de Castelar en las muestras de granos de maíz realizadas en terminales portuarias por SENASA (Servicio Nacional de Sanidad y Calidad Agroalimentaria) e identificadas según zonas geograficas. De estos análisis, la fumonisina total (F T = F B1 + F B2 ) fue la más detectada en los muestreos de las diferentes regiones maiceras de Argentina. El estudio de los aspectos distribucionales de la posible contaminación con micotoxinas es de importancia para un buen diseño de los planes de muestreo y en los monitoreos de calidad. Debido a la escasa disponibilidad en Argentina de estudios que provean estimaciones de los niveles de FT en granos de maíz para exportación la obtención de buena información es de gran relevancia. Palabras claves: Plan de muestreo, fumonisina total, distribuciones probabilísticas.

*

Email: [email protected], Agradecimientos: SENASA y Laboratorio de Contaminantes Químicos ITA INTA CNIA.

109

Modelo Zero Inflated Poisson en el control de procesos de alta calidad: un caso de aplicación Andrea Righetti* , Joekes Silvia, Cristian Abrego Instituto de Estadística y Demografía Facultad de Ciencias Económicas. Universidad Nacional de Córdoba.

Resumen Los gráficos de control de atributos que se utilizan comúnmente para monitorear el número de disconformidades por unidad, suponen que la característica bajo estudio sigue una distribución Poisson. Fruto de la evolución tecnológica, actualmente los procesos se caracterizan por producir artículos que presentan un número de disconformidades por unidad muy bajo, de manera que los gráficos tradicionales ya no resultan adecuados. Estos procesos se denominan procesos de alta calidad. En este trabajo se utiliza el gráfico Zero Inflated Poison (ZIP) para monitorear el número de disconformidades por unidad en los procesos caracterizados por la incorporación de un exceso de ceros al modelo Poisson. Se muestra la importancia de la aplicación de los modelos ZIP en procesos de alta calidad en un estudio con datos reales y la comparación con el gráfico tradicional de Shewhart. Se indica la performance de los procedimientos en base al cálculo de la longitud media de corrida (ARL) y el índice de cobertura (ACP). Palabras claves: Proceso de Alta Calidad, Distribución Zero Inflated Poisson, Control Estadístico de Procesos.

*

Email: [email protected]. ,

110

Propuesta metodológica de diseño de un sistema de evaluación para la gestión educativa en el nivel superior Gladys Rouadi* ; Cecilia Savi; Andrea Righetti; Roberto Infante Carlos Garibaldi;Ana María Strub; Clarisa Stefanich; Irene Rómoli Universidad Tecnológica Nacional. Facultad Regional Córdoba.

Resumen En la actualidad existe una justificada y creciente preocupación en relación con la garantía de la calidad, tanto de la universidad como institución, como de sus programas académicos. En este contexto surge la acreditación como un proceso por medio del cual un programa o institución educativa brinda información sobre sus operaciones y logros a un organismo externo que evalúa y juzga. Los requerimientos de calidad y productividad aplicados a un proceso educativo implican no sólo identificar y comprender el comportamiento de las variables que inciden en este proceso, sino también determinar, por un lado, el nivel mínimo de calidad y productividad necesarios para garantizar una educación superior eficaz y eficiente, y por el otro la continuidad y desarrollo de la Institución. El nivel de calidad es un concepto que puede ser medido y evaluado "per se"(normativo) o en términos relativos: comparación con pares, percepción de los usuarios e interesados, entre otros. La creación de ïndicadores estadísticos"permite relacionar funcionamiento, recursos y resultados respecto a actividades, eventos, procesos, unidades organizacionales y otros componentes de la institución. Los indicadores tienen el atractivo de su claridad pero su limitante radica en que no es posible traducir, con precisión, las complejidades del proceso de interacción que se da en la educación en términos numéricos. Es por esta razón, que solamente se proponen indicadores de evaluación de la calidad y de la productividad para algunas áreas, ya que en otras, por su fuerte contenido subjetivo, no es posible establecer indicadores y menos aún estándares. En este trabajo se presenta la propuesta de diseño de un Sistema de Evaluación de Desempeño a partir de la utilización de indicadores estadísticos específicos que satisfagan las necesidades de información para la medición, el control y la toma de decisiones en los niveles: Alumnos, Docentes y Egresados. A partir de la observación de variables internas e históricas dentro de la Institución, se espera dilucidar y cuantificar los aspectos internos. La detección de fortalezas y debilidades, darán paso a la determinación de acciones correctivas cuando corresponda, o bien a la generación de información adicional que permita profundizar en la problemática. La información externa marcará la relación con las tendencias y acciones de otra/s Institución/es, para detectar las necesidades que el mundo exterior exige para la Educación, y en particular, para la carrera/s universitaria/s. Palabras claves: Sistema de Gestión Educativa, Indicadores estadísticos, Evaluación, Acreditación.

*

Email: [email protected],

111

Estudio epidemiológico de la influenza asiática de 1955-1957 en la Región del Bío-Bío Benjamín J. Castillo Fierro* Departamento de Estadística, Universidad del Bío-Bío.

Gerardo Chowell-Puente School of Mathematics & Statistical Sciences, Arizona State University, Tempe, AZ 85287, USA. Nelly Gómez Fuentealba Departamento de Estadística, Universidad del Bío-Bío.

Resumen l estudio de las grandes epidemias que han ocurrido en la historia de Chile es aún una fuente de trabajo para la comprensión de su comportamiento para efectos de nuevas apariciones de éstas. Para efectos del presente trabajo se planteó una metodología de dinámica poblacional propiamente de los modelos epidemiológicos matemáticos, tal es el caso de los modelos de los modelos tipo SEIR, en donde se plantea como principal problema de estudio la búsqueda de la tasa de infecciosidad R0 , ya que ésta deduce si la influenza se extingue o bien se propaga incontrolablemente. La distinción de la población de estudio son básicamente los Susceptibles (S), Latentes (L), Infectados (I) y Removidos (R). Los resultados entregados en términos de la frecuencia de muertos por la influenza en la Región del Bío-Bío están correspondidos a la población y el tratamiento propiamente tal en la época. Palabras claves: Influenza, epidemiología matemática, SEIR, R0 .

*

Email: [email protected],

112

“Análisis comparativo de métodos de detección de diferencias mínimas en promotores del crecimiento en aves” Luciano Palacios. Universidad Nacional de Luján.

Carla Martinez. Universidad Nacional de Luján.

Olga Susana Filippini. Universidad Nacional de Luján.

Resumen La producción avícola en la Republica Argentina afronta actualmente la prohibición del uso de antimicrobianos como promotores del crecimiento; utilizando en su remplazo acidificantes, enzimas, antioxidantes, probióticos, beta-adrenérgicos, pigmentadores, estimulantes y extractos vegetales, para mantener en niveles aceptables la productividad y eficiencia. Estos promotores presentan diferencias mínimas en los parámetros productivos, especialmente peso, consumo y conversión alimenticia. Esta investigación tiene como objetivo probar y seleccionar métodos estadísticos de comparación de medias que detecten diferencias significativas reales mínimas en promotores del crecimiento. Las distintas técnicas de comparaciones múltiples presentan ventajas y limitaciones. Se trata de seleccionar aquellas con posibilidad de discriminar entre los grupos de tratamientos con máxima potencia. Se comparan las pruebas según cumplan o no con la homogeneidad de variancias. En algunas variables, resultaron más eficientes los test de Tukey, Scheffé, Hochberg ,Bonferroni y F de Ryan-Einot-Gabriel-Welsch. En aquellas variables que no se cumplió el supuesto de homogeneidad de variancias, el procedimiento de T3 y C que described in Dunnett y T2 de Tamhane, son las más apropiadas para el empleo en los diferentes análisis. Palabras claves: Nutrición, Aves, Comparaciones Múltiples.

113

Inferencia sobre el coeficiente de correlación de concordancia Carla Leal Kaymalyz* Estudiante de Doctorado en Estadística Departamento de Estadística, Facultad de Matemáticas Pontificia Universidad Católica de Chile.

Manuel Galea Rojas** Departamento de Estadística, Facultad de Matemáticas Pontificia Universidad Católica de Chile.

Resumen La concordancia entre mediciones depende de la calibración del instrumento en el sentido que éste pueda obtener medidas cercanas al valor real de la característica que se desea medir (exactitud) y además pueda entregar resultados similares de diferentes mediciones obtenidas bajo las mismas condiciones (precisión). Un indicador propuesto por Lin (1989) para evaluar el grado de acuerdo o concordancia entre medidas obtenidas con diferentes instrumentos es el Coeficiente de Correlación de Concordancia (CCC)*** . En la práctica es común asumir que las observaciones siguen una distribución normal, no obstante si el conjunto de datos presenta outliers, éste supuesto distribucional no es robusto en el sentido que la estimación del CCC puede verse afectado y por ende las conclusiones respecto a la concordancia de las observaciones. Se presentan algunas inferencias sobre el CCC suponiendo que los datos siguen una distribución t-Student bivariada y se aplica la técnica de diagnóstico de influencia local, la cual permite detectar la sensibilidad del estimador de CCC bajo diferentes esquemas de perturbación. Se espera que el estimador del CCC bajo éste supuesto sea menos sensible respecto al estimador del CCC bajo el supuesto distribucional Normal. Palabras claves: Coficiente de correlación de concordancia, Grado de acuerdo, Distribución Normal, Distribución t-Student, Influencia local.

*

Email: [email protected], Email: [email protected], *** Lin, L.(1989). A Concordance Correlation Coefficient to Evaluate Reproducibility. Biometrics, 45, 255248. **

114

Cambio Climático Mundial: Análisis Estadístico de las Nuevas Experiencias en Latino-América Claudia Castro-Kuriss* Dto. Matemática, Instituto Tecnológico de Buenos Aires, ITBA.

Eduardo Fracassi Centro de Estudios Estratégicos para el Desarrollo Sostenible, Escuela de Ingeniería y Gestión, ITBA.

Fabián Szulanski Dto. de Ingeniería Industrial, ITBA,Buenos Aires, Argentina.

Resumen El Ejercicio de Cambio Climático Mundial se describe en el sitio interactivo http://www. climateinteractive.org/simulations/world-climate como un juego de roles sobre una simulación de clima diseñada conjuntamente por el MIT y Climate Interactive que permite a los participantes experimentar cómo negociar para obtener un acuerdo mundial tendiente a mitigar los efectos del cambio climático. Las autoridades del Capítulo Latinoamericano de la Sociedad Internacional de Dinámica de Sistemas convocaron al ITBA a liderarla en Argentina. El trabajo muestra cómo es posible incrementar la conciencia sobre el problema, el riesgo percibido y la urgencia en mitigar las consecuencias en el corto-mediano plazo. Los autores crearon un cuestionario que fue completado después de la participación y en algunos casos antes y después, para un total de 11 talleres y 220 participantes en 2 Universidades, un Colegio Secundario y una Asociación Técnica de Graduados durante los años 2013 y 2014. Las respuestas se asociaron con una escala Likert de 5 categorías. Se realizó un análisis de comparación múltiple de respuestas categóricas ordinales según lugar relevado. Para testear si las probabilidades en cada categoría resultaban iguales según los centros se empleó el test de Chi-cuadrado de Pearson y para comparar resultados antes-después las variables fueron dispuestas en una tabla de contingencia 2x2 empleándose el test exacto de Fisher. La asociación entre las variables ordinales se estudió mediante el coeficiente de correlación de rangos de Kendall, Tau-b. Se calculó también el índice de consistencia interna mediante el alpha de Cronbach que resultó mayor a 0.65 en tres de los cinco Centros estudiados. Los resultados obtenidos no mostraron en general diferencia significativa entre los lugares donde se impartieron los talleres ni asociación entre las categorías definidas. Las excepciones fueron las variables definidas como Conciencia , Riesgo y Urgencia indicando distinto grado de preocupación entre los participantes según su formación académica. Palabras claves: Ejercicio de Cambio Climático Mundial, tests para variables categóricas.

*

Email: [email protected] ; [email protected],

115

Estimación del riesgo Microbiológico por Salmonella en aguas grises de la provincia de Buenos Aires Claudia P. Molinari* Cátedra de Matemática-Facultad de Farmacia y Bioquímica-Universidad de Buenos Aires Lidia

Nuñez, Marta Paz, Carina Tornello, Julián Mantovano, Juan Morettón Cátedra de Salud Pública e Higiene Ambiental -Facultad de Farmacia y Bioquímica-Universidad de Buenos Aires

Resumen Salmonella sp y Escherichia coli son microorganismos patógenos e indicadores de contaminación fecal presentes en aguas residuales domiciliarias conocidas como aguas grises, originadas en duchas, piletas de cocina, etc. que se vierten separadas de las aguas negras. De acuerdo a la carga microbiológica estas aguas grises pueden ser fuente de transmisión de enfermedades sobre todo en lugares donde corren a través de zanjas o canales a cielo abierto. El objetivo de este trabajo ha sido estimar el riesgo de infección debido a Salmonella sp y analizar la reducción de dicho riesgo en el caso de la sedimentación espontánea y posterior filtrado por arena del agua cruda, técnica que se propone como una alternativa de emergencia ante la ausencia de redes cloacales. El estudio se realizó aplicando los fundamentos del QMRA (Quantitative microbial risk assessment). Para la estimación del riesgo se utilizó el modelo correspondiente al patógeno aplicando técnicas de simulación de Montecarlo, ajustándose previamente las distribuciones en base a los datos relevados. Se consideró además la relación Salmonella sp - coliformes fecales para la simulación de su concentración. Se tomaron en cuenta dos escenarios posibles de exposición: 1.Ingestión accidental de 0.01 a 0,1 g de tierra por una sola exposición por parte de niños que jueguen en el lugar (96 días al año), 2. Ingestión accidental de agua al salpicarse con el agua del canal: 10 mL de agua (48 días al año), estimando el riesgo frente a una sola ingestión y el acumulado por ingesta anual. Para cada uno de dichos escenarios se calculó el riesgo para agua cruda, agua sedimentada y agua filtrada a fin de evaluar la reducción del riesgo en cada etapa. Los resultados obtenidos para agua filtrada llevan a concluir que ésta es una buena alternativa para disminuir el riesgo de contaminación con Salmonella sp en estas aguas. Palabras claves: riesgo microbiológico; análisis cuantitativo, Salmonella ;simulación de Montecarlo.

*

Email: [email protected],

116

Predicción de resultados de partidos de fútbol a través de métodos bayesianos Diego Marfetán Molina* Facultad de Ciencias Económicas y Estadística, Universidad Nacional de Rosario.

Resumen A lo largo de los últimos veinte años la comunidad estadística presenció la resurrección de la inferencia bayesiana, la cual acrecentó paulatinamente su popularidad y logró ubicarse a la par de los métodos clásicos o frecuentistas. Este cambio se vio sustentado, principalmente, por el desarrollo de procesadores y algoritmos computacionales capaces de llevar a cabo eficazmente el proceso de estimación requerido por los métodos bayesianos. Si bien el enfoque bayesiano presenta algunas ventajas en cuanto a la interpretación de los resultados y su validez no depende del cumplimiento de supuestos, la elección entre este paradigma y el clásico depende generalmente de las características particulares del problema a resolver, siendo inapropiado utilizar invariablemente un único método. Este trabajo constituye un acercamiento a la escuela de inferencia bayesiana, escasamente difundida en la región, al tiempo que compara la performance de ambos enfoques a la hora de interpretar los resultados de los modelos ajustados. Se presentan los resultados obtenidos tras ajustar diversos modelos de odds proporcionales desde una perspectiva tanto bayesiana como clásica, utilizando para tal fin los paquetes estadísticos libres R y WinBUGS. Se considera al resultado final de un partido de fútbol (victoria, empate o derrota) como una variable multicategórica ordinal, modelándose en consecuencia dos ecuaciones logit. La primera de ellas puede interpretarse como la razón entre la probabilidad de ganar y la probabilidad de no ganar, mientras que la restante representa la razón entre las probabilidades de no perder y perder. El objetivo principal del estudio consiste en identificar a las variables explicativas que mayor influencia ejercen sobre el resultado final del encuentro. Palabras claves: nferencia bayesiana, modelo de odds proporcionales, fútbol.

*

Email: [email protected], Agradecimientos: Mg. Leticia Hachuel.

117

El patrón social de las actitudes hacia el control del tabaco en Argentina Fernando De Maio* DePaul.University

Jonatan Konfino Ministerio de Salud de la Nación

Dolores Ondarsuhu Instituto Nacional de Estadística y Censos

Lucila Goldberg Ministerio de Salud de la Nación

Daniel Ferrante Ministerio de Salud de la Nación

Resumen La Argentina ha promulgado iniciativas de control del tabaco importantes de los últimos años. Sin embargo, poco se sabe acerca de los patrones sociales de las actitudes hacia el control del tabaco. Se necesita investigación para explorar lo que predice la oposición a las iniciativas de control del tabaco, tales como impuestos más altos sobre el tabaco y la prohibición de la publicidad del tabaco. El objetivo de este estudio es analizar el patrón social de las actitudes hacia el control del tabaco en la Argentina, en particular, lo que predice la oposición a las iniciativas de control del tabaco, tales como el aumento de los impuestos sobre el tabaco y la prohibición de la publicidad. En este trabajo se presenta un análisis secundario de la Encuesta Mundial de Tabaquismo en Adultos 2012 (N = 6.645) a partir de un análisis de regresión logística binaria que pretende examinar la oposición al aumento de los impuestos del tabaco y la prohibición de la publicidad del tabaco. Los modelos fueron estratificados por condición actual de fumador. Palabras claves: Análisis de regresión logística, control de tabaco, patrones sociales

*

Email: [email protected] ,

118

Estimación de sistemas de ecuaciones simultáneas anidados Dora silvia Maglione* Universidad Nacional de la Patagonia Austral, Argentina

Angela Magdalena Diblasi Universidad Nacional de Cuyo, Argentina

Resumen Los modelos de Análisis de Demanda permiten predecir el comportamiento de la demanda de un grupo de productos en función de una serie de variables conocidas. En particular, resulta de interés estimar la participación de cada artículo dentro de un grupo de artículos que suelen estar asociados (por ejemplo los artículos básicos para la construcción) y la participación de diversos tipos de un único artículo (por ejemplo, diversas marcas de cementos) en su comercialización. Existen diversos modelos de demanda analizados en la bibliografía. En este trabajo se plantea un modelo de ecuaciones simultáneas que representan las participaciones entre categorías de artículos y otros modelos, también de ecuaciones simultáneas, para las participaciones dentro de cada categoría. A partir de los parámetros estimados de los modelos se estiman las elasticidades tanto para las categorías como para los productos dentro de cada categoría. Por otra parte las funciones de ganancias por categoría y entre categorías se aproximan por funciones lineales utilizando las elasticidades respectivas. La maximización de las funciones de ganancias bajo restricciones preestablecidas en los precios conduce a la obtención de precios óptimos. Con ellos se generan por simulación intervalos de confianza para las ganancias. Esta metodología se aplica a un conjunto de datos. Palabras claves: modelo de ecuaciones simultáneas, elasticidades de demanda, variabilidad anidada, aproximación lineal.

*

Email: [email protected],

119

Diagnosticos de influência em modelo espaciais lineares com ditribuição da família de contornos elipticos Fernanda De Bastiani* Departamento de Estatística, Universidade Federal de Pernambuco-Recife-Brasil.

Audrey Helen Mariz De Aquino Cysneiros Departamento de Estatística, Universidade Federal de Pernambuco-Recife-Brasil.

Miguel Angel Uribe-Opazo Centro de Ciências Exatas e Tecnológicas, Universidade Estadual Do Oeste do Paraná-Paraná-Brasil.

Manuel Galea Departamento de Estadística, Pontificia Universidad Católica de Chile- Santiago-Chile.

Resumo Os modelos espaciais lineares com distribuição da família contorno elípticos constituem uma alternativa para explicar a estrutura de variabilidade espacial de variáveis regionalizadas, visto ter a flexibilidade de estender a classes dos erros para outras distribuições além da normal. O objetivo deste trabalho foi desenvolver métodos de influencia local em modelos espaciais lineares com distribuição da família contorno elípticos utilizando diferentes esquemas de perturbação na variável resposta, assim como avaliar a influencia na matriz de covariância. Realizaram-se estudos de simulação e aplicação a dados reais na agricultura, possibilitando avaliar a importância dos métodos desenvolvidos. Palabras claves: Geoestatística, Influência Local, Variabilidade Espacial.

*

Email: [email protected],

120

La disponibilidad de los servicios bancarios en la provincia de Córdoba (Argentina). Un estudio de sus determinantes. Fernando García* Facultad de Ciencias Económicas – Universidad Nacional de Córdoba.

Margarita Díaz Facultad de Ciencias Económicas – Universidad Nacional de Córdoba.

Resumen En este trabajo se analiza la disponibilidad de los servicios bancarios en la provincia de Córdoba (Argentina) utilizando una base de datos a nivel de localidad para el período 20002013. La distribución geográfica tanto de sucursales como cajeros automáticos exhibe una alta concentración, observándose diferencias importantes entre departamentos. La tendencia en los últimos años revela cambios importantes no sólo en el tamaño de la banca sino también en su composición. Si bien el número de sucursales se mantuvo relativamente estable, el dato más relevante es el aumento sustancial en los puntos de atención a través de cajeros automáticos. Este comportamiento revela un mayor interés de los bancos por ofrecer servicios financieros transaccionales. Se utilizan Modelos Lineales Generalizados Multinevel Logit y Poisson a efectos de estudiar los determinantes de la disponibilidad de los servicios bancarios. Los resultados muestran diferencias según la banca sea pública, privada de capital nacional o privada de capital extranjero. Asimismo se encontraron factores determinantes tanto a nivel local: población, tasa de ocupación formal, nivel de educación, tasa de jubilados/pensionados, indicador de capacidad económica; como a nivel de departamental: superficie y Producto Bruto Geográfico. Dada la estructura espacial que presentan los datos, se calculó el índice de Moran, que capta la asociación espacial, el que resultó significativo por lo que se considera conveniente la utilización de Modelos Autorregresivos Espaciales como alternativa a los modelos mencionados con anterioridad. Palabras claves: Bancarización, Datos espaciales, Modelos Lineales Generalizados multinivel.

*

Email: [email protected] ,

121

M- estimadores vía modelos BIP-ARMA para series de tiempo con diferentes esquemas de contaminación Grisel Maribel Britos* Facultad de Matemática Astronomía y Física. Universidad Nacional de Córdoba. Argentina.

Silvia María Ojeda Facultad de Matemática Astronomía y Física. Universidad Nacional de Córdoba. Argentina.

Resumen Dentro de la clase de estimadores robustos para los parámetros de modelos ARMA en series de tiempo, se encuentran los M-estimadores, donde los residuos se calculan tal que el efecto de una observación atípica está limitado al período donde ésta acontece. El planteo de esta propuesta requiere definir una familia de modelos auxiliares llamados BIP-ARMA, a partir de los cuales es posible establecer estimadores de los parámetros del modelo ARMA unidimensional, los que resultan altamente robustos para el caso de outliers de tipo aditivo. Sin embargo, no se ha estudiado aún su conducta frente a otros esquemas de contaminación tales como outliers de tipo innovativo. En este trabajo proponemos analizar el comportamiento de los M estimadores robustos, vía modelos BIP-ARMA, para el caso de la estimación paramétrica en series de tiempo afectadas por diferentes esquemas de contaminación. La implementación computacional se realizará mediante el software estadístico R. Palabras claves: Modelos ARMA, M-estimadores, modelos BIP-ARMA.

*

Email: [email protected] ,

122

Distribución Potencia-Cauchy: Propiedades e Inferencia Gonzalo A. Montero*

Héctor W. Gómez**

Resumen En este poster consideramos una extensión asimétrica de la distribución Cauchy basada en la distribución del máximo de una muestra aleatoria. Esta distribución pertenece a la familia de distribuciones considerada por Pewsey et al. (2012). Algunas propiedades de esta densidad son investigadas, estudios inferenciales son realizadas a través del método de máxima verosimilitud y matriz de información, presentamos una ilustración con datos reales y lo comparamos con otra extensión de la distribución Cauchy. Palabras claves: Distribution Cauchy, Distribution skew-Cauchy, Verosimilitud.

*

Email: [email protected], Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad de Antofagasta, Antofagasta, Chile ** Email: [email protected], Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad de Antofagasta, Antofagasta, Chile.

123

Truncated Positive Normal Distribution Héctor Gómez* Departamento de Matemáticas, Universidad de Antofagasta, Chile.

Neveka M. Olmos Departamento de Matemáticas, Universidad de Antofagasta, Chile.

Héctor Varela Véliz Departamento de Matemáticas, Universidad de Antofagasta, Chile.

Resumen El objetivo de este artículo se centra en estudiar un modelo que nace al realizar una truncación positiva del modelo normal, de esta forma se obtiene un modelo más flexible que el modelo half-normal y que lo contiene como caso particular. Se estudian las propiedades probabilistica de esta extensión y se realiza inferencia estadística por los métodos de momentos y de máxima verosimilitud. La metodología se aplica a un conjunto de datos reales, que son observaciones no negativas, y se compara con otra extensión del modelo half-normal. Palabras claves: Truncation, maximum likelihood, half-normal distribution.

*

Email: [email protected],

124

Validación del autoreporte de ansiedad en niños y adolescentes chilenos no consultantes e invarianza por sexo. Una aplicaciones de ecuaciones estructurales Irene Schiattino1 , Claudia Silva1 , Gloria Toledo2 , Soledad Von Mühlenbrock3 , Consuelo Aldunate4 , Marcela Larraguibel5 1 Escuela

de Salud Pública. Universidad de Chile. 2,3,5 Clínica Psiquiátrica. Universidad de Chile. 4 Doctorado en Ciencias Médicas. Universidad de Chile

Los trastornos ansiosos en la población chilena infantojuvenil son de alta prevalencia y frecuentemente subdiagnosticados (8,3 %). Han existido múltiples intentos para crear instrumentos que ayuden a su tamizaje. Dentro de estos, la escala de ansiedad para niños y adolescentes SCARED (Screen for Child Anxiety Related Emotional Disorders), es uno de los más utilizados. Para la población hispanoamericana se adaptó este autoreporte en niños y adolescente (AANA) con cinco dimensiones asociadas a este trastorno. El objetivo del presente trabajo es estudiar la estructura factorial del AANA validado en México y verificar si el modelo con cinco dimensiones (Pánico/somático, ansiedad de separación, ansiedad generalizada, fobia social y fobia escolar) se ajusta a una población infanto juvenil chilena no consultante. Adicionalmente evaluar la invarianza por sexo de la estructura factorial. Participantes: 560 niños y adolescentes no consultantes de edades entre 7 y 18 años con una mediana de edad de 12 años (R.I. 6 años). 281 niñas y 279 niños con mediana de edad de 11 años y el mismo RI por grupos (5 años). La muestras fue determinada por muestreo aleatorio estratificado de una población de niños y adolescentes entre segundo básico y cuarto medio de establecimientos educacionales subvencionados de la comuna de Independencia en Santiago de Chile. Todos los padres de los participantes firmaron el consentimiento informado. Análisis estadístico: Mediante un Análisis Factorial exploratorio (AFE) se estudió la consistencia interna (Cronbach α) global y en cada una de las cinco dimensiones computadas como la suma de los puntajes de los items en cada dimensión y la pertinencia de aplicar Análisis Factorial Confirmatorio (AFC). Se aplicó un modelo de ecuaciones estructurales (SEM) con cinco variables medidas y un factor latente usando el método de estimación ADF (Asymptotic Distribution Free) que permite la no normalidad multivariante. El ajuste fue evaluado por el índice RMSEA (Root Mean Squared Error Aproximation) y TLI (TuckerLewis Non- Normed Fit Index), entre otros. Se aplicó el test de invarianza de los paramétros según sexo.El análisis fue realizado usando el software STATA12 Resultados: El análisis factorial exploratorio y confirmatorio del autoreporte de ansiedad para niños y adolescentes corroboran que el instrumento logra discriminar un único constructo (ansiedad) dentro de una población infantojuvenil no consultante. Y que los 41 ítems evaluados, conformarían las 5 dimensiones (pánico somático, ansiedad de separación, ansiedad generalizada, fobia social y fobia escolar) descritas en la literatura internacional. Adicionalmente la evaluación de la estructura sería invariante según sexo.

125

Nivel de Satisfacción en la Región del Bío Bío, utilizando la Encuesta de Caracterización Socioeconómica Nacional 2011 (CASEN) Judith Vanessa Gajardo Ríos* Universidad del Bío Bío.

Andrea Fernanda González Contreras Universidad del Bío Bío.

Resumen La satisfacción con la vida es parte de un campo de estudio amplio, usualmente denominado ”Calidad de vida”. Las investigaciones en este tema intentan definir qué es una buena vida e identificar qué variables influyen en ésta. Ideológicamente, esta línea de investigación tiene su origen en el pensamiento ilustrado del siglo XVIII. Desde este punto de vista, el propósito de la vida humana es la vida en sí misma, más que el servicio al rey o a Dios. La realización personal y la felicidad son valores centrales. La sociedad es considerada como un medio para proporcionar a los ciudadanos una buena vida. En el siglo XIX, esta convicción se manifestó en el credo utilitarista de que la mejor sociedad es aquella que proporciona “la mayor felicidad para el mayor número de personas”. En el siglo XX inspiró intentos a gran escala de reforma social planificada e influyó en el desarrollo de los estados del bienestar. Los esfuerzos para crear una sociedad mejor comenzaron por el ataque a los males más obvios: ignorancia, enfermedad y pobreza, por lo tanto, se medía el progreso en términos de alfabetización, control de enfermedades epidémicas y eliminación del hambre. Posteriormente apareció un nuevo tema de investigación. En los años 60, la mayoría de las naciones occidentales se habían convertido en ricos estados de bienestar, por consecuencia se dio importancia a los valores que no necesariamente representaban lo material. Como resultado de esto, se introdujo el término “calidad de vida”. Sirvió para denotar que hay algo más que simplemente bienestar material, lo que inspiró la necesidad de crear indicadores sociales, los cuales fuesen capaces de medir la “Calidad con la vida” de las personas. La satisfacción con la vida es uno de los indicadores de la calidad de vida “realizada”. Junto con los indicadores de salud física y mental, muestra lo bien que le va a la gente. Se define la satisfacción como un estado mental que genera una sensación de plenitud, mientras que la insatisfacción produce inquietud y sufrimiento, sin embargo, la naturaleza humana nos llevará a buscar maneras de satisfacción, dependiendo de los cambios externos que vivamos, esto lleva a una inquietud constante y pasar por distintos niveles de satisfacción o a veces llamada felicidad, aunque no son lo mismo, pues es necesario estar satisfechos para obtener la felicidad. Se analizarán los datos obtenidos en la encuesta de Caracterización Socioeconómica Nacional 2011 (CASEN), con el propósito de describir el nivel de satisfacción en la Región del Bío-Bío. Palabras claves: Satisfacción, CASEN, Región del Bío Bío, filiación. *

Email: [email protected] ,

126

Modelo Zero Inflated Poisson en el control de procesos de alta calidad: un caso de aplicación Andrea Righetti* , Silvia Joekes, Cristian Abrego Instituto de Estadística y Demografía Facultad de Ciencias Económicas. Universidad Nacional de Córdoba.

Resumen Los gráficos de control de atributos que se utilizan comúnmente para monitorear el número de disconformidades por unidad, suponen que la característica bajo estudio sigue una distribución Poisson. Fruto de la evolución tecnológica, actualmente los procesos se caracterizan por producir artículos que presentan un número de disconformidades por unidad muy bajo, de manera que los gráficos tradicionales ya no resultan adecuados. Estos procesos se denominan procesos de alta calidad. En este trabajo se utiliza el gráfico Zero Inflated Poison (ZIP) para monitorear el número de disconformidades por unidad en los procesos caracterizados por la incorporación de un exceso de ceros al modelo Poisson. Se muestra la importancia de la aplicación de los modelos ZIP en procesos de alta calidad en un estudio con datos reales y la comparación con el gráfico tradicional de Shewhart. Se indica la performance de los procedimientos en base al cálculo de la longitud media de corrida (ARL) y el índice de cobertura (ACP). Palabras claves: Proceso de Alta Calidad, Distribución Zero Inflated Poisson, Control Estadístico de Procesos.

*

Email: [email protected],

127

Distribución con soporte positivo en base a la Distribución exponencial potencia Karol Santoro Pizarro* Héctor Goméz G.** Resumen Se introduce una nueva clase de distribución no-negativas basada en distribución exponencial potencia. Estudiamos las principales propiedades de esta nueva densidad, se muestra en particular sus momentos, generatriz de momento, estudio de inferencia a través del método de momento y de máxima verosimilitud, algunas características de la teoría de confiabilidad y prestamos una ilustración con datos reales. Finalizamos con una discusión y comentarios finales. Definición: Sea f0 (·) una función de densidad de probabilidad (fdp) que es simétrico alrededor del cero y ∼ f0 (·) tal que E(Y 2 ) = k, entonces 2 fx (x; α, δ) = 3 δ



αδ 2 + c2 α+k

 f0

x δ

, x≥0

es una función de densidad, donde α ≥ 0, δ ≥ 0. Donde f0 (·) es cualquier función simétrica, como por ejemplo: la distribución normal, tstudent, exponencial potencia, Laplace y logística. El resto del artículo se presenta de la siguiente forma, se presenta la clase general de distribuciones no-negativas, las cuales son el foco central de este trabajo, se muestra un estudio de distribuciones no-negativas generadas por el caso particular de la distribución normal estándar, además se presenta una ilustración con datos reales, y se muestran algunos resultados de confiabilidad y tasa de falla, finalizando este trabajo con una discusión y comentarios finales. Palabras claves: Distribuciones simétricas en torno al cero, distribuciones no-negativas, verosimilitud.

* **

Email: [email protected], Primer autor Email: [email protected], Segundo autor

128

Predicción de crisis financiera en empresas latinoamericanas usando modelos de regresión logística: tradicional y mixto Karin Ayumi Tamura* Universidad de Sao Paulo - Brasil Norma Patricia Caro Universidad Nacional de Córdoba – Argentina

Viviana Giampaoli Universidad de Sao Paulo - Brasil

Resumen El desarrollo de métodos estadísticos para predecir la crisis financiera de las empresas constituye un verdadero aporte a la investigación científica. Estos métodos identifican posibles situaciones financieras desfavorables de las empresas, a través del comportamiento de sus indicadores contables. El estudio de la crisis empresarial consideró tres países latinoamericanos (Argentina, Chile y Perú) y fue desarrollado con 239 empresas observadas en el período 2003-2011, en que un 7 % de ellas entran en crisis al año siguiente. El objetivo del estudio es predecir si una empresa presentará un estado de crisis en el próximo año, dado sus indicadores contables en los períodos anteriores. Fueron considerados los modelos logísticos tradicional y mixto. La base de datos fue dividida en dos, para construcción (muestra balanceada de empresas de 2003-2008) y para predicción futura (empresas de 2009-2011). El modelo mixto fue construido según los indicadores contables longitudinales; mientras el modelo tradicional consideró estos indicadores contables consolidados en el período histórico, por ejemplo, se trabajó con el promedio o variación histórica de la empresa. Los indicadores significativos para los modelos fueron: índice de rentabilidad y flujo de fondos. La tasa de clasificación correcta (1: crisis o 0: sanas) en la base de construcción fue aproximadamente un 83 % para el modelo tradicional y un 94 % para el modelo mixto. En la base de predicción futura, la predicción del modelo tradicional es sencilla, puesto que se puede utilizar la función logit. No obstante, como el modelo mixto incorpora los efectos aleatorios que son estimados individualmente para cada empresa, no es posible hacer la predicción directamente para el caso de que haya nuevas empresas, pues no se conocen sus valores de los efectos aleatorios. La literatura ha propuesto diversas maneras de hacer predicción, como por ejemplo, las metodologías naive, mejor predictor empírico, regresión lineal, regresión no paramétrica y vecinos más cercanos. La contribución de este trabajo es comparar la clasificación binaria realizada por el modelo logístico tradicional comparada con el modelo mixto para un período futuro. Se espera que las metodologías de predicción del modelo mixto presenten mejores resultados de clasificación, dado que este modelo considera los efectos aleatorios. Palabras claves: logit, modelos mixtos, predicción futura, clasificación binaria.

*

Email: [email protected],

129

Aplicación de modelos de supervivencia para la predicción de crisis en empresas argentinas y peruanas Laura Isabel Luna* , Norma Patricia Caro Facultad de Ciencias Económicas – Universidad Nacional de Córdoba

Resumen A partir de la década del 2000 comienzan a tomar protagonismo los modelos para datos longitudinales para la predicción de la crisis empresarial, incorporándose en el análisis de la temática a los modelos de supervivencia. Uno de los elementos que distingue a estos modelos de otros es la presencia de censura, a saber, aquellos casos en estudio que no han experimentado el evento de interés durante el tiempo de observación. El modelo de riesgos proporcionales de Cox, es una de las técnicas estadísticas de supervivencia, permite detectar los principales factores que determinan el riesgo que se produzca un determinado acontecimiento, en este trabajo la crisis empresarial. El modelo genera una función de supervivencia que pronostica la probabilidad de que se haya producido el evento de interés en un momento dado del tiempo para determinados valores de las variables explicativas. La forma de la función de supervivencia y los coeficientes de regresión se estiman mediante los casos observados. La información de los casos censurados, contribuye de manera útil a la estimación del modelo. Con la intención de contribuir a un tema de gran interés, como es la continuidad empresarial, en este trabajo se aplica un modelo de regresión de Cox, que es método semiparamétrico, para modelar el riesgo de fracaso empresarial en empresas argentinas y peruanas que cotizan en bolsa para el período 2003 - 2010, utilizando la información contenida en los estados contables de las empresas. Debido a que empresas con características financieras similares pueden tener tasas de riesgo diferentes por el mero hecho de operar en un sector u otro, se incorpora al sector como posible variable explicativa. os resultados obtenidos ponen de manifiesto que el tamaño de la empresa, la ganancia antes de intereses e impuestos sobre activo total, deudas sobre patrimonio neto y rentabilidad resultan estadísticamente significativas para explicar del riesgo de crisis empresarial. También el sector económico en el que operan las empresas aparece como variable significativa, presentando una mayor tasa de riesgo el sector energético en Argentina, y el sector agricultura, ganadería, aprovechamiento forestal, pesca y caza en Perú. Palabras claves: modelos proporcionales de Cox, ratios contables, riesgo de crisis financiera.

*

Email: [email protected],

130

Un estudio espacio-temporal de las precipitaciones extremas en el Estado de Guanajuato, México. Leonardo Moreno* Instituto de Estadística, Universidad de la República, Montevideo, Uruguay.

Joaquín Ortega Sanchez Centro de Investigación en Matemáticas, CIMAT, Guanajuato, México.

Resumen Un tema de vigente interés en gran parte de la sociedad son los eventos extremos climáticos. Se percibe una creciente preocupación por la variabilidad climática debido al gran impacto que provoca sobre la población y la economía. El objetivo es demarcar un modelo espacio-temporal para los valores de las precipitaciones diarias máximas en el Estado de Guanajuato, México, a partir de los datos provenientes de un conjunto estaciones meteorológicas ubicadas en la región. Si bien el camino natural para la extensión espacial de la teoría de valores extremos univariados son los procesos máx-estables, la inferencia sobre dicha familia de procesos es actualmente poco flexible y de un costo computacional elevado. Ligado esto a la falta de estacionariedad espacial de los datos conlleva a que también se examinen caminos alternativos. Se realizan ajustes finito dimensionales a través de cópulas extremas y una posible extensión a dimensiones altas, regular vines. Se manifiesta en el trabajo la estrecha relación de las distribuciones finito dimensionales de los procesos máx-estables con las cópulas extremas. Son extraídas novedosas conclusiones acerca del comportamiento de las lluvias máximas en la región. Las predicciones globales demuestran que es de esperar, en períodos de tiempo no muy extensos, precipitaciones extremas que provoquen severas inundaciones en el Estado. Palabras claves: Extremos multivariados, procesos máx-estables, cópulas de valores extremos y regular vines.

*

Email: [email protected],

131

La importancia de la información contable y de mercado en la toma de decisiones de inversión en empresas argentinas y peruanas a través de modelos mixtos Leticia Eva Tolosa* , María Claudia Nicolas y Giselle Judith Lujan Pons Facultad de Ciencias Económicas. Universidad Nacional de Córdoba

Resumen Los actores del mercado de capitales buscan, permanentemente, datos proporcionados por las empresas y generados en los mercados para la toma de decisiones de inversión. Desde los años sesenta, esta problemática moviliza a economistas e investigadores que analizan los reportes financieros y los datos proporcionados por los mercados, a los fines de predecir los retornos de las acciones, a través de la elaboración de modelos de análisis que surgen, fundamentalmente, de investigaciones empíricas. Estos modelos buscan asociar los precios de las acciones con datos obtenidos de los estados contables publicados por las empresas que cotizan en los mercados y que son utilizados en la toma de decisiones por los inversores. Los mercados de capitales latinoamericanos presentan particularidades que se analizan con el fin de contextualizar el problema de investigación. En este trabajo se compara el mercado peruano con el argentino utilizando los modelos lineales mixtos para predecir los retornos de las acciones. Con la finalidad de realizar un análisis comparativo de valores o ratios contables que influyen en los retornos se seleccionó el espacio temporal 2011-2013, en el cual se verifica la aplicación, por parte de la mayoría de las empresas cotizantes en ambos mercados, de las Normas Internacionales de Información Financiera (NIIF). Las mismas persiguen el propósito de aumentar la calidad de la información contable y generar mayor confianza en los actores económicos y fueron adoptándose en distintos momentos del tiempo en cada país. Los modelos mixtos aplicados para mediciones repetidas en el tiempo consideraron las variables explicativas del modelo empleado en Argentina, en el periodo 2003 -2009 (Tolosa, 2013). Los resultados obtenidos de acuerdo a los datos muestrales evidencian que para explicar la variación de precios de las acciones en el mercado, resulta significativo para las empresas domésticas argentinas, el ratio formado por el cociente entre el Precio y el Valor de Libros (RPVL) con una relación positiva, mientras que para las empresas peruanas con una relación inversa el que resulta significativo es el ratio formado por el cociente Precio y Ganancia por Acción (RPE). Palabras claves: modelos mixtos, indicadores contables, indicadores de mercado, retornos anuales.

*

Email: [email protected],

132

¿Qué alumnos recibe la Universidad? ¿Cómo influyen algunas de sus características en su paso por la Universidad? Griselda Negri* Mabel Batto** Erica Strangi*** Gabriel Strangi**** Matías Basso***** Resumen La deserción y la baja retención de alumnos y alumnas en las universidades, es una constante preocupación tanto de cada una de las universidades como de las autoridades nacionales. Si bien las cifras son altas para todas las carreras, lo es especialmente en las Ingenierías, al punto tal que se han creado planes nacionales para disminuir la deserción y favorecer la retención en éstas. Muchas son las posibles causales, habiéndose detectado en trabajos anteriores que la escuela media no aporta conocimientos y formación suficiente para la inserción de sus egresados en la educación superior. No es sólo ésta, se suman muchas otras de tipo personal, familiar, social, y aporta también el desconocimiento de los aspirantes del medio universitario y el propio aislamiento del individuo en dicho medio, por ser tan diferente al de la escuela media. En este trabajo investigamos distintas variables que consideramos ayudan a conocer cómo se interrelacionan ayudando o no a que quienes ingresaron en las Ingenierías continúen en ella. Estudiamos no sólo las características al momento de la inscripción y al ingreso, sino también al cuarto año de permanencia en la carrera, independientemente del año curricular en el que pudieran encontrarse. Uno de los ejes troncales del análisis en los distintos momentos es realizarlo desde la perspectiva de género. Es conocida la diferencia que existe respecto de mujeres y varones en las ingenierías, y, mostramos acá, como un ejemplo más, lo que ocurre en esta universidad, analizando críticamente el proceso de permanencia en la búsqueda de modelos para la disminución de la deserción. Palabras claves: ingenierías, género, deserción.

*

Email: [email protected], Mg. en Metodología de la Investigación Científica. Univ. Nac. de Luján, Dto. Cs. Básicas, División Estadística y UNNOBA, Dto. Cs. Básicas y Experimentales ** Lic. En Estadística. Univ. Nac. De Lujàn. Dto. Cs. Básicas, División Estadística y UNTREF *** Lic. En Psicología. Investigadora indep **** Lic. En Ciencias Políticas. Investigador indep ***** Ayudante alumno UNLu

133

Análisis geoestadístico de la intensidad del tizón temprano en tres municipios de Cienfuegos, Cuba Mailiu Díaz Peña* Universidad de Cienfuegos “Carlos Rafael Rodríguez”, Cienfuegos, Cuba.

Gladys Casas Cardoso Universidad Central de las Villas, Villa Clara, Cuba.

Leónides Castellanos González Universidad de Cienfuegos “Carlos Rafael Rodríguez”, Cienfuegos, Cuba.

Resumen Esta investigación se desarrolló a partir de la información del tizón temprano, un agente nocivo que afecta al cultivo del tomate, en el territorio de la Estación de Protección de Plantas (EPP) de Lajas en la Provincia de Cienfuegos que comprende los municipios: Lajas, Cruces y Palmira, en la campaña 2012-2013. Se efectuó un análisis exploratorio de los datos, lo que incluyó el ajuste a la distribución normal, la identificación de valores atípicos, el análisis de la estadística básica y autocorrelación espacial; posteriormente, se representó el mapa de variograma, para el análisis de anisotropía, que acompañado por los semivariogramas direccionales permitieron determinar las direcciones de mayor y menor continuidad espacial; y se ajustaron modelos teóricos a los semivariogramas experimentales. Como resultado se obtuvo el mapa de estimación por el método de interpolación de krigeaje con el modelo de mejor ajuste, con coeficientes de determinación mayor que el 95 % y coeficientes de correlación mayores que 0,95. Se obtiene con este procesamiento, una mejor herramienta en la toma de decisiones en la sanidad vegetal para establecer tácticas de control dirigidas hacia los focos específicos de infestación y así mejorar el manejo del cultivo del tomate y otros cultivos que pueden ser afectados por este agente nocivo. Palabras claves: geoestadística, semivariograma, tizón temprano, tomate.

*

Email: [email protected] ,

134

Análisis estadístico de los factores que influyen en la reducción de la demanda energética de calefacción para dos tipos de vivienda Mauricio Inzunza M.* Universidad del Bío-Bío.

Paulina Wegertseder M.** Universidad del Bío-Bío.

Gilda Vargas M. Universidad del Bío-Bío.

Resumen El presente estudio se basa en la utilización de diversas técnicas estadísticas para determinar mejoras a nivel energético y ambiental del país. La actividad humana y los consumos que generan problemas ambientales derivados de la quema de combustibles fósiles, tales como efecto invernadero, calentamiento global, una creciente demanda energética y distintos impactos de grandes emprendimientos energéticos en el medio ambiente y población, son complicaciones ambientales que han establecido la necesidad de implementar políticas energéticas sustentables en la sociedad. A nivel mundial la crisis energética es hoy en día una preocupación, lo que también afecta a nuestro país, por lo que se debe asegurar un óptimo uso de los recursos energéticos, utilizando una menor cantidad de energía pero sin sacrificar el confort o la actividad económica que le es útil. Además, nuestro país presenta altos índices de contaminación tanto de dióxido de carbono como el desarrollo progresivo del efecto invernadero. Es por esta razón que se busca mejorar la infraestructura de viviendas, a partir del estudio de distintos factores que influyen en ciertas tipologías de vivienda que presenten una mayor demanda energética de calefacción. Este estudio está orientado a la identificación de factores que influyen mayormente en la reducción de la demanda energética de calefacción. Para ello, se consideran dos viviendas de estudio ubicadas en la comuna de Hualpén, Región del Biobío, Chile. Para el análisis se utilizan técnicas multivariadas, tales como correspondencias múltiples para establecer la proximidad de los niveles de las variables consideradas, metodología del árbol de decisión con el motivo de encontrar relaciones entre la demanda energética de calefacción y las variables del estudio y diseño de experimentos donde se realizaron experimentos factoriales de factores fijos con la finalidad de establecer los modelos correspondientes para cada tipo de vivienda de estudio. Palabras claves: correspondencias múltiples, metodología árbol de decisiones, experimento factorial, demanda energética de calefacción.

* **

Email: [email protected], Email: [email protected],

135

Capacitación en Moodle desde la FCE UNPSJB. Valoración del Curso Introductorio 2011-2013 María Elena Sendín* FCE Universidad Nacional de la Patagonia SJB.

Resumen El presente trabajo se enmarca en el proyecto de investigación, “Identificación de las estrategias de uso de recursos y actividades en las aulas virtuales en la Facultad de Ciencias Económicas de la UNPSJB”. Tuvo una duración de tres años, siendo iniciado en el 2011. Forma parte de una línea de investigación que, desde el año 2003, puso en marcha la Facultad de Ciencias Económicas de la UNPSJB. Desde allí, se diseñó un curso de formación de nivel inicial en el uso de la plataforma MOODLE –Curso Introductorio Moodle (CIM)-, para iniciar a la población educativa en la incorporación de este sistema de gestión de los aprendizajes para la administración de sus cursos on-line. El objeto de este trabajo es realizar un análisis de los resultados de las instancias de capacitación, brindadas en el marco del PI Estrategias. En los CIM se realizan dos encuestas, una al inicio y otra al finalizar. Para medir el éxito del curso, se contrastan las auto-valoraciones entre la primera y segunda encuesta. Se estudió también la gestión del curso CIM en cuanto a la búsqueda de factores de calidad del curso que inciden en la opinión de los participantes. Teniendo en cuenta la filosofía del aprendizaje en la plataforma Moodle, "pedagogía construccionista social", se estudian las respuestas dadas con análisis estadísticos descriptivos. Se ponen de relieve relaciones empíricas y resultados de interés emergentes. La conclusión a la que se puede arribar es que el CIM es exitoso independientemente del grupo de la instancia de dictado. Siempre hubo un incremento en la autovaloración en todos los indicadores propuestos en la evaluación. Palabras claves: Componentes Principales. Correspondencia. Moodle.

*

Email: [email protected],

136

Aplicación de un modelo mixto para estimar el comportamiento pegadizo de los costos en empresas argentinas María Inés Stimolo Universidad Nacional de Córdoba-Facultad de Ciencias Económicas .

Margarita Díaz Universidad Nacional de Córdoba-Facultad de Ciencias Económicas

Resumen En este trabajo se aplica el modelo propuesto por Anderson et.al. (2003) a empresas Argentinas que hacen oferta pública de sus acciones durante el período 2004-2012, el que analiza el comportamiento pegadizo (sticky costs) de los costos, planteando la falta de proporcionalidad simétrica entre el cambio en los costos y las ventas. El modelo estimado cuantifica el incremento (o disminución) de los costos por cada incremento (o disminución) porcentual de los ingresos por venta, e identifica factores que explican la proporcionalidad asimétrica. En la muestra de análisis se incluyen 300 empresas clasificadas en cinco sectores: Agropecuario; Comercio Construcción y Servicio; Energía y Combustible, Manufactura de origen Agropecuario y Manufactura de origen Industrial. En una primera etapa se obtuvo un modelo de regresión para todas las empresas, rechazando la hipótesis de igualdad de pendientes para los sectores, por lo que es necesario estimar el modelo en cada uno de ellos. Dada la estructura longitudinal de los datos se propone un modelo mixto y se comparan los resultados con el modelo propuesto por Anderson, destacando la presencia de un coeficiente aleatorio, lo que constituye el aporte de esta propuesta. En esta presentación se muestran los resultados obtenidos para el sector Comercio, para el que se encontró mayor inflexibilidad a la baja. Palabras claves: modelos mixtos- costos pegadizos- datos longitudinales.

137

Clasificación de empresas de mercados latinoamericanos según su estado financiero a partir de sus ratios contables Mariana Guardiola* Facultad de Ciencias Económicas – Universidad Nacional de Córdoba

María Laura Mantovani** Universidad Nacional de Córdoba

Norma Patricia Caro*** Facultad de Ciencias Económicas – Universidad Nacional de Córdoba

Resumen La información económico-financiera que proveen los estados contables es esencial para la toma de decisiones y evaluación del desempeño de las empresas. Ésta resulta aún más relevante en la detección de situaciones de vulnerabilidad financiera. Con este propósito, el presente trabajo explora el comportamiento de los ratios contables que caracterizan a las empresas con problemas financieros (en crisis) y sin ellos (sanas), cuando se desconoce el grupo de pertenencia de las mismas. El análisis se extiende a la comparación de diferentes mercados de Latinoamérica (Argentina, Perú y Chile), en términos de los ratios contables que reflejan el comportamiento de las empresas con inconvenientes financieros y sin ellos. Para el análisis de las empresas que cotizan en los distintos mercados latinoamericanos se utilizó la información de los estados contables disponibles en las respectivas Bolsas en la década del 2000. Se aplicó el análisis de conglomerados (cluster) que permitió una primera aproximación a la conformación de grupos de empresas y a su caracterización en relación a su situación financiera. Para identificar los ratios contables que resultaron significativos en la aglomeración de las empresas, se utilizaron métodos no paramétricos de comparación de medias. Entre los resultados obtenidos, las empresas con dificultades financieras son de menor tamaño y presentan índices de rentabilidad económica y flujo de fondos operativos sustancialmente menores a las empresas sin problemas de esta índole. Palabras claves: análisis de conglomerados, métodos no paramétricos, ratios contables, crisis financiera.

*

Email: [email protected], Email: [email protected], *** Email: [email protected], **

138

análisis de conglomerados, métodos no paramétricos, ratios contables, crisis financiera. Mariana Verónica Gonzalez* Instituto de Estadística y Demografía. Facultad de Ciencias Económicas. Universidad Nacional de Córdoba

Leiza Camilo Caro Facultad de Ciencias Económicas. Universidad Nacional de Córdoba

Guillermo Gohlke Facultad de Ciencias Económicas. Universidad Nacional de Córdoba

Tamara Veppo Facultad de Ciencias Económicas. Universidad Nacional de Córdoba

Resumen Durante las últimas décadas, la política de dividendos seguidas por las empresas ha sido un tema de interés en diversas investigaciones, con apreciaciones distintas sobre los resultados conseguidos. En general, se admite que la decisión de distribuir dividendos por parte de una empresa es el resultado de un conjunto de factores relacionados, desde limitaciones de carácter jurídico hasta cuestiones vinculadas a la estructura financiera de la entidad y su situación de liquidez, pasando por la capacidad de la empresa para generar beneficios de manera sostenida y las necesidades de fondos impuestas por sus proyectos de inversión. En este sentido, muchos autores utilizan un conjunto de ratios contables para medir la sensibilidad de dichas variables frente a la decisión de repartir cantidades a cuenta de beneficios. En este trabajo se compara el desempeño del modelo logístico estándar en relación con el modelo logístico mixto para predecir la decisión de distribuir dividendos por parte de empresas argentinas que cotizan en la Bolsa de Comercio de Buenos Aires, entre los años 2003 y 2010, utilizando información de los estados contables y ratios definidos en la bibliografía. Se destaca el poder predictivo del indicador que mide la rentabilidad en función de las ganancias de la explotación, definido como el cociente entre la Utilidad antes de intereses e impuestos y el Activo Total de la empresa. Palabras claves: modelos de respuesta binaria, dividendos, rentabilidad.

*

Email: [email protected],

139

Diferenciación espacial socio-económica a través de la detección de conglomerados en la provincia de Córdoba Nancy Stanecka* Instituto de Estadística y Demografía, Facultad de Ciencias Económicas, UNC

Cecilia Díaz Centro de Cómputos, Facultad de Ciencias Económicas, UNC

María Inés Ahumada Instituto de Estadística y Demografía, Facultad de Ciencias Económicas, UNC

Resumen Cuando se analizan territorios extensos nos vemos enfrentados a una realidad heterogénea donde confluyen múltiples aspectos. Detectar diferencias y similitudes espaciales o sectoriales es una necesidad que permitirá aportar herramientas sólidas para la toma de decisiones. Una importante fuente de datos está dada por los censos que proveen gran cantidad de información. Sin embargo, es muy difícil encontrar patrones de interrelación entre las numerosas variables que intervienen sólo con observar las medidas de resumen o sus tablas de frecuencia. En estos casos, resultan útiles los métodos basados en variables latentes o factores, que consisten en reducir la dimensionalidad del conjunto de datos a dos o tres dimensiones manteniendo la mayor parte de la información posible. En el presente trabajo se intentó caracterizar el nivel educacional, demográfico y económico de las radios censales de la provincia de Córdoba, a partir la elección de variables extraídas del Censo Argentino de Población y Vivienda 2010, visualizando la situación a través de mapas temáticos. Se seleccionaron determinadas variables que resultaron de interés para identificar distintas dimensiones: educacional, demográfica y económica. En base a las mismas se calcularon los correspondientes porcentajes por radio censal. Con el objetivo de mostrar la estructura subyacente que influye en las respuestas se aplicó la técnica multivariada de análisis factorial. Según los resultados del análisis factorial se consideró oportuno realizar un análisis de clúster observando una tendencia de agrupación de los tipos de radios en 4 aglomerados. Una vez realizado el Análisis de Conglomerados se procedió a la clasificación de los radios resultando posible la visualización gráfica de los aglomerados a través de un sistema de georeferenciación. Palabras claves: Análisis factorial, cluster, nivel socio-económico, georeferenciación.

*

Email: [email protected] ,

140

Comparación de modelos mixtos para la identificación de QTL mediante mapeo asociativo Natalia Berberian1* , Victoria Bonnecarrere2 , Pedro Blanco2 , Fernando Pérez de Vida2 , Juan Rosas2 , Silvia Garaycochea2 , Schubert Fernández2 , Lucía Gutiérrez1 1 Departamento

de Biometría, Estadística y Cómputo. Facultad de Agronomía, UdelaR, Uruguay. 2 Instituto Nacional de Investigación Agropecuaria, Uruguay.

Resumen Los modelos mixtos han sido ampliamente utilizados en el mapeo de caracteres complejos para tomar en cuenta que pueden existir sub-poblaciones y que los individuos se encuentran genéticamente correlacionados. El objetivo del trabajo fue comparar cinco modelos mixtos que incorporan información de estructura y/o parentesco en la identificación de regiones genómicas asociadas a caracteres cuantitativos (QTL) de interés agrícola. Para ello se evaluaron 643 variedades de arroz (sp. Oryza sativa L. ssp. Indica y Japónica) del programa de mejoramiento de, se trabajó con datos fenotípicos del 2011 y se utilizaron 57489 marcadores moleculares para el mapeo. Los modelos comparados son variaciones del modelo lineal general [y − Xβ + Zu + ]. Se trabajó con una serie de variables de calidad arrocera y en todos los casos se detectaron regiones genómicas que identifican QTL candidatos. No hubo un único modelo con mejor desempeño para todas las variables, sin embargo se destaca el modelo que incorpora como efecto aleatorio y la estructura poblacional a través de un análisis de componentes principales. Palabras claves: Modelos mixtos, Mapeo asociativo, Estructura poblacional.

*

Email: [email protected],

141

Simulación de diseños experimentales aplicados al mejoramiento del cultivo de arroz Natalia Berberian1* , Victoria Bonnecarrere2 , Pedro Blanco2 , Fernando Pérez de Vida2 , Juan Rosas2 , Silvia Garaycochea2 , Schubert Fernández2 , Alejandra Borges1 Lucía Gutiérrez1 1 Departamento

de Biometría, Estadística y Cómputo. Facultad de Agronomía, UdelaR, Uruguay. 2 Instituto Nacional de Investigación Agropecuaria, Uruguay.

Resumen Para el mejoramiento genético de plantas es necesario evaluar cientos de genotipos (tratamientos) en ensayos experimentales en el campo. Diseñar los experimentos que permitan controlar la heterogenidad del campo experimental, permitiendo comparaciones apropiadas entre genotipos, es por lo tanto un gran desafío. El objetivo de este trabajo es comparar por un lado modelos de análisis de ensayos parcelarios de arroz (Oryza. sativa L.) con diferente modelación de la heterogeneidad espacial, a partir de la utilización de modelos mixtos, y por otro lado utilizar simulaciones para comparar la eficiencia de diseños experimentales alternativos. Para eso, se trabajo sobre los datos del año 2011 del proyecto de mejoramiento de arroz uruguayo de INIA, donde se evaluaron 325 líneas elite en 12 ensayos, cada uno en un Diseño en Bloques Completos al Azar con 3 repeticiones y 2 testigos. Se trabajó en variables de interés agronómico tales como rendimiento y calidad arrocera. Utilizando indicadores de eficiencia de los diseños simulados se observó que el diseño óptimo depende de la variable considerada y que algunos se beneficiaron por la incorporación de un componente espacial en el modelo de análisis. Palabras claves: Diseños experimentales, Geoestadística, Simulación, Modelos mixtos.

*

Email: [email protected],

142

Geometric Ergodicity of Gibbs Samplers for Bayesian General t Linear Mixed Models Nathalie Humeniy Jacobs* Department of Statistics, Faculty of Mathematics, Pontificia Universidad Católica de Chile.

Jorge Carlos Román** Department of Public Health, School of Medicine and Department of Statistics, Faculty of Mathematics, Pontificia Universidad Católica de Chile.

Abstract We consider a Bayesian version of a general t linear mixed model. We develop a block Gibbs sampler algorithm for estimating the posterior distribution in this model, and establish conditions that nearly always hold in practice, the block Gibbs Markov chain is geometrically ergodic. Keywords: Geometric drift condition; Gibbs sampler.

* **

Email: [email protected], Email: [email protected],

143

Generalizacion del indice de Ware y Hedges para medir asociacion multiple Ricardo Camina* Nélida Winzer Depto. Matemática – Universidad Nacional del Sur – Bahía Blanca – Argentina

Resumen El objeto de usar medidas de asociación múltiple, es decir, asociaciones entre más de dos objetos, es encontrar relaciones que no se pueden deducir usando sólo las de a pares. Una propiedad deseable en una medida de asociación múltiple es que la asociación entre k objetos sea menor o igual a la asociación de cualquiera de sus subconjuntos (esto permite una representación de las asociaciones mediante un dendrograma por aplicación de un cluster jerárquico). No cualquier índice de a pares puede ser generalizado a más de dos cumpliendo esta exigencia. En el caso de datos de muestra x especies una medida de copresencia fácil de extender es la de Russel y Rao que se interpreta como la proporción de especies en común que tienen dos muestras. La extensión sería la proporción de especies en común que tienen k muestras. La idea de este trabajo es mantener la base de esta definición pero reemplazar la copresencia por una medida cuantitativa que pese la abundancia diferencial existente entre las muestras. Se analiza toda una familia relacionada con la métrica de Canberra y se demuestra que la única que cumple con la propiedad mencionada es la generalización de la similaridad de Ware y Hedges (Gower 1985): para cada variable se toma como medida la abundancia mínima sobre la máxima para las k muestras involucradas. Palabras claves: asociación múltiple, Indice de Ware y Hedges, Indice de Russell y Rao.

*

Email: [email protected],

144

Indicadores del sector forestal. Provincia del Chaco Primer Autor

Norma Esper Segundo Autor

Constanza Annunziata Tercer Autor

Adtiana Alcaire Cuarto Autor

Florencia Bongiorno Quinto Autor

María Mercedes Borrás Resumen En este trabajo se realiza un análisis de los datos estadísticos disponibles para la provincia del Chaco, la cual tiene una importancia forestal muy relevante para el bosque nativo. La provincia tiene una participación de su producción forestal maderable del 74 % en relación con el total de la Zona del Parque Chaqueño y un 69 % en relación al total del país. El producto forestal preponderante en la provincia es la leña con una representación del 82 % respecto al total extraído en la misma. El 98 % de las durmientes producidas en el país provienen de esta provincia. En todos los productos forestales las extracciones proceden mayoritariamente de Planes de Manejo. El valor total de la producción de madera en la provincia asciende a 482 millones de pesos y representa el 52 % del valor nacional. En Chaco la leña es el producto que mayor valor económico representa (58 %) Además de los productos de la madera se consideran los productos forestales no madereros definidos como: los bienes de origen biológico (distinto de la leña, madera y carbón vegetal) y los servicios brindados por los bosques, otras áreas forestales y árboles fuera del bosque. La participación porcentual de estos productos con respecto al total del país es de solo un 1,2 % El producto forestal no maderero predominante en la provincia es la Miel de Monte con un 92 %. Palabras claves: maderable, no maderable, extracción, bosque nativo, valor

145

Análisis exploratorio de variables acústicas con métodos funcionales Patricia Girimonte* Fac. de Farmacia y Bioquímica- Fac. de Ciencias Económicas (UBA).

Natalia Elisei Fac. de Ciencias Médicas (UBA).

Resumen En la especialidad de otorrinolaringología y fonoaudiología es común el uso de escalas acústicas para definir la calidad vocal producida por un hablante, si bien estas tienen sus limitaciones, y la tendencia actual es complementarlas con el análisis perceptual. Dentro de las escalas acústicas se encuentran aquellas que exploran mediciones acústicas lineales no tradicionales como Espectros de Largo Plazo (LTAS), que corresponden a una definición más amplia del término voz. Para una muestra 194 sujetos hablantes del español de Buenos Aires se seleccionaron las emisiones de las cinco vocales de cada grupo tanto normal como patológico, midiédose los espectros de LTAS para cada individuo a través del analizador de PRAAT “Doing phonetics by computer”, versión 4.6.06. Se trabajó con 220 bandas frecuenciales registrándose para cada una los valores de energía. Con el objeto de obtener perfiles de LTAS, se realizó un análisis exploratorio utilizando diferentes ajustes con las funciones de R, loess para distintos valores de span, y smooth.spline. Palabras claves: medidas acústicas, loess, splines cúbicos, R.

*

Email: [email protected] ,

146

Determinando la tasa de prematuros en la Región Metropolitana Perla Celis González [email protected] Pontificia Universidad Católica de Chile

Garritt Leland Page* Pontificia Universidad Católica de Chile

Resumen El nacimiento prematuro es la principal causa de mortalidad entre los recién nacidos durante las primeras cuatro semanas de vida en Chile. El objetivo de este trabajo es investigar la dependencia espacial de la tasa de nacimientos prematuros por comunas en la Región Metropolitana, considerando la edad de la madre como covariable de interés. Para modelar la tasa de prematuros se propone un modelo lineal generalizado con efectos aleatorios y estructura espacial modelado con un Conditional Autoregressive Model (CAR). Dadas las características de los datos y el modelo propuesto no existe una manera natural de incluir las edades de las madres como covariables, por lo que proponemos un método novedoso para incluir información individual junto al nivel de la comuna en términos de la edad. Palabras claves: Conditional Autoregressive Model, Hierchical Bayes, General Linear Model, Preterm birth poisson spatial.

*

Email: [email protected] ,

147

Distribución Slashed Truncada-Exponencial Skew-Normal Pilar A. Rivera* Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad de Héctor W. Gómez

**

Antofagasta. Departamento de Matemáticas, Facultad de Ciencias Básicas, Universidad de Antofagasta.

Resumen En este poster mostramos una extensión de la distribución truncada-exponencial skewnormal introducida por Nadarajah et al. (2013). Esta nueva distribución se construye en base al cuociente de dos variables aleatorias independientes, cuyas distribuciones son la distribución truncada-exponencial skew-normal y una potencia de la distribución uniforme (0, 1) respectivamente. De esta forma el resultado es una distribución con mayor kurtosis. Estudiamos algunas propiedades, momentos, coeficientes de asimetría y de kurtosis. Estudios de inferencia lo hacemos por máxima verosimilitud. Realizamos una ajuste con datos reales. Palabras claves: Distribución Skew-Normal, Distribución Slash, Kurtosis.

* **

Email: [email protected], Email: [email protected],

148

Distribución Birnbaum-Saunders Bimodal Ricardo A. Guerrero* Universidad de Antofagasta.

Héctor Gómez Universidad de Antofagasta.

Resumen El objeto principal de este trabajo es desarrollar una representación bimodal de una distribución basada en la distribución Birdbath-Saunders, esto se logra mediante la composición de la distribución Skew-Normal-Bimodal con parámetro de forma introducido por Elal-Olivero, Gómez y Quintana (2009) y la distribución Birdbath-Saunders (1969a, 1969b). Generando así esta nueva distribución la cuál contiene 3 parámetros (α ;β; γ) que le entregan la bimodalidad, como la nueva distribución esta basada en la distribución BirdbathSaunders se genera una nueva distribución no simétrica. La construcción de esta distribución busca encontrar una distribución bimodal que mantenga las propiedades de la distribución Birdbath-Saunders y además que sus modas no sean necesariamente simétricas. Se estudian propiedades básicas, representaciones estocásticas, y momentos. Además busca aplicaciones en datos reales para su mejor análisis. Palabras claves: Bimodal, Skew, Birnbaum-Saunders

*

Email: [email protected],

149

Aplicación de Análisis de Componentes Principales como método para la detección de asociación de imágenes Rodolfo C. J. Salomón* Comisión de Investigaciones Científicas de la Provincia de Buenos Aires, Argentina Departamento de Geología, Universidad Nacional del Sur, Argentina

Silvia P. Melo Departamento de Matemática, Universidad Nacional del Sur, Argentina

Resumen El objetivo de este trabajo es cumplir con aquella frase que dice: “una imagen vale más que mil palabras”, pero quitando la subjetividad del investigador. Al trabajar con imágenes que muestran el efecto de un determinado tratamiento en el tiempo, es deseable identificar el momento en que éste resulta significativo, quedando evidenciado por una pérdida de la asociación que presentan las imágenes. El método realizado está basado en la aplicación de un Análisis de Componentes Principales a la matriz de orden pxn construida con los valores de luminosidad correspondientes a p imágenes de n puntos de resolución. El análisis de las correlaciones Variables/Componentes nos permite identificar grupos de imágenes. Aquéllas que presenten alta correlación con alguna de las nuevas variables construidas constituyen un grupo, es decir, la variable obtenida por ACP asocia puntos con luminosidad semejante. Luego por la incorrelación entre éstas podemos obtener el momento en que el tratamiento fue efectivo. Palabras claves: Componentes Principales, asociación, imagen.

*

Email: [email protected],

150

Evaluación del Modelo de Ecuaciones Estructurales. Una Aplicación a Estudios de Mercado Mgter. Rosanna Beatriz Casini* Instituto de Estadística. Facultad de Ciencias Económicas. UNC. Argentina

Resumen El análisis de ecuaciones estructurales es una poderosa técnica de análisis multivariable cada vez más utilizada en investigaciones en marketing y en las Ciencias Sociales. Resulta de la conjunción de varias aproximaciones metodológicas, el análisis de variables latentes, los modelos de ecuaciones simultáneas y los análisis de sendero o path análisis. La técnica usa simultáneamente variables observadas y latentes. El modelo de ecuaciones estructurales para variables latentes es una combinación de un sistema de ecuaciones estructurales llamado modelo estructural, con un modelo de medida donde las variables observadas y latentes son medidas en términos de desviaciones respecto a sus medias. En el desarrollo de estos modelos basados en ecuaciones estructurales es necesario realizar cuatro fases: especificación, estimación, evaluación e interpretación. Una vez que el modelo ha sido identificado y estimado el siguiente es necesario evaluar cuan bien los datos se han ajustado por el modelo. Esta evaluación debe realizarse a tres niveles: evaluación del ajuste del modelo global, evaluación del ajuste del modelo de medida y evaluación del ajuste del modelo estructural. En este sentido el presente trabajo se centrará en la aplicación del MEE en una encuesta de mercado con el propósito de indagar sobre las posibles medidas de evaluación del modelo de ecuaciones estructurales tomando como ejemplo dos modelos propuestos basados en la teoría del consumidor. Palabras claves: Modelo de Ecuaciones Estructurales. Medidas de Evaluación. Investigación de Mercados

*

Email: [email protected],

151

Portafolio Didáctico basado en el Modelo Estratégico de Educación Comunicativa para metodología b learning. Una aplicación al tema: distribución de probabilidad. Mgter. Rosanna Beatriz Casini* Instituto de Estadística. Facultad de Ciencias Económicas . UNC. Argentina Lic. Julio Rosales

Rosales** Departamento de Matemática. Facultad de Ciencias Económicas .UNC. Argentina

Lic. Roberto Adrián Infante*** Departamento de Matemática. Facultad de Ciencias Económicas. UNC. Argentina

Resumen La enseñanza virtual en la que participan técnicas diversas, métodos de enseñanza, técnicas de colaboración e instructores, eleva la enseñanza a niveles inalcanzables por los métodos tradicionales, sobre todo en lo que respecta a flexibilidad y disponibilidad (en cualquier momento y desde cualquier lugar), alcanza su apogeo si se desarrolla la tecnología hasta el punto en que se integren los tres métodos de enseñanza: asíncrona, síncrona y de autoformación. Es de destacar que si bien, incorporar TIC en el proceso de enseñanza para responder a la nueva concepción de aprendizaje, es indiscutible y necesario para todos los planes de estudio de las carreras que se imparten en la actualidad, estadística es una asignatura en la que la tecnología juega un rol fundamental para el logro de aprendizaje significativo acorde a la nueva sociedad del conocimiento, su aplicación no es posible por otros medios que no sea con fuerte incorporación de tecnología. En este sentido, el presente trabajo detalla una propuesta metodológica b_learning para el dictado de la materia Estadística I, del ciclo básico de las carreras de la Facultad de Ciencias Económicas, Universidad Nacional de Córdoba, en la unidad de distribución de probabilidad. La propuesta se centrará en la presentación de un portafolio de materiales didácticos sincronizados basado en el modelo estratégico de educación comunicativa para enseñanza mixta, cuya elaboración surge como resultado de la retroalimentación proveniente de experiencias realizadas en la materia en períodos anteriores. Los resultados de la propuesta surgen como consecuencia de estudios cualitativos y cuantitativos sobre percepción y rendimiento de los estudiantes en la aplicación del portafolio didáctico. Estos resultados indican alta participación, buen rendimiento y alta valoración del método, de parte de los estudiantes involucrados. Palabras claves: modelo estratégico de educación comunicativa, enseñanza de estadística, b_learning

*

Email: [email protected], Email: [email protected], *** Email: [email protected], **

152

Una aplicación SEM a la Validación de Instrumentos de medición del estrés laboral en trabajadores. Rosa Montaño Espinoza* Universidad de Santiago de Chile.

Elisa Ansoleaga M Universidad Diego Portales.

Resumen os instrumentos provenientes de los Modelos Demanda/Control-Soporte de Karasek y del Desbalance Esfuerzo-Recompensas de Siegrist han sido ampliamente utilizados para evaluar exposición a riesgos psicosociales laborales, precursores de estrés y asociados al surgimiento de patología física y mental. El mecanismo por el cual la exposición al riesgos psicosociales laborales se vincula con resultados adversos de salud es lo que sido denominado estrés laboral(Artazcoz, Escriba-Aguir, & Cortes, 2006). Este trabajo abordó la estructura factorial, la validez concurrente y de criterio en dos instrumentos cortos de medición de riesgo psicosocial laboral, la escala corta del ERI test de Siegrist y el instrumento JCQ utilizado en el estudio Quebequense sobre condiciones de salud y seguridad en el trabajo. Los análisis incluyeron, correlaciones, ecuaciones estructurales (SEM) y regresión logística (controlando por confusores), en una muestra de trabajadores chilenos. Palabras claves: Propiedades psicométricas, Soporte demanda-control.

*

Email: [email protected],

153

Aplicación de modelos multinivel para variables binarias en estudios sobre logros académicos en escolares Ramón Álvarez* Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.

Sebastián Gadea** Instituto de Estadística - Facultad de Ciencias Económicas y de Administración - UdelaR.

Emilia Trinidad - Daniela Ferreiro*** Centro INTER-IN NICOLICH

Resumen En un estudio sobre las dificultades de aprendizaje llevado adelante por equipos de maestros, psiquiatras y psicomotricistas en escolares de contexto socio-económico bajo, se analizan los logros académicos. Cuando los individuos forman grupos o clusters, podríamos esperar que dos seleccionados de un mismo grupo tenderán a ser más parecidos que dos individuos seleccionados de entre los diferentes grupos. Por ejemplo, los niños aprenden en las clases, las condiciones de su grupo, tales como características de los maestros y la capacidad de otros niños en la clase, lo que puede influir en el logro educativo de un niño. Por lo tanto, para evaluar tales dependencias se recurre a los modelos multinivel - también conocidos como modelos jerárquicos lineales, modelos mixtos, modelos de efectos aleatorios y los modelos de componentes de la varianza - para analizar los datos con una estructura jerárquica. Para eso se toma en cuenta las variables contextuales relativas a escuela, grupo en la escuela y maestra, en 372 niños del departamento de Canelones de 1er grado, que forman parte de 7 escuelas públicas y 22 grupos. Se evalúa una escala de logro académico (ELA) que está conformada por 6 subescalas para medir logros en lectura de frases y palabras, adquisición de código escrito y dominio de repertorio numérico. El constructo ELA se dicotomiza tomando como categorías si logra la totalidad de las subescalas o no y sobre éste se aplica análisis multinivel . Palabras claves: Análisis Multinivel, Dificultades de aprendizaje,Escala de logro académico, Variables binarias.

*

Email: [email protected], Email: [email protected], *** Email: [email protected], **

154

Segmentación de la población chilena por medio de algoritmos iterativos. Sergio Contreras1* , Javiera Ortiz1** , Susana Vera1*** 1 Departamento

Estadística, Universidad del Bío-Bío.

Resumen El objetivo de este trabajo es estudiar y analizar los datos del último censo valido para realizar una clasificación geodemográfica en la población chilena por medio de un método de segmentación, a saber, K-medias, concluyendo que el algoritmo de K-medias es eficaz y eficiente, de acuerdo con los requerimientos de la empresa Mapcity S.A. Este método permite identificar si los individuos de una población se dividen en diferentes grupos, haciendo comparaciones cuantitativas de múltiples características con la suposición de que las diferencias dentro de cualquier grupo deben ser menores que las diferencias entre los grupos. Con la colaboración de la empresa Mapcity Chile S.A se muestra gráficamente por medio de un mapa de perfiles de habitantes, los grupos obtenidos por el algoritmo K-medias en el estudio de la población chilena, identificando claramente a que manzana corresponde cada grupo abalando así los resultados obtenidos por el estudio. Palabras claves: K-medias, segmentación, cluster.

*

Email: [email protected], Email: [email protected], *** Email: [email protected], **

155

Modelo LS-ARFIMA en Anillos de Crecimiento Ricardo Alonso Olea Ortega* Valeria Isabel Saez Gomez** Resumen En las regiones templadas, los vegetales leñosos forman cada año una capa de madera bien definida y de forma concéntrica a las capas formadas en años anteriores, las que se denominan anillos de crecimiento. El espesor es estos anillos varía año a año, siendo el estudio de esta variación el objetivo principal de la dendrocronología, Ferguson (1970). Parte importante de la variabilidad de los anillos de crecimiento se debe a variaciones climáticas. Trabajos de Huber and Trarandt (1941), Fritts (1965), Schulman (1956), Serre (1973), entre otros, han intentado establecer la respuesta de distintas especies a las variaciones climáticas y reconstruir la evolución del clima a lo largo del tiempo, lo que se conoce como dendroclimatología. En general las series de tiempo de anillos de crecimiento, exhiben un comportamiento no estacionario. Para ello, técnica de diferenciación y remoción de tendencia han sido ampliamente discutido en la literatura. En la última década nuevas metodologías basadas en la variación temporal de parámetros han sido introducidas. Un importante ejemplo de estas metodologías son los llamados Procesos Localmente Estacionarios desarrollados por Dahlhaus (1996, 1997, 2000) principalmente en corta memoria. Recientemente Beran (2009), Palma and Olea (2010), Palma et al (2011), Olea et al. (2013) han extendido los resultados al caso de larga dependencia. En particular, Palma and Olea (2010) presentan y aplican sus métodos a series de anillos de crecimiento. En este trabajo se aplica el modelo LS-ARFIMA a una serie de anillo de crecimiento, median el estimador de Whittle y su comparación con el modelo ARFIMA estacionario. Además se ilustraran técnicas gráficas para la detección de procesos localmente estacionarios. Palabras claves: Larga memoria, procesos localmente estacionarios, detección, estimación, anillos de crecimiento, whittle.

* **

Email: [email protected], Agradecimientos Fondecyt 11121128 Email: [email protected],

156

Índice de Autores Casas Cardoso, Gladys, 134 Casini, Rosanna Beatriz, 151, 152 Castellanos González, Leónides, 134 Castillo Fierro, Benjamín J., 54, 55, 112 Castrillejo, Andrés, 103 Castro, D. A., 58 Castro-Kuriss, Claudia, 115 Cavalleri Ferrari, Fiorella, 67 Celis González, Perla, 147 Chau Kung, Elena Gabriela, 51 Chaubey, Yogendra P., 81 Chowell-Puente, Gerardo, 112 Cid Serrano, Luis, 70 Cid, Luis, 79 Conti, Héctor, 69, 76, 86 Contreras Espinoza, Sergio, 96 Contreras, Sergio, 155 Correa Beltrán, Gloria, 35 Costa, Marcelo A., 11

Abrego, Cristian, 110, 127 Addad, Ricardo Rubén, 108 Ahumada, María Inés, 140 Alcaire, Adtiana, 145 Aldunate, Consuelo, 125 Allende, Héctor, 63, 95 Altmark, Silvia, 65 Álvarez Ramón, 88, 92, 154 Andrade, Plinio, 18 Annunziata, Constanza, 145 Ansoleaga M, Elisa, 153 Araneda Levy, Ana María, 47 Ávila Julio, 75 Azzalini, Adelchi, 3 Baronio, Alfredo Mario, 53 Barrientos, Andrés F., 49, 56, 72 Basso, Matías, 133 Batto, Mabel, 133 Berberian, Natalia, 141, 142 Blanco, Pedro, 141, 142 Bolfarine, Heleno, 60, 102 Bongiorno, Florencia, 145 Bonnecarrere, Victoria, 141, 142 Bonoli Escobar, Mariano, 87 Borges, Alejandra, 142 Borrás, María Mercedes, 145 Branco, Márcia, 12 Britos, Grisel Maribel, 122 Burbano Moreno, Alvaro Alexander , 50 Buzzi, Sergio Martín, 97

De Aquino Cysneiros, Audrey Helen Mariz, 120 De Bastiani, Fernanda, 120 De Carvalho, M., 58 De Carvalho, Miguel, 31 De Carvalho, Vanda Inácio, 14 De Maio, Fernando, 118 Del Pino M., Guido, 36 Díaz Margarita, 121, 137 Díaz Peña, Mailiu, 134 Díaz, Cecilia, 140 Díaz, Margarita, 73 Díaz, Mariana, 76, 86 Diblasi, Angela Magdalena, 90, 119

Camaño, Gabriel, 88 Camina, Ricardo, 144 Campos, Sergio, 95 Caro, Leiza Camilo, 139 Caro, Norma Patricia, 129, 130, 138 Caro, Valentina, 107

Elisei, Natalia, 146 Emery, Xavier, 23 Esper, Norma, 145 157

Guardiola, Mariana, 138 Guerrero, Ricardo A., 149 Guillén Oviedo, Hellen, 70 Gutiérrez, Lucía, 45, 141, 142 Gutierrez Urzua, Mauricio, 55 Gutiérrez, Luis, 15

Estrella, Soledad, 38 Fernández, Schubert, 141, 142 Ferrante, Daniel, 118 Ferreira, Jacqueline A., 11 Ferreiro, Daniela, 154 Figueroa - Zúñiga, J., 26 Filippini, Olga Susana, 113 Filippini, Susana Olga, 109 Firinguetti, Luis, 80, 81 Fracassi, Eduardo, 115 Fraiman, Ricardo, 77 Fuentes Lagos, Fernanda, 66 Fuentes, Chyntia, 79 Fustos, Roberto, 23 Fustos-Toribio, R., 26

Herrera Leiva, Rodrigo, 66 Hochsztain, Esther, 34, 64 Humeniy Jacobs, Nathalie, 143 Infante, Roberto, 111 Infante, Roberto Adrián, 152 Inostroza-Quezada, Ignacio, 71 Inzunza M., Mauricio, 135 Jara, Alejandro, 49, 56 Jiménez Gamero, Ma. Dolores, 68 Joekes, Silvia, 98, 127 Juárez, María Alejandra, 107

Gómez Martínez, Luis Antonio, 85 Gómez, Héctor, 124, 149 Gómez, Héctor W., 123, 148 Gómez, Yolanda M., 102 Gadea, Sebastián, 154 Gajardo Ríos, Judith Vanessa, 126 Galea Rojas, Manuel, 82, 114 Galea, Manuel, 83, 120 Gallardo Mateluna, Diego Ignacio, 60 Garaycochea, Silvia, 141, 142 García, Fernando, 121 Garca, Jesus, 18 García Fernando, 73 García Zattera, María José, 2 Garibaldi, Carlos, 111 Ghorbani, Mohammad, 20 Giampaoli, Viviana, 129 Gilaber Peralta, Horacio, 16 Giorgini, Diana, 109 Girimonte, Patricia, 146 Gneri, Mario A., 61 Gogni, Valeria, 100, 101 Gohlke, Guillermo, 139 Goldberg, Lucila, 118 Goméz G., Héctor, 128 González Contreras, Andrea Fernanda, 126 González, Lorena Leticia, 84 González, Jorge, 72 Gonzalez, Mariana Verónica, 139 Goyeneche, Juan José, 6

Klein, Daniel, 94 Konfino, Jonatan, 118 López, Erick, 63 Lachos Dávila, Víctor Hugo, 42 Lagos-Alvarez, B., 26 Larraguibel, Marcela, 125 Leal Kaymalyz, Carla, 114 Leiva, Ricardo A., 94 Loschi, Rosangela H., 11 Lujan Pons, Giselle Judith, 132 Luna, Laura I., 76 Luna, Laura Isabel, 130 Maglione, Dora silvia, 119 Mantovani, María Laura, 138 Mantovano, Julián, 116 Marfetán Molina, Diego, 117 Martín, María Cristina, 59, 84, 85 Martínez, Alejandra, 4 Martinez, Carla, 113 Martínez-Beneito, Miguel A., 104 Massa, Fernando, 65, 92, 99, 103 Mateu, Jorge, 20 Melo, Silvia P., 150 Mena, Ramsés H., 15 Meneguetti, Ariane, 61 Messina, Maria, 64 158

Meza Bogado, Diego Bernardo, 59 Mine, Julio, 107 Mislej, Ernesto, 44 Molinari, Claudia P., 116 Moneta Pizarro, Adrián Maximiliano, 107 Montaño Espinoza, Rosa, 153 Montenegro, Carlos, 12 Montero, Gonzalo A., 123 Montero, Laura, 107 Moreno, Leonardo, 77, 131 Morero, Hernán Alejandro, 91 Morettón, Juan, 116 Morvillo, Mónica Cristina, 90 Mosca, Johanna, 87 Moschini, Ricardo, 109 Muiños, Roberto, 100

Quintana, Fernando A., 72 Ramírez, Raúl, 34 Riaño, María Eugenia, 88 Rifo, Laura, 18 Righetti, Andrea, 110, 111, 127 Rivas Calabrán, Luisa, 82 Rivera, Pilar A., 148 Rodríguez Collazo, Silvia, 99 Rodríguez-Sickert, Carlos, 71 Rodrigues, Josemar, 17 Rodríguez-Cortés, Francisco J., 20 Román, Jorge Carlos, 143 Rómoli, Irene, 111 Rosa, Ernesto A., 62 Rosales Rosales, Julio, 152 Rosas, Juan, 141, 142 Rouadi, Gladys, 111 Roy, Anuradha, 94 Rubio, Hernán, 81 Rudolph L., Erich, 89 Ruggeri, Fabrizio, 7 Ruggiero, Matteo, 15 Ryabko, Daniil, 25

Nalbarte, Laura, 65 Negri, Griselda, 133 Nicolas, María Claudia, 132 Novoa Muñoz, Francisco, 68 Nuñez Franz, Loreto, 35 Nuñez, Lidia, 116 Ojeda, Silvia María, 97, 122 Olea Ortega, Ricardo Alonso, 93, 156 Olfos, Raimundo, 38 Olmos, Neveka M., 124 Ondarsuhu, Dolores, 118 Ortega Sanchez, Joaquín, 131 Ortega, Daniel, 69 Ortiz, Javiera, 155 Ortiz, Pablo, 91

Saez Gomez, Valeria Isabel, 156 Salas Eljatib, Christian, 16 Salas, Rodrigo, 78 Salazar Gomez, Ledys Llasmin, 78 Salomón, Rodolfo C. J., 150 Sancho, Ana María, 109 Santoro Pizarro, Karol, 128 Savi, Cecilia, 111 Schiattino, Irene, 125 Sendín, María Elena, 136 Serdyukova, Nora, 28 Silva, Claudia, 125 Silvia, Joekes, 110 Smrekar, Marcelo, 98 Stanecka, Nancy, 140 Stefanich, Clarisa, 111 Stimolo, María Inés, 137 Stoyan, Dietrich, 20 Strangi, Erica, 133 Strangi, Gabriel, 133 Strub, Ana María, 111 Szulanski, Fabián, 115

Page, Garrit, 10, 75 Page, Garritt Leland, 147 Palacios, Luciano, 113 Palma Manríquez, Wilfredo Omar, 93 Palma, Wilfredo, 32, 105 Paz, Marta, 116 Pedroso de Lima, Antonio Carlos, 60 Pendino, Ana María, 108 Pérez de Vida, 141, 142 Picasso, Emilio, 87 Pimentel Barbosa, Emanuel, 61, 98 Pizarro, Luis, 95 Porcu, Emilio, 30 Quaglino, Marta, 5 159

Tamura, Karin Ayumi, 129 Tasistro, Andrómaca, 34 Tesén Arroyo, Alfonso, 51, 52 Toledo, Gloria, 125 Tolosa, Leticia Eva, 132 Tornello, Carina, 116 Torres-Avilés, F., 26 Torres-Avilés, Francisco, 104 Trinidad, Emilia, 154

Veppo, Tamara, 139 Vera, Susana, 155 Vianco, Ana María, 53 Vicuña Fernández, Pamela, 96 Vicuña Loyola, María Ignacia, 93 Volpe, Juan Ignacio, 87 Von Mühlenbrock, Soledad, 125 Wadsworth, J. L., 58 Wegertseder M., Paulina, 135 Wehrhahn, Claudia, 56 Winzer, Nélida, 144 Wistuba M., Lina, 37

Uribe-Opazo, Miguel Angel, 120 Valdés, Marcela, 79 Valdez Arana, Jenny del Carmen, 51 Vallejo, Sebastian, 77 Vallejos, Ronny O., 27 Varela Véliz, Héctor, 124 Vargas M., Gilda, 135 Vargas José M., 73 Vásquez E., Christián, 105

Yáñez A., Miguel, 89 Yáñez, Miguel, 80 Yañez Alvarado, Miguel, 55 Zevallos Herencia, Mauricio Enrique, 93 Žežula Ivan, 94

160

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.