Universidad de Castilla-La Mancha

Universidad de Castilla-La Mancha E. T. S. de Ingenieros Industriales Instituto de Matemática Aplicada a la Ciencia y a la Ingeniería Departamento de

2 downloads 179 Views 2MB Size

Recommend Stories


UNIVERSIDAD DE CASTILLA LA-MANCHA
UNIVERSIDAD DE CASTILLA LA-MANCHA Programas de las Asignaturas de HISTORIA DEL DERECHO ESPAÑOL I y II y de HISTORIA DE LA ADMINISTRACIÓN PÚBLICA P

UNIVERSIDAD DE CASTILLA-LA MANCHA
UNIVERSIDAD DE CASTILLA-LA MANCHA PLAN NACIONAL DE EVALUACION DE LA CALIDAD DE LAS UNIVERSIDADES INFORME DE AUTOEVALUACION Escuela Universitaria de

Universidad de Castilla-La Mancha
Universidad de Castilla-La Mancha Departamento de Psicología Programa de doctorado: Psicología Social Aplicada VIOLENCIA ENCUBIERTA EN LAS RELACIONES

Story Transcript

Universidad de Castilla-La Mancha

E. T. S. de Ingenieros Industriales Instituto de Matemática Aplicada a la Ciencia y a la Ingeniería Departamento de Matemáticas

Diseño Óptimo de Experimentos en Procesos Industriales Memoria que presenta para optar al grado de Doctor: D. Licesio J. Rodríguez Aragón.

Dirigida por: Prof. Dr. Jesús López Fidalgo.

Diciembre 2007

D. Jesús López Fidalgo, Catedrático del área de Estadística e Investigación Operativa de la Universidad de Castilla-la Mancha.

CERTIFICA: Que la memoria titulada Diseño Óptimo de Experimentos en Procesos Industriales presentada por el Licenciado en Matemáticas Don Licesio J. Rodríguez Aragón para optar al Grado de Doctor, ha sido realizada bajo mi dirección en el Programa de doctorado Física y Matemáticas de la Universidad de Castilla-La Mancha. Y para que así conste, expedimos y rmamos la presente certicación en Ciudad Real a 20 de Diciembre del 2007.

Fdo: Dr. D. Jesús López Fidalgo.

i

Agradecimientos Este trabajo ha sido realizado bajo la dirección del Prof. Dr. Don Jesús López Fidalgo cuyas orientaciones, consejos y valiosas correcciones quiero agradecer. Hubiese sido imposible llegar a puerto a no ser por el tiempo que tan generosamente siempre me ha ofrecido. Quiero además agradecerle la ayuda, la conanza y la amistad que me ha brindado. Agradecer también a mis compañeros del Departamento de Matemáticas de la Universidad de Castilla-La Mancha que me han ayudado en todo lo que han podido. En especial a Raúl Martín Martín y Mariano Amo Salas, compañeros de fatigas. No puedo dejar de agradecer, ni olvidar, a mis compañeros de la Universidad Rey Juan Carlos de Madrid, especialmente al Dr. D. Enrique Cabello Pardos, director del Face Recognition and Articial Vision group (FRAV) del que formé parte, a Cristina Conde Vilda, a Ángel Serrano Sánchez de León y a Jorge Pérez López, con quienes he compartido tantas horas de trabajo. Agradecer también al Departamento de Informática, Estadística y Telemática de la URJC, a su director el Prof. Dr. D. Luis Pastor Pérez y a todos sus miembros, en especial a todos con los que compartí tareas docentes o de investigación, sería demasiado extenso nombrarlos a todos e injusto nombrar sólo a unos pocos. Deseo hacer extensivo este agradecimiento a los investigadores en el campo del Diseño Óptimo de Experimentos, de cuyos trabajos tanto he aprendido y me queda por aprender. Especialmente quiero agradecer al Dr. D. Juan Manuel Rodríguez Díaz cuya Tesis Doctoral me ha servido de manual en tantos momentos y a tantos otros cuyos trabajos han servido de fuente y apoyo para los desarrollos llevados a cabo en éste. Agradecer también al Prof. Dr. D. Anatoly Zhigljavsky de la Universidad de Cardi que me acogió durante mi estancia en el School of Mathematics y que tan generosamente me dedicó su tiempo.

ii

En lo personal, quiero agradecer a todos aquellos que comparten este pequeño éxito conmigo, apoyándome en el proceso de, una vez más 1 , a mis padres Maria Jesús y Licesio, a mi hermano Jesús y a Cristina, fuente de todas mis energías.

fracasar

e intentarlo siempre de nuevo

No puedo dejar de recordar en estos momentos de revisión del trabajo, a todos mis mayores, en especial el recuerdo siempre tan cercano de la Dra. Gonzala García Delgado, mi abuela, que pasó sus años de doctorado en el Madrid de los años treinta,

tan cerca...

The simple fact is that no measurement, no experiment or observation is possible without a relevant theoretical framework. 2

D. S. Kothari .

A mi familia, a mis amigos, a mis maestros, a mis alumnos, y a Cristina, ...de baile de disfraces cada día. Salamanca-Madrid-Ciudad Real, Festividad de la Inmaculada Concepción, 2007.

1 William Faulkner (1897-1962), Escritor estadounidense. 2 Daulat Singh Kothari (1905-1993), Físico indio.

Índice general Resumen

vii

Summary

xiii

Introducción

1

El Experimento y su Diseño

1

Modelos

3

Etapas del Diseño Óptimo de Experimentos

4

Nota Histórica

5

Capítulo 1.

Diseño Óptimo

11

Ÿ1.1.

Modelos de Regresión

12

Ÿ1.2.

Método de los Mínimos Cuadrados Generalizados

13

Ÿ1.3.

Contexto del Diseño Óptimo

15

Ÿ1.4.

Diseños Exacto y Aproximado

16

Ÿ1.5.

Estimadores de Funcionales Lineales

17

Ÿ1.6.

Matriz de Información

19

Ÿ1.7.

Criterios de Optimización

26

Ÿ1.8.

Teorema de Equivalencia

37 iii

Índice general

iv

Ÿ1.9.

Discriminación entre Modelos: T −optimización

Capítulo 2.

Ecuación de Arrhenius

43 47

Ÿ2.1.

Velocidad de las Reacciones Químicas

Ÿ2.2.

Dependencia de la Constante de Velocidad de la Temperatura 50

Ÿ2.3.

Teoría de Arrhenius

52

Ÿ2.4.

Otras Teorías

53

Ÿ2.5.

La Ecuación de Arrhenius y Fenómenos de Transporte

58

Capítulo 3.

Diseños Óptimos para la Ecuación de Arrhenius

47

63

Ÿ3.1.

Necesidad de Diseños Óptimos

63

Ÿ3.2.

Modelo no Lineal

65

Ÿ3.3.

Matriz de Información y Criterios de Optimización

67

Ÿ3.4.

Diseño D−Óptimo

69

Ÿ3.5.

Método de Elfving y Diseños c−Óptimos

73

Ÿ3.6.

Diseños Óptimos Compuestos

79

Ÿ3.7.

Comparación con otros Diseños

82

Capítulo 4.

Fenómenos de Adsorción

87

Ÿ4.1.

Generalidades

87

Ÿ4.2.

Método Experimental

89

Ÿ4.3.

Quimisorción

90

Ÿ4.4.

Modelo de Langmuir

91

Ÿ4.5.

Fisisorción

92

Ÿ4.6.

Modelo de Brunauer, Emmett y Teller (BET)

94

Ÿ4.7.

Desviaciones de la Isoterma BET: Isoterma GAB

97

Capítulo 5.

Diseños Óptimos para las Isotermas de Adsorción BET y GAB

103

Ÿ5.1.

Aplicaciones de los Fenómenos de Adsorción

103

Ÿ5.2.

Isotermas de Adsorción

106

Índice general

v

Ÿ5.3.

Discriminación entre Modelos: BET o GAB

110

Ÿ5.4.

Diseños Óptimos para la Estimación de los Parámetros

115

Ÿ5.5.

Diseños Óptimos para el Modelo BET

117

Ÿ5.6.

Diseños Óptimos para el Modelo GAB

124

Ÿ5.7.

Comparación de los Diseños

133

Capítulo 6.

Estimadores Combinados en Quimiometría

137

Ÿ6.1.

Ecuaciones de Velocidad

138

Ÿ6.2.

Caso Simplicado

142

Ÿ6.3.

Estimación en dos Pasos frente a la Estimación Combinada 144

Conclusiones

151

Discusión de los Resultados

154

Líneas Futuras de Investigación

157

Conclusions

159

Results Discussion

162

Issues for Further Research

164

Apéndice A. ŸA.1.

Distribución de Boltzmann

167

Aplicación a la Deducción de la Distribución de Maxwell de las Velocidades de las Moléculas de un Gas

Bibliografía

172 175

Resumen El trabajo que se presenta se construye sobre los fundamentos matemáticos de la teoría del Diseño Óptimo de Experimentos. Como se sabe, esta disciplina trata de lograr la mejor elección posible de las observaciones en las que se basará un experimento para obtener la mayor y mejor información posible acerca de un objeto. La modelización y la inferencia estadística son procesos en los que se obtiene información a través de experimentos, planteados para situaciones concretas y sujetos en la mayoría de las ocasiones a restricciones y costes de diversa naturaleza. Existen múltiples aplicaciones industriales de los fenómenos y modelos con los que hemos trabajado. Nuestro estudio ha estado centrado en dos tipos de fenómenos, i) la inuencia de la temperatura sobre parámetros cinéticos (modelo de Arrhenius) y ii) fenómenos de adsorción. El modelo de Arrhenius explica la dependencia de las constantes de velocidad de reacciones químicas con la temperatura así como la de los coecientes de otros fenómenos de transporte. Por otro lado, los modelos de adsorción son comunes en la industria alimentaria, en procesos de ltrado y depuración, y en la industria de materiales de construcción, entre otros. Los diferentes capítulos de la memoria están agrupados en orden cronológico según han sido abordados, aunque desde luego han sido necesarias

vii

Resumen

viii

continuas revisiones de su contenido. Asimismo, se han redactado de forma autónoma, con las ventajas e inconvenientes que ello conlleva, repitiéndose en algunos casos ideas y conceptos, pero siempre con un especial enfoque según la necesidad del momento. En la Introducción se presentan las ideas generales en las que se basa la teoría de Diseño Óptimo de Experimentos, así como la situación actual y los antecedentes históricos de los métodos usados. El Capítulo 1 se centra en el Diseño Óptimo de Experimentos, teoría general en la que está basado el trabajo. Se introduce la notación y métodos generales de estimación y regresión para, a continuación, plantear los conceptos, deniciones, teoremas y propiedades que se usarán en el desarrollo posterior. Se presentan los criterios de optimización usados y el Teorema de Equivalencia como pilar fundamental, que proporciona un instrumento inestimable para la comprobación de la optimalidad de un diseño. Para el desarrollo de este trabajo ha sido necesario realizar una tarea interdisciplinar con el objeto de poder aplicar las técnicas del Diseño Óptimo a los modelos estudiados. En Capítulo 2 se resumen brevemente algunos conceptos y propiedades resultado del estudio que ha sido necesario llevar a cabo para obtener el mayor fruto posible. Con el objetivo de realizar una exposición equilibrada hemos incluido en un Apéndice nal algunas propiedades relacionadas con la estadística y los fenómenos físicos y químicos, cuyo comportamiento se corresponde con el modelo planteado por la ecuación de Arrhenius. El Capítulo 3 se centra en la aplicación de los criterios de optimización a esta ecuación y en los pasos que nos han llevado a la obtención de los diferentes diseños óptimos. Con el objetivo de incrementar la precisión de las estimaciones de los parámetros de la ecuación de Arrhenius, se han calculado y comparado diferentes diseños óptimos. Basándose en el Teorema de Equivalencia, piedra clave del Diseño Óptimo de Experimentos, se ha calculado el diseño D−óptimo y mediante el Método de Elfving se han calculado

Resumen

ix

diferentes diseños c−óptimos con el objetivo de estimar combinaciones lineales de los parámetros. Asimismo, se han obtenido diseños compuestos por varios criterios, que proporcionan diferentes grados de precisión a la hora de determinar cada parámetro. Los diseños empleados tradicionalmente han sido comparados con los diseños óptimos calculados y, como resultado, se ha obtenido un valioso método que permite al investigador elegir el diseño más apropiado a sus intereses, comparando cada diseño posible con el óptimo y obteniendo así la eciencia de su diseño. En particular, y a modo de ejemplos, estos procedimientos se han aplicado a la estimación de los parámetros de la ecuación de Arrhenius en medidas relacionadas con la Química atmosférica. Estas estimaciones son usadas en la modelización de los procesos que se llevan a cabo en la estratosfera y en capas superiores de la atmósfera que dan lugar a fenómenos como el Efecto Invernadero y la reducción de la Capa de Ozono. Se han elegido este tipo de procesos por sus especiales características, por las dicultades experimentales que presentan, por la alta incertidumbre presente en las estimaciones existentes de estos valores y por la importancia de la correcta modelización de estos fenómenos. Los resultados de esta parte del trabajo han sido presentados en el 5th Congress of Romanian Mathematicians, celebrado en Pitesti, Rumania, y en XXX Congreso Nacional de la Sociedad Estadística Española, celebrado en Valladolid (Rodríguez-Aragón y López-Fidalgo, 2003; 2007c) así como publicados, en la revista Chemometrics and Intelligent Laboratory Systems (Rodríguez-Aragón y López-Fidalgo, 2005) estando el artículo dentro del Top25 Hottest Articles3 de la revista durante el período Abril-Junio 2005. El desarrollo de los modelos de adsorción se realiza en el Capítulo 4, iniciándose con una descripción genérica del fenómeno de adsorción así como del proceso experimental a seguir para poder caracterizarlo. Se han descrito los modelos más ampliamente usados: el modelo de Langmuir para 3 http://top25.sciencedirect.com

Resumen

x

adsorción en monocapa y los modelos BET y GAB para la adsorción en multicapa. La aplicación del Diseño Óptimo de Experimentos permite resolver la elección del modelo más adecuado para describir el fenómeno de adsorción en multicapa, aunque deja abiertos y sin resolver otros problemas como el diseño de experimentos en condiciones de equilibrio. En el Capítulo 5 se obtienen los diseños óptimos para los dos modelos de adsorción en multicapa más usados, el modelo BET y el GAB. Las diferentes opiniones de la comunidad cientíca acerca de la adecuación de uno u otro modelo al fenómeno han dado pie para el cálculo de diseños T −óptimos mediante un procedimiento numérico y con el objetivo de discriminar entre ambos modelos. Aunque el espacio del diseño recomendado en la literatura es diferente según el modelo elegido, la falta de ajuste del modelo BET se atribuye a la linealización del modelo. Por otro lado la obtención de valores de los parámetros contradictorios con su signicado físico, justicando su mejor ajuste al modelo, hacen de los diseños T −óptimos una herramienta de gran interés. La aplicación del Teorema de Equivalencia nos permite obtener un criterio de parada del proceso numérico mediante una cota inferior de la eciencia. Una vez elegido el modelo, se han calculado diseños D− y c−óptimos para ambos modelos; de forma analítica para el modelo BET, que posee dos parámetros desconocidos, y de forma numérica para el modelo GAB, con tres parámetros desconocido. El empleo del Método de Elfving de forma gráca para calcular los diseños c−óptimos para el modelo GAB presenta numerosas dicultades, por lo que se ha sustituido por un procedimiento algorítmico. Existen grandes reticencias por parte de los experimentadores para llevar a la práctica los diseños óptimos, debido a su reducido número de puntos de soporte, así que una vez más se han calculado las eciencias de diferentes diseños con un mayor número de puntos en su soporte, proporcionando así una herramienta para decidir cuál de los posibles diseños resulta más interesante según las necesidades del investigador. Al mismo tiempo es posible el cálculo de las eciencias de los diseños T −óptimos respecto a los criterios

Resumen

xi

de D− y c−optimización, para conocer las ventajas e inconvenientes de los mismos. Los ejemplos usados para ilustrar los diseños calculados provienen de la industria alimentaria, más en concreto de la caracterización de la adsorción de vapor de agua, que resulta de interés a la hora de juzgar la calidad de numerosos productos alimenticios y en la determinación de la vida útil. No es la única aplicación interesante de los fenómenos de adsorción. Entre otras podemos destacar el cálculo del área supercial de sólidos pulverizados o su aplicación al estudio de la catálisis heterogénea. Es notable la actualidad que han cobrado de los estudios de Química de supercies4, entre los que se encuentran los fenómenos de adsorción, a raiz de la concesión del Premio Nobel de Química 2007. Nuestros resultados del cálculo de diseños óptimos para fenómenos de adsorción se han presentado en el International Congress of Mathematicians, celebrado en Madrid; en la International Conference on Mathematical and Statistical Modelling, celebrada en Ciudad Real y en el 8th Model Oriented Design and Analysis Workshop, celebrado en Almagro (Rodríguez-Aragón y López-Fidalgo, 2006a; 2006b; 2007b). El trabajo completo ha aparecido publicado en la revista Chemometrics and Intelligent Laboratory Systems (Rodríguez-Aragón y López-Fidalgo, 2007a). Por último, se presenta, en el Capítulo 6, la consideración de uno de los problemas surgidos durante el desarrollo de los diseños óptimos para la ecuación de Arrhenius. Éste es uno de los muchos problemas o cuestiones que han aparecido durante la realización de nuestro trabajo, cuestiones aparentemente sencillas desde el punto de vista matemático, que se complican en el momento que se profundiza en las cuestiones interdisciplinares. La dicultad aparece cuando en lugar de considerar la constante de velocidad, dependiente de la temperatura, como una magnitud directamente medible, se considera que esta variable es el resultado de un ajuste previo de observaciones tomadas en el tiempo. Se han recopilado los diferentes 4 Gerhard Ertl (1936), Premio Nobel de Química en 2007. For his studies of chemical processes on solid surfaces.

Resumen

xii

modelos según los órdenes de las reacciones químicas y se ha planteado un caso simplicado para el que se han calculado las diferencias entre el proceso de estimación usual en dos pasos frente al proceso de estimación combinado, que obtiene estimadores con menor varianza. Finalmente, se presentan las conclusiones y se realiza una discusión de las herramientas y de los resultados obtenidos,. Se adjuntan también posibles líneas de investigación futuras que quedan abiertas. Acompañan al trabajo las referencias bibliográcas, tanto generales de la teoría de Diseño Óptimo como particulares, que han sido usadas como obras de consulta y referencia.

Summary The work hereby presented is built on the mathematical foundations of Optimum Experimental Design theory. As it is known, this science deals with the election of the best observations to be carried out in an experiment in order to obtain the highest and best information about an object. Modeling and statical inference are processes in which information is obtained through experiments. These experiments are based on precise situations and, in most occasions, subjected to restrictions of dierent nature. There are multiple industrial applications of the phenomena and models we have worked with. Our study has focused on two types of phenomena: i) the inuence of temperature upon kinetic parameters (Arrhenius model) and ii) adsorption phenomena. Arrhenius model explains the dependence of the rate of chemical reactions on the temperature as well as the dependence of other coecients of transport processes. On the other hand, adsorption models are frequent in food technology, ltering and depollution processes, and in construction material industry, to mention just a few. The chapters included in this report are chronologically organized as they have been studied and developed, even though permanent revisions of their content have been required. However, they have been structured in an autonomous way, with the advantages and disadvantages that this

xiii

Summary

xiv

presents, duplicating ideas and concepts in some cases, but always with an special emphasis on the requirements of the moment. The Introduction presents the general ideas on which Optimum Experimental Design theory is based, as well as the present situation and historical background of the used methods. Chapter 1 refers to Optimum Experimental Design, theory in which our work is based on. Notation, inference and regression methods are rstly introduced to later consider concepts, denitions, theorems and properties that will be applied in further developments. Optimum criteria being used are also presented as well as the Equivalence Theorem as a fundamental foundation that provides a crucial tool to check the optimality of a design. In order to apply Optimum Design techniques to the studied models, an interdisciplinary task has been required. Chapter 2 briey summarizes some concepts and properties merged from the necessary study to obtain the best possible result. For the sake of showing a well balanced exposition, a nal Appendix containing some properties related to statistics and physical and chemical phenomena, whose behaviour is related with the model specied by Arrhenius equation, has been included. Chapter 3 is centered in the application of optimization criteria to the Arrhenius equation and in the steps that have been taken to obtain the dierent optimum designs. In order to increase the accuracy of the estimations of the parameters for Arrhenius equation, dierent optimum designs have been calculated and compared. With the help of the Equivalence Theorem, milestone of Optimum Experimental Design theory, D−optimum designs have been obtained. Elfving method has been used to obtain different c−optimum designs to obtain the best possible estimations of linear combinations of the parameters. Compound designs have also been obtained allowing the experimenter to tune the required eciencies for his estimations. Traditional designs used have been compared to optimum designs, and as a result, a valuable method which allows the researcher to choose the

Summary

xv

most suitable design has been proposed. This comparison is carried out by comparing each possible design to an optimum, and therefore showing its eciency. As examples, these procedures have been applied to the estimation of the parameters of Arrhenius equation on measures related to atmospheric Chemistry. These estimations are used in the modeling of stratospheric processes on higher atmospheric layers, which are used to explain the Greenhouse Eect and the reduction of the Ozone Layer. This type of processes have been chosen due to their special characteristics, to the implied experimental diculties, to the high uncertainty of the available estimations of the parameters and due to the importance of the correct modeling of such phenomena. The results have been presented in the 5th Congress of Romanian Mathematicians, celebrated in Pitesti, Romania, and in the XXX Congreso Nacional de la Sociedad Estadística Española, celebrated in Valladolid, Spain (Rodríguez-Aragón and López-Fidalgo, 2003; 2007c) and published in the journal Chemometrics and Intelligent Laboratory Systems (RodríguezAragón and López-Fidalgo, 2005) being the article included in the Top25 Hottest Articles5 of the journal for the period April-June 2005. Chapter 4 includes the development of adsorption models. It starts with a general description of adsorption phenomena as well as the experimental procedure to follow to characterize it. The most widely used models have been described: Langmuir model for monolayer adsorption and BET and GAB models for multilayer adsorption. The application of Optimum Experimental Design theory solves the problem of election of the most adequate model to describe multilayer adsorption, although it leaves unsolved the problem of designing for observations taken at equilibrium. Chapter 5 includes the optimum designs for the two mostly used multilayer adsorption models, BET and GAB models. The dierent criteria of the scientic community regarding the best adequacy of one or the other 5 http://top25.sciencedirect.com

Summary

xvi

model have given way to the obtention of T −optimum designs through a numerical procedure, with the purpose to discriminate between both models. Although the recommendations in literature for the design space are dierent for each model, the lack of t of the BET model in wider design spaces is blamed to the linearization of the model. Besides, the obtention of estimations of the parameters with no physical meaning, justied by its better t of the model to the data, makes of the T −optimum designs a tool of the greatest interest. The use of the Equivalence Theorem provides a stopping rule for the numerical algorithm in terms of a lower bound for the eciency. Once the model has been chosen, D− and c−optimum designs for both models have been computed. For the BET model, in an analytical way, with two unknown parameters, and numerically for the GAB model, with three unknown parameters. The use of the graphical Elfving method to obtain

c−optimum designs for the GAB model presents several diculties, which have been avoided by using a numerical algorithm. Experimenters are suspicious to carry measurements following optimum designs, due to their small number of support points, so once again, eciencies for dierent designs with a greater number of support points have been calculated. The process has provided a valuable tool to decide which of the possible designs turns to be the most interesting for the researcher's requirements. At the same time, the obtention of D− and c−eciencies for

T −optimum designs is possible, allowing to know in advance their performance regarding these criteria. The samples used to illustrate the obtained designs are referred to food industry, more precisely to characterize the moisture adsorption, which becomes so important when judging the quality of so many food stu and the shelf life predictions of the products. That is not the only application of adsorption phenomena. Among others, surface area estimations of solid materials or the application to the study of heterogenous catalysis play an

Summary

xvii

important role. It must be pointed out the relevance of surface Chemistry6, among which adsorption phenomena are included, since it has been awarded with the Nobel Prize in Chemistry 2007. The results obtained have been presented in the International Congress of Mathematicians, held in Madrid, Spain; in the International Conference on Mathematical and Statistical Modelling, held in Ciudad Real, Spain, and in the 8th Model Oriented Design and Analysis Workshop, held in Almagro, Spain, (Rodríguez-Aragón and López-Fidalgo, 2006a; 2006b; 2007b). The whole work was published in the journal Chemometrics and Intelligent Laboratory Systems (Rodríguez-Aragón and López-Fidalgo, 2007a). Chapter 6, brings into consideration one of the problems that have appeared through the development of optimum designs for Arrhenius equation. It has been one of the many problems and questions that have merged during the undertaking of our work. The problem appears when instead of considering the rate of a chemical reaction, temperature dependent, as a directly measurable magnitude, this variable is considered as a parameter obtained in a previous t of several observations versus time. Dierent models have been gathered for several reaction rates and a simplied model has been set to analyze the dierences between the usual two stage estimation and the pooled estimation process, which obtains estimators with lower variance. Finally, the conclusions and a discussion of the tools and results presented is included. Future research topics are also traced. The work includes general Optimum Design and particular bibliographic references, that have been used for the development of our work.

6 Gerhard Ertl (1936), Chemistry Nobel Prize 2007. For his studies of chemical processes on solid surfaces.

Introducción El Experimento y su Diseño Como denición de

experimento, suciente para comprender los obje-

tivos de este trabajo, podríamos decir que es un conjunto de observaciones o medidas llevadas a cabo con el n de alcanzar un conocimiento profun-

do acerca de un objeto. Por lo tanto, multitud de actividades cotidianas pueden ser catalogadas como experimentos. Normalmente un experimento requiere de un complejo grupo de acciones o medidas, necesita de la preparación de muestras, de instrumentos de medida y de un equipo de investigadores capaz de llevarlas a cabo. Sin embargo hoy en día el procesado de los datos obtenidos juega también un papel crucial en los resultados del experimento. La presencia de restricciones sobre las muestras, sobre los instrumentos de medida y sobre los equipos de investigadores, hacen que los experimentos obtengan información a partir del estudio de un número limitado de observaciones. El aumento de la complejidad de algunos fenómenos que están siendo estudiados, hacen necesaria una teoría de

Diseños Óptimos que

nos permita obtener la máxima información posible a un mínimo coste, jugando un papel crucial en este aspecto las herramientas matemáticas.

1

Introducción

2

Tres grupos de herramientas matemáticas son las que se usan en las actividades experimentales: la Modelización Matemática, el Procesado de Datos y el Diseño Óptimo de Experimentos. Esto es un complemento necesario para las ciencias físicas, químicas y biológicas, entre otras ciencias experimentales, con el objetivo de maximizar la información obtenida de un experimento. Así pues un experimento se realiza con el objetivo de obtener información a partir del estudio de un número limitado de observaciones. Interesa que las observaciones analizadas proporcionen una información suciente y representativa acerca del fenómeno. A primera vista se aprecia que dicha abilidad crece con el aumento de casos observados, y es cierto, pero en la práctica, este número se ve limitado por factores económicos, temporales, de falta de recursos, etc. Además, el tratamiento estadístico de los datos se complica con el aumento de muestras tomadas. De lo dicho anteriormente se desprende la necesidad de optimizar los resultados nales empleando para ello las observaciones experimentales oportunas y estrictamente necesarias. El Diseño Óptimo de Experimentos, como su propio nombre indica, tratará de diseñar un experimento de forma que se alcance la inferencia estadística más precisa posible con el mínimo coste. Ya que el objetivo es conocer el comportamiento de un sistema real, el modelo ha de considerar las características y valores que van a ser observados, normalmente medidos, en magnitudes físicas. Cuando jamos el modelo, es necesario expresar el objetivo del experimento, dejando claro cuáles son las necesidades del futuro usuario del diseño. El objetivo de maximizar la información obtenida del experimento no es suciente para la obtención del diseño óptimo, la teoría presenta varios criterios de optimización entre los que tendremos que elegir a la hora de crear el diseño óptimo. Para ello es útil combinar las propiedades teóricas del modelo junto con las experiencias prácticas del observador.

Modelos

3

Modelos En el presente trabajo estamos principalmente interesados en experimentos donde el objetivo es conocer el comportamiento de un sistema ajustándolo a una función o modelo. Estos modelos pueden ser polinómicos o bien, como en nuestro caso, una función no lineal, que representa las teorías de comportamiento de diferentes fenómenos o mecanismos. La Estadística actúa como puente entre los modelos matemáticos y los fenómenos reales, analizando las diferencias que proporcionan los datos experimentales de los teóricos que se supondrían a partir de un modelo. Mediante el experimento, obtenemos unas observaciones que nos van a permitir ajustar la realidad, objeto de estudio, a un modelo. Dicho modelo debe contener una descripción del estado del objeto observado. Los conjuntos de puntos observables se conocen como

espacio del diseño. Los estados

de la naturaleza serán las posibles realizaciones del modelo que representarán a la realidad. Las observaciones hechas en los puntos que el diseño haya seleccionado serán consideradas como variables aleatorias. Cualquier teoría de experimentos ha de contar con una consideración inicial de un modelo matemático. Existen una serie de ventajas de resumir e interpretar los resultados de un experimento, o el comportamiento de un fenómeno a través del ajuste a un modelo. Entre estas ventajas se encuentra la de poder realizar una predicción de los resultados del experimento o de las respuestas del fenómeno dentro de la region del diseño. Ahora bien, la optimización del modelo nos puede llevar a la toma de muestras fuera de la región experimental considerada. Estas extrapolaciones han de ser tomadas con cautela y comprobado que las condiciones del modelo se siguen vericando para esa nueva región experimental. El Diseño Óptimo de Experimentos, está íntimamente ligado a los modelos lineales, es decir, al análisis de la varianza, la regresión y el análisis de la covarianza. Cuando el modelo es no lineal veremos las técnicas que nos permiten trabajar con ellos y los inconvenientes que se nos presentan. El objetivo es lograr la mejor estimación posible de los parámetros desconocidos

Introducción

4

que aparecen en el modelo. Nuestro cometido será elegir adecuadamente los puntos sobre los que realizar la prueba para que dichos estimadores, tengan la menor varianza posible, tratando a la vez de minimizar las covarianzas. La manera en que se va a hacer esto se verá más adelante. Un estudio apropiado sobre el mejor diseño experimental mejora en gran medida la estimación en los modelos de regresión. La elección del modelo para la búsqueda del diseño óptimo es un problema abierto que no tiene solución general. Interesa buscar un diseño que dé estimadores precisos para el modelo elegido y que simultáneamente proporcione protección contra modelos inadecuados.

Etapas del Diseño Óptimo de Experimentos El procedimiento recomendado para la obtención de un diseño óptimo se puede esquematizar en tres etapas: 1. Elección del modelo para el experimento. Deben determinarse cuales son las observaciones que pueden ser tomadas. Especicar las relaciones entre los parámetros desconocidos del modelo y las variables observadas. Determinar la precisión de las observaciones. Plantear posibles linealizaciones, cambio de parámetros, reparametrizaciones, etc. en el modelo. Excluir a priori determinadas observaciones que aporten información redundante. 2. Cálculo mediante técnicas analíticas o algorítmicas del diseño óptimo, eligiendo el criterio de optimización más adecuado. Especicar el objetivo del experimento de la forma más clara y precisa posible para así poder elegir o desarrollar el criterio de optimización más adecuado.

Nota Histórica

5

Intentar calcular el diseño mediante métodos analíticos o iterativos y obtener las estimaciones iniciales de los parámetros en los casos que sean necesarias. 3. Análisis del diseño obtenido. Calcular y comparar la eciencia del diseño respecto a los diseños obtenidos mediante otros métodos y respecto a los diseños utilizados tradicionalmente. Considerar la posibilidad de realizar cambios en el diseño óptimo con el objetivo de facilitar o hacer posible en la práctica la obtención de las observaciones, siendo capaces de determinar la devaluación de la eciencia del modelo y jando límites o umbrales. Estas etapas intentan esquematizar el proceso de creación de un diseño óptimo para un experimento determinado junto con determinadas observaciones que pueden ser tomadas en cuenta a la hora de su cálculo.

Nota Histórica Hagamos una pequeña introducción histórica para situar el tema. El primer trabajo en Diseño Óptimo de Experimentos fue publicado en el año 1918 por Smith. Propuso un criterio para la regresión polinomial que, más tarde, fue llamado G-optimización (

Generalized Variance) por Kiefer

y Wolfovitz 1959. Sin embargo ha sido a partir de los años cincuenta cuando se ha comenzado a trabajar en mayor medida en este tema. El punto de arranque para el desarrollo de esta teoría fue la matriz de dispersión o matriz de covarianzas, obtenida por el método de mínimos cuadrados, cuya inversa es proporcional a la llamada

matriz de información. El Diseño

Óptimo de Experimentos se desarrolla en dos corrientes paralelas. Por una parte G. E. P. Box y sus seguidores (N. R. Draper, J. S. Hunter, Lucas, Wilson y otros) basan su trabajo en la matriz de dispersión para valorar la elección de los puntos de observación, y no emplean los llamados criterios alfabéticos. Desde este punto de vista la generalización a funciones

Introducción

6

no polinómicas se hace problemática. Por otro lado, J. Kiefer propondrá el empleo de funciones de la matriz de dispersión como posibles criterios de optimización, desarrollando así la llamada teoría convexa de diseños aproximados. La novedad estriba en considerar un diseño como medida de probabilidad. Algunos de sus seguidores son Atwood, Covey-Crump, Silvey, Fedorov, Karlin, Studden, Whittle, Wynn, etc. En 1943 Wald establece el criterio de maximización del determinante de la matriz de información. Más tarde Kiefer y Wolfovitz en 1960 le darán

Determinant) y extenderán su utilización

el nombre de D-optimización (

al modelo de regresión más general. Es éste el más popular de todos los criterios. En 1953, Cherno utiliza el teorema de Taylor para linealizar modelos no lineales. Emplea para ello un valor inicial de los parámetros y el criterio de la maximización de la traza de la matriz de información (Aoptimización,

Average), que ya había utilizado Elfving (1952). El propio

Elfving aborda el problema de la optimización de una combinación lineal

de los parámetros introduciendo el criterio de c-optimización y proporcionando incluso un método gráco para el cálculo del diseño c-óptimo. En 1955 Ehrenfeld establece un nuevo criterio de optimización que consiste en maximizar el mínimo autovalor de la matriz de información, y que sea

Eigenvalues). Son estos, entre otros, los llamados

llamado E -optimización (

criterios alfabéticos, por la denominación que se les ha ido dando.

Hoel (1958) comprueba en algunos casos, que los criterios de Smith y de Wald dan los mismos resultados. Con esto se muestra precursor del Teorema de Equivalencia que establecerán Kiefer y Wolfovitz en 1959. Kiefer y Wolfovitz han contribuido en gran medida al diseño óptimo de experimentos. A ellos se deben dos grandes resultados: la idea del diseño como medida, como ya se ha comentado, y el Teorema de Equivalencia entre los criterios de D y G-optimización. También proviene de ellos la consideración del problema de optimización parcial cuando no interesa o no es necesaria la optimización de todos los parámetros. Kiefer extiende el Teorema de Equivalencia a esta situación.

Nota Histórica

7

Por esas fechas Box y Lucas (1959) aplicaron el criterio de D-optimización en modelos no lineales. Usando un argumento geométrico obtienen diseños de m puntos para modelos de m parámetros. Demuestran que el diseño D-óptimo maximiza el volumen del elipsoide de conanza de las estimaciones de los parámetros. De modo independiente Wynn (1970) y Fedorov (1972) son los primeros en desarrollar un método general para la construcción del diseño D-óptimo. Demuestran también que dicho algoritmo converge y dan un valioso procedimiento para calcular la matriz de información y su inversa en cada paso a partir de los cálculos hechos en el paso anterior. El libro de Fedorov es publicado en ruso en 1969. Wynn (1970) publica un artículo con el desarrollo del algoritmo de construcción de diseños D-óptimos. Cuando en 1972 se publica la traducción del libro de Fedorov hecha por Studden aparece en él reejado básicamente el mismo algoritmo. Hoy día se admite la producción independiente del algoritmo por los dos autores. Box y Hunter en 1965 obtienen un algoritmo para la determinación del diseño D-óptimo en el modelo no lineal. Se trata esencialmente de una aplicación de la versión de los algoritmos sugeridos por Fedorov y Wynn a partir del Teorema de Equivalencia. Draper y Hunter (1967), discutieron el problema de seleccionar distribuciones de parámetros a priori con el objeto de obtener diseños para modelos no lineales. Atkinson y Hunter (1968) extendieron los resultados de Box y Lucas al caso en que el diseño toma más de m puntos. Box (1968a; 1968b; 1969; 1970) da algunos resultados adicionales para modelos no lineales. Por su parte Silvey y Titterington en 1973 dan una interpretación geométrica del diseño óptimo y plantean un algoritmo para obtener un diseño

D−óptimo en el espacio dual. El propio Titterington (1976) ahondará en los aspectos geométricos del D-óptimo. Whittle (1973) generaliza el Teorema de Equivalencia para cualquier función criterio convexa, y al mismo tiempo White (1973) lo extiende a diseños para modelos no lineales. Kiefer (1974) da resultados de equivalencia para otros criterios. Wu y Wynn

Introducción

8

(1978) dan condiciones generales para la convergencia de los algoritmos para la obtención del diseño óptimo. Hill (1980) demostró que si un modelo no es lineal en alguno de los parámetros, entonces el diseño D-óptimo no depende del valor de los parámetros en que es lineal. Currie (1982) compara diversos diseños para estimar los parámetros en la ecuación de Michaelis-Menten, frecuentemente utilizada en cinética de enzimas. Abdelbasit y Placket (1983) trabajan con modelos de regresión logística y obtienen diseños que maximizan la información sobre los parámetros en el modelo. Otros desarrollos interesantes se deben a Atkinson (1982) y Pázman (1980), entre otros. El artículo de Ash y Hedayat (1978) es una amplia recopilación de la bibliografía sobre diseño óptimo hasta ese momento. Una buena introducción al tema la hacen John y Draper en 1975. Los libros de Fedorov (1972), Silvey (1980), Pázman (1986) y los más recientes de Atkinson y Donev (1992) y Pukelsheim (1993) son un buen compendio de los resultados más importantes obtenidos hasta esos momentos. En 1985 se publicó un libro recogiendo una colección de artículos de Kiefer sobre diseño óptimo de experimentos (Brown et al., 1985). Dicha colección es de un inestimable valor para los investigadores en esta materia. A la memoria de Kiefer está también dedicado el libro de Shah y Sinha (1989). Entre los de más reciente aparición destacar el de Schwabe (1996), que se centra en modelos multifactoriales, y el de Fedorov y Hackl (1997), donde se introducen temas y modelos de interés en la investigación actual en diseño óptimo. En España resaltar la aparición del libro de Rodríguez Torreblanca y Ortíz Rodríguez (1999), el que posiblemente sea el primer volumen en español dedicado íntegramente a Diseño Óptimo de Experimentos. La teoría general del diseño se ha desarrollado inicialmente para modelos lineales. Para modelos no lineales se complican los métodos para obtener los diseños óptimos y hay que realizar algunas modicaciones como las ya anteriormente citadas de Box (1968a) y las posteriores de Ford, Titterington y Kitsos (1989) y Khuri y Lee (1998).

Nota Histórica

9

Entre las monografías más recientes dedicadas al diseño cabe destacar la aplicación de los métodos algebraicos al diseño de experimentos por parte de Pistone, Riccomagno y Wynn (2000) y el enfoque funcional por parte de Melas (2005) que está formado por un compendio de los trabajos del autor durante las dos últimas décadas. Además la aplicación de esta disciplina a ramas aplicadas de la ciencia cobra cada vez más fuerza por el interés de reducir costes en la realización de experimentos sin renunciar a la eciencia en los procesos de inferencia estadística. Una colección de trabajos aplicados a los campos de la Biología, Epidemiología, Medicina, entre otros, ha sido recogida por Berger y Wong (2005). Destacar la celebración periódica desde el año 1987, cada tres años, de una reunión de carácter internacional con el objetivo de reunir a investigadores de todo el mundo que trabajan en el campo del diseño óptimo. Los trabajos presentados en estas reuniones han sido publicados y forman un resumen de los avances de los investigadores más punteros en este ámbito. La última de estas reuniones, mODa8, se ha celebrado en el año 2007 en Almagro (España), bajo el auspicio de la Universidad de Castilla-la Mancha (López-Fidalgo et al., 2007a). El uso de la informática en los diversos campos de la estadística supone un avance considerable. En particular, en el Diseño Óptimo de Experimentos, entre los primeros que investigan sobre esto están Box y Hunter (1965) para modelos no lineales. La ayuda del ordenador fue estimulada con el n de conseguir diseños óptimos exactos en N pruebas. El algoritmo informático más popular es DETMAX, desarrollado por Mitchell (1974) para la búsqueda de diseños D-óptimos. En 1980, Galil y Kiefer hacen algunas modicaciones. Welch (1982) desarrolla un nuevo programa más completo. Más tarde Atkinson y Donev (1992) proponen un programa en FORTRAN para diseños exactos. Paralelamente en 1974, Snee y Marquardt desarrollan el programa XVERT para el diseño óptimo en mixturas de modelos. En 1983, Nigam y Gupta proponen una nueva versión de este algoritmo. Hardin y Sloane crean en 1994 el programa GOSSET, capaz de buscar diseños óptimos respecto de algunos criterios muy utilizados para los modelos

10

Introducción

polinómicos de grados bajos, con multitud de variables de tipos distintos y restricciones de varias clases. En 1995, Rasch y Darius realizan una revisión de los programas que se pueden utilizar para distintos aspectos del diseño, tanto creados especícamente para este objetivo como formando parte de otros paquetes más generales. El programa SAS incluye en sus últimas versiones un módulo dedicado al cálculo de diseños óptimos, el trabajo de Atkinson, Donev y Tobias (2007) presenta la teoría del Diseño Óptimo de forma paralela al desarrollo de la misma usando SAS.

Capítulo 1

Diseño Óptimo La Estadística actual, fruto de la unión del Cálculo de Probabilidades, cuyo objetivo era el estudio de los juegos de azar, y de la Estadística, centrada en la descripción de datos, actúa como puente entre los modelos matemáticos y los fenómenos reales. Mediante ella y el uso de métodos matemáticos, se modeliza un fenómeno natural. Para ajustar el modelo, se lleva a cabo un experimento, se analizan los datos obtenidos y se mejora la estrategia experimental generando un diseño óptimo. Las ciencias experimentales (Física, Química, Biología, Medicina, Sociología,...) basan sus resultados nales en esta base matemática, y como tal, su importancia no ha dejado de crecer paulatinamente hasta hacerse casi indispensable en la mayoría de las disciplinas actuales. En algunos problemas de Estadística se tiene cierto control sobre el lugar y la proporción de datos experimentales que se van a recoger. Estos problemas, en los que el experimentador puede elegir, al menos hasta cierto punto, el experimento concreto que se va a llevar a cabo, se llaman problemas de

Diseño de Experimentos. El diseño de experimentos y el análisis

estadístico de los datos están estrechamente relacionados: para diseñar adecuadamente un experimento conviene tener en cuenta el análisis estadístico

que se realizará con los datos que se van a obtener, y no se debería llevar a 11

1. Diseño Óptimo

12

cabo un análisis estadístico de datos experimentales sin considerar el tipo concreto de experimento del cual se obtienen los datos. El Diseño Óptimo de Experimentos está íntimamente ligado a los modelos lineales: al análisis de la varianza, la regresión y el análisis de la covarianza. El objetivo es lograr la mejor estimación posible de los parámetros desconocidos que aparecen en el modelo. En determinadas situaciones es necesario el uso de modelos no lineales, preriéndose éstos a sus linealizaciones, sobre todo en el caso en el que dejan de vericarse determinadas hipótesis acerca del error (Ruppert et al., 1989).

1.1. Modelos de Regresión En distintas ocasiones nos encontramos ante el hecho de intentar expresar una variable y en función de otra u otras x1 , . . . , xm . Esto se podría escribir de la forma

y = η(x, θ) + , donde θ representa un conjunto de parámetros desconocidos cuya especicación determina completamente la función η , llamada

supercie de res-

puesta. La hipótesis habitual es que se verica E[] = 0, siendo  el error. De una manera alternativa el modelo se puede escribir

E[y] = η(x, θ). La elección de la función η es esencial a la hora de construir el modelo. Por un lado, x representa las condiciones experimentales que pueden ser elegidas por el experimentador, a partir de un dominio experimental

espacio del diseño

X , también llamado . Por otro lado, θ es un vector de parámetros de un dominio Θ, desconocidos para el experimentador. El experimentador controla x, mientras que la naturaleza determina θ. El término de error en el modelo puede englobar desde los errores al realizar las medias hasta los errores debidos a la especicación del modelo. Debido a

1.2. Método de los Mínimos Cuadrados Generalizados

13

este error aleatorio, repetir experimentos nos lleva generalmente a diferentes respuestas observadas incluso si las condiciones experimentales son las mismas. La situación más simple que podría darse es un modelo lineal

y = f t (x) θ + , con f t (x) = (f1 (x), . . . , fk (x)) y θt = (θ1 , . . . , θk ). La linealidad se reere respecto de los parámetros θ. Ahora bien, no todas las situaciones presentes en la naturaleza o necesarias de una tarea de modelización siguen modelos lineales. Muchos fenómenos son modelizados mediante modelos no lineales en los que la variable respuesta y depende de θ a través de una relación funcional del tipo

y = η(x, θ) + , donde la función respuesta η es una función no lineal respecto del vector de parámetros θ. Una ventaja de los modelos no lineales es que acostumbran a tener menos parámetros que modelos equivalentes de naturaleza polinómica y la extrapolación a valores fuera del rango de valores muestreados, raramente produce predicciones excesivamente erróneas. Como desventaja destacaremos la dependencia, en los diseños óptimos calculados para estos modelos, de los propios parámetros.

1.2. Método de los Mínimos Cuadrados Generalizados Parece ser que fue descubierto independientemente por Gauss1 y Legendre2 y apareció por primera vez publicado por Legendre en 1805. Una de sus primeras aplicaciones fue en el cálculo de órbitas de planetas. El método, tal y como es usado hoy en día en Estadística, es el siguiente: 1 Karl Friedrich Gauss (1777-1855). 2 Adrien Marie Legendre (1752-1833).

1. Diseño Óptimo

14 Consideremos un modelo general

y = η(x, θ) + , siendo Σ la matriz de covarianzas de los errores. La suma de cuadrados de los errores ponderada por la matriz de covarianzas de las observaciones es entonces t −1 t Σ−1   = [y − η(x, θ)] Σ [y − η(x, θ)].

El estimador mínimo cuadrático de θ es el valor θˆ que al ser sustituido en la ecuación anterior minimiza t Σ−1  . Habitualmente se puede calcular derivando la ecuación respecto de θ e igualando a cero. En el caso lineal, detallado en el apartado anterior, y considerando el caso de observaciones incorreladas, la solución tiene las siguientes propiedades: Es un estimador de θ que minimiza la suma generalizada de cuadrados de los errores, sean cuales sean las propiedades de la distribución de éstos. Los elementos de θˆ son funciones lineales de las observaciones y1 ,

. . . ,yN , y proporcionan estimadores centrados de θ con varianza mínima, entre todas las funciones lineales de las observaciones que proporcionan estimadores centrados, sea cual sea la distribución de los errores. Si los errores se distribuyen normalmente con media 0 y varianza constante σ 2 , entonces θˆ es el estimador máximo verosímil de θ. Esto es debido a que la función de verosimilitud para la muestra sería en este caso

  1 1 t f (y1 , . . . , yN ) = n exp − 2   . 2σ σ (2π)n/2 Así que para un valor jo de σ , maximizar la función de verosimilitud equivale a minimizar la suma generalizada de cuadrados de

1.3. Contexto del Diseño Óptimo

15

los errores. Esto es una buena justicación del empleo del procedimiento de mínimos cuadrados. En los modelos no lineales suele ser necesario recurrir a algoritmos numéricos, como el de Levenberg-Marquardt (Levenberg, 1944; Marquardt, 1963). Si hemos utilizado el método de mínimos cuadrados para estimar θ por ˆ θ, estén los errores distribuidos normalmente o no, tenemos los siguientes resultados: El vector de residuales es  = y − yˆ En el caso del modelo lineal con varianza constante σ 2 , la matriz de covarianzas de los estimadores de los parámetros es Σβˆ =

(X t X)−1 σ 2 . La varianza σ 2 se puede estimar por máxima verosimilitud, y desde el punto de vista del diseño óptimo de experimentos se puede eliminar sin más que introducirla en el modelo, incluso aunque no sea constante.

1.3. Contexto del Diseño Óptimo En lo que sigue utilizaremos modelos de regresión con observaciones incorreladas. El modelo vendrá determinado por los integrantes que describimos a continuación. En primer lugar hemos de especicar el conjunto de puntos observables, donde valoran las llamadas variables controlables. Dicho conjunto recibe el nombre de

espacio del diseño o dominio experi-

mental y será denotado por X . En la práctica el espacio X va a ser un

subconjunto compacto de un espacio euclídeo (con frecuencia un intervalo de la recta real). Por este motivo no constituye restricción grave suponer desde ahora en adelante que dicho conjunto es compacto. Entenderemos por

estado, ϑ, una función que asigna a cada punto de

X el promedio de las cantidades y(x) observadas en él. Estas cantidades son variables aleatorias que dependen de la inestabilidad de las condiciones

1. Diseño Óptimo

16 siendo su varianza conocida:

σ 2 (x) = E({y(x) − E[y(x)]}2 ), mientras que la esperanza es parcialmente desconocida:

ϑ(x) = E[(y(x)] = η(x),

x ∈ X.

Un buen diseño tratará de reducir al mínimo la inuencia de la inestabilidad de las condiciones. También se podría expresar:

y(x) = η(x) + x , La función η se conoce como

x ∈ X,

E(x ) = 0.

supercie respuesta o función de regresión.

Habitualmente supondremos que dicha función es parcialmente conocida, es decir, que está dentro de un conjunto paramétrico de funciones:

η(x) = η(x, θ), donde los parámetros θt = (θ1 , . . . , θm ) ∈ Rm son desconocidos y su especicación determina totalmente a η . Del mismo modo, la varianza podría ser parcialmente conocida, dependiente de estos mismos parámetros u otros, que se introducirían en el modelo para la búsqueda del diseño óptimo.

1.4. Diseños Exacto y Aproximado Si de antemano suponemos que el número de observaciones que podemos realizar es N , llamaremos

diseño de tamaño jo o diseño exacto de

tamaño N a una sucesión de N puntos de X , x1 , . . . , xN , donde eventual-

mente podrían coincidir algunos de ellos. Con el objeto de no repetir puntos denotaremos por Nx el número de observaciones realizadas en el punto x. Podemos entonces asociar a este diseño la medida de probabilidad discreta:

ξ(x) =

Nx , N

x ∈ X.

Esto sugiere una denición más general de

diseño aproximado o asintó-

tico como una medida discreta de probabilidad, ξ, en X con soporte nito.

1.5. Estimadores de Funcionales Lineales

17

Cabría aún una denición más general del diseño como una medida de probabilidad cualquiera, en cuyo caso aparecerían también

diseños conti-

nuos (Atkinson y Donev, 1992). Aunque en ocasiones estos diseños podrían ser poco viables en la práctica, son convenientes para demostrar ciertas propiedades. Además eligiendo N sucientemente grande, podremos aproximar un diseño de estas características a uno exacto, tomando un número cercano a N · ξ(x) observaciones en el punto x. Por supuesto estas aproximaciones proporcionan diseños tanto mejores cuanto mayor sea N , resultando peligrosas para tamaños pequeños. Con respecto a su eciencia véase Imhof, López-Fidalgo y Wong (2001), que extienden los diseños exactos conocidos en regresión polinomial y dan cotas de eciencia para diseños aproximados redondeados con métodos tradicionales (Pukelsheim, 1993). El programa BAZI3 permite realizar estos redondeos mediante diferentes métodos logrando que el diseño exacto obtenido sea el de mayor eciencia respecto al aproximado considerado. El diseño concentrado en los puntos x1 , ..., xN , con pesos respectivos P p1 , ..., pN (0 ≤ pi ≤ 1 para i = 1, ..., N ; N i=1 pi = 1) se denotará por ! x1 ... xN ξ= p1 ... pN y el peso de un punto xk , se denotará también como ξ(xk ) = pk . El soporte de un diseño ξ será:

Xξ = {x ∈ X : ξ(x) > 0}.

1.5. Estimadores de Funcionales Lineales En muchas ocasiones va a resultar más interesante estimar determinadas relaciones entre los parámetros que estimar cada uno de ellos. Esto sugiere la denición de

funcional lineal, g, como una función lineal del es-

pacio de estados en la recta real:

g : Θ −→ R. 3 http://www.math.uni-augsburg.de/stochastik/bazi

1. Diseño Óptimo

18

Supondremos que la aplicación g tiene como matriz asociada en la base

{f1 , . . . , fm } de Θ, el vector ct = (c1 , . . . , cm ). Es decir, dado un estado: ϑ(x) =

m X

θi fi (x),

i=1

entonces g(θ) =

θt c.

Buscaremos entonces una buena estimación de g(θ). Su valor será calculado a partir de los datos experimentales, utilizando para ello una función lineal de las variables respuesta: N X

ai y(xi ),

i=1

donde a1 , . . . , aN son ciertos coecientes que habrá que determinar bajo ciertas exigencias. A esta función se le llamará mos además que es un

estimador lineal de g. Dire-

estimador centrado siempre que: " E

N X

# ai y(xi ) = g(θ),

i=1

estimable si existe al menos un estimador lineal centrado de g . El mejor estimador lineal centrado será aquél que tenga mínima varianza (BLUE, the Best Linear Unbiased Estimator), es decir, el estimaDiremos que g es

dor:

N X

a?i y(xi ),

i=1

tal que:

" V ar

N X i=1

# a?i y(xi )

(

a ∈ RN ,   = m´ın V ar a Y : E at Y = g(θ), θ ∈ Θ 

t

)



.

En resumen, dicho estimador vendrá dado por los coecientes a?i tales que: (N ) N N X X X 2 a?2 ın a2i σi2 : A ∈ RN , ai θ(xi ) = g(θ), θ ∈ Θ . i σi = m´ i=1

i=1

i=1

Nos interesa obtener una expresión explícita de estos coecientes.

1.6. Matriz de Información

19

1.6. Matriz de Información Dado un diseño de tamaño jo N , utilizaremos la siguiente notación:

Y = (y(x1 ), . . . , y(xN ))t , θ = (θ1 , . . . , θm )t , 

f1 (x1 ) . . .  X =  ... ... f1 (xN ) . . .

Denición 1.

 fm (x1 )  ... . fm (xN )

La matriz de información de un diseño exacto x , . . . , x 1

N,

se dene como la matriz:

M = X t Σ−1 X, donde Σ = diag(σ 2 (x1 ), . . . , σ 2 (xN )). Generalizando para diseños aproximados o asintóticos. Denición 2.

Se dene la matriz de información asociada a un diseño

aproximado ξ como la matriz de orden m: X M (ξ) = f (x)f t (x)σ −2 (x)ξ(x) x∈X

Observación 1.

La matriz de información de Fisher4, supuesta la norma-

lidad de las observaciones, coincidirá con la matriz de información denida anteriormente:

 M (ξ) = −Eξ

   ∂ log l ∂ log l ∂2 2 log l(y, θ, σ ) = Eξ , ∂αi ∂αj ∂αi ∂αj

donde l es la función de verosimilitud de la muestra. Esta denición será así aplicable a modelos no lineales, pero entonces dependerá de los parámetros que se quieran estimar. Puede darse una denición análoga en cuanto a la matriz de información de un diseño continuo. A partir de ahora utilizaremos solamente diseños aproximados o asintóticos y los denominaremos simplemente diseños. Si ξ 4 Ronald Aylmer Fisher (1890-1962).

1. Diseño Óptimo

20

es un diseño exacto x1 , . . . , xN entonces, según esta nueva denición de matriz de información asociada a un diseño, en general tendremos: 1 X 1 M (ξ) = fi (x)fj (x)σ −2 (x)Nx = M N N x∈X

La ventaja de esta denición es que M (ξ) no depende del tamaño de la muestra, N , sino de la proporción de observaciones en cada punto. Incluso, si hay homocedasticidad, suele considerarse

M (ξ) =

1 σ2N

M,

de modo que no aparezca ningún parámetro en la matriz de información. Denición 3.

Sea A una matriz cualquiera de orden m. Se denen los

conjuntos siguientes:

M(A) = {Au : u ∈ Rm } N (A) = {u ∈ Rm : Au = 0}, que son los subespacios imagen y núcleo de la aplicación lineal asociada a la matriz A. Denotaremos por Ξ al conjunto de todos los diseños en el modelo, mientras que el conjunto de todas las matrices de información será:

M = {M (ξ) : ξ ∈ Ξ}. El conjunto M tiene en general una estructura más sencilla que el conjunto Ξ. De hecho, como veremos en la siguiente proposición, M es un subconjunto convexo de un espacio euclídeo, el de las matrices cuadradas de orden m y simétricas. Además la varianza de un estimador será función de la inversa generalizada de la matriz de información. Nota:

Dada una matriz cualquiera, A, diremos que A− es una inversa

generalizada (también llamada g-inversa o pseudoinversa) cuando AA− A =

A. Otra denición equivalente a ésta es la siguiente: A− es una inversa generalizada de A si A− u satisface la ecuación Ax = u para cada u de M(A). La inversa generalizada existe siempre, pero en general no es única,

1.6. Matriz de Información

21

así A− denotará la clase de las inversas generalizadas de A. Si A es cuadrada y regular entonces la inversa generalizada coincide con la matriz inversa. Cuando la matriz A es simétrica, existe una g -inversa muy particular, que se debe a Penrose, y que denotaremos por A+ . Esta matriz es la única que verica lo siguiente:

( +

A u=

0 wu

si u ∈ N (A) si u ∈ M(A)

donde wu es el único vector de M(A) tal que Awu = u. Por tanto A+ verica A+ AA+ = A+ y AA+ A = A, de modo que a su vez A es la g inversa de Penrose de A+ . Proposición 1.

El conjunto M es convexo.

Demostración:

Sean ξ1 , ξ2 ∈ Ξ y 0 < λ < 1, entonces:

(1 − λ)M (ξ1 ) + λM (ξ2 ) = M [(1 − λ)ξ1 + λξ2 ] ∈ M. Observación 2.

En muchas ocasiones suponer, en el Diseño Óptimo de

Experimentos, que la varianza de las observaciones es uno, σ 2 (x) = 1, no supone una pérdida de generalidad, sin más que sustituir σ −1 (x)θ(x) y

σ −1 (x)f (x) por θ(x) y f (x) respectivamente. En este caso la matriz de información quedará: X M (ξ) = f (x)f t (x)ξ(x). x∈X

En lo que sigue se supondrá siempre que σ 2 (x) = 1, salvo que se especique lo contrario.

Se verica que 1. La matriz de información es simétrica y semidenida positiva. 2. Si ξ tiene menos de m puntos en su soporte, entonces det M (ξ) = 0.

Proposición 2.

1. Diseño Óptimo

22 3.

Se puede deducir la siguiente expresión explícita para el determinante de la matriz de información: det M (ξ) =

X

ξ(xk1 ) · · · ξ(xkm ) det[{fi (xkj )}]2 .

k1 K II . Considerando los límites anteriores bastará con vericar que el cociente resulta monótonamente decreciente al aumentar σ para valores jos de τ y que resulta monónotonamente creciente al aumentar τ para valores jos de

σ . Esto se puede comprobar realizando el cambio de variable (τ /σ)2 = x y considerando que x ∈ (0, ∞) corresponde a todas las posibles parejas de desviaciones típicas (τ, σ). P n X xt2i + t2i / ni=1 t2i KI = , K II xt2i + 1 i=1

6. Estimadores Combinados en Quimiometría

150

vericándose que el límite cuando x → 0 es 1 mientras que cuando x →

∞ es n. El cociente de ambas constantes resulta ser suma de funciones monónotonas crecientes y mayores que uno para x ∈ (0, ∞) y por lo tanto podemos asegurar que se verica la desigualdad K I > K II . Este resultado teórico justica las diferencias observadas en las simulaciones que llevamos a cabo en la etapa inicial del trabajo. Presentándose la estructura de covarianzas de los parámetros diferente según el método utilizado, obteniéndose eso si estimadores correctos en ambos casos. Como conclusión podríamos decir que el método combinado, sin presentar diferencias en el desarrollo de la experimentación obtiene unos estimadores más precisos que el método en dos pasos. Este resultado contrasta con la preferencia en el caso real por el método en dos pasos, pudiéndose observar como la totalidad de los ejemplos citados utilizan este método. Para el caso simplicado con el que hemos trabajado, el cálculo de diseños

D−óptimos da lugar a diseños concentrados en los extremos de los espacios del diseño al ser ambos modelos lineales en los factores. Hemos querido presentar aquí este resultado para llamar la atención sobre este problema que ha surgido, como algunos otros, en el desarrollo de los trabajos expuestos en los capítulos anteriores. Quedando abierta la linea del análisis de los estimadores y el cálculo de los diseños óptimos para los problemas reales, con modelos no lineales, que podemos encontrar en la estimación de ecuaciones de velocidad y de los parámetros de la ecuación de Arrhenius.

Conclusiones El objetivo principal de este trabajo ha sido proponer diseños óptimos que permitan una discriminación entre modelos o una estimación más eciente de los parámetros estadísticos que se obtienen. Los modelos con los que se ha trabajado son la ecuación de Arrhenius y los modelos de adsorción BET y GAB. Se ha presentado una variedad de diseños óptimos de diferentes características, que se han comparado a través del cálculo de eciencias con diseños utilizados en casos experimentales. Como resultado se ha obtenido una herramienta que permite al experimentador la elección del diseño más adecuado en términos de eciencia, o lo que es lo mismo, en términos de ahorro de observaciones. Durante el trabajo se han utilizado los criterios de D−, c− y T −optimización junto con el cálculo de diseños compuestos y se han analizado las necesidades reales de los experimentadores buscando dar respuesta a problemas que aparecen durante los experimentos y que preocupan a la comunidad cientíca. Durante el estudio de los procedimientos experimentales que se realizan para caracterizar procesos cinéticos, apareció la necesidad de llevar a cabo experimentos de cinética de reacciones en dos pasos. Se ha analizado la diferencia entre estimadores en dos pasos y estimadores combinados cuando el experimento consta de dos procesos de regresión, estimándose en el

151

Conclusiones

152

primero de ellos la variable dependiente del segundo modelo. El análisis de un modelo simplicado ha permitido demostrar la menor varianza de los estimadores combinados frente a los estimadores en dos pasos. A continuación enumeramos las principales conclusiones del trabajo para permitir una consideración global del mismo: a) Respecto a los diseños D−óptimos calculados para la ecuación de Arrhenius, con dos puntos en su soporte, el extremo superior del espacio del diseño siempre forma parte del diseño, mientras que el segundo punto puede ser o bien un punto interior o el extremo inferior. Este diseño no reduce las dicultades de las observaciones extremas, pero facilita el desarrollo del experimento, al reducir el número de condiciones experimentales diferentes. b) Destacar que de los experimentos con N = 6 puntos de soporte, cuya eciencia ha sido calculada, el de menor eciencia resulta ser el que ha sido obtenido de un trabajo experimental real (Ray y Watson, 1981). El de mayor eciencia resulta ser el diseño linear inverso, que depende para su construcción de las estimaciones iniciales de los parámetros. c) Los cálculos de los diseños c−óptimos han permitido obtener las eciencias analíticas para diseños genéricos con N puntos en su soporte y con la misma proporción de observaciones asignadas a cada punto. De los ejemplos planteados destacar que en muy pocas ocasiones el aumento del número de puntos del diseño conlleva un aumento en la eciencia. La recomendación de un diseño en particular se hace especialmente complicada, dependiendo del número de puntos y de la estimación inicial del parámetro

B , por ello resulta interesante la obtención de las expresiones analíticas. d) Se ha observado en la bibliografía, la alta incertidumbre del parámetro B . Los diseños compuestos calculados permiten estimar ambos parámetros jado una eciencia mínima para la estimación de dicho parámetro. e) Respecto al cálculo de diseños T −óptimos para la discriminación entre los modelos BET y GAB, dichos diseños han de ser calculados numéricamente jando unas estimaciones iniciales de los parámetros del modelo GAB. En los ejemplos obtenidos los diseños poseen tres puntos, el extremo

Conclusiones

153

superior, el extremo inferior o un punto muy cercano a él y un punto intermedio, para el que se han de realizar más de la mitad de las observaciones. f) Los diseños D−óptimos calculados para el modelo BET, poseen dos puntos, incluyendo el extremo superior del espacio del diseño y, o bien un punto interior o el extremo inferior. Respecto a las eciencias de los 5 diseños experimentales comparados, con N = 6 puntos, sus valores dependen del espacio del diseño considerado y del valor del parámetro no lineal cB . Los grácos de la Figura 5.3 permiten la elección del más adecuado para los dos espacios del diseño considerados y valores de c ∈ [1, 30]. g) Se han obtenido los diseños c−óptimos que permiten estimaciones individuales de los parámetros del modelo BET. La comparación de las eciencias de los 5 diseños experimentales propuestos, presenta la particularidad de que los mejores diseños para la estimación del parámetro wmB resultan ser los menos adecuados para la estimación de cB y viceversa. h) Los diseños tanto D− como c−óptimos para el modelo GAB han de ser calculados de forma numérica. Destacar que el extremo superior del espacio del diseño, forma parte de los diseños óptimos salvo para el diseño

cG −óptimo que resulta ser singular para estimaciones iniciales de k = 0.5 y valores de cG > 5. De los cálculos de eciencias, cabe destacar el buen comportamiento del diseño uniforme. i) Del cálculo de las eciencias de los diseños T −óptimos, cabe destacar la obtención de eciencias más altas cuando son comparados con los diseños óptimos obtenidos para el modelo GAB, ya que el criterio de

T −optimización empleado considera el modelo GAB como el verdadero. Para valores iniciales de k cercanos a 1 (recordemos que cuando k = 1 ambos modelos son el mismo) el modelo que permite la discriminación, posee una altísima eciencia para la estimación del parámetro k . j) La comparación del proceso de estimación en dos pasos, frente a la estimación combinada, que se ha tratado en el Capítulo 6, da como resultado la menor varianza de los estimadores combinados frente a los estimadores en dos pasos, que tradicionalmente son utilizados en estos métodos.

Conclusiones

154

Discusión de los Resultados Rodríguez Díaz (2000), en su tesis doctoral, realiza una crítica a la teoría del Diseño Óptimo de Experimentos. En ella enumera seis inconvenientes de la teoría del Diseño que nos pueden permitir realizar un balance del trabajo desarrollado.

En primer lugar se observa que la teoría del Diseño Óptimo requiere la elección previa del modelo, sin contar con las observaciones, siendo incapaz por tanto de descubrir la falta de ajuste al modelo planteado. En los casos i)

prácticos presentados, este problema es menor ya que, tanto el modelo planteado por Arrhenius como las isotermas de adsorción desarrolladas por

Brunauer-Emmett-Teller y Guggenheim-Anderson-de Boer, se encuentran fuertemente justicados teóricamente (Capítulos 2 y 4) y se vienen usando ampliamente en el estudio de los fenómenos ya citados en este trabajo. Por lo tanto el hecho de elegir con anterioridad el modelo no es, en este caso, un inconveniente que pueda inuir de forma negativa en las estimaciones obtenidas de los experimentos. Ahora bien, el criterio de T −optimización da respuesta a discriminación entre modelos rivales, como hemos visto en el Capítulo 4, permitiendo elegir el modelo que mejor explique los datos. El mejor ajuste de los datos experimentales a un modelo, no debe justicar la obtención de valores de los mismos sin signicado físico, tratando en ese caso el modelo de forma puramente empírica (Lewicki, 1997).

Para el caso de modelos no lineales se plantea la dicultad de elección de los valores iniciales. Durante el desarrollo de este trabajo se decidió apliii)

car los diseños óptimos obtenidos a casos de Química atmosférica (ecuación de Arrhenius) y de adsorción de vapor de agua en alimentos (isotermas BET y GAB). Esta decisión no fue fruto de un capricho ni de una casualidad. Para el primer caso, la existencia de los informes generados por el Panel

de Expertos, (Jet Propulsion Laboratory, 2000, 2003), permiten disponer de un amplio repositorio de parámetros contrastados que pueden usarse como valores iniciales amparados por la reputación de la NASA. Además

Discusión de los Resultados

155

los altos márgenes de los límites de conanza de los parámetros sirven para incentivar la búsqueda de diseños que permitan aumentar la eciencia de los diseños utilizados y reducir así la incertidumbre de los parámetros. La importancia de disponer de parámetros lo más ajustados posibles en la modelización de fenómenos como el Efecto Invernadero y la evolución de la Capa de Ozono, son cuestiones de un amplio interés cientíco, económico y social, que han sido determinantes a la hora de profundizar en el tema. En el segundo caso el carácter aplicado de las medidas de adsorción de vapor de agua en alimentos es muy amplio. La bibliografía relacionada con este fenómeno es muy elevada existiendo numerosas publicaciones relacionadas con la Tecnología de los Alimentos, donde se caracterizan los procesos de adsorción en frutas, verduras, cereales, productos lácteos, etc. Es de sumo interés conocer estimaciones precisas de la adsorción en alimentos para poder llevar a cabo procesos de congelado, desecado, envasado o exportación pudiéndose garantizar la calidad nal del producto.

A la hora de seleccionar el criterio de optimización, esta elección se realiza de nuevo sin antes haber observado los datos. Así, un diseño pueiii)

de ser óptimo para un criterio de interés pero desafortunado desde otro

punto de vista. Para ello, se ha hecho hincapié en el desarrollo de diseños compuestos, que permiten combinar varios criterios a la hora de plantear diseños óptimos, permitiendo jar los grados de satisfacción de cada criterio en el nuevo diseño. Así mismo, se ha intentado relacionar los diseños planteados, calculando la eciencia de los diferentes diseños óptimos respecto a demás criterios. Hay que resaltar también que la variedad de criterios puede ser una ventaja para el investigador ya, que le permite elegir la más conveniente de entre las diversas opciones.

La evolución de la teoría de diseño óptimo en dos corrientes paralelas e irreconciliables, diseños exactos frente a diseños aproximados. Acerca iv)

de esta división, conviene decir que, en nuestro caso y sobretodo en el caso particular de la Química atmosférica y de la adsorción de vapor de agua, de donde proceden los ejemplos utilizados, el tamaño de los diseños es alto, por lo que es fácilmente aplicable la idea del diseño aproximado y de la

Conclusiones

156

probabilidad discreta, ξ(x) con x ∈ X . Además, la posibilidad de usar el Teorema de Equivalencia, que no se verica en el caso de diseños exactos, permite la realización de los cálculos de optimización y proporciona una herramienta fundamental para comprobar que verdaderamente los diseños propuestos son los que minimizan los valores de las funciones criterio.

Los diseños óptimos, muy frecuentemente obligan a tomar observaciones en condiciones extremas. En el caso de la ecuación de Arrhenius, v)

los principales problemas de la obtención de buenas estimaciones de los parámetros provienen de las dicultades experimentales a altas y bajas temperaturas. Los espacios de diseño planteados en los ejemplos presentados, se han obtenido de trabajos experimentales reales y en algunos casos,

los puntos del diseño óptimo son más asequibles y menos costosos de obtener que los extremos del espacio de diseño. Además, la concentración de las observaciones en los puntos de soporte frente a la dispersion tradicional de éstas, tiene clarísimas e importantes ventajas experimentales para los investigadores, simplicando las dicultades técnicas, como la estabilización de la temperatura deseada y los cambios en el instrumental que surgen al tener que tomar medidas en muchos y diferentes puntos. En el caso de los fenómenos de adsorción, los razonamientos aplicados para la ecuación de Arrhenius son igualmente válidos. La repetición de experimentos a presiones dadas se puede llevar a cabo de forma mucho más económica, e incluso de forma simultánea, usando las mismas condiciones de presión y temperatura de la cámara donde se lleva a cabo el experimento para replicarlo. vi)

La no invariancia de algunos criterios por cambios de escala, aunque

no se ha abordado en profundidad en este trabajo, quedando para futuros desarrollos del mismo, sí se ha tenido en cuenta a la hora de plantear diseños compuestos, en los que se estandariza la función criterio dividiendo cada sumando por el valor de la función criterio para el diseño óptimo en cada caso. Así se evita la inuencia que las diferencias entre las magnitudes de cada parámetro puedan tener en la obtención del diseño óptimo.

Líneas Futuras de Investigación

157

Líneas Futuras de Investigación Este trabajo ha servido para establecer un primer contacto y sentar las bases del cálculo de diseños óptimos para diferentes modelos no lineales, quedando abiertos diferentes caminos por donde es posible continuar. Puede plantearse el cálculo y el estudio de las eciencias de diseños óptimos bajo diferentes criterios a los aquí considerados, A−, E−, L−,

Φp −optimización (Rodríguez-Díaz, 2000), analizándose las posibles ventajas y desventajas de cada criterio entre sí y frente a los diseños ya calculados. Así mismo, queda abierta la posibilidad de generar código o programas informáticos especícos, no sólo para calcular los diseños, sino para sugerir diseños de eciencia máxima para un número de puntos experimentales jados por el experimentador así como obtener el ajuste de los modelos. El estudio de sensibilidad, analizando las uctuaciones de los valores de la eciencia frente a las variaciones en las estimaciones iniciales de los parámetros, no ha sido considerado y queda pendiente para futuros desarrollos del trabajo, así como la consideración de condiciones de heterocedasticidad. La inclusión de modicaciones en el modelo de Arrhenius, también puede ser considerada. Rodríguez-Díaz y Santos-Martín (2007) ya han considerado el diseño óptimo de experimentos para la modicación propuesta por Laidler (1984), para rangos de temperaturas muy amplios, que permite que el factor preexponencial A sea proporcional a la temperatura T elevada a una cierta potencia m, siendo la nueva expresión para el modelo:

k = AT m e−B/T . Queda pendiente el cálculo de diseños T −óptimos que facilite la discriminación entre ambos modelos. Con relación a los modelos de fenómenos de adsorción se ha mencionado la existencia de isotermas modicadas y de modelos semi-empíricos, Oswin (1946), Hailwood y Horrobin (1946), Halsey (1948), Chirife y Iglesias (1978), Ferro Fontan et al. (1982), para los que cabe la posibilidad de determinar diseños óptimos. En otro campo diferente hay destacar la modicación de la ecuación de Arrhenius en la caracterización de la uencia plástica de materiales

Conclusiones

158

metálicos sometidos a fuerzas de torsión a altas temperaturas. Este comportamiento viene caracterizando mediante la ecuación de Garofalo y =

Ae−B/T sinh(ασ)n , siendo los parámetros θ = (A, B, α, n) (Garofalo, 1965). La ecuación tiene aplicación directa en la Tecnología de Materiales, y la realización de experimentos a altas temperaturas, difíciles de alcanzar y controlar, hacen del cálculo de diseño de experimentos una herramienta muy interesante. También queda pendiente la obtención de diseños óptimos para medidas en equilibrio, que surgen cuando, en fenómenos de adsorción y debido al equipo disponible, no es posible controlar la presión del adsorbato, haciéndola permanecer constante a lo largo del tiempo. En estos casos el experimento transcurre hasta que la cantidad de adsorbato que se ha depositado sobre la supercie de adsorbente no varía, midiéndose en ese instante, la presión del gas en el equilibrio, y la cantidad del mismo que se ha depositado sobre la supercie. Ambas variables, tanto la dependiente como la independiente, son en este caso observadas y medidas en el equilibrio. El estudio de las propiedades de los estimadores combinados frente a la estimación en dos pasos, para los diferentes modelos no lineales mencionados en el Capítulo 6, queda también pendiente. El cálculo de diseños de experimentos que permitan responder a las necesidades experimentales en estos casos, se presenta también como una interesante línea futura de trabajo.

Conclusions The main purpose of this work has been to obtain optimum designs to discriminate between competing models or to obtain an ecient estimation of the unknown parameters. The models used are the Arrhenius equation and the BET and GAB adsorption models. A variety of optimum designs with dierent characteristics has been presented, and have been compared to designs used in real experiments through the obtention of eciency measures. As a result, a tool helping the experimenter with the election of the most adequate design in terms of eciency has been obtained, being the eciency concept equivalent to a reduction of the number of observations. The optimality criteria that have been used are D−, c− and T −optimality and real experimental needs have been analyzed to answer real problems that appear throughout the experiments. While studying the experimental procedures to characterize kinetic processes, the need to perform kinetic experiments in two stages appeared. Dierences between two stage and pooled estimators have been analyzed. This appears when the experiment includes two regression steps, estimating in the rst regression the dependent variable of the second model. A

159

Conclusions

160

simplied sample has been analyzed and its results have shown the advantages of the pooled estimation strategy that obtains estimators with lower variances. In the following paragraphs, a sequence of conclusion is presented for the shake of a clearer global view: a) Regarding D−optimum designs obtained for Arrhenius equation, supported at two dierent points, the upper limit of the design space always belongs to the design, while the second point is either an interior point or the lower extreme. This design does not reduce the diculty of obtaining observations for extreme points but makes the development of the experiment easier, by reducing the number of dierent experimental conditions. b) From the comparison of the experimental designs with N = 6 support points, for which the eciency has been obtained, we can state that the one with the lowest eciency is the obtained from a real experimental work (Ray y Watson, 1981). The one with highest eciency happened to be the linear inverse design, which needs initial best guesses of the parameters for its construction. c) The c−optimal designs have given way to the obtention of analytical expressions of the eciencies for generic designs with N support points, and equally weighted. From the examples obtained it can be pointed out that in very few occasions, the increase of the number of support points in a design leads to an eciency increase. It is quite dicult to give a general recommendation for practitioners. Eciencies depend on the number of points and on the initial best guess of B . Therefore the analytical expressions of the eciencies result of a great interest. d) The high uncertainty of the parameter B is made clear along literature. Compound designs face the estimation of all parameters with a xed minimum eciency for the estimation of this parameter.

Conclusions

161

e) The T −optimum designs obtained for the discrimination between BET and GAB adsorption models, have to be numerically computed, setting initial estimations for the parameters of the GAB model. In the proposed examples the designs are supported at three support points, the upper bound of the space design, either the lower bound or a very closed point, and a middle point that retains more than half of the observations. f) D−optimum designs obtained for the BET model, are supported at two dierent points, including the upper bound of the design space and either a interior point or the lower bound. Regarding the eciencies of the 5 compared experimental designs , with N = 6 points, their values depend on the space design and on the initial best guesses on the non linear parameter

cB . Figure 5.3 allows the election of the most convenient design for both space designs considered and for values of c ∈ [1, 30]. g) c−optimum designs for obtaining individual estimations of the parameters of the BET model have been computed. The comparison of the eciencies of the 5 proposed experimental designs concludes that the best designs to estimate the parameter wmB turns to be the less adequate for the estimation of cB , and viceversa. h) Both D− and c−optimum designs for GAB model have been numerically computed. Emphasize that the upper limit of the design space is present in all the possible designs, except for the cG −óptimum design, which happens to be singular for the initial best guesses of k = 0.5 and values of cG > 5. From the eciencies obtained the good performance of the uniform design should be noticed. i) Eciencies for the T −optimum designs have been obtained, getting higher eciencies while comparing to optimum designs obtained for the GAB model, probably because T −optimality criterion uses GAB model as the true one. For initial best guesses of parameter k close to 1 (for k = 1 both models are equivalent), the discriminating design has a very high eciency for estimating parameter k .

Conclusions

162

j) Comparison of the two stages estimation versus pooled estimation, analyzed in Chapter 6, gives as result the obtention of estimators with lower variance for the pooled estimation strategy, against the two stages estimators that are traditionally used in these methods.

Results Discussion Rodríguez Díaz (2000), in his PhD report, carries out possible criticisms to Optimum Experimental Designs. His six dierent mentioned drawbacks can help us to perform a critical analysis of our work.

Optimum Design theory is blamed to be strongly model dependent. The model has to be chosen even before considering the observations, therefore it may be imposible to detect the lack of t in the model. In the practical i)

samples here presented this initial model assumption is a minor problem.

The models proposed by Arrhenius as well as the adsorption isotherms developed by Brunauer-Emmett-Teller and Guggenheim-Anderson-de Boer are strongly theoretically justied (Chapters 2 and 4) and are widely used in the modeling of the phenomena mentioned along our work. Therefore, the prior election of the model is not an strong inconvenience in our developments as it does not to produce wrong estimations of the parameters. However, T −optimality criteria helps to answer the discrimination problem between rival models, as those seen in Chapter 4, allowing the election of the model that would best explain the behaviour of the phenomena. It must be pointed out that the best possible t will never justify the obtention of parameters with values unwanted by the physics behind the model, considering in these cases the model as an empirical one (Lewicki, 1997).

For the case of non linear models, the election of prior estimations of the unknown parameters turns out to be also a problem. In the development ii)

of our work the application of optimum designs to atmospheric processes

(Arrhenius equation) and to moisture adsorption on food stu (BET and GAB isotherms) was considered. For the rst case, the existence of a collection of reports from the Panel of Experts, (Jet Propulsion Laboratory,

Results Discussion

163

2000, 2003), facilitates the use of a wide estimations repository with the reputation provided by NASA. It was also interesting to obtain optimum designs because the high uncertainty of the published parameters. It could be reduced by the use of optimum experiments that would lead to increase the eciency of the experiments, and therefore to reduce their uncertainty. Correct estimations of the parameters are crucial for the correct modeling of phenomena such as the Greenhouse Eect and the depletion of the Ozone Layer. These are topics of great interest from the scientic, social and economic point of view. For the second case, the applied character of the measurements for the characterization of moisture adsorption on food stu is of great interest. There are several bibliographic references related to Food Technology where the characterization of the adsorption processes on fruits, vegetables, grain, dairy products, etc. are carried out. It is of the highest interest to know precise estimations of the parameters to proceed with freezing, drying, storing or exporting in the best conditions and to assure the nal quality of the products.

In order to select the optimization criterion, the election is made once again without prior knowledge of the observations. Therefore, a design iii)

can be optimum for a certain criterion but unfortunate from other points of

view. Compound designs have been considered to combine several criteria while obtaining optimum designs, allowing the establishment of levels for each considered criterion in a new design. On the other hand, the optimum designs obtained have been compared through the eciency of each design with respect to other criteria. It should be pointed out that the wide variety of optimization criteria is an advantage for the researcher, because it allows the election of the most adequate option for each circumstance.

Optimum experimental designs have evolved in two parallel lines, exact versus approximate designs. In our samples, especially in atmospiv)

heric Chemistry and in moisture adsorption phenomena, the number of

observations of each experiment is higher enough as to apply the idea of approximate designs and the concept of discrete measure, ξ(x) with x ∈ X . Besides, the possibility of applying the Equivalence theorem, which is not

Conclusions

164

veried for exact designs, provides a fundamental tool to obtain and check the optimality of a design, and so minimizing the value of the criterion function.

Diculties appear due to extreme observations, frequently requested by optimum designs. This is not new. For the Arrhenius equation the prov)

blems of obtaining accurate estimations of the parameters are related to

the diculties of taking observations at extreme temperatures. The design spaces have been obtained from the examples used, which correspond to real experimental works. In some cases the support points of the optimal designs are more aordable and less costly to obtain than the extremes of the design space. The observations gathered at the support point versus the traditional spacing, have very important experimental advantages for the researchers, simplifying some technical diculties, such as temperature stabilization and the changes in the equipment that appear, when dierent observations have to be carried out at dierent support points. These reasons also apply to the adsorption phenomena. The replication of an experiment at a given pressure is much more economic, being possible to carry out several experiments under the same conditions of pressure and temperature at the same time. vi)

The no invariance of some criteria with respect to scale changes.

Although it has not been deeply considered in this work, it has been taken partially into account when obtaining the compound designs. In these designs the criterion function is standardized by its value for the optimum design in each case. Future developments of this work remain open to coming studies. Thus, the inuence of the dierences between parameter quantities can be avoided during the obtention of the optimum design.

Issues for Further Research This work has established a rst contact with, and set the foundations for, the obtention of optimum designs for dierent non linear models, leaving dierent open topics for further research.

Issues for Further Research

165

The obtention and study of dierent optimum designs under dierent criteria (A−, E−, L−, Φp −optimality, Rodríguez-Díaz, 2000), from the hereby used, can be approached analyzing the advantages and disadvantages of each of them in terms of eciency. The option to develop specic code or computer programs, not only to obtain optimum designs, but also to suggest maximum ecient designs with a xed number of support points, as required by the required by the researcher, as well as to t the model and to obtain parameter estimators, can be committed. The study of sensibility, analyzing the variations of the eciency versus the initial best guesses of the parameters, has not been considered and remains as an open issue for future research developments. Neither the heteroscedastic assumptions have been included. The inclusion of possible changes in the Arrhenius model, could also be considered. Rodríguez-Díaz and Santos-Martín 2007, have already considered the variation proposed by Laidler (1984), adequate for wide temperature ranges. It allows that the preexponential factor A be proportional to temperature T m , so the new expression is k = AT m e−B/T . The obtention of T −optimum designs to discriminate between both models is still open. Regarding the adsorption models, the existence of modied isotherms and semi-empirical models, Oswin (1946), Hailwood and Horrobin (1946), Halsey (1948), Chirife and Iglesias (1978),Ferro Fontan et al. (1982), has already been mentioned, and there are still possibilities to determine optimum designs for them. In a dierent eld, the correction of Arrhenius equation for characterizing plastic uency of metallic materials, subjected to torsion tensions at high temperatures, may be an issue for future studies. The behaviour is characterized by the Garofalo equation y = Ae−B/T sinh(ασ)n , being the unknown parameters θ = (A, B, α, n) (Garofalo, 1965). The equation has a direct application in Material Technology, and the experiments at

Conclusions

166

high temperatures, hard to reach and to control, make the obtention of experimental designs an interesting and useful aim. It is also open for study the obtention of optimum experimental designs for measurement taken at equilibrium. This is found in adsorption phenomena, that due to the technical equipment, make uncontrollable the adsorbate pressure. In these cases, the experiment proceeds until the amount of adsorbate laid on the surface of the adsorbent does not change with time. The pressure of the gas at equilibrium, and the amount of it laid on the surface, are then measured. Both variables are then observed and measured at the equilibrium. The study of the properties of pooled estimators versus the two stage estimations, for dierent non linear models mentioned in Chapter 6, is also an open issue. The obtention of optimum experimental designs that may give answer to experimental needs in those cases, also appears as an interesting and prospective further research.

Apéndice A

Distribución de Boltzmann En la década de 1860, Clausius1 propuso una denición de Entropía,

S , como función termodinámica que en sistemas aislados solamente puede aumentar, siendo el valor máximo el que caracteriza el estado de equilibrio. En la década siguiente, Ludwig Boltzmann indagó acerca del signicado de esta función misteriosa. En aquellos momentos, hablar en términos moleculares era algo más que una proeza, puesto que entidades tales como átomos, moléculas, etc. eran considerados como meras cciones intelectuales, hipótesis más o menos plausibles todavía sin pruebas experimentales. Algunas ideas de la mecánica son aplicables tanto a moléculas y átomos individuales como a sistemas de muchas partículas. Este es el caso de conceptos como el de

masa, velocidad, energía, por ejemplo. En cam-

bio, conceptos como temperatura, entropía, no son asociables más que a grandes colectivos de partículas.

Como ejemplo simple para ilustrar estos hechos consideraremos lo que ocurre en la expansión de un gas que pasa de ocupar un pequeño volumen

1 Rudolf Clausius (1822-1888), Físico alemán.

167

A. Distribución de Boltzmann

168

a llenar totalmente el volumen de un recipiente mayor. El sistema evo-

homogénea en la que las partículas ocupan todo el volumen, es decir, evoluciona desde un estado poco probable -la acumulación de partículas en un volumen relativamente pequeño- hacia una conguración más probable -todas las moléculas repartidas en el volumen luciona hacia una distribución

total de modo homogéneo, uniforme-. Parece de esta forma que puede asociarse el concepto de evolución hacia el equilibrio (entropía) con el concepto

de probabilidad. Los distintos estados que ha adoptado un sistema desde un estado de no equilibrio hasta alcanzar el equilibrio son cada vez más probables. El sistema evoluciona de modo que la probabilidad de su estado no puede más que crecer, tal como ocurre con la entropía. Para tratar de relacionar la probabilidad con la entropía, introduci-

microestados -conguraciones moleculares posibles- en contraposición de macroestados -estados macroscópicos reales del sistema-

mos el concepto de

La idea intuitiva de probabilidad nos conduce a la regla de Laplace del cociente de los casos favorables respecto de los casos totales. La probabilidad es, así, proporcional al número de posibles microestados, W . La probabilidad es una función multiplicativa, es decir, que si un sistema se puede encontrar en W1 microestados posibles y otro puede hallarse en W2 microestados posibles, el sistema resultante de la unión de ambos podrá encontrarse en W1 · W2 microestados posibles. Sin embargo, la entropía, como función termodinámica, está denida como aditiva. La forma más simple de relacionar ambas es a través de la función logarítmica. Boltzmann, concretamente propuso la relación siguiente:

S = k log W, donde k es una constante que permite generalizar la relación y que denominaremos

constante de Boltzmann. Su signicación habrá que buscarla en

consideraciones físicas.

Esta relación es la clave de la conexión entre el mundo microscópico y el macroscópico y constituye la base de la Mecánica Estadística.

A. Distribución de Boltzmann

169

Para la determinación del número de microestados, la idea fundamental es que, en un sistema aislado, todos los microestados son igualmente probables. Esta es la hipótesis más simple que puede formularse para cuya aclaración se propone un ejemplo sencillo. Supongamos un sistema con cuatro partículas subdividido en dos partes por una pared dotada de un oricio a través del cual pueden pasar estas partículas. Consideramos como un

macroestado el número de moléculas en

cada lado de la pared, de modo que un macroestado vendrá caracterizado por dos números, nA y nB , correspondientes al número de moléculas en la división A y en la división B , respectivamente. De esta forma se comprueba que puede haber cinco posibles macroestados:

nA nB 0 1 2 3 4

4 3 2 1 0

microestados las posibles distribuciones de las partículas concretas, compatibles con las condiciones de cada macroestado, los microestados serán aquellas disposiciones que especiquen con detalle qué moléculas se hallan en cada subsistema, en lugar de limitarse a decir cuántas hay en cada uno de ellos. Naturalmente, la especicación de cuántas (macroestado) es mucho menos detallada que la especicación de cuáles Tomando como

(microestados). En la tabla siguiente se presentan de modo explícito los microestados y el número de ellos, W , compatibles con cada macroestado:

Con este ejemplo se muestra, también de modo explícito el principio de evolución del sistema del estado menos probable (0, 4) al más probable

(2, 2). En la práctica, efectivamente, si un gas se encuentra en un recipiente de pequeño volumen y éste se destapa , el gas se expande espontáneamente hasta ocupar homogéneamente todo el volumen que le es accesible.

A. Distribución de Boltzmann

170

Macrtoestados

nA

nB

0 1 2 3 4

4 3 2 1 0

Microestados Partículas en

∅ | 1, 2, 3, 4 1 | 2, 3, 4 1, 2 | 3, 4 1, 2, 3 | 4 1, 2, 3, 4 | ∅

A

y en

B

W 1

2 | 1, 3, 4 1, 3 | 2, 4 1, 2, 4 | 3

3 | 1, 2, 4 1, 4 | 2, 3 2, 3, 4 | 1

4 | 1, 2, 3 2, 3 | 1, 4 1, 3, 4 | 2

4

2, 4 | 1, 3

3, 4 | 1, 2

6 4 1

Si en lugar de cuatro moléculas o partículas se tiene un número n, de modo que la distribución es de nA y de nB = n − nA , el número de microestados posibles para un determinado macroestado puede determinarse fácilmente, según la combinatoria elemental, mediante la expresión siguiente:

W =

(nA + nB )! nA ! nB !

En la práctica, la mayor parte de los sistemas naturales no son sistemas aislados, sino que se habla de sistemas en los que el parámetro constante es la temperatura. En este caso los microestados correspondientes a un macroestado ya no son igualmente probables sino que su probabilidad depende tanto de la energía como de la temperatura. Aquí la distribución de probabilidades es de gran interés práctico y se conoce como

distribución canónica.

función de

Para pasar de la situación anterior -sistema aislado con microestados de la misma probabilidad- al caso presente, se supondrá que el sistema se encuentra en contacto con una fuente térmica exterior que hace las veces de termostato manteniendo constante su temperatura. Además, se considerará que el conjunto de nuestro sistema y la fuente térmica constituyen un sistema aislado del exterior. Si consideramos el conjunto aislado de nuestro sistema más la fuente térmica, cada microestado de este conjunto será la combinación de un microestado del sistema y de un microestado de la fuente térmica, de modo que el número total de microestados del conjunto, W , será el producto del número de microestados del sistema, W1 , y del número de microestados de

A. Distribución de Boltzmann

171

la fuente térmica, W2 :

W = W1 · W2 Todos estos microestados compuestos tienen la misma probabilidad ya que corresponden a un sistema aislado. Nuestro problema estriba, sin embargo, en conocer la probabilidad de cada microestado concreto del sistema 1, nuestro sistema. La respuesta a esta cuestión es simple: un microestado del sistema 1 será tanto más probable cuanto mayor sea el número de microestados del sistema 2 fuente térmica con los que pueda combinarse para formar microestados del conjunto aislado, 1 + 2. Supóngase que un micro estado del sistema 1 tenga una energía E mientras que el sistema conjunto 1+2 tenga la energía Etot . Los microestados de

2 combinables con el microestado de 1 para dar microestados del conjunto con energía Etot serán aquellos microestados de 2 con energía Etot − E . Para conocer cuánto vale el número de estos microestados, W2 , se recurrirá a la relación de Boltzmann según la cual S2 = k log W2 , o bien:   S2 W2 (Etot − E) = exp k Sin embargo, dado que Etot  E , puesto que la fuente térmica es mucho mayor que el sistema 1, se puede escribir el siguiente desarrollo en serie:     ∂S2 1 ∂ 2 S2 S2 (Etot − E) = S2 (Etot ) − E+ E2 − . . . ∂E 2 ∂2E Mediante consideraciones termodinámicas simples, que evitamos abordar por motivos de espacio, puede demostrarse que:   ∂S2 1 = ∂E T  2  ∂ S2 1 = 2 ∂ E C2 T 2 donde T es la temperatura del sistema y de la fuente térmica, y C2 es la capacidad caloríca de la fuente. Como la fuente puede tomarse muy grande en comparación a la del sistema, este término se hace prácticamente despreciable (ya que C2 T 2 tomaría valores comparativamente muy elevados).

A. Distribución de Boltzmann

172

En consecuencia, el desarrollo puede truncarse del modo siguiente:

E T siendo S2 (Etot ) una constante que no depende de E . S2 (Etot − E) ' S2 (Etot ) −

De esta forma, el número de microestados W2 toma el siguiente valor:     S2 (Etot ) E · exp − W2 (Etot − E) = exp k kT y puesto que el primer término exponencial es constante y la probabilidad del microestado es proporcional a W2 (Etot − E) puede nalmente escribirse que la probabilidad es:

  E P r(E) ∝ exp − kT expresión que se conoce como

distribución de Boltzmann y que es la base de

la interpretación estadística de numerosos fenómenos sicoquímicos sobre bases moleculares.

A.1. Aplicación a la Deducción de la Distribución de Maxwell de las Velocidades de las Moléculas de un Gas Un ejemplo sencillo de la aplicación de la distribución de Boltzmann lo constituye la deducción de la distribución de las velocidades de las moléculas de un gas ideal monoatómico. En este caso, la energía que corresponde a una molécula de masa m, con velocidad v , es simplemente su energía cinética, es decir:

1 E = mv 2 . 2 Según lo deducido anteriormente, la probabilidad de que una molécula tenga velocidad v es:   mv 2 P r(v) ∝ exp − , 2kT

A.1. Aplicación a la distribución de Maxwell

173

por otra parte, el número de microestados con velocidad | v | es:

g(v) = 4πv 2 dv, puesto que éste representa el volumen de la capa esférica de radio v y espesor dv en donde pueden encontrarse los vectores v con módulos comprendidos entre | v | y | v + dv |. Así, se tiene que la probabilidad de que la componente vx , por ejemplo, se encuentre entre | vx | y | vx + dvx | es:    m 1/2 mvx2 exp − dvx P r(vx )dvx = 2πkT 2kT donde (m/2πkT )1/2 representa un factor de normalización de tal forma que Z +∞ P r(vx )dvx = 1. −∞

Esta función de distribución toma la forma de una campana de Gauss. Por otra parte, la función de distribución del módulo de la velocidad

| v |, denido como | v 2 |= vx2 + vy2 + vz2 viene dada por la expresión:    m 3/2 mv 2 P r(v)dv = f (T, v)dv = dv. 4πv 2 exp − 2πkT 2kT Que representa la denominada distribución de Maxwell-Boltzmann.

Bibliografía K. M. Abdelbasit y R. L. Plackett. Experimental design for binary data.

J. Amer. Statist. Assoc., 78(381):9098, 1983. A. W. Adamson y A. P. Gast. Physical Chemistry of Surfaces. Wiley, New York, 1997.

A. H. Al-Muhtaseb, W. A. M. McMinn, y T. R. A. Magee. Water sorption isotherm of starch powders. Part 1: Mathematical description of experimental data.

J. Food Eng., 61:297307, 2004.

R. B. Anderson. Modications on the Brunnauer, Emmet and Teller equation.

J. Am. Chem. Soc., 68:686691, 1946.

R. Ardanuy, J. López-Fidalgo, P. J. Laycock, y W. K. Wong. When is an equally-weighted design D-optimal? 531540, 1999.

Ann. Inst. Statist. Math., 51(3):

S. Arrhenius. Ober die reacktionsgeschwindigkeit bei der inversion von rohrzucker durch saüren.

Z. Physik. Chem., 4:226248, 1889.

N. Arslan y H. To grul. Modelling of water sorption isotherms of macaroni stored in a chamber under controlled humidity and thermodynamic approach.

J. Food Eng., 69:133145, 2005.

175

Bibliografía

176

A. Ash y A. Hedayat. An introduction to design optimality with an overview of the literature. 1325, 1978.

Comm. Statist. ATheory Methods, 7(14):1295

A. C. Atkinson. Developments in the design of experiments.

Internat.

Statist. Rev., 50:161177, 1982. A. C. Atkinson. New developments and applications in experimental design, volume 34 of IMS Lecture Notes - Monograph Series, capítulo Optimum experimental designs for chemical kinetics and clinical trials, páginas 3649. 1998. A. C. Atkinson y B. Bogacka. Compound, D- and Da -optimum designs for determining the order of a chemical reaction. 1997. A. C. Atkinson y A. Donev.

Technometrics, 39:347356,

Optimum Experimental Designs.

Oxford

University Press, New York, 1992.

A. C. Atkinson y V. V. Fedorov. The design of experiments for discriminating between two rival models.

Biometrika, 62:5770, 1975a.

A. C. Atkinson y V. V. Fedorov. Optimal design: Experiments for discriminating between several models.

Biometrika, 62:289303, 1975b.

A. C. Atkinson y W. G. Hunter. The design of experiments for parameter estimation.

Technometrics, 10(2):271289, 1968.

A. C. Atkinson, B. Bogacka, y M. B. Bogacki. D− and T −optimum designs for the kinetics of a reversible chemical reaction.

Syst., 43:185198, 1998.

A. C. Atkinson, A. Donev, y R. Tobias.

Chemom. Intell. Lab.

Optimum Experimental Designs,

with SAS. Oxford University Press, 2007. D. Avnir, editor. The Fractal Approach to Heterogeneous Chemistry. Wiley, New York, 1989.

J. Avom, J. Ketcha Mabdcam, M. R. L. Matip, y P. Germain. Adsorption isotherme del lácide acétique par des charbons dórigine vegétale.

Sci. Techol., 2:17, 2001.

Afr. J.

Bibliografía

177

A. Belarbi, Ch. Aymard, J. M. Meot, A. Themelin, y M. Reynes. Water desorption isotherms for eleven varieties of dates. 107, 2000. M. P. F. Berger y W.-K. Wong, editores. 2005.

J. Food Eng., 43:103

Applied Optimal Designs. Wiley,

JSPI, 7:131137, 1982. G. E. P. Box y W. G. Hunter. Sequential design of experiments for nonlinear models, IBM Scientic Computing Synposium in Statistics, págiG. J. Borjas. On regressing regresion coecients.

nas 111137. 1965.

G. E. P. Box y H. L. Lucas. Design of experiments in non-linear situations.

Biometrika, 46:7790, 1959. M. J. Box. The use of designed experiments in non linear model building, The future of Statistics, páginas 241268. 1968a. M. J. Box. The ocurrence of replications in optimal designs of experiments to estimate parameters in nonlinear models.

J. Roy. Statist. Soc. Ser.

B, 30:290302, 1968b. M. J. Box. The design of experiments and non linear model-building under a variety of error structures. PhD thesis, University of London, 1969.

M. J. Box. Some experiences with a nonlinear experimental design criterion.

Technometrics, 12:569589, 1970.

L. D. Brown, I. Olkin, J. Sacks, y H. P. Wynn.

papers III. Springer Verlag, New York, 1985.

Jack Carl Kiefer Collected

S. Brunauer, P. H. Emmett, y E. Teller. Adsorption of gases in multimolecular layers.

J. Am. Chem. Soc., 60:309319, 1938.

S. Brunauer, L. S. Deming, W. E. Deming, y E. Teller. On a theory of the van der Waals adsorption of gases. 1940.

J. Am. Chem. Soc., 62:17231732,

M. Caurie. The derivation of the GAB adsorption equation from the BDDT adsorption theory.

Int. J. Food Sci. Technol., 41:173179, 2006.

Bibliografía

178

E. Cepeda, R. Ortíz de Latierro, M. J. San José, y M. Olazar. Water sorption isotherms of roasted coee and coee roasted with sugar.

J. Food Sci. Technol., 34, 1999.

H. Cherno. Locally optimal designs for estimating parameters.

Int.

Ann.

Math. Stat., 24:586602, 1953. H. Cherno. Sequential Analysis and Optimal Design. PA:SIAM. CBMSNSF, Philadelphia, 1972.

J. Chirife y H. A. Iglesias. Equations for tting water sorption isotherms of foods: Part 1  A review.

J. Food Technol., 13:159174, 1978.

M.-S. Chou y K.-L. Chang. UV/ozone degradation of gaseous hexamethyldisilazane (HMDS).

Chemosphere, 69:697704, 2007.

R. D. Cook y W. K. Wong. On the equivalence of constrained and compound optimal designs.

J. Amer. Statist. Assoc., 89:687692, 1994.

D. J. Currie. Estimating Michaelis-Menten parameters: bias, variance and

Biometrics, 38:8292, 1982. J. H. de Boer. The dynamic character of adsorption. Oxford: Clarendon experimental design.

Press, 1953.

J. de Guzmán. Relación entre la uidez y el calor de fusión.

Sociedad Española de Física y Qímica, 11:353362, 1913.

Anales de la

H. Dette y W. K. Wong. Optimal desings when the variance is a function of its mean.

Biometrics, 55:925929, 1999.

H. Dette, V. B. Melas, y A. Pepelyshev. Standarized maximin E−optimal designs for the Michaelis-Menten model. 2003.

Statist. Sinica, 13(4):11471163,

N. R. Draper y W. G. Hunter. The use of prior information in the design of experiments for parameter estimation in non-linear situation: Multiresponse case.

Biometrika, 54:662665, 1967.

S. Ehrenfeld. On the eciency of the experimental designs.

Stat., 26:247255, 1955.

Ann. Math.

Bibliografía

179

G. Elfving. Optimum allocation in linear regression theory.

Ann. Math.

Stat., 23:255262, 1952. L. Endrenyi. Design of Experiments for Estimating Enzyme and Pharmacokinetic Parameters. Plenum Press, 1981.

M. G. Evans y M. Polanyi. Application of the transition-state method to the calculation of reactions velocities, especially in solution.

Faraday Soc., 31:875894, 1935.

H. Eyring. Activated complex in chemical reactions. 107115, 1935. H. Eyring, S. H. Lin, y S. M. Lin. York, 1980.

Trans.

J. Chem. Phys., 3:

Basic Chemical Kinetics. J. Wiley, New

V. V. Fedorov. Theory of optimal experiments. Technical report, Departament of Statistics, Purdue University, 1972. V. V. Fedorov y P. Hackl.

Model-Oriented Design of Experiments. Lecture

Notes in Statistics. Spinger, New York, 1997.

C. Ferro Fontan, J. Chirife, E. Sancho, y H. A. Iglesias. Analysis of a model for water sorption phenomena in foods.

J. Food Sci., 47:15901594, 1982.

I. Ford, D. M. Tittterington, y C. P. Kitsos. Recent advances in nonlinear experimental design.

Technometrics, 31(1):4960, 1989.

K. Frischmuth. On locally D-optimal experimental design.

Kolloq., 36:5164, 1989.

Rostock. Math.

Z. Galil y J. Kiefer. Time -and space- saving computer methods, related to Mitchell's DETMAX, for nding D-optimum designs. 22(3):301313, 1980. F. Garofalo. llan, 1965.

Technometrics,

Fundamentals of Creep and Creep Rupture in Metals. McMi-

S. Glasstone, K. J. Laidler, y H. Eyring. McGraw-Hill, New York, 1941. S. J. Gregg y K. S. W. Sing. demic Press, London, 1982.

The Theory of Rate Processes.

Adsorption, surface area and porosity. Aca-

Bibliografía

180

E. A. Guggenheim. Press, 1966.

Application of statistical mechanics. Oxford: Clarendon

A. J. Hailwood y S. Horrobin. Absorption of water by polymers: Analysis in terms of a simple model. 1946.

J. Chem. Soc., Faraday Trans. B, 42:8489,

G. Halsey. Pysical adsorption of non-uniform surfaces. 931937, 1948.

J. Chem. Phys., 16:

R. H. Hardin y N. J. A. Sloane. Operating manual for GOSSET: A generalpurpose program for constructing experimental designs. Technical report, Mathematical Sciences Research Center, AT&T Bell Laboratories, Murray Hill, New Jersey, 1994. D. H. Hill. D-optimal designs for partially nonlinear regression models.

Technometrics, 22(2):275276, 1980. D. M. Hirst. A Computational Approach to Chemistry. Blackwell Sci. Pub., Oxford, 1990.

P. G. Hoel. Eciency problems in polynomial estimation.

Ann. Math.

Stat., 29:307316, 1958. R. B. Holmes. Geometric Functional Analysis and its Applications. Springer, New york, 1975.

J. E. House.

Principies of Chemical Kinetics. Elsevier, 2007.

Y. C. Huang y W. K. Wong. Sequential construction of multiple-objective designs.

Biometrics, 54:188197, 1998a.

Y. C. Huang y W. K. Wong. Multiple-objective designs for biomedical studies.

J. Biopharm. Stat., 8:635643, 1998b.

L. Imhof y W. K. Wong. A graphical method for nding maximin designs.

Biometrics, 56:113117, 2000.

M. Imhof, J. López-Fidalgo, y W. K. Wong. Eciences of optimal aproximate designs for small samples.

Statist. Neerlandica, 55:301315, 2001.

IUPAC, Commission on Colloid and Surface Chemistry of the International Union of Pure and Applied Chemistry. Reporting physisorption data for

Bibliografía

181

gas/solid systems - with special references to the determination of surface area and porosity.

Pure Appl. Chem., 57:603619, 1985.

Jet Propulsion Laboratory. Chemical kinetics and photochemical data for use in stratospheric modelling, suplement to evaluation 12: Update of key reactions. Technical Report Evaluation Number 13, California Institute of Technology, NASA, Pasadena, California, March 2000. Jet Propulsion Laboratory. Chemical kinetics and photochemical data for use in atmospheric studies. Technical Report Evaluation Number 14, California Institute of Technology, NASA, Pasadena, California, February 2003. R. C. St. John y N. R. Draper. D-optimality for regression design: A review.

Technometrics, 17(1):1523, 1975.

K. Jouppila y Y. H. Roos. Water soprtion isotherms of freeze-dried milk products: applicability of linear and non-linear regression analysis in modelling.

Int. J. Food Sci. Technol., 32:459471, 1997.

P. Karakaya, M. Sidhoum, C. Christodoulatos, S. Nicolich, y W. Balas. Aqueous solubility and alkaline hydrolysis of the novel high explosive hexanitrohexaazaisowurtzitane (CL-20). 191, 2005.

J. Hazard. Mater., B120:183

S. Karlin y W. Studden. Optimal experimental designs. 37:783810, 1966.

Ann. Math. Stat.,

A. I. Khuri y J. Lee. A graphical approach for evaluating and comparing designs for nonlinear models. 443, 1998.

Comput. Statist. Data Anal., 27(4):433

J. Kiefer. General equivalence theory for optimum designs (Aproximate theory).

Ann. Statist., 2(5):848879, 1974.

J. Kiefer y J. Wolfowitz. Optimum design in regresion problems.

Math. Stat., 30:271294, 1959.

Ann.

J. Kiefer y J. Wolfowitz. The equivalence of two extremum problems.

Canad. J. Math., 12:363366, 1960.

Bibliografía

182

R. Kli£ka y L. Kubá£ek.

Statistical properties of linearization of the

Arrhenius equation via the logarithmic transformation.

tell. Lab. Syst., 39:6975, 1997. K. J. Laidler. Theories of Chemical Reaction Rates.

Chemom. In-

McGraw-Hill Book

Co, New York, 1969.

K. J. Laidler. The development of the Arrhenius equation. 61(6):494498, 1984.

J. Chem. Ed.,

I. Langmuir. The adsorption of gases on plane surfaces of glass, mica and platinum.

J. Am. Chem. Soc., 40(9):13611403, 1918.

K. Levenberg. A method for the solution of certain problems in least squares.

Quart. Appl. Math., 2:164168, 1944.

P. P. Lewicki. The applicability of the GAB model to food water sorption isotherms.

Int. J. Food Sci. Technol., 32:553557, 1997.

W. C. McC. Lewis. Studies in catalysts. IX. The calculation in absolute measure of velocity constants and equilibrium constants in gaseous systems.

J. Chem. Soc., Abstracts, 113:471492, 1918.

S. R. Logan. The origin and status of the Arrhenius equation.

Ed., 59(4):279281, 1982.

J. Chem.

J. López-Fidalgo y W. K. Wong. Design for the Michaelis-Menten model.

J. Theoret. Biol., 215:111, 2002.

J. López-Fidalgo y J. M. Rodríguez-Díaz. dimensional models.

Metrika, 59(3), 2004.

Elfving's method for m-

J. López-Fidalgo, J. M. Rodríguez-Díaz, y B. Torsney, editores.

mODa8-

Advances in Model-Oriented Design and Analysis. Springer, 2007a.

J. López-Fidalgo, C. Trandar, y Ch. Tommasi. An optimal experimental design criterion for discriminating between non-normal models.

Statist. Soc. Ser. B, 69(2):112, 2007b.

J. Roy.

D. Marquardt. An algorithm for least-squares estimation of nonlinear parameters.

SIAM J. Appl. Math., 11:431441, 1963.

Bibliografía

183

J. F. Mata-Segreda. Hydroxide as general base in the saponication of

J. Am. Chem. Soc., 124:22592262, 2002. V. B. Melas. Functional Approach to Optimal Experimental Design. Lecture ethyl acetate.

Notes in Statistics. Springer, 2005.

T. J. Mitchell. An algorithm for the construction of D-optimal experimental designs.

Technometrics, 16(2):203210, 1974.

P. C. Moonen, J. N. Cape, R. L. Storeton-West, y R. McColm. Measurement of the N O+O3 reaction rate at atmospheric pressure using realistic

J. Atmos. Chem., 29:299314, 1998. J. W. Moore y R. G. Pearson. Kinetics and Mechanism. A study of homogeneous Chemical reactions. Wiley, 1981. mixing ratios.

G. Moraga, N. Martínez Navarrete, y A. Chiralt. Water sorption isotherms and phase transitions in kiwifruit.

J. Food Eng., 72:147156, 2006.

A. K. Nigam, S. C. Gupta, y S. Gupta. A new algorithm for extreme vertices

Technometrics, 25(4):367371, 1983. C. R. Oswin. The kinetics of package life. III. The isotherm. Chem. Ind. (London), 65:419423, 1946. designs for linear mixture models.

A. Pázman. Singular experimental designs (Standard and Hilbert-space approaches). 149, 1980. A. Pázman.

Math. Operationsforsch. Statist. Ser. Statist., 11(1):137

Foundations of Optimum Experimental Design.

D. Reidel

publishing company, Dordrecht, 1986.

P. Perso y J. F. Thomas. Estimating Michaelis-Menten or Langmuir isotherm constants by weighted nonlinear least squares.

J., 52:886889, 1988.

Soil Sci. Soc. Am.

G. Pickett. Modication of the Brunauer-Emmet-Teller theory of multi-

J. Am. Chem. Soc., 67:19581962, 1945. G. Pistone, E. Riccomagno, y H. P. Wynn. Algebraic Statistics: Computational Commutative Algebra in Statistics. Chapman & Hall, 2000. molecular adsorption.

Bibliografía

184

F. Pukelsheim. York, 1993.

Optimal Design of Experiments. John Wiley and Sons, New

D. Rasch y P. Darius.

Computer Aided Design of Experiments.

Compu-

tational Statistics. Physica-Verlag, Heidelberg, 1995.

G. W. Ray y R. T. Watson. Kinetics of the reaction N O + O3 → N O2 + O2 from 212 to 422.

J. Phys. Chem., 85:16731676, 1981.

L. J. Rodríguez-Aragón y J. López-Fidalgo. Arrhenius model. En ginas 7576, 2003.

5th Congress of Romanian Mathematicians, pá-

L. J. Rodríguez-Aragón y J. López-Fidalgo. Arrhenius equation.

Optimal designs for the

Optimal designs for the

Chemom. Intell. Lab. Syst., 77:131138, 2005.

L. J. Rodríguez-Aragón y J. López-Fidalgo. Optimum designs for the description of sorption data using isotherm equations. En

Congress of Mathematicians, página 62, 2006a.

International

L. J. Rodríguez-Aragón y J. López-Fidalgo. Optimum designs for adsorption models. En

International Conference on Mathematical and Statis-

tical Modelling, página 93, 2006b.

L. J. Rodríguez-Aragón y J. López-Fidalgo. T −, D− and c− optimum designs for BET and GAB adsorption isotherms.

Syst., 89:3644, 2007a.

Chemom. Intell. Lab.

L. J. Rodríguez-Aragón y J. López-Fidalgo. Application of optimum designs to the characterization of adsorption isotherms. En

Oriented Design and Analysis Workshop, página 62, 2007b.

8th Model

L. J. Rodríguez-Aragón y J. López-Fidalgo. Diseño óptimo de experimentos en quimiometría. En

XXX Congreso Nacional de la Sociedad Estadística

Española, página 147, 2007c. J. M. Rodríguez-Díaz. Criterios Característicos en Diseño Óptimo de Experimentos. PhD thesis, Universidad de Salamanca, 2000. J. M. Rodríguez-Díaz y M. T. Santos-Martín. Optimal designs for a modied exponential model. En

8th Model Oriented Design and Analysis

Bibliografía

185

Workshop, páginas 6263, 2007. C. Rodríguez Torreblanca y I. M. Ortíz Rodríguez.

Diseño Óptimo de Ex-

perimentos para Modelos de Regresión. Universidad de Almería, Sevicio

de Publicaciones, Almería, 1999.

D. Ruppert, N. Cressie, y R. J. Carroll. A transformation/weighting model for estimating Michaelis-Menten parameters. 1989.

Biometrics, 45:637656,

S. Saevels, A. Z. Berna, J. Lammertyn, C. di Natale, y B. M. Nicolaï. Characterisation of QMB sensors by means of the BET adsorption isotherm.

Sens. Actuators, B, 101:242251, 2004. R. Schwabe. Optimum Designs for Multi-Factor Models. York, 1996.

K. R. Shah y B. K. Sinha.

Theory of Optimal Design.

Springer, New

Lecture Notes in

Statistics. Springer Verlag, New York, 1989.

D. R. Shonnard, R. L. Bell, y A. P. Jackman. Eects of nonlinear sorption on the diusion of benzene and dichloromethane from two air-dry soils.

Environ. Sci. Technol., 27:457466, 1993. S. D. Silvey. Optimal Design. Chapman & Hall, London, 1980.

S. D. Silvey y D. M. Titterington. A geometric aproach to optimal design theory.

Biometrika, 60(1):2132, 1973.

A. Sinha, E. R. Lovejoy, y C. J. Howard. Kinetic study of the reaction of

HO2 with ozone.

J. Chem. Phys., 87(4):21222128, 1987.

K. Smith. On the standard deviations of adjusted and interpolates values of an observed polynomial functions and its constants and the guidance they give towards a proper choice of the distribution of observations.

Biometrika, 12:185, 1918.

R. D. Snee y W. Marquardt. Extreme vertices designs for linear mixture models.

Technometrics, 16(3):399408, 1974.

E. O. Timmermann. Multilayer sorption parameters: BET or GAB values?

Colloids Surf., A, 220:235260, 2003.

Bibliografía

186

E. O. Timmermann, J. Chirife, y H. A. Iglesias. Water sorption isotherms of foods and foodstus: BET or GAB parameters? 1931, 2001.

J. Food Eng., 48:

D. M. Titterington. Optimal designs: Some geometrical aspects of Doptimality.

Biometrika, 2(313320), 1976.

M. Tokunaga, J. Kiyosu, Y. Obora, y Y. Tsuji. Kinetic resolution displaying zeroth order dependence on substrate consumption: Copper-catalyzed asymmetric alcoholysis of azlactones. 4486, 2006.

J. Am. Chem. Soc., 128:4481

M. Trautz. The law of reaction velocity and of equilibrium in gases. the additivity of Cv-3/2R. new determinations of the integration constants

Z. Anorg. Allgem. Chem., 96:128, 1916. C. van den Berg. Engineering and Food: Engineering Sciences in the Food Industry, volume 1, capítulo Description of water activity of foods for and of the molecular diameter.

Engineering purposes by means of the GAB model of sorption, páginas 311321. Elsevier, London, 1984.

J. H. van't Ho. terdam, 1884.

Etudes de Dynamique Chimique. F. Muller & Co., Ams-

A. Wald. On the ecient design of statistical investigations.

Stat., 14:134140, 1943.

Ann. Math.

W. J. Welch. Branch-and-bound search for experimental design based on D-optimality and other criteria.

Technometrics, 24(1):4148, 1982.

L. V. White. An extension of the general equivalence theorem to nonlinear

Biometrika, 60(2):354348, 1973.

models.

P. Whittle. Some general points in the theory of optimal experimental design.

J. Roy. Statist. Soc. Ser. B, (1):123130, 1973.

W. Wolf, W. E. L. Spiess, y G. Jung. Standardization of isotherm measurements (COST-project 90 and 90 bis). En D. Simatos y J. L. Multon, editores,

Properties of water in foods, páginas 661679. Martinum Nij-

ho, Dordrecht, 1985.

Bibliografía

187

Ch-F. Wu y H. P. Wynn. The convergence of general step-length algorithms for regular optimum design criteria.

Ann. Statist., 6(6):12731285, 1978.

H. P. Wynn. The sequiential generation of D-Optimum experimental designs.

Ann. Math. Stat., 41(5):16551664, 1970.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.