Validación de modelos. Prof. Cesar de Prada ISA-UVA

Validación de modelos Prof. Cesar de Prada ISA-UVA [email protected] Indice    Modelado Estimación de parámetros Validación de modelos Modelo

4 downloads 160 Views 1MB Size

Recommend Stories


TURBINAS KAPLAN. Prof. Ing. Cesar Sanabria FACULTAD DE INGENIERIA UNA
TURBINAS KAPLAN Prof. Ing. Cesar Sanabria FACULTAD DE INGENIERIA UNA Prof. Ing. Cesar Sanabria FACULTAD DE INGENIERIA UNA Generalidades „ Las turb

Desenlaces. Raúl Prada Alcoreza
Desenlaces Raúl Prada Alcoreza Índice: A modo de introducción 3 Diagrama de poder de la corrupción 5 Comportamiento Crápula 45 Itinerario de u

El Ensayo de Manuel Gonzalez Prada
El Ensayo de Manuel Gonzalez Prada 1.1 PRADA, ENSAYISTA AMERICANO Algunos criticos sostienen que don Manuel Gonzalez Prada no es el mejor pensador p

HOGAR SIN TÓXICOS Carlos de Prada
HOGAR SIN TÓXICOS HOGAR SIN TÓXICOS Carlos de Prada 1 HOGAR SIN TÓXICOS HOGAR SIN TÓXICOS Cómo prevenir enfermedades eliminando los venenos domés

Story Transcript

Validación de modelos Prof. Cesar de Prada ISA-UVA [email protected]

Indice   

Modelado Estimación de parámetros Validación de modelos

Modelos  







Representación aproximada de la realidad Abstracción: Incluimos solo aquellos aspectos y relaciones que son de interés. Usos de los modelos: diseño, entrenamiento, que pasa si…., decisiones,... Distintos modelos de un proceso para distintas aplicaciones ¿Como generarlos, resolverlos, utilizarlos, validarlos? 

Depende del proceso, de la aplicación, de las herramientas y datos disponibles,…

¿Qué es un modelo matemático? 







Conjunto de ecuaciones que relacionan las variables de interés del proceso y representan adecuadamente su comportamiento Distintas formulaciones para distintos objetivos y tipos de procesos Obtenidas a partir de un conjunto de hipótesis y suposiciones Compromiso entre facilidad de uso en una aplicación y la exactitud de la representación del mundo real

Representación adecuada y Proceso u

tiempo ym tiempo

Modelo tiempo

+ adecuación y facilidad de uso en la aplicación

¿Como obtener modelos?

Mediante razonamientos, usando leyes físicas, químicas, etc

Mediante experimentación y análisis de datos

Modelos de conocimiento 

 



Se obtienen mediante razonamientos y la aplicación de principios de conservación de masa, energía, momento, etc. y otras leyes particulares del dominio de aplicación Basados en un conjunto de hipótesis Tienen validez general si se cumplen las hipótesis de partida Requieren conocimiento profundo del proceso y de las leyes fisico-químicas

Identificación El modelo se obtiene a partir de datos experimentales de entrada-salida del proceso U U t

Y

Y

Proceso t

Modelo

Modelos

+

Un modelo siempre es una mezcla de conocimiento y de experimentación

Modelos Condiciones de uso

Hipótesis

Objetivos, precisión,.. del modelo

Modelado Parametrización

Formulación para un fin ¿Se resuelve adecuadamente?

Codificación Experimentación

Conocimiento

Experimentación

Lenguaje de simulación

Todas las etapas deben ser validadas

Hipótesis ci q

q

c F Mezcla perfecta d Vc = qc i − Fc dt

h

h F Flujo pistón

h Ah V c( t ) = c i ( t − ) = c i ( t − ) = ci (t − ) v Av F

Ejemplo: Depósito Conservación de masa

q

Acumulación= flujo entrada q - flujo salida F h F Parámetros

m masa en el depósito A sección del depósito ρ densidad, k constante

dm = qρ − Fρ dt m = Aρh F=k h dh V = Ah A = q−k h dt Ecuación diferencial no-lineal

Ecuación algebraica

Modelos en variables de estado d x(t) = f ( x ( t ), u ( t ), p, t ) dt y( t ) = g ( x , u ( t ), t )

Variables manipuladas y perturbaciones

u x x Estados p parámetros

y

Respuestas observables

Modelado d x(t) = f ( x ( t ), u ( t ), p, t ) dt y( t ) = g ( x , u ( t ), t )

Determinación de la estructura del modelo Determinación del valor de sus parámetros

Normalmente siempre aparecen alternativas en la formulación del modelo y es necesario escoger entre distintas estructuras En la etapa de validación pueden aplicarse distintos test para elegir que elección fue mas adecuada

Parametrización d x(t) = f ( x ( t ), u ( t ), p, t ) dt y( t ) = g ( x , u ( t ), t )



Los parámetros p del modelo pueden obtenerse mediante bibliografía, documentación, etc. pero siempre hay parámetros cuyo valor no se puede determinar de forma sencilla y precisa y que deben ser estimados

Ejemplo: reactor químico TT

A→B

Refrigerante

d cA − E RT V cA = Fc Ai − Fc A − Vke dt V

d cB = − Fc B + Vke dt

−E

A Reactor AT

Producto RT

cA

dT − E RT Vρc e = Fρc e Ti − Fρc e T + Vke c A ∆H − UA ( T − Tr ) dt d Tr = Fr ρ r c er Tri − Fr ρ r c er Tr + UA ( T − Tr ) Vr ρ r c er dt

Parametrización (calibración) TT

u

Refrigerante

A Reactor AT

t y

pa pb

Producto y

u Modelo La respuesta del modelo ante las mismas entradas depende del valor de los parámetros

p

Parametrización (calibración) Si hay N valores experimentales de la salida se puede definir una función de error como:

u

1 N 1 N 2 2 J = ∑ e( t ) = ∑ [y( t ) − y m (u , p, t )] N t =1 N t =1 y(p) y

u Modelo

t

p También pueden usarse otras expresiones para J

Parametrización (calibración) 1 N 1 N 2 2 min J = min ∑ e( t ) = min ∑ [y( t ) − y m (u , p, t )] p p p N t =1 N t =1 v u

Proceso

y e(t)

Modelo

Optimización

ym(p)

V es normalmente una función no-lineal en los parámetros. Puede resolverse por minimización numérica

p

Parametrización por optimización min J = min p

p

N

∑ [y(t ) − y t =1

x ( t ) = f ( x ( t ), u ( t ))

( p, u , t ) ]

2

m

y m (t) = g(x(t), u(t))

p≤p≤p Problema de optimización dinámica con restricciones Entre los parámetros a estimar pueden incluirse también, junto a los parámetros del modelo, estados iniciales desconocidos o entradas no medidas (constantes o parametrizables)

Parametrización N 1 1 N 2 min J = min ∑ e( t ) 2 = min ∑ [y( t ) − y m (u , p, t )] p p p N t =1 N t =1

Proceso

y

Si hay varias salidas a ajustar:

1 N 2 2 2 min ∑ γ1 [y1 ( t ) − y m1 (p, t )] + γ 2 [y 2 ( t ) − y m 2 (p, t )] + γ 3 [y 2 ( t ) − y m 3 (p, t )] p N t =1

Problemas de unidades y pesos relativos. Normalización

Qué parámetros estimar Es posible que, para un mismo experimento, la respuesta del modelo con dos valores diferentes p1 y p2 de un parámetro, sea muy o poco diferente

u

y

p1 p2

Solo debería escogerse un parámetro p para la optimización si la salida presenta una sensibilidad razonable ante cambios en p

Sensibilidad de las salidas Sensibilidad del índice J N

J = ∑ [ y ( t ) − y m ( p, u , t ) ]

2

t =1

x ( t ) = f ( x ( t ), u ( t )) Sij ( t ) =

∂y mi ( t ) ∂p j

Sensibilidad de la salida i del modelo respecto al parámetro j en relación a un experimento dado. Es función del tiempo

y m (t) = g(x(t), u(t))

∂J ∂p j Sensibilidad del índice J respecto al parámetro j en relación a un experimento dado. Resume el efecto durante todo el tiempo del experimento

Sensibilidades ∂y i ( t ) Sij ( t ) = ∂p j s ij ( t ) =  s11 s12 s s 22 21     s  m1 s m 2

p j ∂y i ( t )

Dificultad para comparar sensibilidades debido a la diferencia de unidades de cada Sij. Deben usarse factores de escala

y i ∂p j

 s1d   s 2d       s md 

La norma de cada columna j de la matriz de sensibilidades da una idea de la importancia del parámetro pj en el valor de las salidas

Cálculo de las sensibilidades N

J = ∑ [y ( t ) − y m ( p , u , t ) ] t =1

x ( t ) = f ( x ( t ), u ( t ))

2

Pueden obtenerse mediante cocientes de incrementos o analíticamente

y m (t) = g(x(t), u(t))

N ∂y m ∂J = 2∑ [y( t ) − y m (p, u , t )] ∂p ∂p t =1 ∂x d ∂x ∂f ∂x ∂f Integrando esta ecuación junto a + = = las del modelo, es posible obtener ∂p dt ∂p ∂x ∂p ∂p la evolución de ∂x/∂p y por tanto las sensibilidades ∂y m ∂g ∂x ∂g + = ∂p ∂x ∂p ∂p

Cálculo de las sensibilidades Mediante cociente de incrementos, realizando simulaciones del modelo

∂y i ( t ) y i (p + ∆p, t ) − y i (p, t ) Sij ( t ) = ≈ ∂p j ∆p Las sensibilidades dependen, lógicamente, del punto p en que son evaluadas, y del experimento (a través de las entradas) que se considera

Identificabilidad Independientemente del valor de la sensibilidad, puede ocurrir que el efecto sobre la salida de un cambio en un parámetro se anule por un cambio en otro parámetro hecho simultáneamente. Se dice entonces que hay un grado de co-linealidad en las sensibilidades frente a los parámetros, lo que dificulta la identificación La identificabilidad es una propiedad estructural que depende de cómo los parámetros aparecen en el modelo, pero también de las medidas disponibles

Identificabilidad Ejemplo: En un reactor, sin medida de temperatura, los parámetros k y E, no pueden ser estimados independientemente

V

d cB = − Fc B + Vke dt

µ ms K+s

−E

RT

cA

Si E y R fueran desconocidas, con medida de temperatura se podría identificar el cociente E/R pero no los términos individuales

En el modelo de Monod, con datos limitados a sustratos s pequeños, no es posible identificar sino el cociente µm/K

Identificabilidad Examinando la matriz de sensibilidades, puede verse si hay un cierto grado de co-linealidad a través del rango de (sub-bloques) de la misma

 s11 s12 s s 22  21    s  m1 s m 2

 s1d   s 2d       s md 

sij sik

La co-linealidad dificulta la identificación

t

Re-parametrización A veces solo es posible identificar combinaciones de parámetros, o se pueden hacer cambios de variables para obtener una estructura mas sencilla de identificar. Si se ha hecho una transformación de los parámetros a estimar, o se han hecho cambios de variable para facilitar la identificabilidad o linealidad del modelo, debe tenerse en cuenta que:  Las características estadísticas de las nuevas variables son diferentes a las de los datos  Las regiones de confianza de los nuevos parámetros son diferentes de las de los originales

Experimentos u2 TT

Ti

u1

Tr

Reactante T Reactor

Refrigerante AT

Producto

Si hay varias entradas, los cambios en las mismas deben de estar incorrelacionados para que el algoritmo de optimización pueda distinguir los efectos de cada entrada en las salidas

Experimentos Si se aplican señales proporcionales a las entradas, u1=αu2, simultaneamente, hay muchas combinaciones de los modelos M1 y M2 que se ajustan a las mismas parejas de entradas y salidas y ( t ) = M 1u 1 ( t ) + M 2 u 2 ( t ) = ( α M 1 + M 2 ) u 2 ( t ) Por otro lado, los experimentos deben cubrir el rango en amplitud y frecuencia adecuado para excitar las dinámicas fundamentales del proceso, y los valores de las sensibilidades de J antes los parámetros a estimar deben presentar unos valores razonables. En caso contrario debe repetirse el experimento

Experimentos u2 TT

Ti

u1

Tr

Reactante T Reactor

Refrigerante Producto Excitar solo una entrada manteniendo las otras constantes y luego hacer lo mismo con las otras, no es una buena política: alarga el tiempo del experimento y no proporciona datos en condiciones realistas de funcionamiento AT

Diseño de experimentos Cabe preguntarse cual es el experimento que mejor facilita la estimación de los parámetros de un modelo N

J = ∑ [y( t ) − y m (p, u , t )]' Q[y( t ) − y m (p, u , t )] t =1

Contexto Multivariable

Si se hace un desarrollo de 2º orden de J en torno al valor óptimo p* de los parámetros (para cuyo valor ∂J/∂p=0) ' N N   ∂y m ( t )   ∂y m ( t )  * E{J(p + δp)} ≈ δp' ∑   Q  δp + ∑ tr(CQ) t =1  t =1  ∂p   ∂p 

Con C la matriz de covarianza del ruido de las medidas. Se suele escoger Q=C-1

Diseño de experimentos Para facilitar la estimación, interesa que J(p*+δp) sea lo mayor posible, de modo que unos parámetros distintos del óptimo den un valor de J significativamente mayor ' N N   y ( t ) y ( t ) ∂ ∂     * E{J(p + δp)} ≈ δp' ∑  m  Q m  δp + ∑ tr(CQ) t =1  t =1  ∂p   ∂p 

Para ello puede diseñarse un experimento que maximice la matriz de Información de Fisher (o alguna norma o función ' asociada): N 

 ∂y m ( t )   ∂y m ( t )   Q  ∑   t =1  ∂p   ∂p 

FIM Si no hay dependencia lineal entre las sensibilidades, la matriz de información de Fisher debe ser de rango completo. El cociente entre el máximo y mínimo valor propio de la FIM de por tanto una medida de la identificabilidad de los parámetros de un modelo con un experimento dado.

 N  ∂y m ( t )  '  ∂y m ( t )   Q  ∑   t =1  ∂p   ∂p 

Parametrización por optimización N

min J = ∑ [y( t ) − y m (p, u , t )] p

2

t =1

x ( t ) = f ( x ( t ), u ( t ))

y m (t) = g(x(t), u(t))

p≤p≤p Elección del tipo de índice J Problemas de resolución numérica •Simulación •Resolución directa Problemas de estimación de estados

Otras funciones objetivo J Maximum Likelihood (ML) Para un valor de los parámetros p, ¿cual es la probabilidad de que los resultados del modelo coincidan con los datos experimentales? Se plantea la estimación como encontrar p de modo que se maximice esa probabilidad

max P( y m (0) = y(0), y m (1) = y(1),...., y m ( N) = y( N) | p) p

Se suele formular como

min − ln( P( y m (0) = y(0), y m (1) = y(1),...., y m ( N) = y( N) | p)) p

Mínimos cuadrados ponderados (WLS) Si los datos experimentales están distribuidos de forma normal en torno a las predicciones del modelo y son independientes, la probabilidad de obtener como salida del modelo los datos experimentales es:

L( y m (1) = y(1),..., y m ( N) = y( N) | p) = N

=∏ t =1

2 N  1  y( t ) − y m ( y, p)   1  exp − ∑     σ 2 ( t ) 2πσ( t ) t = 1    

Tomando neperianos, maximizar esta función equivale a N

1 2 ( ) min ∑ y ( t ) − y ( t , p ) m 2 p σ ( t ) t =1

σ2 varianza del error de medida

WLS N

1 2 ( ) − J (p) = min ∑ y ( t ) y ( t , p ) m 2 p σ ( t ) t =1 Si los errores son independientes y están de verdad distribuidos normalmente, J(p) debe seguir una distribución χ2 con N-d grados de libertad Puede usarse como un test de las hipótesis anteriores o de la bondad del modelo

Otras funciones objetivo N

min p

∑ y( t ) − y t =1

m

( t , p)

min max y( t ) − y m ( t , p) p

t

Norma 1 Pesa por igual todos los errores

Norma ∞ minimiza el mayor de los errores

Resolución con simulación N

min J = ∑ [y( t ) − y m ( p, u , t )] p

2

t =1

 ( t ) = f ( x ( t ), u ( t )) x

y m (t) = g(x(t), u(t))

p≤p≤p

Optimizador p

J

Simulación desde 1 a N para calcular J(p)

u(t), y(t)

Minimización de funciones θ2 dk

J(θ)

θ1

θ1 θk+1= θk+αdk Métodos iterativos

θ2 Restricciones en p

d dirección de búsqueda α longitud del paso

Resolución por Discretización N

min J = ∑ [y( t ) − y m ( p, u , t ) ] p, x j=1 x ( t + 1) = f ( x ( t ), u ( t )) x ( t + 2) = f ( x ( t + 1), u ( t + 1)) x ( t + 3) = f ( x ( t + 2), u ( t + 2)) ..... p≤p≤p

2

y(t) = g(x(t), u(t) y(t + 1) = g(x(t + 1), u(t + 1)) y(t + 2) = g(x(t + 2), u(t + 1)))))

Se incrementa el número de variables de decisión con los estados Es posible imponer restricciones sobre el estado Resolución con SQP / IP La discretización puede ser difícil

Optimización local / global Muchos métodos de optimización conducen a soluciones locales que no proporcionan los mejores valores de los parámetros Conviene utilizar métodos globales: Estocasticos (algoritmos genéticos, etc.) Deterministas (α-BB)

Varianza de las estimas Una vez que se ha aplicado un procedimiento de optimización y se han obtenido unos parámetros óptimos p* , es importante determinar el grado de confianza en los mismos.  Matriz de covarianza  Regiones de confianza de los parámetros  Isodistancias En el caso de estimación no lineal muchas de las medidas de la imprecisión son aproximadas

Covarianza del error  N  ∂y m ( t )  '  ∂y m ( t )  F = ∑   Q   t =1  ∂p   ∂p  La matriz de información de Fisher es la inversa de la matriz de covarianza del error de estimación de los parámetros, calculados con el mejor estimador lineal no sesgado. Esta medida supone que los errores son solo de medida. Una expresión de la matriz de covarianza de los errores de estimación (para el caso de una sola salida en el ajuste) mas ajustada viene dada por: *

V=

J (p ) −1 F N−d

Regiones de confianza Conocida la matriz de Fisher, la expresión: ' N N   ∂y m ( t )   ∂y m ( t )  * E{J(p + δp)} ≈ δp' ∑   Q  δp + ∑ tr(CQ) t =1  t =1  ∂p   ∂p 

Permite el cálculo aproximado de regiones de confianza de los parámetros estimados que pueden dibujarse como “elipses” cuyos ejes coinciden on los vectores propios de la FIM

Intervalos de confianza Estimada V, es posible determinar intervalos de confianza para cada parámetro, para un determinado nivel de confianza:

p ± 2.147 Vii

90%

p ± 3.035 Vii

99%

Aunque en un entorno multiparamétrico deben tomarse con cierta reserva, pues la región de confianza conjunta no equivale a la caja resultante de la individual de cada parámetro

Conjuntos de parámetros factibles Zona de Limites y

busqueda

p2

Conjunto factible

Respuesta admisible Datos experimentales

p1 Se define una respuesta aceptable del modelo (por ejemplo con bandas de error, o un valor máximo aceptable de J. Se generan aleatoriamente valores de p dentro de un rango y se hace la simulación del modelo con los mismos. Se incorporan al conjunto de parámetros aceptables los que cumplen el criterio, definiendo la región buscada

Identificación Global Criterio de minimización del error :Dado un conjunto de datos experimentales u(t), y(t), buscar los parámetros θ que minimizan la función de coste J : N 1 N 1 2 J = ∑ e( t ) 2 = ∑ [( y( t ) − y m ( t , θ)] N t =1 N t =1 v u

y Proceso e(t)

Modelo y

m m

Identificación global 1 N 2 J = ∑ [( y( t ) − M (θ)u ( t )] N t =1 θ2

f (θ) = J = cte.

Isodistancia: Lugar geométrico de los puntos del espacio paramétrico con igual valor de J θ1

Todos los modelos sobre una isodistancia tienen la misma validez respecto al criterio de suma de cuadrados de errores

Identificación global Isodistancia experimento 2 θ2 Modelos que explican ambos experimentos Isodistancia experimento 1 θ1 Las isodistancias dependen de los datos experimentales y del nivel de exactitud J elegido

Isodistancias Exp 1 θ2

θ2

Exp 2 θ1 Informan sobre la calidad de los parámetros, y el rediseño de experimentos

θ1 Nivel de calidad no compatible con los experimentos

Cálculo de Isodistancias Κ

Ejemplo con un modelo sencillo de primer orden

x x a −1

 1  Kq J = ∑ ( y ( t ) − u ( t ) −1 N t =1  1 + aq  N

2

Para cada valor de a se resuelve una ecuación de segundo grado para obtener el correspondiente valor de K

Regiones de confianza En un caso mas general, la construcción de isodistancias es compleja. Una forma de construir las curvas de un criterio dado, p.e. con un nivel de confianza del 100(1-α) %, o sea, los puntos para los que

d Fα , d , N − d ) J = J (p )(1 + N−d *

es establecer una región amplia y partiendo de puntos del contorno, optimizar hasta que J alcanza ese valor

F: distribución F con d y N-d grados de libertad y nivel α

Parametrización / Metodología   

Toma de datos experimentales (separar los de calibración y validación) Análisis y depuración de los datos Selección de los parámetros a estimar  

    

Identificabilidad estructural Cálculo de Sensibilidades

Posible reparametrización del modelo para linealizar la estimación Estimas iniciales y rangos Elegir la función de costo Estimar los parámetros por optimización Estimar los residuos y la región de confianza de los parámetros

Ejemplo en EcosimPro: Reactor de Van der Vusse Reactor altamente no lineal y difícil de controlar

A→B→C 2A → D Parámetros a estimar: Volumen 10 l Masa de refrigerante 5 Kg

Resolución con simulación N

min J = ∑ [y( t ) − y m (p, u , t )] p

2

j=1

x ( t ) = f ( x ( t ), u ( t ))

y m (t) = g(x(t), u(t))

p≤p≤p

resultado

Optimizador p

Proceso simulado

p*

J

Simulación desde 1 a N para calcular J(p)

u(t), y(t)

Reactor Van der Vusse

Validación 





Validar un modelo es obtener un grado de confianza en el mismo para el fin al que se destina No hay una “demostración” de la validez de un modelo, sino unos resultados positivos en un conjunto de test que nos dan esa confianza La validez de un modelo puede perderse por un solo test negativo

Validación 



El conjunto de test positivos y negativos permiten establecer el rango de validez del modelo Distintas situaciones implican distintas técnicas: 



El proceso existe y se trata de construir un modelo que reproduzca la realidad El proceso no existe aún y se trata de construir un modelo para predecir su comportamiento y optimizarlo cara al diseño

Validación 



Conjunto de pruebas de diferente naturaleza que ayudan a validar el modelo La validación ha de hacerse a todos los niveles de construcción del modelo:     

Hipótesis Formulación Codificación Resolución numérica (verificación) Aplicación

Niveles de validación Rango de validez Toma de datos /reconciliación ¿Cómo es de sensible la solución frente a cambios en los parámetros? ¿Es un código robusto, rápido,..? ¿Se resuelve adecuadamente?

Hipótesis

Las condiciones de uso son las previstas?

Modelado

¿Refleja bien los fenómenos de interés?

Parametrización Codificación Experimentación

¿Los datos son correctos e informativos? ¿Está bien codificado? ¿Los resultados corresponden a la realidad?

Distintos problemas asociados a un modelo d x(t) = f ( x ( t ), u ( t ), p, t ) dt y( t ) = g ( x , u ( t ), t )      

¿Que se supone conocido para estimar el resto? Reconciliación de datos Estimación de estados y perturbaciones Estimación de parámetros Verificación Validación

Reconciliación de datos d x(t) = f ( x ( t ), u ( t ), p, t ) dt y( t ) = g ( x , u ( t ), t )

Suele plantearse en estado estacionario

El modelo se supone perfecto y se trata de estimar las modificaciones en los datos experimentales que hacen que estos se ajusten exactamente al modelo

Puede combinarse con estimación de parámetros

Estimación de estados con horizonte deslizante x N

2 [ ] y ( t − i ) − y ( t − i ) + γv( t − i) 2 ∑ m ,v

min

xt−N

i

i =0

x ( t + 1) = f ( x ( t ), u ( t ), v( t )) y( t ) = g ( x ( t ), u ( t )) L v ≤ v( t − i) ≤ L V

v t-N

t

y u

t

t-N Con modelo perfecto ¿Qué estado inicial pasado en t-N y que mínimas perturbaciones v(t-i) harían evolucionar el sistema de la forma mas próxima a la que lo ha hecho al aplicarle los controles que le han sido aplicados?

Verificación 

¿El modelo de simulación representa adecuadamente al modelo conceptual?    

Codificación Errores tipo división por cero, etc. Métodos numéricos de solución Precisión

Formulación ci q

h

c

d (Vc)  = qc i − Fc dt Vc  c = dV V  = q−F  dt

dV dc +c = qc i − Fc dt dt dc V + c(q − F) = qc i − Fc dt dc V = q (c i − c) dt V

F Mezcla perfecta ρ constante

Causalidad dh A = q−F dt

q

F=k h

Causalidad computacional

h F Causalidad física

q

h

F

¿Qué pasa si? ¿Qué debo hacer para?

La causalidad fija el uso del modelo

Computabilidad q1

q2

h1

h2 F1

dh A1 1 = q 1 − F1 dt F1 = k 1 h 1 − h 2

F2

dh A 2 2 = q 2 + F1 − F2 dt h 1 < h 2 ? F2 = k 2 h 2

F1 = k 1 sgn( h 1 − h 2 ) h 1 − h 2

0 ≤ h i ≤ h max

Leyes + restricciones qi ≥ 0

Validación  

   

Respuestas cualitativas del modelo Comprobación con datos experimentales Test estadísticos Análisis de sensibilidad Capacidad de predicción del modelo Distorsión de parámetros

Respuestas cualitativas Respuestas cualitativas del modelo a entradas tipo

u

y Model

Discusión y evaluación de respuestas tipo del modelo con expertos en el proceso

Respuestas cualitativas Respuestas cualitativas del modelo a entradas tipo

Respuestas cualitativas 



Test de Turing: ¿Se puede discriminar una respuesta del modelo y de la realidad si se presentan en el mismo formato? Trazas de la evolución de variables tipo flujo, etc. a través de los distintos componentes

Comprobación con datos experimentales Comparación de las respuestas del modelo y datos experimentales distintos a los usados en la parametrización

v u

y Proceso

Modelo(p) ym

y

1 N 2 ( ) − y ( t ) y ( t ) ∑ m N t =1

modelo experimental

condiciones iniciales perturbaciones

t

Indices de error Medida numérica de las discrepancias entre la respuesta del modelo y los datos experimentales Pueden usarse para comparar varios modelos de un proceso y decidir sobre cual es mas adecuado ym y

1 N 2 ( ) − y ( t ) y ( t ) ∑ m N t =1

modelo experimental t

Indices de error Muchos índices ponderan la suma de los errores y el número de parámetros d en el modelo Final Prediction Error FPE 1 1+ d N N )∑ ( y( t ) − y m ( t )) 2 ( N 1 − d N t =1 Estima de la varianza del error de predicción con los datos nuevos

Akaike Information Criterion AIC 2d N (1 + )∑ ( y( t ) − y m ( t )) 2 N t =1

 N 2  ( ) y ( t )) y ( t −  ∑ m  + 2d N log t =1   N    

Indices de error Bayesian Information Criterion BIC  2   ∑ ( y( t ) − y m ( t ))   + d log( N) N log t =1   N     N

Es consistente: La probabilidad de seleccionar un modelo erroneo tiende a cero con N

Rissamen’s Minimal Description lenght N 2d (1 + log N)∑ ( y( t ) − y m ( t )) 2 N t =1

Penaliza mas la complejidad del modelo

Indices de error Test F para ver si el modelo j (con mas parámetros) es significativamente mejor que el modelo i, con un nivel α de confianza N  N   2 2  ∑ ( y( t ) − y m ( t ))  /(d j − d i ) − − ( y ( t ) y ( t )) ∑ m       t =1     = t 1 mod j mod i   N 2 /( N − d j ) ∑ ( y( t ) − y m ( t ))   t =1  mod j

Debe compararse con la distribución F(dj-di, N-dj) con el nivel α de confianza

Errores 

Los errores de la estimación provienen de: 



Errores de medida de los datos. Idealmente se suelen suponer independientes, de media cero y varianza constante. Para caracterizarlos pueden usarse datos de las salidas con entradas constantes. Errores del modelo o la estima de parámetros. Si el modelo fuera perfecto, los residuos deberían tener las mismas características estadísticas que los errores de medida.

Test estadisticos v u

y

Proceso

e Modelo ym

Si el modelo es correcto los residuos no deben presentar una estructura “sistemática”, sino ser el resultado de las perturbaciones aleatorias que actuan sobre el proceso Residuos e(t) = y(t) - ym(t)

Test estadísticos 

Inspección visual de los residuos

e

e

t

t

nº de cambios de signo de los residuos (ncs)  ¿Se ajustan a un modelo AR? N ncs − Puede compararse con una distribución N(0,1) 2 Test: para ver si hay un sesgo en los signos N/2 

Test estadísticos No correlación entre la entrada y los residuos: Los errores deben ser independientes de un experimento particular Rue(k)

Re(k)



k

Blancura de los residuos

2σ k

Lazo abierto, lazo cerrado

Varianza de los parámetros Las regiones de confianza de los parámetros dan una medida de la calidad de la calibración y, por tanto, de la bondad el modelo.

 v11 V =  v 21   

v12 v 22 

   

Los términos cruzados de la matriz de covarianza dan una idea de la independencia de los parámetros, pues deben estar incorrelacionados

Sensibilidad ¿ Cuanto varia J ante un cambio unidad en p ? N

min J = ∑ [y( t ) − y m ( p, u , t )] p

2

j=1

x ( t ) = f ( x ( t ), u ( t ))

y m (t) = g(x(t), u(t))

p≤p≤p Puede obtenerse a partir del problema dual de optimización en ciertos casos

Validación Capacidad de predicción del modelo Distorsiones de los parámetros Coherencia de las distintas representaciones Varianza de las estimaciones

{

var G (e

jwt

n Φ v ( w)  , θ) ≅ N Φ u ( w)

}

Capacidad de predicción yˆ( t + j)

y(t+j)

u(t+j) t

En ciertos casos, se utilizan fórmulas de predicción de controladores predictivos tales como el DMC, GPC, etc.

Distorsión de parámetros d x(t) = f ( x ( t ), u ( t ), p, t ) dt y m ( t ) = g ( x , u ( t ), t ) Tras la estimación de parámetros se obtiene un valor de los mismos p* (constante) que ajusta lo mejor posible la respuesta del modelo a los datos experimentales e* ( t ) = y ( t ) − y m ( p * , t )

Distorsión de parámetros Butterfield 1986 Supongamos que ahora los parámetros p pueden variar a lo largo del tiempo, ¿ Como habría que modificar el valor de los parámetros del modelo para que sus respuestas coincidieran exactamente con las del proceso? El valor de la distorsión da una medida de la credibilidad del modelo

p t

min y m ( t , p* + ∆p( t )) = y( t ) ∆p

t = 1,..., n

Distorsión de parámetros d x p (t)

= f ( x p ( t ), u ( t ), p* + ∆p( t ), t )

dt y p ( t ) = y( t ) = g ( x p , u ( t ), t )

Problema de índice

y

p modelo experimental

t

t

Métodos de solución (1) 1 Calcular xp a partir de

y( t ) = g ( x p , u ( t ), t ) 2 Calcular dxp /dt a partir de xp 3 Calcular ∆p(t) a partir de

d x p (t) dt

= f ( x p ( t ), u ( t ), p* + ∆p( t ), t )

Imprecisión en el cálculo de la derivada

Métodos de solución (2) Aproximación lineal sobre la respuesta base p* d x p (t)

= f ( x p ( t ), u ( t ), p* + ∆p( t ), t )

dt y p ( t ) = g ( x p , u ( t ), t ) = y( t ) d x p (t) dt

= f ( x ( t ), u ( t ), p* , t ) +

y p ( t ) = g ( x , u ( t ), t ) +

∂g ∂x p

∂f ∂x p

(x p − x) + x , p*

(x p − x) x , p*

∂f ∆p ∂p x ,p*

Linealización sobre una trayectoria ∆x ( t ) x x base tiempo p

∆p( t )

t

Métodos de solución (2) d x p (t)

= f ( x p ( t ), u ( t ), p* + ∆p( t ), t )

dt y( t ) = g ( x p , u ( t ), t )

dφ dx p dx = − = dt dt dt

φ = xp − x

∂f ≈ f ( x ( t ), u ( t ), p , t ) + ∂x p *

dφ ∂f = dt ∂x p

d x(t) = f ( x ( t ), u ( t ), p∗ , t ) dt y∗m ( t ) = g ( x , u ( t ), t )

∂f ∆p φ+ ∂p x ,p* x , p*

∂f (x p − x) + ∆p − f ( x ( t ), u ( t ), p* , t ) ∂p x ,p* x , p*

Metodos de solución (2) y p ( t ) − y m ( t ) = g ( x p , u ( t ), t ) − g ( x , u ( t ), t ) = = g ( x , u ( t ), t ) +

∂g ∂x p

( x p − x ) − g ( x , u ( t ), t ) x , p*

y p ( t ) − y m ( t ) = y( t ) − y m ( t ) =

∂g ∂x p

φ x , p*

Metodos de solución (2) ∆p

e* R

+ -

yp-ym

φ = xp − x dφ ∂f = dt ∂x p

∂f ∆p φ+ ∂p x ,p* x , p*

yp (t) − ym (t) =

∂g ∂x p

φ x , p*

Si ∆p es correcto: y p ( t ) − y m ( t ) = y ( t ) − y m ( t ) = e* Resolución como un problema de control

Métodos de solución (3) Puede plantearse también como un problema de optimización N

min ∑ α ( x p ( t ) − x ( t )) 2 + β∆p 2 + λ ( y( t ) − y p ( t )) ∆p

t =1

d x p (t) dt

= f ( x p ( t ), u ( t ), p* + ∆p( t ), t )

Multiplicador de Lagrange

Problema de optimización dinámica Se calculan las menores distorsiones de parámetros y estados compatibles con la restricción de igualdad de las salidas del modelo distorsionado y del proceso

Distorsión de parámetros 



Los valores de ∆p(t), que suelen tener significado físico, pueden compararse con tolerancias esperadas de variación También puede compararse con un indicador función de V(∆p)

V

∆p

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.