3.5.5 RESUMEN PARA DISTRIBUCIONES CONTINUAS

Metodología Paso 1 Calcular todos los valores de p(x) para la distribución propuesta. Paso 2 Calcular la acumulada F(x) para cada valor de x. Paso 3

27 downloads 189 Views 1MB Size

Recommend Stories


Distribuciones de Probabilidad Para Variables Aleatorias Continuas
Distribuciones de Probabilidad Para Variables Aleatorias Continuas Daniel Paredes Moreno Estad´ıstica I Departamento de Estad´ıstica-FACES-ULA 20 de

CAPÍTULO 9 DISTRIBUCIONES DE PROBABILIDAD DISCRETAS Y CONTINUAS 1.- DISTRIBUCIONES DISCRETAS 2.- DISTRIBUCIONES CONTINUAS
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS Y CONTINUAS CAPÍTULO 9 DISTRIBUCIONES DE PROBABILIDAD DISCRETAS Y CONTINUAS 1.- DISTRIBUCIONES DISCRETAS 2.

DISTRIBUCIONES DE PROBABILIDAD (RESUMEN)
DISTRIBUCIONES DE PROBABILIDAD (RESUMEN) VARIABLE ALEATORIA: un experimento produce observaciones numéricas que varían de muestra a muestra. Una VARIA

DISTRIBUCIONES
DISTRIBUCIONES Con el ánimo de optimizar los niveles y las diferentes necesidades de protección, ARSEG® complementa sus líneas representando important

HERRAMIENTAS BASICAS PARA KAIZEN (MEJORAS CONTINUAS)
HERRAMIENTAS HERRAMIENTAS BASICAS BASICAS PARA PARA KAIZEN KAIZEN (MEJORAS (MEJORAS CONTINUAS) CONTINUAS) 1.1. 2.2. 3.3. 4.4. 5.5. 6.6. 7.7. 8.8. 9.9.

Story Transcript

Metodología

Paso 1 Calcular todos los valores de p(x) para la distribución propuesta. Paso 2 Calcular la acumulada F(x) para cada valor de x. Paso 3 Generar un valor r¿. Verificar en F(x) a qué intervalo de x pertenece y ese será el número aleatorio generado por la distribución propuesta.

La misma metodología puede emplearse para generar valores de una variable con distribución Poisson o binomial, con la diferencia de que en el cálculo de las probabilidadesp(x) del paso 1 hay que utilizar la distribución de probabilidad respectiva. Otros métodos estadísticos

En ocasiones, no es posible aplicar el método de la transformada inversa a distribuciones de probabilidad, debido principalmente a que algunas de ellas no tienen forma de integrarse, como el caso de la distribución normal, gamma, etcétera. En tal caso se requiere la aplicación de algunas propiedades estadísticas como el teorema de límite central o la propiedad de convolución, que permiten generar una distribución mediante la suma de distribuciones más sencillas, mediante la transformada z, etcétera. Estos son procedimientos especiales para lograr expresiones matemáticas que generen las variables aleatorias deseadas. A continuación se presentan algunas de las expresiones más utilizadas en la simulación de sistemas de manufactura para generar variables aleatorias. 3.5.5 RESUMEN PARA DISTRIBUCIONES CONTINUAS Se presentan ahora las expresiones finales para generar variables aleatorias con las distribuciones de probabilidad más usuales.

Distribución uniforme general

Obtenida a partir del método de la transformada inversa.

donde: a = límite inferior de la distribución uniforme. b - límite superior de la distribución uniforme. Ui = número aleatorio con distribución uniforme. r¿ = número aleatorio con distribución uniforme entre O y 1. Distribución exponencial

Obtenida a partir del método de la transformada inversa.

Distribución Poisson

Obtenida a partir de la propiedad que mantiene con la distribución exponencial. Paso 1 Hacer N- O, T= I y obtener el primer ri − Paso 2 Calcular T= T* ri − Paso 3 Si la T calculada es mayor que e−a calcular otro ri − y regresar al paso 2, incrementando N en 1. Si la T calculada es menor que e−a entonces pi = N. donde:

α = media de la distribución Poisson. p = número aleatorio con distribución Poisson i

N = contador. T = contador.

Ejemplo. A partir de un generador de números aleatorios uniformes entre O y 1 se obtuvieron los valores 0.7814 y 0.5643. A partir de ellos simular: a) Una variable aleatoria con distribución uniforme entre 15 y 19.

Ui = (19 - 15) * ri + 15 = (4 * 0.7814) + 15 = 18.1256 b) Una variable aleatoria con distribución exponencial con media 1 = 5 . λ

Ei = -5ln(l - ri ) = - 51n (1 - 0.7814) = 7.601 c) Una variable aleatoria con distribución Bernoulli con p = 0.25. Como ri = 0.7814 se encuentra entre 0.25 y 1, entonces: EEi - 0A d) Una variable aleatoria con distribución normal con media 10 y variancia 4.

Ni = [[-21n rJ1/2 sen(2nrl+l)] * 2 + 10 Ni = [[-21n 0.7814]1/2 sen(2 π 0.5643)] * 2 + 10 = 9.4477 3.6 3.6.1

VALIDACIÓN Y ESTABILIZACIÓN CÁLCULO DEL NÚMERO ÓPTIMO DE SIMULACIONES

Debido a la naturaleza probabilística de los sistemas donde se utiliza la simulación, se hace imprescindible crear modelos cuyos resultados sean estadísticamente iguales a los sistemas reales. Uno de los factores que afectan en forma directa esos resultados es el tamaño de la corrida de simulación o bien el número de corridas de simulación realizadas para encontrar resultados confiables. Al realizar una corrida de simulación, el resultado promedio de las variables del sistema tienen un periodo de inestabilidad y, conforme transcurre el tiempo, esas variables tienden a un estado estable y es entonces cuando los valores de las variables de respuesta son confiables. Existen, en general, varias formas para lograr la estabilización de un modelo de simulación, la primera consiste en utilizar corridas lo suficientemente largas para que los datos del periodo de transición resulten insignificantes, este planteamiento puede ser adecuado si la ejecución del modelo es rápida. Esta situación no es tan atractiva si la duración del periodo transitorio es prolongado, en este caso, se pueden seleccionar condiciones iniciales de arranque que sean más representativas de la condición de estado estable y que por tanto reduzca el periodo transitorio. El principal problema en este caso es no tener una idea adecuada de las condiciones iniciales, lo que podría llevar a una polarización de los resultados y en consecuencia aumentar la varianza, ocasionando tamaños de corrida más grandes. Una tercera opción es determinar en qué momento se ha llegado al estado estable en función de los resultados obtenidos, una de las formas más comunes de determinar este momento se consigue graneando el valor promedio de la variable de interés contra el tiempo de simulación, y cuando se observe que ese promedio ya no cambia a través del tiempo, detener la corrida de simulación. El tamaño de una corrida de simulación depende principalmente del tipo de distribución que se intenta simular y, por decirlo de alguna forma, de la bondad del generador de números U (0,1) que se está utilizando y de las condiciones iniciales con que inició la simulación del sistema.

En forma general, para calcular el número de simulaciones óptimo se tiene la expresión:

donde: Z = estadístico normal estándar para cierta a. k = desviación absoluta máxima permitida sobre la media de la distribución a simular. a2 = variancia de la distribución a simular. Cuando la media y la variancia de la distribución a simular se obtuvieron de una población nl de 30 o menos elementos, entonces, el cálculo óptimo de las simulaciones se modifica de acuerdo con la siguiente ecuación:

donde: t - estadístico de la distribución t student. k = desviación absoluta máxima permitida sobre la media de la distribución a simular. S2 = estimador de la variancia de la distribución a simular. Esta segunda fórmula se emplea para calcular n óptima basándose en una corrida simulada del sistema de tamaño ni A esta corrida pequeña se le conoce como prueba piloto, y su función es calcular n en función de la distribución general y del generador utilizado en la prueba piloto. Pueden usarse ambas fórmulas siempre y cuando la información de donde se obtienen los estimadores sigan, estadísticamente, una distribución normal. En caso de que los datos analizados sigan otra distribución se debe usar uso del teorema de Tchebycheff de tal suerte que el cálculo se ve reducido a:

El cálculo del número de corridas óptimo, en modelos donde se tengan varias variables probabilísticas, se realiza ejecutando el cálculo para cada una de ellas y se selecciona la mayor de todas las n; éste será el número de simulaciones del modelo computacional. Ejemplo. Se desea encontrar el número de simulaciones que debe realizar un simulador de desperdicios de una planta de poliéster, de tal forma que el promedio diario simulado de desperdicio no difiera más de ±0.166a de su valor real, con una confiabilidad del 95%.

Si se supone o se sabe que el desperdicio diario en toneladas sigue una distribución normal, entonces el número de simulaciones óptimo es:

donde: Z - 1.96 para una confiabilidad del 95%. k =0.166s Sustituyendo la información se tiene: n = 138.29. Ahora bien, si no se tiene idea de la distribución de probabilidad del desperdicio de la planta o de que siga otro tipo de distribución, se utiliza la expresión: 2 m 36 n= = 720.00 α 0.05 Este cálculo del número de simulaciones óptimo, es un cálculo a priori, sin embargo, no asegura del todo que se cumpla con las condiciones de estabilidad. Una forma más segura de determinar el momento en que el sistema se estabiliza se consigue al graficar, a través del tiempo, cada uno de los valores promedio de aquellas variables o resultados que se deseen analizar y al observar el comportamiento de las variables deteniendo la simulación cuando todas esas variables se encuentren en estado estable. La forma típica del comportamiento descrito se puede observar en la figura 3.5.

3.6.2 CALCULO DEL NUMERO DE REPLICAS Una vez que se ha corrido un sistema de simulación hasta llegar a la estabilización, existe el problema de que las observaciones obtenidas en el experimento de simulación, generalmente, no son independientes (autocorrelacionadas). Para obtener resultados independientes hay que repetir V veces la simulación de tamaño "?i" con diferentes números aleatorios. Se aconseja que el número de réplicas o repeticiones sea de 3 a 10.

Teniendo los resultados de cada una de las réplicas, es necesario tomar estos resultados para calcular los estimadores de media, variancia e intervalo de confianza de acuerdo con el siguiente procedimiento. Calcular la media y variancia de las observaciones para cada réplica individual con las fórmulas:

Con la media y la variancia de cada una de las réplicas, encuentre la media y variancia entre réplicas con las fórmulas siguientes

3.6.3

REDUCCIÓN DE VARIANZA

En muchos estudios de simulación, una gran parte del tiempo se emplea en el desarrollo del modelo y en la programación del mismo; pero sólo un pequeño esfuerzo se utiliza para desarrollar un diseño apropiado de las corridas o para analizar correctamente los resultados que genera la simulación. Partiendo de que la información de entrada es una variable aleatoria, la información de salida es también aleatoria. Por lo tanto, un modelo de simulación sólo puede producir un estadístico estimado de la medida de desempeño. Existen algunos métodos, conocidos como técnicas de reducción de varianza, que permiten reducir los valores estimados para la varianza, fijando condiciones a partir de los datos históricos. Para que el resultado de una simulación sea estadísticamente precisa y libre de tendencias, se debe especificar perfectamente la longitud de cada corrida, el número de réplicas y el periodo de estabilización. Ejemplo. Una pequeña fábrica consta de un centro de maquinado y estaciones de inspección en serie. Las partes por procesar arriban a la planta a un ritmo de 1 por minuto. Los tiempos de procesamiento en las máquinas e inspecciones subsecuentes son aleatorios con medias respectivas de 0.675 y 0.775 minutos; 90% de las partes inspeccionadas son "buenas" y se envían al área de embarque; el resto son "malas" y se llevan a máquinas de reproceso. El centro de maquinado está sujeto a descomposturas de ocurrencia aleatoria y la fábrica está inicial-mente vacía y desocupada. La tabla siguiente muestra los estimados de las medidas de desempeño analizadas para 5 réplicas independientes, de longitud igual a 16 horas (se usan diferentes números aleatorios en cada réplica) para una simulación de la planta.

Corrida

Salidas

Tiempo de tránsito

Prom. de pzas. en inspección

1 2 3 4 5

797 734 741 772 769

7.41 3.12 4.24 5.85 6.75

11 11 17 14 24

Observe que los resultados para varias corridas pueden ser completamente diferentes. Así, una sola corrida no produce las respuestas. Se presentan aquí algunas técnicas que ayudarán al analista a encontrar de forma más rápida un estimador del resultado. Las diferentes técnicas de reducción de varianza, ocasionan una reducción en el tiempo de simulación mediante la disminución del tamaño de la corrida y son valiosas cuando, por el tamaño de los modelos, la memoria computacional no es capaz de soportar altos tiempos de simulación. Estas técnicas básicamente pretenden distorsionar o cambiar el modelo original para obtener estimaciones a bajo costo. A continuación se da una breve explicación de cada una de ellas. Muestreo antitético

El objetivo de esta técnica es inducir una correlación negativa entre los elementos correspondientes en las series de números aleatorios utilizados para generar variaciones de entrada en réplicas diferentes. Una forma de generar correlaciones negativas consiste en correr el modelo, primero, con números aleatorios r¿ para obtener un estimador Yl del parámetro estudiado y después, con números 1 - r¿, obteniendo un estimador Y2 del parámetro estudiado Corridas comunes

Una práctica útil cuando se desarrolla un proceso de simulación, es emplear datos históricos, los cuales pueden ser archivados y utilizados posteriormente para definir, por ejemplo, los programas de producción de años anteriores. El objetivo principal es iniciar nuevas corridas de simulación utilizando siempre los datos almacenados; de esta forma, el uso de las corridas comunes afecta a todas las alternativas de igual forma. Se debe aplicar cuando el problema consiste en la comparación de dos o más alternativas. Muestreo clasificado

Esta técnica se apoya en un resultado parcial de una corrida, clasificándolo como interesante o no interesante, en caso de ser interesante se continúa con la corrida en caso contrario se detiene la corrida. Variaciones de control

Este método utiliza aproximaciones de modelos analíticos para reducir la varianza. Por ejemplo, una simulación puede ser un modelo complejo de colas donde interese conocer la longitud promedio de la fila, cuyo valor puede estimarse analíticamente. Muestreo estratificado

En esta técnica la función de distribución se divide en varias partes, lo más homogéneas posibles que se resuelven o ejecutan por separado; los resultados obtenidos se combinan para lograr una sola estimación del parámetro a analizar.

Muestreo sesgado

Consiste en distorsionar las probabilidades físicas del sistema real, de tal forma que los eventos de interés ocurran más frecuentemente. Los resultados obtenidos presentarán también una distorsión que debe corregirse mediante factores probabilísticos de ajuste.

3.6.4 VALIDACIÓN DE RESULTADOS Al usar la simulación para estudiar un sistema complejo, encontramos varios tipos de error como: a) errores de diseño, b) errores en la programación, c) errores en los datos utilizados, d) errores en el uso del modelo y e) errores en la interpretación de los resultados. Evaluar un modelo significa desarrollar un nivel aceptable de confianza de modo que las inferencias obtenidas del comportamiento del modelo sean correctas y aplicables al sistema del mundo real. La validación y verificación es una de las tareas más importantes y difíciles que enfrenta la persona que desarrolla un modelo de simulación. 1.

Verificación se refiere a la comparación del modelo conceptual con el código computacional que se generó, para lo cual es necesario contestar preguntas como: ¿está correcta la codificación?, ¿son correctas la entrada de datos y la estructura lógica del programa?

2.

Validación es la demostración de que el modelo es realmente una representación fiel de la realidad. La validación se lleva a cabo, generalmente, a través de un proceso comparativo entre ambas partes y usa las diferencias para lograr el objetivo.

En el proceso de validación usualmente se emplean las pruebas estadísticas siguientes: a) b)

c)

Prueba de estimaciones de los parámetros de la población asumiendo una distribución de probabilidad (pruebas F, t y z). Pruebas de las estimaciones de los parámetros de la población que no son dependientes de la suposición de una distribución de población implícita (prueba de medias Mann-Whitney). Pruebas para determinar la distribución de probabilidad de la cual proviene la muestra (pruebas de bondad de ajuste de Kolmogorov-Smirnov o x2)-

Ejemplo. La situación real de la empresa FATSA en cuanto a la producción de carburadores por día, de acuerdo con los datos de los últimos 8 días es la siguiente: 115, 105, 97, 96, 108, 104, 99 y 107. El modelo creado para la simulación de la planta arroja los siguientes 10 resultados de producción de carburadores por día: 110, 97, 100, 105, 108, 99, 118, 104, 105 y 103. ¿Son los resultados del modelo estadísticamente iguales a los reales?

a) Hipótesis sobre la varianza: H0 : V(modelo) = V(real) Hi : V (modelo) ≠ V(real) V (real) = 40.57 V(modelo) = 36.96 Fc de tablas con 8 y 10 grados de libertad y con un nivel de rechazo de un 5% es 3.07. Ya que F0 es menor que Fc, se acepta que el modelo de simulación está arrojando resultados con la misma variancia que el sistema real.

b) Hipótesis sobre la media

Ho : µ (modelo)= µ (real) Hi : µ (modelo) ≠ µ (real) E(modelo) = 104.90 E(real) = 103.87 El estadístico a utilizar es el correspondiente a variancias iguales y poblacionalmente desconocidas y con media poblacional desconocida, puesto que solamente se tienen los datos de dos muestras.

El estadístico tc con 8 + 10 - 2 = 16 grados de libertad y con un nivel de rechazo del 5% es 1.746. Ya que t es menor que tc, se acepta que los resultados en cuanto a la producción de carburadores por día del simulador son estadísticamente iguales, en cuanto a la media, a los de la producción real. En cuanto a la prueba de forma entre ambas muestras no se puede afirmar nada ya que la cantidad pequeña de datos que se está manejando imposibilita la formación de histogramas para realizarla.

3.6.5

OPTIMIZACIÓN

La finalidad de cualquier análisis de sistemas es optimizar la medida de efectividad, describiendo normas para las variables de decisión a la vista de variables no controlables. Así pues, el tomador de decisiones desea encontrar ese conjunto de variables de decisión. Una vez que se tiene un modelo de simulación computacional válido y que se ha verificado estadísticamente, entonces, para lograr la optimización se necesita empezar a jugar con las variables de decisión; se busca el mejor valor de la medida de efectividad. Este proceso de optimización tiene que realizarse mediante el proceso de prueba y error, sin embargo, el número de combinaciones de las variables de decisión que pueden ser probadas es infinito, por eso es indispensable usar de técnicas que permitan analizar sistemáticamente las posibilidades seleccionadas, de tal modo que eventualmente se podrá escoger una combinación cercana al óptimo. Estas técnicas se basan principalmente en el diseño de experimentos y las más utilizadas son: • Simplex. • Simplex EVOP. • Superficies de respuesta. 3.6.6 SENSIBILIDAD Y EXPERIMENTACIÓN Es el último paso dentro del proceso de simulación y puede efectuarse antes o durante la implantación de las soluciones en el proceso real. Consiste enjugar o experimentar con el modelo

ante situaciones nuevas o imprevistas, que tengan cierta probabilidad de ocurrencia, con el objeto de encontrar una solución óptima ante ese posible escenario. Esto es útil pues los sistemas reales son dinámicos y de esta manera podemos adelantarnos y ser capaces de hacerles frente con anticipación. El análisis de sensibilidad se enfoca principalmente a estudiar las variables no controlables por el tomador de decisiones dentro del proceso real.

3.6.7

MONITOREO

Como se acaba de mencionar, los sistemas reales son dinámicos, esto significa que se debe llevar un estricto control de los cambios ocurridos en ellos para inmediatamente implantarlos en el modelo y para que pueda seguir siendo un fiel reflejo de la realidad. 3.7 3.7.1

SELECCIÓN DE LENGUAJES DE SIMULACIÓN INTRODUCCIÓN

En un principio los programas de simulación se elaboraban utilizando algún lenguaje de propósito general como FORTRAN, ALGOL, LP/1, etcétera. Esto requería un gran trabajo de programación; con el paso del tiempo se fueron identificando diferentes situaciones, hasta llegar a estandarizar ciertas instrucciones de programación en rutinas bien definidas. De este concepto nació el diseño de lenguajes específicos para programas de simulación, con los cuales se ha ido facilitando al usuario la programación de sus modelos. La selección del lenguaje es el primer paso para transformar todas las interacciones del sistema real en ecuaciones matemáticas sencillas que lo representen; de esta decisión depende la sencillez o dificultad de la transformación de la realidad al modelo. Existen dos opciones a seguir y la decisión depende principalmente de varios factores: 1. Debe tomarse en cuenta las necesidades específicas que tratamos de satisfacer y las características de las opciones disponibles; es importante conocer la naturaleza del sistema a simular, sus componentes, sus flujos y sus reglas de comportamiento. 2. Es necesario determinar el objetivo que se persigue, definiendo con mucha precisión las respuestas que esperamos de la simulación. 3. Hay que cuestionarse sobre el método de simulación necesario para elaborar el modelo requerido para que se puedan descartar todos los simuladores no apropiados para la metodología. 4. Verificar el equipo computacional con el que se cuenta, para estimar el costo de adecuación del equipo y valorar tiempo y dinero que hay que invertir para capacitarnos en su uso. 5. Estudiar la existencia de documentación y libros de consulta, la rapidez de programación, la velocidad de respuesta, los formatos de salida y la flexibilidad para hacer cambios. 6. En caso de que exista el lenguaje, es importante evaluar los beneficios que aportaría invertir en dicho lenguaje y considerar que ese análisis económico podría incluso conducir al uso de un lenguaje general. Ventajas y desventajas

Ya sea que se seleccione un lenguaje de tipo general o específico, es preciso tener en cuenta las ventajas y desventajas de cada uno de ellos; a continuación se enumeran algunas: Lenguajes de tipo general

Ventajas

1. Integración en las computadoras. La mayoría de las computadoras que existen en el mercado traen integrado algún lenguaje de tipo general, así, no es necesario realizar algún tipo de inversión adicional. 2. No se requiere capacitación del programador porque la actividad es traducir operaciones lógicas a un lenguaje que conoce y domina. 3. Permiten mayor flexibilidad de programación que ciertos lenguajes de simulación. 4. Un eficiente programa escrito en lenguaje general puede tomar menos tiempo de ejecución que uno escrito en un lenguaje de simulación. Desventajas

1. El tiempo de desarrollo y programación es mayor pues no posee funciones de simulación integradas. 2. El análisis de sensibilidad se dificulta después de programar el sistema original ya que se requiere un tiempo de desarrollo alto para manejar diferentes escenarios. 3. Alta probabilidad de cometer errores en el momento de realizar la programación principalmente a causa de la gran cantidad de instrucciones que requiere el uso de este tipo de lenguajes, situación que puede llegar a traducirse en mayor número de pruebas de validación. Lenguajes específicos de simulación Ventajas

1. El tiempo de desarrollo de la programación es muy corto porque se trata de lenguajes sintéticos basados en programación por bloques o subruti-nas, e incluso algunos de ellos están encaminados al usuario, de tal forma que ya no es indispensable programar. 2. Permite realizar análisis de sensibilidad fácilmente y en un corto tiempo; tienen alta flexibilidad para hacer cambios. 3. Integra funciones como generación de números aleatorios, análisis estadístico y gráficas. 4. Tienen una alta fiabilidad que conduce a una validación de resultados sencilla y rápida. 5. Permite definir y entender mejor el sistema a simular gracias a que se tiene una visibilidad superior de la estructura general del modelo y se aprecian más fácilmente las interrelaciones. Desventajas

1. Es necesario invertir en la adquisición del software. 2. Se requiere invertir tiempo y costo en la capacitación de los programa-dores del nuevo lenguaje. 3. La computadora de la compañía y el software a adquirir deben ser compatibles. Características de los lenguajes de simulación

En la actualidad los lenguajes que existen en el mercado tienen una serie de características propias que los distinguen de otros, entre esas características están las siguientes: 1. El procedimiento utilizado para generar los números aleatorios uniformes y las variables no uniformes conocidas. 2. La forma de adelantar el reloj de simulación, que puede hacerse con incrementos de tiempo fijo como en DYNAMO o con incrementos al próximo evento como es GPSS. 3. Las estadísticas que se obtienen y el formato en que se presentan los resultados. 4. El lenguaje en que está escrito, lo cual influye en la forma de detectar y reportar los errores de lógica.

5. Su compatibilidad de comunicación con determinado tipo de computadoras, con otro lenguaje o, simplemente, con el usuario. Clasificación de los lenguajes de simulación

Los lenguajes de simulación se pueden clasificar de la siguiente forma: a. Lenguajes de propósito general FORTRAN, ALGOL, ASEMBLER, PL/1, C, PASCAL, BASIC. b. Lenguajes de simulación discreta Enfoque de flujo de transacciones: GPSS, BOSS. Enfoque de eventos: GASPII, SIMSCRIPT, SIMCOM, SIMPAC. Enfoque de procesos: SIMULA OPL, SOL, SIMÚLATE. Enfoque de actividades: CSL, ESP, FORSIM-IV, MILITRAN. c. Lenguajes de simulación discreta y continua GASP-IV, C-SIMSCRIPT, SLAM. d. Lenguajes de simulación continua Ecuaciones discretas: DSL-190, MIMIC, GHSI, DYHYSYS. Enfoque de bloques: MIDAS, DYNAMO, SCADS, MADBLOC, CO-BLOC. ° Simuladores de aplicación específica COMNET, NETWORK, PROMODEL, SIMFACTORY, WITNESS, XCELL. Además, existen actualmente en el mercado un gran número de simuladores con animación incluida dentro de su sistema. Al adquirirlos hay que tomar en cuenta que la animación es útil para comunicar, en escena, el modelo de simulación con los administradores y otras personas interesadas; esto incrementa la credibilidad hacia el modelo y facilita la venta de ideas, sin embargo, la animación no es un sustituto de un cuidadoso análisis estadístico de los datos resultantes, ni tampoco una "correcta animación" es garantía de la validez del modelo. Algunos de los lenguajes de animación son: PROOF, SIMAN/Cinema, MIC-SIM, EXTEND, XCELL, MAST, WITTNESS, AUTOMATION MASTER, STARCELL, RESQ, PROMODEL-PC, STELLA, MICRO SAINT, GENETIK, AUTOMOD y SMARTMODELS.

3.7.2 CODIFICACIÓN Y SIMULACIÓN DEL SISTEMA A MODELAR Tanto la codificación como la modelación del sistema dependen de la selección del lenguaje y consisten en la creación de diagramas de flujo, instrucciones y corridas de simulación que interrelacionen, en forma precisa las variables de entrada, sean probabilísticas o determinísticas, para obtener los resultados deseados. Debido a la naturaleza de la transformación que se lleva a cabo, éste es el paso más difícil de todos. No existe una fórmula única para llevar a cabo tal proceso y está en función del proceso mental de cada persona y de la experiencia que en este sentido haya logrado obtener. Simulación mediante un lenguaje general

En este caso es necesario, antes de empezar la codificación del modelo, crear la tabla de eventos, que consiste en simular manualmente la interrelación entre las variables para lograr un resultado mediante la colocación de los cálculos en forma tabular. Este método ayuda en gran medida a entender el comportamiento del sistema y simplifica el proceso de codificación. Ejemplo. La empresa CAFTSA tiene una máquina conocida como estirotorcedora, la cual requiere mantenimiento. Dentro de la estirotorcedora existe una pieza crítica, que consta de 4 componentes electrónicos en serie, cada uno de los cuales tiene un costo de $10 000. Según con los datos históricos, y mediante una prueba de Kolmogorov-Smirnov se ha llegado a la conclusión de que

el tiempo de cada componente electrónico tiene una vida que sigue una distribución 7V(500, 100) horas. Cuando alguno de los 4 componentes llega al término de su vida es necesario detener la estirotorcedora para cambiar dicho componente. Armar y desarmar la pieza se lleva 1 hora y cambiar un componente se lleva 0.25 horas, el costo estimado de la máquina cuando está fuera de funcionamiento es $300 000/hora. El departamento de mantenimiento desea analizar dos políticas de mantenimiento con el fin de determinar cuál de ellas es la mejor opción desde el punto de vista económico. Las alternativas presentadas son: a) cambiar solamente el componente descompuesto; α ) cambiar todos los componentes cuando el primero de ellos se descomponga. Para la solución del problema planteado se puede desarrollar un mecanismo que en forma sencilla lleve a la respuesta requerida. Objetivo

Determinar la opción de mantenimiento más económica considerando los costos de los componentes y los costos de paro de la máquina.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.