AUTONOMA METROPOLITANA (IZTAPALAPA) TEMA: PROCESAMIENTO DIGITAL DE IMAGENES AUTORA: MAZA GONZALEZ SEBASTIANA REPORTE PRESENTADO A: BIBLIOTECA

c UNIVERSIDAD AUTONOMA METROPOLITANA (IZTAPALAPA) r" f b PROYECTO DE INVESTIGACION c TEMA: PROCESAMIENTO DIGITAL DE IMAGENES AUTORA: MAZA
Author:  Lidia Soto Suárez

18 downloads 57 Views 1MB Size

Recommend Stories


UNIVERSIDAD AUTÓNOMA METROPOLITANA UNIDAD IZTAPALAPA
UNIVERSIDAD AUTÓNOMA METROPOLITANA UNIDAD IZTAPALAPA MANTENIMIENTO REALIZADO A LAS INSTALACIONES Y PERIFERIA DE LA UNIDAD IZTAPALAPA, EN EL PERIODO VA

Procesamiento Digital de Imágenes
Procesamiento Digital de Imágenes Apuntes del curso impartido por el Dr. Boris Escalante Ramírez Agosto, 2006 2. 2.1. Fundamentos de la Imagen Digit

3 Procesamiento digital de
3 Procesamiento imágenes digital de Una vez preparada la escena para ser capturada por las cámaras de Visión Artificial, se deberá de tratar el as

Story Transcript

c

UNIVERSIDAD

AUTONOMA METROPOLITANA (IZTAPALAPA)

r" f

b

PROYECTO

DE

INVESTIGACION

c

TEMA:

PROCESAMIENTO DIGITAL

DE IMAGENES

AUTORA: MAZA GONZALEZ SEBASTIANA P

MATRICULA: 86221989

Li

ru

REPORTE PRESENTADO A: BIBLIOTECA c

,

L-

I".

L

F

JUNIODE 1997

r-

PROYECTO DE INVESTIGACION

1

INTRODUCCION L P c

P-

) . -

El procesamiento digital de imágenes(PD1) se encarga del estudio de las metodología para modificar y analizar imágenes por medio de una computadora digital. Algunas áreas del PDI son:

I

r L-i

Realce. El objetivo del realce es mejorar la apariencia de la imagen para su despliegue, o resaltar cierta informaciónde interés para su posterior análisis.

Restauración. Su objetivo es eliminar o minimizar degradaciones conocidas en una imagen. P

r

Análisis. Se refiere a obtener medidas cuantitativas de la imagen para producir

r i

máquinas autónomas.

P

L

r-

una descripción de la misma, ya sea para otros estudios o para la navegación de

SISTEMAS DE PERCEPCION DE IMÁGENES Un sistema de percepción de imágenes se compone básicamente de una fuente

r

de iluminación, una escena, la cual es capaz de interaccionar de alguna manera con la energía radiante suministrada por la fuente de iluminación un sensor

r-

remoto, el cual captura la luz proveniente de la escena. En los sistemas pasivos la fuente de iluminación es externa al sistema, lo que

L-i

rw

significa que no se puede tener control sobre la misma. En cambio, los sistemas activos tienen su propia fuente de iluminación. La escena es una región del paisaje que se puede seleccionar arbitrariamente con el sensor remoto, y contiene un conjunto de objetos que interaccionan con la luz de la fuente, reflejándola como un espejo, transmitiéndola como el vidrio, o absorbiéndola como una superficie obscura. En realidad, un objeto físico puede responder de cualquiera de las dos formas, dependiendo de las longitudes de onda que compongan la luz incidente. Un sensor remoto natural es por supuesto el ojo humano(figura1).La córnea dirige la luz hacia el interior del ojo, el iris controla la cantidad de luz entrante, adaptándose a las condiciones de iluminación de la escena, y el cristalino enfoca el haz de luz en la fóvea, que es la zona mas sensible de la retina. Cada una de las células de la retina son detectores fotosensibles que convierten la luz en señales electroquímicas. Estas señales se trasmiten al cerebro, por medio del nervio óptico. Un sistema artificial de percepción de imágenes sigue los mismos principios, con la diferencia de que puede almacenar permanentemente las imágenes que captura y además es capaz de percibir luz invisible para el ojo humano.

IMAGENES DE PERCEPCION REMOTA Originalmente se utilizó este término en las primeras misiones espaciales de sondas no tripuladas, a bordo de las cuales se instalaba un sistema de televisión para el envío de imágenes a la Tierra. En la actualidad se aplica comúnmente a

los sistemas de percepción de imágenes satelitales. La órbita de un satélite geoestacionario descansa en el plano del ecuador terrestre, y su velocidad angular equivale a la velocidad de rotación de la Tierra, de modo que el satélite permanece en el mismo sitio respecto a la Tierra, y puede observar una zona amplia del planeta. Con estos sistemas, los meteorólogos, por ejemplo, pueden seguir la trayectoria de objetos que evolucionan rápidamente con el tiempo, como los huracanes. Los satélites de órbita polar combinan su movimiento con la rotación de la Tierra, para cubrir la superficie total de la misma en periodos de dos a tres semanas. En cuanto a la resolución de kilómetros, la resolución de los satélites espías se mide en centímetros. Estos sistemas suelen captar la luz en varias bandas del espectro electromagnético y

obtienen simultáneamente una serie de

imágenes

monocromáticas correspondientesa la misma escena. Mientras que la luz en el rango visible del espectro es luz solar reflejada por la Tierra durante el día, la radiación infrarroja es emitida a todas horas por efecto del calentamiento de la Tierra y la atmósfera. Esta radiación proporciona información muy valiosa sobre la temperatura de la superficie terrestre y los océanos, así como la temperatura de las nubes. Combinando la información de varias bandas se obtienen datos como el contenido de agua y de bióxido de carbono en la atmósfera. Los sistemas pasivos están supeditados a las condiciones de iluminación de la escena. Los más limitados son los sensores de luz visible, que no pueden actuar

e-

0

r c-

de noche o con sombras y las radiaciones ultravioleta, infrarroja no atraviesan la

P

cubierta nubosa de la atmósfera.

L_

r-

Estos problemas han sido resueltos con los sistemas de radar, que siendo activos controlan la iluminación de la escena, las microondas que emiten, por ser de mayor longitud de onda no se ven afectadas por las condiciones meteorológicas.

L-

r"-

L-

Es por esta razón que la sonda interplanetaria Magellan ha podido trazar la topografía de Venus un planeta cubierto de nubes, con una precisión que hasta hace poco era inimaginable.

rp

c

IMAGENES MICROSCOPICAS

P

Otra fuente importante de imagenes son las observadas a través de microscopios. El microscopio de luz ha sido el instrumento científico m s importante desde hace mucho tiempo tanto para la investigaciónbiológica como para la de materiales.

Los microscopiosde luz modernos están capacitadoscon gran varieda de tipos de Óptica e iluminación. Para escalas muy pequeñas, el microscopio de luz amplifica

los objetos hasta 1000 veces, utilizando uz incidente (reflejada) o transmitida, en algunos casos filtrada por cierta longitud de onda polarizada. Las imagenes vistas a través del microscopio pueden ser adquiridas en una computadora utilizando una cámara de vídeo. La luz transmitida se utiliza de manera particular para especímenes biológicos. El microscopio petrográfico utilizado por los geólogos, también utiliza luz transmitida, generalmente polarizada, para revelar fases minerales en delgadas secciones de piedras pulidas. Cuando es necesaria una mayor amplificación y el microscopio de luz no puede darla, entonces se requiere de un microscopio electrónico. Existen dos

tipos principales de microscopios electrónicos los cuales forman las imágenes de manera completamente diferente: el microscopio electrónico de transmisión, y el microscopio electrónico de barrido. El microscopio electrónico de transmisión (TEM) es análogo al microscopio de luz, ry

excepto que utiliza electrones en lugar de fotones, ya que tienen una longitud de onda menor, y se pueden formar imágenes con mucho mayor resolución. El microscopio electrónico de barrido trabaja completamente diferente. Un fino rayo de electrones choca con la superficie de la muestra (o en el caso del microscopio de transmisión de barrido, pasa a través de un espécimen muy

F

delgado), produciendo señales secundarias, o electrones dispersos. El rayo

I i

genera un patrón raster parecido a un sistema de televisión común; sobre el

r"

espécimen, mientras que la señal de un detector se utiliza para controlar el brillo de un tubo de rayos catódicos del monitor de despliegue. Esto produce un voltaje variable que puede ser enviado directamente a la computadora, por medio de un

L

sistema de conversión analógico/digital.

c L-.

c L

IMAGENES MEDICAS

c

L

En el área médica las principales fuentes de imágenes digitales son la Tomografía

c

Computarizada (TC),Radiografía Computarizada (RC),lmágenes de Resonancia

i P Li

L r!L

Magnética(1RM)y Medicina Nuclear. Existen otras fuentes cuya información no es digital(p1acas de R-X, ultrasonido, fluoroscopía, etc.),pero su digitalización es factible. En TC, se aísla una sección transversal de un cuerpo tridimensional (paciente) a través del movimiento sincronizado de un tubo de rayos X y un grupo de detectores, que sensan la cantidad de radiación absorbida por el cuerpo.

Las imágenes se producen con proyecciones desde diferentes ángulos . Una computadora se encarga de formar la imagen asignando a cada punto un valor de absorción, que posteriormente es transformado a un tono de gris, formando la imagen digital. En RC se obtienen imágenes radiológicas por medio de una placa de fósforo, que produce luminiscencia cuando incide en ella la radiación X después de haber atravesado el cuerpo del paciente. La placa reside dentro de un cartucho físicamente similar al utilizado en radiografía convencional, lo cual permite su uso con los equipos de rayos X existentes, además de que es reusable. Una vez registrada la imágen, la placa es removida del cartucho y expuesta a una exploración con un haz I ser para liberar la imagen latente, registrándola en forma dgital. La placa de fósforo es entonces borrada exponiéndola a la luz brillante y el cartucho puede volverse a utilizar. IRM se basa en la respuesta en resonancia se obtiene de los núcleos de átomos que contienen un número impar de protones o neutrones , de tal forma que al aplicar un campo magnético estático e intenso y un campo de radio frecuencia (RF), su espín y momento magnético hace que se comporten como imanes giratorios.

AI trabajar con cuerpos de estructura heterogénea (tejidos de un paciente), se aplican campos magnéticos no uniformes en varias proyecciones. De esta forma partes en estudio, son registradas por las fuerza del campo magnético que se est, aplicando en diferentes direcciones, formando la distribución espacial de la señal de resonancia magnética(RM) Las proyecciones se combinan para obtener una imagen en dos dimensiones. El método de reconstrucción es muy similar al utilizado en TC, para obtener finalmente una imagen digital. Las imágenes obtenidas en medicina nuclear consisten en el conteo externo de radio-isótopos, para detectar y mostrar la distribución de materiales radioactivos administrados dentro del cuerpo humano.

La instrumentación para la obtención de imágenes, consiste en un sistema que cuenta la emisión de radio-isótopos asociado a coordenadas físicas, detectando la radiación incidente en cada coordenada. Posteriormente se asignan los niveles de gris a cada coordenada, obteniéndose una imagen de la región en estudio. La imagen obtenida puede requerir de algún tipo de procesamiento, debido a que aparece moteada.

FUNDAMENTOS DE IMAGENES DIGITALES

Conceptos básicos

Imagen Digital y Pixel Una imagen puede representarse como una función bidimensional de intensidades de luz f(x,y), donde x,y i R denotan las coordenadas espaciales de un punto y el valor f(x,y) corresponde a la intensidad (o nivel de gris) de la imagen en dicho punto. En la representacióndigital de f(x,y),x,y i N denotan los índices de un arreglo bidimensional, cuyos valores identifican la posición de un punto de la imagen, cuyo contenido corresponde al nivel de gris cuantizado en ese punto. Los elementos de este arreglo bidimensional son llamados elementos de imagen o pixeles. Un proceso aplicado a una imagen representada como una función de dos variables independientes (x,y),puede expresarse con la ecuación

donde f(x,y) es la imagen de entrada, g(x,y) la imagen de salida y Hun operador.

El operador H puede ser lineal e invariantea la posición. Se dice que H es lineal si cumple con:

para dos imágenes de entrada f l y f2, donde a l y a2 son constantes arbitrarias H es invariante a la posición si:

donde k,/ 1N son desplazamientos arbitrarios. Esta representación de una imagen digital pertenece al do minio espacial . Una imagen también puede representarse en el dominio de las frecuencias aplicándole el operador

transformada de Fourier.

Conectividad

En una imagen digital al conjunto de los cuatro vecinos m s cercanos de un pixel de coordenadas (x,y) se le llama N4(p). Estos vecinos est n en las direcciones vertical y horizontal y tienen las coordenadas (x-1 ,Y),(X+l ,y),o(,y-l ),O(lY+l)

Los vecinos que se encuentran en las direcciones diagonales del pixel están a una distancia m12 veces mayor que sus vecinos N4 de p y el conjunto que los contiene se denomina ND(P).Sus coordenadas son

Por último, a la unión de ambos conjuntos se le llama Ns(p)=N4

Dos pixeles p y q tienen conectividad 4 si q pertenece al conjunto N4(p) y viceversa. De la misma manera tendrán conectividad 8 si q - Ns(p).

IMAGEN MULTIESPECTRAL Una imagen multiespectral se compone de varias imágenes monocromáticas, cada una de las cuales corresponde a una banda del espectro electromagnético. Por ejemplo, una imagen en color real se compone de tres imágenes; una contiene la información de la escena solo en la banda roja del espectro; otra la del azul, y la última la del verde. AI combinar las tres imágenes se forma una imagen en color. En otros casos, como en las imágenes de satélite, pueden tomarse bandas fuera del rango visible del espectro que sin embargo proporcionan informaciónvaliosa.

Transformaciones Geométricas Este tipo de trasformaciones cambian la relación espacial entre objetos dentro de una imagen, preservando alguna semblanza de orden. La expresión general para las transformaciones geométricas es:

donde (x' y' t )= M(x Y

Las coordenadas originales son (x,y) y (x',y') las restantes, M es una matriz de 3x3 que funciona como operador de transformación geométrica y t es un parámetro que no se usa en este contexto. En seguida se muestran las transformaciones geométricas más importantes:

Traslación Estas expresiones definen el movimiento de la imagen f(x,y) a una distancia lxO2+ y02-to de los objetos de la

'

o Oxo\ 1yo I O0 1

Reflexión respecto a un eje:

Iou :I

- Horizonta

-1O O

-Vertical

[:-;:J

1OO

Escalamiento La imagen puede ser escalada por un factor sx en la dirección x y por sy en la dirección y. El origen permanece sin cambios al aplicar la transformación.

Rotación La imagen es rotada a un ángulo Ú con respecto a su origen

i

~osú -SenúO O Senú ~ o s ú

k

O

O

1 1

La ventaja de esta representación matricial de un operador de transformación geométrica, es que en una sola matriz se pueden combinar varias transformaciones por medio del producto matricial. Por ejemplo, se pueden combinar la traslación con la rotación para obtener una rotación respecto a un punto arbitrario. Los niveles de gris de la imagen de entrada f(x,y) son definidos Únicamente en valores enteros de x y y ; sin embargo alguna operación de transformación espacial puede provocar que los niveles de gris para la imagen de salida g sean tomadas de fen coordenadas no enteras.

'

Elementos básicos de un sistema de PDI Los elementos básicos de un sistema de PDI son: I. Adquisición (cámaras de vídeo, scaners, u otros sensores).

,. 2. Almacenamiento (memoria de una computadora, dispositivos magnéticos y

ópticos) 3. Despliegue (monitor de video, impresoras).

4. Procesamiento (CPU y procesadorgráfico).

Adquisición

La mayoría de los sistemas artificiales de imágenes producen imágenes analógicas en víceo, as cuales deben ser digitalizadas con un convertidor AID apropiado. En general un digitalizador consta de las siguientes fases: Muestreo. La imagen analógica debe de ser muestreada en un número finito de elementos, los cuales pueden localizarse en un sistema de coordenadas plano dentro de las dimensiones de la imagen. El número de elementos en que es dividida la imagen depende de la información que se desee conservar contenida en la escena. Cada elemento corresponde al objeto más pequeño que es capaz de discernir el sistema. El tamaño de este objeto , también llamado cuerpo instantáneo de vista (C IV),define la resolución del sistema. A mayor resolución mayor es el contenido informativo de la imagen.

Cuantización. La información de cada elemento de la imagen se traduce a una señal eléctrica. En un proceso de conversión AID, el rango total de la señal se divide en un número finito de pasos uniformemente distribuidos, de modo que a cada elemento de imagen le corresponde un valor entero.

Ilustración 1

Almacenamiento AI llegar a este paso la imagen completa puede ser almacenada en la memoria de

una computadora digital para su manipulacióny procesamiento .Una imagen con

256 niveles de gris requiere un byte(8 bits), por elemento de imagen. Esto significa que una imagen de 512x512 requiere de 256 kbytes para su almacenamiento.

Despliegue

Actualmente existen varias opciones en cuanto a tecnologías de pantallas de vídeo. La más común es la de tubos de rayos catódicos (CRT), que utiliza un haz de electrones para barrer y excitar una pantalla de fósforo produciendo puntos de luz de intensidad proporcional al nivel de gris correspondiente a cada punto . Las tecnologías de estado sólido (pantallas planas) desarrolladas actualmente, están reduciendo el dominio del CRT. Las pantallas planas de cristal líquido y de plasma requieren un sólo barrido para desplegar una imagen. Sin embargo al modificarse un solo pixel es necesario barrer de nuevo la pantalla. Tanto los CRT como las pantallas planas requieren tecnología especializada para realizar la conversión primitiva de barrido a un mapeo de pixeles y así poder realizar operaciones tipo raster, tales corno copiar, mover y modificar pixeles o bloques de ellos . A este sistema se le conoce como procesador de despliegue gráfico o controlador gráfico. Para el almacenamiento en memoria de cada pixel lo más común es utilizar 8 bits para 256 niveles de gris. Para imagenes a color se tendrían 8 bits para cada color primario. Esto demanda memoria para una imagen de tamaño regular. Para salvar este problema, los controladoresde vídeo incluyen una tabla de color.

Tablas de color Las tablas de color, o LTU(Look-Up-Table), son dispositivos de memoria que contienen tantas entradas como valores de pixeles existen. El valor del pixel representa un índice de la LUT cuyos valores se utilizan para controlar la

w

intensidad o color del CRT. Por ejemplo un valor de pixel igual a 67 causará que el contenido de la tabla en el índice 67 sea accesado y utilizado para controlar la intensidad del haz del CRT. Esta operación es realizada para cada pixel de la imagen , de manera que la tabla debe de ser accesada rápidamente. El uso de LUT's es especialmente útil para cambiar la apariencia de la imagen de manera muy rápida sin necesidad de cambiar su información, ya que éstas trabajan directamente sobre los dispositivos de despliegue. El ojo humano es capaz de distinguir un número muy reducido de niveles de gris,

unos 20 ó 30 ;sin embargo puede alcanzar a distinguir miles de colores.Los despliegues en falso-color o pseudo-color son por lo tanto una manera muy poderosa de acentuar pequeñas variaciones de intensidades, utilizando una LUT que representa el nivel de gris en color. Por ejemplo , una imagen de color real que normalmente requiere 3 bytes por pixel puede almacenarse con un byte por pixel más su LUT, con lo cual ocupa un mínimo de la parte de lo que ocuparía de otro modo. Cada entrada de la LUT tiene 24 bits por lo que se puede seleccionar un color entre 16 millones (224) de posibilidades.

Modelos de Color El procesamiento de imágenes a color se divide en dos áreas principales: color real(ful1 color) y pseudo-color. En la primera categoría, las imágenes en cuestión son adquiridas con sensores de color real, como las cámaras de TV o los scaners de color. En la segunda categoría ,, el problema se reduce a asignar un color a una intensidad de gris particular o a un rango de ellas, como se explicó anteriormente. Las técnicas de procesamiento en color real han tenido un auge significativo y se emplean en una gran variedad de aplicaciones. ry

c i .

P

El propósito de un modelo de color es facilitar la especificación de colores de una

manera estándar. En esencia un modelo de color es una especificación de un

subespacio ; en un sistema de coordenadas 3-D cuyos ejes son los tres colores primarios. La mayoría de los modelos de color ; hoy en día se orientan hacia el hardware(monitoresde color o impresoras)o a aplicaciones gráficas. Los modelos orientados al hardware más comunes son el RGB (red, green, blue) para vídeo a color; el CMY(cyan, magenta, yellow) para impresora de color; y el YIQ en estándares de

lV a color. Entre los modelos orientados al software están el

HSl(hue, saturation, intensity) y el HSV(hue, saturation, value). Los modelos de color que más se utilizan en el PDI son el RGB,YIQ , y el HSI.

Procesamiento

Los elementos de procesamiento son los métodos empleados para modificar una imagen. Algunos elementos importantes del procesamiento son la razón de ser de estas notas.

HISTOGRAMA Todas las manipulaciones que se hacen a nivel del histograma corresponden a transformaciones en el espacio de coordenadas y se consideran como procesos puntuales. El histograma de una imagen digital con niveles de gris en el rango de [O,L-I],

donde L es el número total de niveles de gris en una función discreta de la forma p(rk)=nk/n,donde rk es el k-ésimo nivel de gris, nk es el número de pixeles de la imagen con ese valor de gris es el número total de pixeles de la imagen, y k=[0,1...,L-I]. En forma general, se dice que p(rk) representa una estimación de la

probabilidad de ocurrencia de un nivel de gris rk. Supóngase que el número de niveles de gris de una imagen es L=8 por lo que k= [0,1,..,7] y su tamaño en

pixeles es de 64x64, es decir n=4096. La construcción del histograma consiste en contar de la imagen cuántos pixeles tienen un valor de gris O, cuántos un valor de gris l,y as; sucesivamente; si se encontró por ejemplo, que la imagen tiene no = 459 con valor de gris O, entonces la probabilidad de que en la imagen existan pixeles con valor rk=O es p(O)=459/4096=0.112, esto se repite para todos los valores de k; la gráfica se construye disponiendo los valores de grises en el eje de las abscisas y las probabilidades correspondientes p(rk) en el eje de las ordenadas. Un gráfico de una función , para todos los valores de k, nos da una descripción global de la apariencia de la imagen. A continuación se muestran histogramas de cuatro tipos básicos de imágenes. El histograma de la fig 3.1 (a) muestra que los niveles de gris están concentrados

hacia la parte inferior del rango de valores ,

por lo que este histograma

corresponde a una imagen con características oscuras. Ocurre exactamente lo opuesto en la figura 3.l(b).El histograma de la figura 3.1(c) muestra una banda angosta, que indica un rango pequeño de valores, lo cual corresponde a una imagen con contraste bajo. El contraste indica la relación de brillantez de un objeto con su entorno. Como casi todos los valores ocurren en la parte media de la escala, la imagen aparecerá prácticamente gris. Finalmente la figura 3.1 (d) muestra un histograma con una anchura significativa, esto corresponde a una imagen altamente contrastada.

L

Figura 3.1:

Ilustración 2

Modificación al Histograma

Unos de los procesamientos más sencillos que se aplican a una imagen es la modificación del histograma, cuyo efecto es el realce del contraste en la imagen. La modificación al histograma se realiza aplicando sobre la imagen un operador lineal T que representa una función de transformaciónde niveles de gris y es de la forma

s=T(r) en donde por simplicidad en la notación r y s son variables que denotan los niveles de gris de la imagen de entrada y salida en el punto (x,y), respectivamente. La función de transformación T(r) puede adoptar varias formas , e indica un mapeo de un rango de niveles de gris de entrada , a otro de salida. Por ejemplo ,

una imagen digital negativa se obtiene utilizando la función de transformación s=T(r)donde L es el número de niveles de gris. La idea es invertir el orden en la asignación de niveles de gris a los pixeles de una imagen. Por ejemplo, si tenemos una imagen de 8 niveles de gris, L=8 y k=[0,1,...,71; aplicando la función de transformación s=T(r)=r+7,obtendremos valores de s=[7,6,...,O] por lo que

todos los pixeles que tenían un valor de gris igual a O tendrán ahora un valor de gris igual a 7 y así sucesivamente.

Igualación del Histograma Sea r una variable que representa los niveles de gris de la imagen a ser realzada; asumamos que los valores de los pixeles son cantidades continuas que han sido normalizadasde manera que caen en el intervalo de [0,1], con r=O representando al negro y r=l representando al blanco(es decir L= 2).

Después haremos la

consideración discreta que permite que los valores de los pixeles estén en el intervalo [O,L-11. Para cualquier r en el intervalo [0,1] enfocaremos nuestra atención en funciones de transformación de la forma: s=T(r) con nivel de gris de salida s para cada pixel de valor r en la imagen origina1.S los niveles de gris originales y transformados se represen tan como variables continuas , se pueden caracterizar por sus funciones de densidad de probabilidad p&r)y ps(s), respectivamente Con base en la teoría elemental de probabilidad, si

p&r) y T(r) son conocidas y T-I(s) satisface la condición (T(r)tiene un único valor y crece monótonamente en el intervalo O

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.