1 / 53

Capítulo 7 Generación de Procesos Estocásticos Departamento de Informática

Capítulo 7 Generación de Procesos Estocásticos Departamento de Informática Universidad Técnica Federico Santa María. Introducción.

Download Presentation

Capítulo 7 Generación de Procesos Estocásticos Departamento de Informática

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Capítulo 7 Generación de Procesos Estocásticos Departamento de Informática Universidad Técnica Federico Santa María Simulación/2002 Héctor Allende 1

  2. Introducción • Las características de un fenómeno aleatorio puede ser descrito a través de la distribución de probabilidad de una variable aleatoria que representa el fenómeno. • En la teoría de probabilidad, las propiedades estadísticas de un fenómeno aleatorio que ocurre de manera aleatoria respecto al tiempo o al espacio no son considerados. Simulación/2002 Héctor Allende 2

  3. Introducción • Ejemplos de fenómenos aleatorios en el tiempo: • -Imagen Biomedica, Imagen SAR • -Comportamiento de una onda en el oceano. • -Demanda de energia de cuidad o región geografica • -Volatilidad de los ADR • -Movimiento de una partícula en un campo magnetico • -Emisión de fuentes radioactivas • -Vibración de un edificio, causada por un movimiento sísmico Simulación/2002 Héctor Allende 3

  4. Proceso Estocástico • Definición: Una familia de variables aleatorias x(t) donde t es el parámetro perteneciente a un conjunto indexado T es llamado un proceso estocástico (o proceso aleatorio), y se denota por: Nota: También es definido como: siendo en el mismo espacio de probabilidad Simulación/2002 Héctor Allende 4

  5. Proceso Estocástico • Observación • Si t es fijo, x( ) es una familia de variables aleatorias. (“ensemble”). • Para  fijo, x(t) es una función del tiempo llamada “función muestrada”. Simulación/2002 Héctor Allende 5

  6. Proceso Estocástico • Estado y tiempo discreto y continuo. Simulación/2002 Héctor Allende 6

  7. Función de Medias 1. Sea un proceso estocástico, se llama función de medias: Obs: se dice que es un proceso estocástico estable en media. Simulación/2002 Héctor Allende 7

  8. Función de Varianzas 2. Sea un proceso estocástico, se llama función de varianzas: Obs: se dice que es un proceso estocástico estable en varianza. Simulación/2002 Héctor Allende 8

  9. Función de Autocovarianzas 3. Sea un proceso estocástico, se llama función de varianzas: Simulación/2002 Héctor Allende 9

  10. Función de Autocorrelación 3. Sea un proceso estocástico, se llama función de varianzas: Simulación/2002 Héctor Allende 10

  11. Función de Autocovarianza • La función de Autocovarianza de un proceso estocástico viene dado por: donde • Si está en función de las diferencias de tiempo: Simulación/2002 Héctor Allende 11

  12. Distribución conjunta finito dimensional • Sea un espacio de probabilidad y un conjunto de índices T, y un proceso estocástico. El sistema: es una “Distribución conjunta finito dimensional” Simulación/2002 Héctor Allende 12

  13. Proceso estocástico de 2° orden • Sea X un proceso estocástico, se dice de 2° orden ssi el segundo momento es finito es decir, o sea Simulación/2002 Héctor Allende 13

  14. Proceso Estacionario OBS:Las características de un proceso aleatorio son evaluados basados en el ensemble. a) Proceso Estocástico Estacionario Estricto: • Si la distribución conjunta de un vector aleatorio n-dimensional, • y • es la misma para todo  , entonces el proceso • estocástico x(t) se dice que es un proceso estocástico estacionario (o estado estacionario). • Es decir, las propiedades estadísticas del proceso se mantienen invariante bajo la traslación en el tiempo. Simulación/2002 Héctor Allende 14

  15. Proceso Estacionario b) Proceso Estocástico Evolucionario: • Un proceso estocástico no estacionario se llama • evolucionario c) Proceso Estocástico Débilmente Estacionario: • Un proceso estocástico se dice débilmente estacionario • (o estacionario en covarianza) si su función de valor • medio es constante independiente de t y su función de • autocovarianza depende de la diferencia de los • Argumentos. • E[x(t)]=c ii) Cov[x(t),x(t+)] = h() para todo t. Simulación/2002 Héctor Allende 15

  16. Proceso Ergódico • Un proceso estocástico x(t) se dice que es un proceso ergódico si el tiempo promedio de un simple registro es aproximadamente igual al promedio de ensemble. Esto es: Simulación/2002 Héctor Allende 16

  17. Proceso Ergódico • En general, las propiedades ergódicas de un proceso estocástico se asume verdadera en el análisis de los datos observados en ingeniería, y por lo tanto las propiedades estadísticas de un proceso aleatorio puede ser evaluado a partir del análisis de un único registro. Simulación/2002 Héctor Allende 17

  18. Proceso de Incrementos Independientes • Un proceso estocástico x(t) se dice que es un proceso de incrementos independientes si , i= 0,1,…, es es estadísticamente independiente (i.e., Estadísticamente no correlacionado). • Sea el proceso estocástico x(t) se dice un proceso estacionario de incrementos independientes. Entonces, la varianza de los incrementos independientes , donde es proporcional a Simulación/2002 Héctor Allende 18

  19. Proceso de Markov • Un proceso estocástico x(t) se dice que es un proceso de Markoviano si satisface la siguiente probabilidad condicional: • Cadena de Markov: Proceso de Markov con estado discreto. • Proceso de Difusión: Proceso de Markov con estado continuo. Simulación/2002 Héctor Allende 19

  20. Proceso de Markov • La ecuación anterior puede ser escrita como: entonces se tiene: • Obteniendosé Simulación/2002 Héctor Allende 20

  21. Proceso de Markov • Conclusión: • La función de densidad de probabilidad conjunta • de un proceso de Markov puede ser expresado por • medio de las densidades marginales y • Un conjunto de funciones de densidad de probabilidad • condicional ,se llama densidad de • probabilidad de transición. • Un proceso de Markov se dice homogéneo en el tiempo si la densidad de probabilidad de transición es invariante en el tiempo : Simulación/2002 Héctor Allende 21

  22. N(t) 4 3 2 1 0 Intervalos de tiempo entre sucesivas ocurrencias t1 t2 t3 Time T1 T2 T3 T4 Proceso de Conteo • Un proceso estocástico de tiempo continuo y valores enteros se llama proceso de conteo de la serie de eventos si N(t) representa el número total de ocurrencias de un evento en el intervalo de tiempo [0 ; t] Simulación/2002 Héctor Allende 22

  23. Proceso de Conteo • Proceso de Poisson: Proceso de renovación en la cual los tiempos entre llegadas obedecen una distribución exponencial. • Proceso de renovación (Renewal Process): • Los tiempos entre llegadas son v.a. i.i.d. con alguna ley de • probabilidades F • Proceso Guassiano • Proceso de Wiener • Proceso de Bernoulli Simulación/2002 Héctor Allende 23

  24. Proceso Normal o Gaussiano • Un proceso estocástico x(t) se dice que es un proceso gaussiano si para cualquier tiempo t, la variable aleatoria x(t) tiene distribución Normal. Nota: Un proceso normal es importante en el análisis estocástico de un fenómeno aleatorio observado en las ciencias naturales, ya que muchos fenomenos aleatorios Pueden ser representados aproximadamente por una densidad de probabilidad normal Ejemplo: Movimiento de la superficie del oceano. Simulación/2002 Héctor Allende 24

  25. Proceso de Wiener-Lévy • Un proceso estocástico x(t) se dice que es un proceso de Wiener-Lévy si: i) x(t) tiene incrementos independientes estacionarios. ii) Todo incremento independiente tiene distribución normal. iii) E[x(t)]=0 para todo el tiempo. iv) x(0)=0 • Este proceso se conoce en el mundo fisíco comomovimiento Browniano y juega un importante papel en la descripción del movimiento de pequeñas particulas inmersas en un líquido o gas. • Se puede demostrar que la varianza de un proceso Wiener-Lévy aumenta linealmente con el tiempo. Simulación/2002 Héctor Allende 25

  26. Proceso de Poisson • Un proceso de conteo N(t) se dice que es un proceso de Poisson con razón media (o con intensidad)  si: i) N(t) tiene incrementos independientes estacionarios. ii) N(0)=0 iii) El número de la longitud  en cualquier intervalo de tiempo está distribuido como Poisson con media . Esto es: también se conoce como proceso de incremento de Poisson. Simulación/2002 Héctor Allende 26

  27. Proceso de Poisson • Para un proceso estocástico de incrementos independientes, se tiene la siguiente función de autocovarianza: • Si x(t) tiene distribución de Poisson, entonces: Por lo tanto un proceso de incremento de Poisson es estacionario en covarianza. Simulación/2002 Héctor Allende 27

  28. Proceso de Bernoulli • Considerar una serie de intentos independientes con dos salidas posibles: éxito o fracaso. Un proceso de conteo Xn se llama proceso de Bernoulli si Xn representa el número de éxitos en n ensayos. Si p es la probabilidad de éxito, la probabilidad de k éxitos dado n ensayos está dado por la distribución binomial: Simulación/2002 Héctor Allende 28

  29. Proceso Ruido Blanco • Sea un p.e., se llama ruido blanco ssi: • i ) • ii) • El ruido blanco es un proceso estocástico estacionario • Si , en tal caso el ruido blanco se dice Gaussiano. • Si son independientes entonces es ruido blanco puro Simulación/2002 Héctor Allende 29

  30. Proceso de Medias Móviles • Sea un p.e., se dice de media móvil de orden q ssi: donde y es ruido blanco. • Notación: Simulación/2002 Héctor Allende 30

  31. Proceso Autoregresivo • Sea un p.e., se dice autoregresivo de orden p ssi: donde y es ruido blanco. • Notación: Simulación/2002 Héctor Allende 31

  32. Proceso ARMA • Sea un p.e., se dice autoregresivo de media móvil de orden (p,q) ssi: donde y es ruido blanco. • Notación: Simulación/2002 Héctor Allende 32

  33. Proceso de Banda-Angosta • Un proceso estocástico de tiempo continuo y estado estacionario x(t) es llamado un proceso de banda angosta si x(t) puede ser expresado como: donde 0 = constante . La amplitud A(t), y la fase (t) son variables aleatorias cuyo espacio de muestreo son 0A(t)   y 0  (t)  2, respectivamente. Simulación/2002 Héctor Allende 33

  34. Generación de Procesos Estocásticos Generación de Procesos Estocásticos Generación de Familias de v.a. {Xt}t T Comenzaremos con las cadenas de Markov homogéneas. Cadena de Markov en Tiempo Discreto Para generar una cadena de Markov con espacio de estado S y matriz de transición P = [pij] donde pij = P(Xn+1=j / X = i). La forma más simple de simular la transición (n+1)-ésima, conocida Xn, es generar Xn+1~{pxnj : j  S} Simulación/2002 Héctor Allende 34

  35. Generación de Procesos Estocásticos Alternativamente se puede simular Tn, el tiempo hasta el siguiente cambio de estado y, después el nuevo estado Xn+Tn. Si Xn = s, Tn ~ Geo(pss) y Xn+Tn tiene una distribución discreta con cuantía {psj / (1 - pss) : j  S \ {s}}. Para muestrear N transiciones de la cadena suponiendo Xo = io Algoritmo Hacer t=0, Xo = io Mientras t < N Generar h ~ Geo(pxtxt) Generar Xt+h ~ {pxtj / (1 - pxtxt) : j  S \ {s}}. Hacer t=t+h Simulación/2002 Héctor Allende 35

  36. Generación de Procesos Estocásticos OBS. 1) La primera forma de simular una cadena de Markov, que corresponde a una estrategia sincrónica, es decir en la que el tiempo de simulación avanza a instantes iguales. 2) La estrategia asincrónica es más complicada de simular [Ver. B. Ripley 1996] Simulación/2002 Héctor Allende 36

  37. Generación de Procesos Estocásticos Cadenas de Markov en Tiempo Continuo La simulación asincrónica de cadenas de Markov en tiempo continuo es sencilla de implantar. - Las cadenas de Markov de Tiempo Continuo vienen caracterizadas por los parámetros vi de las distribuciones exponenciales de tiempo de permanencia en el estado i y la matriz de transición P; con pii = 0; pij = 1 - Sea Pi la distribución de la fila i-ésima. Entonces si Xo= io, para simular hasta T se tiene : Simulación/2002 Héctor Allende 37

  38. Generación de Procesos Estocásticos Algoritmo Hacer t = 0, Xo = io , j = 0 Mientras t < N Generar tj ~ exp(vxj) Hacer t = t + tj Hacer j = j + 1 Generar Xj ~ Pxj-1 Simulación/2002 Héctor Allende 38

  39. Generación de Procesos Estocásticos • Proceso de Poisson • En el Proceso de Poisson P(), el número de eventos NT en un intervalo (0,T) es P(T) y los NT ~ U(0,T) • Algoritmo • Generar NT ~ P(T) • - Generar U1, ..., UT ~ U(0,T) Simulación/2002 Héctor Allende 39

  40. Generación de Procesos Estocásticos 1) Para procesos de Poisson no homogéneos, con intensidad (t) y u(t) = (s) ds . Entonces - Generar NT ~ P(u(t)) - Generar T1, T2 ,..., TNT ~ 2) Los procesos de Poisson son un caso particular de los procesos de renovación. La forma de generar los primeros se extiende a los procesos de renovación. Simulación/2002 Héctor Allende 40

  41. Generación de Procesos Estocásticos - Sean S0 = 0, S1, S2, ... Los tiempos de ocurrencia - Ti = Si - Si-1 los tiempos entre sucesos. - Para un proceso de renovación, los Ti son v.a.i.i.d. según cierta distribución . - Simular hasta el instante T. Hacer S0 = 0 Mientras Si < T Generar Ti ~  Hacer Si = Ti + Si-1 Hacer i = i + 1 Simulación/2002 Héctor Allende 41

  42. Generación de Procesos Estocásticos • Procesos no Puntuales (Movimiento Browniano) • - La simulación de procesos (no puntuales) en tiempo continuo es más complicada que la simulación de procesos puntuales. • Una solución es generar procesos en suficientes instantes discretos y aproximar la trayectoria por interpolación. Simulación/2002 Héctor Allende 42

  43. Generación de Procesos Estocásticos • Como ejemplo, consideremos el movimiento Browniano con parámetro 2 • - X0 = 0 • - Para s1 t1 s2  t2 .....  sn  tn las v.a. • Xt1 - Xs1, ..., Xtn - Xsn son independientes • - Para s < t, Xt - Xs ~ N(0, (t-s) 2) • Las trayectorias son continuas Simulación/2002 Héctor Allende 43

  44. Generación de Procesos Estocásticos Entonces para t fijo, Hacer X0 = 0 Desde i = 1 hasta n Generar Yi ~ N(0, (t-s) 2) Hacer Xit = X(i-1)t + Yi Interpolar la trayectoria en {(it, Xit)} Otros ejemplos de Simulación de Procesos continuos [Ver B. Ripley 1987] Simulación/2002 Héctor Allende 44

  45. Generación de Procesos Estocásticos El Proceso de Gibbs El creciente interés en los métodos de cadenas de Markov, se debe al uso en Inferencia Bayesiana del Muestrador de Gibbs. [Geman and Geman (1984)] Ejemplo: Sean (X,Y) v.a.d. Bernoulli con distribución x y P(X,Y) 0 0 p1 1 0 p2 0 1 p3 pi > 0 1 1 p4 Simulación/2002 Héctor Allende 45

  46. Generación de Procesos Estocásticos P(X=1) = p2 + p4 (Marginal) P(X/Y=1) = P(X=1/Y=1) = Las Distribuciones condicionales Simulación/2002 Héctor Allende 46

  47. Generación de Procesos Estocásticos Algoritmo Escoger Y0 = y0 , j =1 Repetir Generar Xj ~ X/Y = yj-1 Generar Yj ~ Y/X = xj j=j+1 Entonces {Xn} define una cadena de Markov con matriz de transición A = Ayx Axy Simulación/2002 Héctor Allende 47

  48. Generación de Procesos Estocásticos Como las probabilidades pi > 0, la cadena es ergódica y tiene distribución límite, que es la marginal de X XnX ; YnY ; (Xn, Yn) (X,Y) 1) El procedimiento descrito se llama muestrador de Gibbs [Gibbs Sampler] y nos proporciona una cadena de Markov, con distribución límite deseada y se puede generalizar. Para muestrear un vector aleatorio p-variante X = (X1, X2, ..., Xp) con distribución , conociendo las distribuciones condicionadas Xs/Xr, r  s Simulación/2002 Héctor Allende 48

  49. Generación de Procesos Estocásticos Sea  (xs/xr, r  s) Distribución Condicionada El [Gibbs Sampler] en este caso es - Escoger X10, X20,..., Xp0 ; j = 1 Repetir Generar X1j ~ X1/ X2j-1,..., Xpj-1 Generar X2j ~ X2/ X1j, X3j-1,..., Xpj-1 .... Generar Xpj ~ Xp/ X1j, X2j,..., Xp-1j j = j+1 Simulación/2002 Héctor Allende 49

  50. Generación de Procesos Estocásticos Se puede verificar que Xn = (X1n, X2n,..., Xpn) define una cadena de Markov con Matriz de transición Pg(Xn, Xn+1) = Bajo condiciones suficientemente generales [Ver Roberts Smith (1994)] Simulación/2002 Héctor Allende 50

More Related