Tuesday 19 September 2017

Forexworld Moto Browniano


moto browniano moto browniano, anche chiamato moto browniano. uno qualsiasi dei vari fenomeni fisici in cui una certa quantità è costantemente subendo piccole fluttuazioni casuali. È stato chiamato per il botanico scozzese Robert Brown. i primi a studiare tali fluttuazioni (1827). (Sinistro) Il movimento casuale di una particella browniano (destra) discrepanza casuale tra molecolare Se un numero di particelle soggette al moto browniano sono presenti in un dato mezzo e non vi è alcuna direzione preferenziale per le oscillazioni casuali, poi per un periodo di tempo la particelle tenderanno ad essere diffuso in modo uniforme in tutto il mezzo. Così, se A e B sono due regioni adiacenti e, al tempo t. A contiene il doppio delle particelle come B. in quell'istante la probabilità di particelle a lasciare A per entrare B è due volte più grande come la probabilità che una particella lascerà B per entrare A. Il processo fisico in cui una sostanza tende a diffondersi costantemente da regioni ad alta concentrazione regioni di concentrazione inferiore è chiamato diffusione. Diffusione può quindi essere considerata una manifestazione macroscopica del moto browniano a livello microscopico. Così, è possibile studiare diffusione simulando il moto di una particella browniano ed elaboratori suo comportamento medio. Alcuni esempi dei numerosi processi di diffusione che si studiano in termini di moto browniano includono la diffusione di inquinanti attraverso l'atmosfera. la diffusione di fori (regioni minuti in cui il potenziale carica elettrica è positivo) attraverso un semiconduttore. e la diffusione di calcio attraverso il tessuto osseo in organismi viventi. I primi accertamenti Teoria di Einstein di Motion1 browniano. Browniano Motion Theory Basic Standard Nel 1827, il botanico Robert Brown ha notato che minuscole particelle di polline, quando sospeso in acqua, esposti moto continuo, ma molto nervosa e irregolare. Nel suo anno di miracolo nel 1905, Albert Einstein ha spiegato il comportamento fisico, mostrando che le particelle erano costantemente bombardati dalle molecole d'acqua, e contribuendo così a stabilire saldamente la teoria atomica della materia. moto browniano come un processo casuale matematico è stato costruito nel modo rigoroso di Norbert Wiener in una serie di articoli a partire dal 1918. Per questo motivo, il processo moto browniano è anche noto come il processo di Wiener. Eseguire le bidimensionali simulazione moto browniano più volte in modalità single-step per avere un'idea di ciò che il signor Brown potrebbe aver osservato sotto il microscopio. Insieme con il processo di prove di Bernoulli e il processo di Poisson. il processo di moto browniano è di fondamentale importanza in probabilità. Ognuno di questi processi si basa su una serie di ipotesi idealizzate che portano ad una ricca teoria mathematial. In ogni caso anche, il processo viene utilizzato come un blocco di costruzione per una serie di processi casuali correlati che sono di grande importanza in una varietà di applicazioni. In particolare, il moto browniano e processi correlati sono utilizzati in applicazioni che vanno dalla fisica alla statistica all'economia. Definizione Una moto browniano standard è un processo casuale (bs) con spazio di stato (R) che soddisfa le seguenti proprietà: (X0 0) (con probabilità 1). (Bs) ha incrementi stazionari. Cioè, per (s, t in 0, infty)) con (s lt t), la distribuzione di (Xt - Xs) è uguale alla distribuzione di (X). (Bs) ha incrementi indipendenti. Cioè, per (T1, T2, ldots, Tn a 0, Infty)) con (t1 t2 lt lt lt cdots tn), le variabili casuali (X, X - X, ldots, X - X) sono indipendenti. (Xt) è distribuita normalmente con media 0 e varianza (t) per ogni (t a (0, infty)). Con probabilità 1, (t mapsto Xt) è continua su (0, infty)). Per comprendere le ipotesi fisicamente, consente di dare uno alla volta. Supponiamo di misurare la posizione di una particella browniano in una dimensione, da un tempo arbitrario, che indichiamo come (t 0), con la posizione iniziale designato come (x 0). Quindi questa ipotesi è soddisfatta per convenzione. Infatti, di tanto in tanto, la sua comoda per rilassarsi questa ipotesi e consentire (X0) per avere altri valori. Questa è una dichiarazione di tempo omogeneità. le dinamiche sottostanti (ossia la scossoni della particella dalle molecole di acqua) non cambiano nel tempo, quindi la distribuzione dello spostamento della particella in un intervallo di tempo (s, t) dipende solo dalla lunghezza dell'intervallo di tempo. Questo è un presupposto idealizzato che detengono circa se gli intervalli di tempo sono grandi rispetto ai minuscoli tempi tra collisioni della particella con le molecole. Questo è un altro assunzione idealizzata basata sul teorema del limite centrale: la posizione della particella al tempo (t) è il risultato di un gran numero di collisioni, ciascuna facendo un piccolo contributo. Il fatto che la media è 0 è una dichiarazione di omogeneità spaziale. la particella non è più o meno probabilità di essere spintonato a destra rispetto alla sinistra. Avanti, ricordano che le ipotesi di incrementi stazionari, indipendenti significa che (var (Xt) sigma2 t) per qualche costante positiva (sigma2). Con un cambiamento di scala di tempo, si può supporre (sigma2 1), anche se prendiamo in considerazione moti browniani più generali nella sezione successiva. Infine, la continuità dei percorsi di campionamento è un presupposto essenziale, dal momento che stiamo modellando la posizione di una particella fisica come funzione del tempo. Naturalmente, la prima domanda che dovremmo porre è se esiste un processo stocastico soddisfare la definizione. Fortunatamente, la risposta è sì, anche se la prova è complicata. Esiste uno spazio di probabilità ((Omega, mathscr, P)) e un processo stocastico (bs) su questo spazio di probabilità soddisfare le assunzioni nella definizione. Le ipotesi nella definizione portano a un insieme coerente di distribuzioni di dimensione finita (che sono dati qui di seguito). Così da Kolmogorov esistenza teorema. esiste un processo stocastico (bs) che ha queste distribuzioni di dimensione finita. Tuttavia, (Bs) non ha percorsi campione continui, ma possiamo costruire da (bs) un processo equivalente che ha percorsi campione continui. In primo luogo ricordare che un binario razionale (o frazione diadica) a (0, infty)) è un numero della forma (k grande 2n), dove (k in N). Let (Q) denota l'insieme di tutti i numeri razionali binari in (0, infty)), e ricorda che (Q) è numerabile ma anche denso di (0, infty)) (cioè, se (t a 0, infty) setminus Q) allora esiste (tn in Q) per (n in n) tale che (tn a t) come (n per infty)). Ora, per (n in N), sia (Xn (t) Ut) if (t) è un razionale binario della forma (k grande 2n) per alcuni (k in N). Se (t) non è tale è un razionale binario, define (Xn (t)) mediante interpolazione lineare tra i razionali vicini binari di questo modulo su un lato di (t). Poi (Xn (t) ad U (t)) da (n per Infty) per ogni (t in Q), e con probabilità 1, la convergenza è uniforme su (Q tappo 0, T) per ciascun (T gt 0) . Ne deriva che (bs) è continua su (Q) con probabilità 1. Per l'ultimo passo, lasciare (Xt lim Us) per (t a 0, infty)). Il limite esiste dal (bs) è continua su (Q) con probabilità 1. Il processo (bs) è continua in (0, infty)) con probabilità 1, ed ha le stesse distribuzioni di dimensione finita come (bs). Eseguire la simulazione del processo di moto browniano standard di un paio di volte in modalità single-step. Notare il comportamento qualitativo dei percorsi campione. Eseguire la simulazione 1000 volte e confrontare la funzione di densità empirica ei momenti di (Xt) alla vera funzione di densità probabiltiy e momenti. Moto browniano come limite di Random Walks Chiaramente la dinamica di fondo della particella browniano essere bussato circa da molecole suggerisce una passeggiata casuale come un possibile modello, ma con piccoli passi temporali e piccoli salti spaziali. Let (bs (X0, X1, X2, ldots)) la simmetrica semplice passeggiata casuale. Così, (Xn somma n Ui) dove (bs (U1, U2, ldots)) è una sequenza di variabili indipendenti con (P (Ui 1) P (Ui -1) frac) per ogni (i in N). Ricordiamo che (E (Xn) 0) e (var (Xn) n) (n in N). Inoltre, poiché (bs) è il processo somma parziale associato con una sequenza IID, (bs) è stazionario, incrementi indipendenti (ma naturalmente in tempo discreto). Infine, ricordare che per il teorema del limite centrale, (Xn grande sqrt) converge alla distribuzione normale standard (n per Infty). Ora, per (h, d in (0, infty)) continuo bs processo tempo (t) a sinistra: t 0, infty) destra è un processo di salto con salti at () e con salti di dimensioni (pm d). In pratica vorremmo lasciare (h downarrow 0) e (d downarrow 0), ma questo non può essere fatto in modo arbitrario. Si noti che (EleftX (t) a destra 0), ma (varleftX (t) a destra d2 lfloor t h rfloor). Così, per il teorema limite centrale, se prendiamo (d sqrt) allora la distribuzione di (X (t)) convergeranno alla distribuzione normale con media 0 e varianza (t) come (h downarrow 0). Più in generale, si potrebbe sperare che tutti i requisiti nella definizione sono soddisfatti dal processo di limitazione, e se sì, abbiamo un moto browniano standard. Eseguire la simulazione del processo random walk per valori crescenti del (n). In particolare, eseguire la simulazione più volte con (n 100). Confrontare il comportamento qualitativo con il processo di moto browniano standard. Si noti che il ridimensionamento del random walk nel tempo e nello spazio è effecitvely compiuta da scalare gli assi orizzontale e verticale nella finestra del grafico. Finite le distribuzioni dimensionali Sia (bs) un moto browniano standard. Da parte (d), della definizione che (Xt) abbia funzione di densità di probabilità (ft) proposta dal ft (x) frac expleft (-frac destra), quad x in R Questa famiglia di funzioni di densità determina le distribuzioni di dimensione finita su (bs). Se (t1, t2, ldots, Tn a (0, infty)) con (0 lt t1 lt t2 cdots lt TN) poi ((x, x, ldots, x)) ha funzione di densità di probabilità (f) proposta dal (bs ) è un processo gaussiano con funzione medio significa funzione (m (t) 0) per (t 0, infty)) e la funzione di covarianza (c (s, t) min) per (s, t in 0, infty)). Il fatto che (bs) è un processo gaussiano segue perché (Xt) è distribuita normalmente per ogni (t T) e (bs) ha stazionario, incrementi indipendenti. La funzione di media è 0 per ipotesi. Per la funzione di covarianza, supponiamo (s, t a 0, Infty)) con (s Le t). Dal momento che (Xs) e (Xt - Xs) sono indipendenti, abbiamo COV (XS, XT) covleftXs, Xs (Xt - Xs) destro var (XS) 0 s Ricordiamo che per un processo gaussiano, la dimensione finita (multivariata normale) distribuzioni sono completamente determinate dalla funzione medio (m) e la funzione di covarianza (c). Pertanto, ne consegue che un moto browniano standard viene caratterizzato come un processo gaussiano continuo con le funzioni media e covarianza nell'ultimo teorema. Si noti, inoltre, che cor (Xs, Xt) frac sqrt, quad (s, t) a 0, infty) 2 possiamo anche dare i momenti più alti e la funzione generatrice dei momenti di (Xt). Per (n in N) e (t a 0, infty)), (Eleft (Xt destra) 1 CDOT 3 cdots (2 n - 1) tn (2 n) tn grande (n 2n)) (Eleft (Xt destra) 0) Dimostrazione: Questi momenti seguono da risultati standard, dal momento che (Xt) è distribuita normalmente con media 0 e varianza (t). Per (t a 0, infty)), (Xt) ha funzione generatrice dei momenti data dal Eleft (e destra) e, quad u in R Ancora una volta, questo è un risultato standard per la distribuzione normale. Semplici Trasformazioni Ci sono diverse trasformazioni semplici che conservano moto browniano di serie e ci darà spaccato alcune delle sue proprietà. Come al solito, il nostro punto di partenza è un moto browniano standard (bs). Il nostro primo risultato è che riflette i sentieri della (BS) nella linea (x 0) dà un altro moto browniano standard di Let (YT - xt) per (t ge 0). Poi (bs) è anche un moto browniano standard. Chiaramente il nuovo processo è ancora un processo gaussiano, con funzione di media (E (-xt) - E (Xt) 0) per (t a 0, infty)) e la funzione di covarianza (COV (-Xs, - xt) COV (Xs , Xt) min) per ((s, t) in 0, infty) 2). Infine, poiché (bs) è continua, così è (bs). Il nostro prossimo risultato è legato alla proprietà di Markov, che esploriamo in dettaglio più avanti. Se ricominciamo moto browniano in un momento fisso (s), e spostiamo l'origine (XS), poi abbiamo un altro moto browniano standard. Ciò significa che il moto browniano è sia temporalmente e spazialmente omogeneo. Fissare (s in 0, infty)) e definire (YT X - Xs) per (t ge 0). Poi (bs) è anche un moto browniano standard. Poiché (bs) è stazionario, incrementi indipendenti, il processo (bs) è equivalente a distribuzione (bs). Chiaramente anche (Bs) è continuo in quanto (bs) è. Il prossimo risultato è una semplice inversione del tempo, ma per indicare questo risultato, dobbiamo limitare il parametro di tempo per un intervallo limitato di forma (0, T), dove (T gt 0). L'estremità superiore (T) è talvolta indicato come un orizzonte tempo finito. Si noti che () soddisfa ancora la definizione. ma con i parametri di tempo limitato a (0, T). Definire (YT X - XT) per (0 Le t Le T). Poi (bs a sinistra) è anche un moto browniano standard su (0, T). (Bs) è un processo gaussiano, poiché una finita, combinazione lineare di variabili da questo processo riduce ad un insieme finito, combinazione lineare di variabili da (bs). Avanti, (E (YT) E (X) - E (XT) 0). Poi, se (s, t a 0, T) con (s Le t) poi iniziare COV (Ys, YT) amp COV (X - XT, X - Xt) cov (X, X) - cov (X, XT) - cov (XT, X) COV (XT, XT) amplificatore (T - t) - (T - s) - (T - t) T s fine Infine, (t mapsto YT) è continua su (0, T) con probabilità 1, dal momento che (t mapsto Xt) è continua su (0, T) con probabilità 1. La nostra prossima trasformazione comporta il ridimensionamento (bs) sia temporalmente che spazialmente, ed è noto come auto-similarità. Let (un GT 0) e definire (YT frac X) per (t ge 0). Poi (bs) è anche un moto browniano standard. Ancora una volta, (bs) è un processo gaussiano, poiché finite, combinazioni lineari delle variabili (bs) riducono a finite, combinazioni lineari delle variabili (bs). Avanti, (E (YT) a E (X) 0) per (t GT 0), e per (s, t GT 0) con (s lt t), COV (Ys, YT) covleft (frac X, frac X destra) frac covleft (X, X a destra) frac a2 ss infine (bs) è un processo continuo da (BS) è continuo. Si noti che il grafico di (bs) può essere ottenuto dal grafico di (bs) scalando l'asse temporale (t) per un fattore di (a2) e scalare l'asse spaziale (x) per un fattore di (a). Il fatto che il fattore di scala temporale deve essere la piazza del fattore di scala spaziale è chiaramente correlato al moto browniano come limite di passeggiate aleatorie. Si noti inoltre che questa trasformazione pari a zoom in o fuori del grafico (bs) e il moto browniano quindi ha un auto-simile, qualità frattale, poiché il grafico è invariato da questa trasformazione. Ciò suggerisce, inoltre, che, anche se continuo, (t mapsto Xt) è altamente irregolare. Consideriamo questo nella prossima sottosezione. La nostra trasformazione finale è definito come il tempo di inversione. Sia (Y0 0) e (YT t X) per (t gt 0). Poi (bs) è anche un moto browniano standard. Chiaramente (bs) è un processo gaussiano, poiché finite, combinazioni lineari delle variabili (bs) riducono a finite, combinazioni lineari delle variabili (bs). Avanti, (E (YT) t E (X) 0) per (t GT 0), e per (s, t GT 0) con (s lt t), covleft (Ys, Ytright) covleft (s X, t X a destra) st, covleft (X, X a destra) st frac s Dal momento che (t mapsto Xt) è continua su (0, infty)) con probabilità 1, (t mapsto YT) è continua su ((0, infty)) con probabilità 1. Quindi, tutto ciò che rimane è quello di mostrare la continuità a (t 0). Così abbiamo bisogno di dimostrare che con probabilità 1, (t X a 0) come (t downarrow 0). o equivalentemente, (Xs s a 0), come (s infty upArrow). Ma quest'ultima affermazione tiene per la legge del logaritmo iterato. indicato di seguito. Irregolarità Le proprietà che definiscono suggeriscono che moto browniano standard (bs) non può essere un liscio, funzione differenziabile. Consideriamo il solito rapporto incrementale a (t), frac - Xt dalla proprietà incrementi fissi, se (h gt 0), il numeratore ha la stessa distribuzione (Xh), mentre se (h lt 0), il numeratore ha lo stesso la distribuzione come (-X), che a sua volta ha la stessa distribuzione di (X). Così, in entrambi i casi, il rapporto incrementale ha la stessa distribuzione di (X grande h), e questa variabile ha distribuzione normale con media 0 e varianza (lefthright grande h2 1 big lefthright). Quindi la varianza del rapporto incrementale diverge (infty) come (h a 0), e quindi il rapporto incrementale neppure non convergono nella distribuzione, la forma più debole della convergenza. La trasformazione temporale-spaziale sopra suggerisce che anche il moto browniano non può essere differenziabile. Il significato intuitivo di differenziabile in (t) è che la funzione è localmente lineare (t) mdashas abbiamo zoon in, il grafico in prossimità (t) comincia ad apparire come una linea (la cui pendenza, naturalmente, è la derivata). Ma come zoon in sul moto browniano, (nel senso della trasformazione), sembra sempre lo stesso, e in particolare, come frastagliate. Più formalmente, se (bs) è derivabile in (t), allora lo è il processo di trasformazione (Bs), e la regola della catena dà (Yprime (t) un Xprime (a2 t)). Ma (bs) è anche un moto browniano standard per ogni (una GT 0), quindi qualcosa è chiaramente sbagliato. Anche se non rigorosa, questi esempi sono la motivazione per il seguente teorema: con probabilità 1, (bs) è da nessuna parte differenziabile in (0, infty)). Eseguire la simulazione del processo di moto browniano standard. Si noti la continuità, ma di qualità molto frastagliata dei percorsi campione. Naturalmente, la simulazione non può davvero catturare moto browniano con assoluta fedeltà. I seguenti teoremi dà una misura più precisa della irregolarità del moto browniano standard. Standard browniano movimento (BS) ha Houmllder esponente (frac). Cioè, (bs) è Houmllder continuo con esponente (alpha) per ogni (lt frac alpha), ma non è Houmllder continuo con esponente (alpha) per ogni (gt frac alpha). In particolare, (bs) non è lipschitziana, e questo mostra ancora che non è derivabile. Il seguente risultato indica che in termini di dimensione di Hausdorff, il grafico del moto browniano standard di trova a metà strada tra una semplice curva (dimensione 1) ed il piano (dimensione 2). Il grafico del moto browniano standard ha dimensione di Hausdorff (frac). Ancora un'altra indicazione dell'irregolarità del moto browniano è che ha variazione totale infinita su qualsiasi intervallo di lunghezza positiva. Supponiamo che (a, b in R) (tl b). Poi la variazione totale di (bs) su (a, b) è (infty). La proprietà di Markov e arresto tempi Come al solito, si comincia con un moto browniano standard (bs). Ricordiamo che un processo di Markov ha la proprietà che il futuro è indipendente passato, allo stato attuale. A causa del fermo, immobile incrementi indipendenti, moto browniano ha la proprietà. Come nota minore, per visualizzare (bs) come un processo di Markov, a volte abbiamo bisogno di rilassarsi Assunzione 1 e lasciare (X0) hanno un valore arbitrario in (R). Sia (mathscr t sigma), il sigma-algebra generata dal processo fino al tempo (t a 0, infty)). La famiglia di (Sigma) - algebre (mathfrak t: t 0, infty)) è conosciuta come una filtrazione. Standard browniano movimento è un processo di Markov tempo omogeneo con densità di probabilità di transizione (p) proposta dal pt (x, y) ft (y - x) frac expleft-frac destra, quad t a (0, infty) x, y in R Fix (s in 0, infty)). Il teorema deriva dal fatto che il processo (- Xs: t 0, infty)) è un'altra moto browniano standard come mostrato sopra. ed è indipendente (mathscr s). La densità transtion (p) soddisfa le seguenti equazioni di diffusione. Il primo è noto come equazione avanti e la seconda come equazione all'indietro. iniziare frac pt (x, y) amp frac frac pt (x, y) frac pt (x, y) amp frac frac pt (x, y) porre fine a questi risultati si evince dal calcolo standard. Le equazioni di diffusione sono così chiamato perché la derivata spaziale nella prima equazione è rispetto a (y), lo stato in avanti a tempo (t), mentre la derivata spaziale nella seconda equazione è rispetto a (x), lo stato indietro al tempo 0. Ricordiamo che un tempo casuale (tau) a valori in (0, infty) è un tempo di arresto rispetto al processo (bs), se (in mathscr t) per ogni (t a 0, infty)). Informalmente, siamo in grado di determinare o meno (tau Le t) osservando il processo fino al tempo (t). Un caso particolare importante è la prima volta che il moto browniano colpisce uno stato specificato. Così, per (x in R) lasciare (taux inf). Il tempo casuale (taux) è un tempo di arresto. Per un tempo di arresto (tau), abbiamo bisogno del (Sigma) - algebra di eventi che possono essere definiti in termini di processo fino al momento casuale (tau), analogo a (mathscr t), il (Sigma) - algebra di eventi che possono essere definiti in termini di processo fino ad un tempo fisso (t). La definizione appropriata è mathscr tau: B cap in mathscr t testo t ge 0 Vedere la sezione Filtrations e arresto tempi per ulteriori informazioni su filtrazioni, fermandosi volte, e il - algebra (Sigma) associato ad un tempo di arresto. Il forte proprietà di Markov è la proprietà di Markov generalizzato a volte fermarsi. Standard browniano movimento (bs) è anche un forte processo di Markov. Il modo migliore per dire questo è una generalizzazione del risultato temporale e spaziale omogeneità sopra. Supponiamo che (tau) è un tempo di arresto e definire (YT X - Xtau) per (t a 0, infty)). Poi (bs) è un moto browniano standard ed è indipendente (mathscr tau). La riflessione Principio Molte proprietà interessanti di moto browniano possono essere ottenuti da una idea intelligente noto come il principio di riflessione. Come al solito, iniziamo con un moto browniano standard (bs). Sia (tau) essere un momento di arresto per (bs). Definire Wt cominciano Xt, amplificatore 0 Le t lt tau 2 Xtau - Xt, amplificatore tau le t lt infty fine Così, il grafico di (bs) può essere ottenuto dal grafico di (Bs), riflettendo in linea (x Xtau) dopo il tempo (tau). In particolare, se il tempo di arresto (tau) è (Taua), la prima volta che il processo colpisce uno stato specificato (a gt 0), allora il grafico di (bs) è ottenuto dal grafico di (bs) riflettendo in la linea (XA) dopo il tempo (Taua). Aprire la simulazione di riflettere moto browniano. Questa applicazione mostra il processo (bs) corrispondente al tempo di arresto (Taua), il tempo della prima visita ad uno stato positivo (a). Eseguire la simulazione in modalità singolo passo fino a vedere il processo di riflesso più volte. Assicurarsi di aver capito come funziona il processo (bs). Il processo di riflesso (Bs) è anche un moto browniano standard. Eseguire la simulazione del processo di moto browniano riflessa 1000 volte. Compaure la funzione di densità empirica ei momenti di (WT) per la vera funzione di densità di probabilità e momenti. Martingales Come di consueto, sia (bs) un moto browniano standard e lasciate (mathscr t sigma) per (t 0, infty)), in modo che (mathfrak t: t 0, infty)) è la filtrazione naturale ( bs). Ci sono diversi martingale importanti associati (bs). Studieremo un paio di loro in questa sezione, e gli altri nelle sezioni successive. Il nostro primo risultato è che (bs) è di per sé una martingala, semplicemente in virtù di avere stazionarie, incrementi indipendenti e 0 media. (Bs) è una martingala rispetto a (mathfrak). Ancora una volta, questo è vero per qualsiasi processo con stazionarie, incrementi indipendenti e 0 media, ma diamo la prova in ogni caso, per completezza. Sia (s, t a 0, infty)) con (s lt t). Dal momento che (XS) è misurabile rispetto al (mathscr s) e (Xt - Xs) è indipendente (mathscr s) abbiamo Eleft (Xt metà mathscr sright) EleftXs (Xt - Xs) metà mathscr sright Xs E (Xt - Xs ) XS Il prossimo martingala è un po 'più interessante. Let (YT Xt2 - t) per (t a 0, infty)). Poi (bs) è una martingala rispetto alla (mathfrak). Sia (s, t a 0, infty)) con (s lt t). Poi Yt Xt2 - t leftXs (Xt - Xs) RIGHT2 - t Xs2 2 Xs (Xt - Xs) (Xt - Xs) 2 - t Dal (XS) è misurabile rispetto al (mathscr s) e (Xt - Xs) è indipendente (mathscr s) abbiamo Eleft (YT metà mathscr sright) Xs2 2 Xs e (Xt - Xs) Eleft (Xt - Xs) RIGHT2 - t Ma (e (Xt - Xs) 0) e (Eleft (Xt - Xs ) 2right var (Xt - Xs) t - s), in modo (Eleft (YT metà mathscr sright) Xs2 - s Ys). Massimi e tempi Colpire come al solito, iniziamo con un moto browniano standard (bs). Per (y 0, infty)) ricorda che (min tauy) è la prima volta che il processo colpisce stato (y). Naturalmente, (tau0 0). Per (t 0, infty)), sia (Yt max), il valore massimo di (bs) sull'intervallo (0, t). Si noti che (Yt) è ben definita dalla continuità (bs), e naturalmente (Y0 0). Così abbiamo due nuovi processi stocastici: () e (). Entrambi hanno impostato indice (0, infty)) e nello spazio (come vedremo) Stato (0, infty)). Inoltre, i processi sono inverse l'una dell'altra in senso: Per (t, y (0, infty)), (tauy le t) se e solo se (Yt ge y). Poiché il moto browniano normale inizia a 0 ed è continua, entrambi gli eventi indicano che il processo colpisce stato (y) nell'intervallo (0, t). Così, se possiamo calcolare la distribuzione di (Yt) per ogni (t in (0, infty)) allora possiamo calcolare la distribuzione di (tauy) per ogni (y (0, infty)), e viceversa. Per (y GT 0), (tauy) ha la stessa distribuzione (Y2 grande Z2), dove (Z) è una variabile normale standard. La funzione di densità di probabilità (GY) è dato da Gy (t) frac expleft (-frac destra), quad t a (0, infty) Sia (t gt 0). Dal risultato precedente. notare che (Xt ge y implica Yt ge y implica tauy Le t). Quindi P (Xt ge y) P (Xt ge y, tauy Le t) P (Xt ge y metà tauy Le t) P (tauy Le t), ma dalla forte proprietà di Markov sopra, (s mapsto X (tauy s) - y) è un altro moto browniano standard. Quindi (P (Xt ge y metà tauy Le t) frac). Pertanto P (tauy Le t) 2 P (Xt ge y) frac intyinfty e, dx frac int infty e, dz Il secondo integrale deriva dalla prima dal cambio di variabili (z x grande sqrt). Possiamo riconoscere questo integrale come (Pleft (Y2 grande Z2 Le tright)) dove (Z) ha una distribuzione normale standard. Prendendo la derivata dell'integrale rispetto a (t) dà il PDF. La distribuzione di (tauy) è la distribuzione Leacutevy con parametro di scala (Y2), e prende il nome dal matematico francese Paul Leacutevy. La distribuzione Leacutevy è studiato in dettaglio nel capitolo sulle distribuzioni speciali. Aprire l'esperimento tempo di colpire. Vary (y) e notare la forma e la posizione della funzione di densità di probabilità di (tauy). Per i valori selezionati del parametro, eseguire la simulazione in modalità singolo passo un paio di volte. Quindi eseguire l'esperimento 1000 volte e confrontare la funzione di densità empirica alla funzione di densità di probabilità. Aprire il simulatore speciale distribuzione e selezionare la distribuzione Leacutevy. Variare i parametri e notare la forma e la posizione della funzione di densità di probabilità. Per i valori selezionati dei parametri, eseguire la simulazione 1000 volte e confrontare la funzione di densità empirica alla funzione di densità di probabilità. Standard browniano movimento è ricorrente. Cioè, (P (tauy lt infty) 1) per ogni (y in R). Supponiamo prima che (y gt 0). Dalla prova del ultimo teorema. P (tauy lt infty) lim P (tauy Le t) frac int0infty e, dz 1 Si noti che l'integrale sopra è equivalente alla integrale del PDF normale standard sopra (R). In particolare, la funzione (gy) data sopra è davvero un PDF valido. Se (y lt 0) allora per simmetria, (tauy) ha la stessa distribuzione come (tau), quindi (P (tauy lt infty) 1). Banalmente, (tau0 0). Così, per ogni (y in R), (bs) alla fine colpisce (y) con probabilità 1. In realtà possiamo dire di più: con probabilità 1, (bs) visite ogni punto (R). Con la continuità, se (bs) raggiunge (y GT 0) poi (BS) visite ogni punto (0, y). Per simmetria, una dichiarazione simile vale per (y lt 0). Così il caso in cui (BS) visite ogni punto (R) è (infty bigcap sinistra (cap lt inftyright)). La probabilità di un incrocio numerabile di eventi con probabilità 1 ha ancora probabilità 1. D'altra parte, Standard browniano movimento è ricorrente nullo. Cioè, (E (tauy) infty) per ogni (y in R setminus). Per simmetria, è sufficiente prendere in considerazione (y gt 0). Dal risultato sopra sulla distribuzione di (tauy). E (tauy) int0infty P (tauy GT t), dt frac int0infty INT0 e, dz, dt Cambiare l'ordine di integrazione dà E (tauy) frac int0infty INT0 e, dt, dz frac int0infty frac e, dz successivo si ottiene una minore vincolato l'ultimo integrale integrando sull'intervallo (0, 1) e notando che (e ge e) su questo integrale. Così, E (tauy) ge frac INT01 frac, dz Infty Il processo () ha stazionarie, incrementi indipendenti. La prova si basa sulla omogeneità temporale e spaziale del moto browniano e la forte proprietà di Markov. Supponiamo che (x, y in 0, infty)) con (x lt y). In continuità (bs) devono raggiungere (x) prima di raggiungere (y). Così, (tauy taux (tauy - taux)). Ma (tauy - Taux) è il tempo di colpire (y - x) per il processo (t mapsto X (taux t) - x), e come indicato sopra. questo processo è anche un moto browniano standard indipendente (mathscr (taux)). Quindi (tauy - taux) è indipendente (mathscr (taux)) ed ha la stessa distribuzione (tau). La famiglia di funzioni di densità di probabilità () è chiusa rispetto convoluzione. Cioè, (gx gy g) per (x, y in (0, infty)). Questo segue immediatamente dal teorema precedente. Una prova diretta è un esercizio interessante. Ora rivolgiamo la nostra attenzione al processo di massima (), l'inverso del processo di colpire (). Per (t gt 0), (Yt) ha la stessa distribuzione (leftXtright), noto come distribuzione mezzo normale con parametro di scala (t). La funzione di densità di probabilità è ht (y) sqrt expleft (-frac destra), quad y 0, infty) Dimostrazione: Dalla relazione inversa e la distribuzione di (tauy), (P (YT ge y) P (tauy le t ) 2 P (Xt ge y) Pleft (leftXtright GE yright)) per (y ge 0). Per definizione, (leftXtright) ha distribuzione mezzo normale con parametro (t). In particolare, P (Yt ge y) frac intyinfty e, dx Prendendo la derivata negativa dell'integrale sopra, rispetto a (y), dà il PDF. La distribuzione mezza normale è un caso speciale della distribuzione normale piegata. che è studiato in modo più dettagliato nel capitolo sulle distribuzioni speciali. Per (t ge 0), la media e la varianza di (YT) sono Queste seguono dai risultati standard per la distribuzione semi-normale. Nella simulazione moto browniano standard. selezionare il valore massimo. Variare il parametro (t) e osserva la forma della funzione di densità di probabilità e la posizione e la dimensione della barra media-deviazione standard. Eseguire la simulazione 1000 volte e confrontare la densità empirica e momenti per la vera funzione di densità di probabilità e momenti. Aprire il simulatore speciale distribuzione e selezionare la distribuzione piegato-normale. Vary the parameters and note the shape and location of the probability density function and the size and location of the mean-standard deviation bar. For selected values of the parameters, run the simulation 1000 times and compare the empirical density function and moments to the true density function and moments. Zeros and Arcsine Laws As usual, we start with a standard Brownian motion ( bs ). Study of the zeros of ( bs ) lead to a number of probability laws referred to as arcsine laws. because as we might guess, the probabilities and distributions involve the arcsine function. For ( s, t in 0, infty) ) with ( s lt t ), let ( E(s, t) ) be the event that ( bs ) has a zero in the time interval ( (s, t) ). That is, ( E(s, t) u in (s, t) ). Then PleftE(s, t)right 1 - frac arcsinleft(sqrt right) Conditioning on ( Xs ) and using symmetry gives PleftE(s, t)right int infty PleftE(s, t) mid Xs xright fs(x) , dx 2 int 0 PleftE(s, t) mid Xs xright fs(x) , dx But by the homogeneity of ( bs ) in time and space, note that for ( x gt 0 ), ( PleftE(s, t) mid Xs - xright P(taux lt t - s) ). That is, a process in state ( - x ) at time ( s ) that hits 0 before time ( t ) is the same as a process in state 0 at time 0 reaching state ( x ) before time ( t - s ). Hence PleftE(s, t)right int0infty int0 gx(u) fs(-x) , du , dx where ( gx ) is the PDF of ( taux ) given above. Substituting gives PleftE(s, t)right frac int0 u int0infty x expleft-frac x2 left(frac right) right , dx , du frac int0 frac , du Finally substituting ( v sqrt ) in the last integral give PleftE(s, t)right frac int0 frac , dv frac arctan left(sqrt - 1right) 1 - frac arcsinleft(sqrt right) In paricular, ( PleftE(0, t)right 1 ) for every ( t gt 0 ), so with probability 1, ( bs ) has a zero in ( (0, t) ). Actually, we can say a bit more: For ( t gt 0 ), ( bs ) has infinitely many zeros in ( (0, t) ) with probability 1. The event that ( bs ) has infinitely many zeros in ( (0, t) ) is ( bigcap infty E(0, t n) ). The intersection of a countable collection of events with probability 1 still has probability 1. The last result is further evidence of the very strange and irregular behavior of Brownian motion. Note also that ( PleftE(s, t)right ) depends only on the ratio ( s t ). Thus, ( PleftE(s, t)right PleftE(1 t, 1 s)right) and (PleftE(s, t)right PleftE(c s, c t)right ) for every ( c gt 0 ). So, for example the probability of at least one zero in the interval ( (2, 5) ) is the same as the probability of at least one zero in ( (15, 12) ), the same as the probability of at least one zero in ( (6, 15) ), and the same as the probability of at least one zero in ( (200, 500) ). For ( t gt 0 ), let ( Zt ) denote the time of the last zero of ( bs ) before time ( t ). That is, ( Zt maxleft ). Then ( Zt ) has the arcsine distribution with parameter ( t ). The distribution function ( Ht ) and the probability density function ( ht ) are given by begin Ht(s) amp frac arcsinleft(sqrt right), quad 0 le s le t ht(s) amp frac , quad 0 lt s lt t end For ( 0 le s lt t ), the event ( Zt le s ) is the same as ( lefE(s, t)rightc ), that there are no zeros in the interval ( (s, t) ). Hence the formula for ( Ht ) follows from the result above. Taking the derivative of ( Ht ) and simplifying gives the formula for ( ht ). The density function of ( Zt ) is ( u )-shaped and symmetric about the midpoint ( t 2 ), so the points with the largest density are those near the endpoints 0 and ( t ), a surprising result at first. The arcsine distribution is studied in more detail in the chapter on special distributions . The mean and variance of ( Zt ) are These are standard results for the arcsine distribution. That the mean is the midpoint (t2) also follows from symmetry, of course. In the simulation of standard Brownian motion. select the last zero variable. Vary the parameter ( t ) and note the shape of the probability density function and the size and location of the mean-standard deviation bar. For selected values of ( t ) run the simulation is single step mode a few times and note the position of the last zero. Finally, run the simulation 1000 times and compare the empirical density function and moments to the true probability density function and moments. Open the special distribution simulator and select the arcsine distribution. Vary the parameters and note the shape and location of the probability density function and the size and location of the mean-standard deviation bar. For selected values of the parameters, run the simulation 1000 times and compare the empirical density function and moments to the true density function and moments. Now let ( Z ) denote the set of zeros of ( bs ), so that ( Z ) is a random subset of ( 0, infty) ). The theorem below gives some of the strange properties of the random set ( Z ), but to understand these, we need to review some definitions. A nowhere dense set is a set whose closure has empty interior. A perfect set is a set with no isolated points. As usual, we let ( lambda ) denote Lebesgue measure on ( R ). With probability 1, ( Z ) is closed. ( lambda(Z) 0 ) ( Z ) is nowhere dense. ( Z ) is perfect. Proof: Note that ( Z) is the inverse image of the closed set ( ) under the function ( t mapsto Xt ). Since this function is continuous with probability 1, ( Z ) is closed with probability 1. For each ( t in (0, infty) ) note that ( P(t in Z) P(Xt 0) 0 ) since ( Xt ) has a continuous distribution. Using Fubinis theorem Eleftlambda(Z)right E leftint0infty bs Z(t) , dlambda(t)right int0infty Eleftbs Z(t)right , dlambda(t) 0 and hence ( Pleftlambda(Z) 0right 1 ), Since ( Z ) is closed and has Lebesgue measure 0, its interior is empty (all of these statements with probability 1). Suppose that ( s in Z ). Then by the temporal and spatial homogeneity properties, ( t mapsto X ) is also a standard Brownian motion. But then by the result above on zeros. with probability 1, ( bs ) has a zero in the interval ( (s, s 1 n) ) for every ( n in N ). Hence ( s ) is not an isolated point of ( Z ). The following theorem gives a deeper property of ( Z ). The Hausdorff dimension of ( Z ) is midway between that of a point (dimension 0) and a line (dimension 1). ( Z ) has Hausdorff dimension (frac ). The Law of the Iterated Logarithm As usual, let ( bs ) be standard Brownian motion. By definition, we know that ( Xt ) has the normal distribution with mean 0 and standard deviation ( sqrt ), so the function ( x sqrt ) gives some idea of how the process grows in time. The precise growth rate is given by the famous law of the iterated logarithm Computational Exercises In the following exercises, ( bs ) is a standard Brownian motion process. Explicitly find the probability density function, covariance matrix, and correlation matrix of ( (X , X1, X ) ).

No comments:

Post a Comment