Forte approssimazione del moto browniano frazionario da medie di casuale semplice movimento passeggiate Pl Rvsz in occasione del suo 65 ° compleanno Tams Szabados Dipartimento di Matematica, Università Tecnica di Budapest, Egry u 20-22, H p. V em. Budapest, 1521, Ungheria ha ricevuto 19 dicembre 1999. Rivisto 29 agosto 2000. accettato 4 settembre 2000. Disponibile online il 9 febbraio 2001. Il moto browniano frazionario è una generalizzazione del moto browniano ordinario, utilizzato in particolare quando è richiesta la dipendenza a lungo raggio. La sua introduzione esplicita è dovuto alla Mandelbrot e Van Ness (SIAM Apocalisse 10 (1968) 422), come auto-simile processo gaussiano W (H) (T), con incrementi stazionari. Qui auto-similarità significa che, dove H (0,1) è il parametro di Hurst del moto browniano frazionario. F. B. Cavaliere ha dato una costruzione del moto browniano ordinaria come limite di semplici passeggiate aleatorie nel 1961. Più tardi, il suo metodo è stato semplificato dal Rvsz (Random Walk in a caso e non casuale ambienti, World Scientific, Singapore, 1990) e poi da Szabados (Studia Sci . Math. Hung. 31 (1996) 249297). Questo approccio è del tutto naturale ed elementare, e come tale, può essere esteso a situazioni più generali. Sulla base di questo, qui usiamo le medie di una opportuna sequenza annidata di semplici passeggiate aleatorie che quasi sicuramente convergono uniformemente al moto browniano frazionario a patti quando si spostano. La velocità di convergenza dimostrato in questo caso è, dove N è il numero di passaggi utilizzati per l'approssimazione. Se la più accurata (ma anche più complessa) Komls et al. (1975,1976) approssimazione è usata invece per incorporare passeggiate aleatorie in moto browniano ordinario, quindi lo stesso tipo di medie mobili quasi sicuramente uniformemente convergono al moto browniano frazionario sulle compatte per qualsiasi H (0,1). Inoltre, il tasso di convergenza si congettura di essere il migliore possibile, anche se solo è dimostrato qui. Frazionario browniano costruzione movimento PathWise forte approssimazione passeggiata a caso Moving media 1 moto browniano frazionario Il moto browniano frazionario (FBM) è una generalizzazione di ordinaria moto browniano (BM), utilizzati in particolare quando la dipendenza a lungo raggio è essenziale. Anche se la storia della FBM può essere fatta risalire a Kolmogorov (1940) e altri, la sua introduzione esplicita è dovuto alla Mandelbrot e Van Ness (1968). La loro intenzione era quella di definire un auto-simile. processo gaussiano centrato con incrementi stazionari ma non indipendenti e con i percorsi del campione continui a. s. Qui di auto-similarità significa che per ogni a GT0, dove H (0,1) è il parametro Hurst della FBM e denota l'uguaglianza nella distribuzione. Essi hanno dimostrato che queste proprietà caratterizzano FBM. Il caso si riduce a ordinaria BM con incrementi indipendenti, mentre i casi (risp.) Indica negativamente (risp. Positivamente) incrementi correlati vedi Mandelbrot e van Ness (1968). Sembra che nelle applicazioni di FBM, il caso è il più utilizzato. Mandelbrot e Van Ness (1968) ha dato la seguente rappresentazione esplicita di FBM come una media mobile di ordinario, ma su due lati BM: dove t 0 e (x) max (x, 0). L'idea di (2) è relativo a deterministica calcolo frazionario. che ha una storia ancora più lunga di FBM, che risale al Liouville, Riemann, e gli altri vedono in Samko et al. (1993). Il caso più semplice è quando ricevono una funzione f continua e un numero intero positivo. Poi un'induzione con integrazione per parti può dimostrare che è l'ordine primitiva (o ordine integrale) di f iterata. D'altra parte, questo integrale è ben definito per non interi valori positivi e, nel qual caso può essere chiamato un integrale frazionata di f. Quindi, euristicamente, la parte principale (2), è l'ordine integrale della (nel senso ordinario inesistente) processo di rumore bianco W (t). Così il fbm W (H) (t) può essere considerata come una modifica stazionaria incremento della W integrale frazionata (t) del processo rumore bianco, dove. 2 a caso la costruzione di cammino del moto browniano ordinaria E 'interessante il fatto che una costruzione molto naturale ed elementare di ordinaria BM come limite di passeggiate aleatorie (RW) è apparso relativamente tardi. La teoria matematica della BM è iniziata intorno al 1900 con le opere di Bachelier, Einstein, Smoluchowski, e altri. La prima costruzione esistenza è stato dato da Wiener 1921 e il Wiener 1923 che è stato seguito da molti altri in seguito. Knight (1961) ha introdotto la prima costruzione da passeggiate aleatorie che è stato poi semplificato Rvsz (1990). L'autore ha avuto la fortuna di ascoltare questa versione della costruzione direttamente da Pl Rvsz in un seminario presso l'Università Tecnica di Budapest, un paio di anni prima della pubblicazione del libro Rvszs nel 1990 e ha ottenuto immediatamente affascinato. Il risultato di uno sforzo per semplificare ulteriormente appariva nel Szabados (1996). D'ora in poi, la costruzione espressione RW sempre riferimento alla versione descritta in quest'ultimo. È asintoticamente equivalente ad applicare Skorohod (1965) incorporamento di trovare una sequenza diadica nidificata di RW nel BM, vedi teorema 4 in Szabados (1996). Come tale, presenta alcuni vantaggi e svantaggi rispetto al famoso migliore approssimazione possibile BM delle somme parziali di variabili casuali con funzione generatore momento finito intorno all'origine. Quest'ultimo è stato ottenuto Komls 1975 e 1976. Komls e verrà abbreviato KMT approssimazione nel seguito. I principali vantaggi della costruzione RW sono che è elementare, esplicito, utilizza solo passato i valori per costruire quelli nuovi, facile da implementare nella pratica, e molto adatto per approssimare gli integrali stocastiche, vedi Teorema 6 a Szabados (1996) e anche Szabados ( 1990). Ricordiamo che il ravvicinamento KMT costruisce le somme parziali (ad esempio un semplice simmetrica RW) da BM stessa (o da una sequenza di variabili i. i.d. casuale normale standard) da una sequenza complessa di trasformazioni quantile condizionale. Per costruire qualsiasi nuovo valore che utilizza per tutta la sequenza (passati e futuri valori così). D'altra parte, la maggior debolezza della costruzione RW è che dà una velocità di convergenza, mentre il tasso di ravvicinamento KMT è la migliore possibile, dove N è il numero di passi (termini) considerate nella RW. Nel seguito prima le principali caratteristiche della costruzione RW suddetta sono riassunti. Poi questa costruzione RW è utilizzato per definire una approssimazione simile a (2) di FBM da medie del RW movimento. La convergenza e l'errore di questa approssimazione sono discussi prossimo. Come conseguenza delle proprietà di approssimazione relativamente deboli della costruzione RW, sarà stabilita la convergenza FBM solo, e il tasso di convergenza non sarà la migliore possibile sia. Per compensare questo, alla fine della carta si discute le proprietà di convergenza e di errore di un simile costruzione di FBM che utilizza il ravvicinamento KMT invece, che converge per tutti H (0,1) e la cui velocità di convergenza può essere ipotizzato essere il migliore possibile quando ravvicinamento FBM da medie di RW in movimento. La costruzione di RW BM riassunte qui è preso da Szabados (1996). Si comincia con una matrice infinita di i. i.d. variabili aleatorie X m (k), definite sullo stesso spazio di probabilità sottostante. Ogni riga di questa matrice è a base di un'approssimazione del BM con una certa diadica dimensione del passo t 2 2 m nel tempo e una corrispondente dimensione del passo x 2 m nello spazio, illustrata dalla tabella successiva. La seconda fase della costruzione è torcendo. Dalle passeggiate aleatorie indipendenti (vale a dire tra le righe della tabella 1), vogliamo creare quelle che dipendono in modo che dopo restringimento dimensioni temporali e spaziali passo, ogni RW consecutivi diventa un affinamento di quello precedente. Poiché l'unità spaziale sarà dimezzato ad ogni riga consecutiva, definiamo volte fermandosi T m (0) 0, e per k 0, Questi sono gli istanti di tempo casuali quando un RW visite interi pari, diversi da quello precedente. Dopo restringimento unità spaziale della metà, una opportuna modifica del presente RW visiterà gli stessi numeri interi nello stesso ordine del RW precedente. (Questo è quello che noi chiamiamo un perfezionamento.) Ci operare qui in ogni punto dello spazio campione separatamente, cioè fissiamo un percorso del campione di ogni RW sono indicati nella tabella 1. Quindi ogni ponte S m (T m (k 1)) S m (T m (k)) deve imitare i provvedimenti X m 1 (k 1) del RW precedente. Definiamo RW intrecciati in modo ricorsivo per m 1,2,3, utilizzando, a partire da (n 0). Con ogni m fisso si procede per k 0,1,2, successivamente, e per ogni n nel ponte corrispondente, T m (k) lt n T m (k 1). Qualsiasi ponte è capovolto se segno differisce dal desiderato (Fig 1. Fig 2 e Fig. 3..): E quindi. Poi ogni (n 0) è ancora un semplice, RW simmetrica vedere Lemma 1 a Szabados (1996). Inoltre, le RW contorte hanno la proprietà raffinatezza desiderato: L'ultimo passo della costruzione RW si sta restringendo. I percorsi di campionamento di (n 0) possono essere estese a funzioni continue per interpolazione lineare. In questo modo si ottiene (t 0) per davvero t. Definiamo poi il ravvicinamento mese di BM (vedi Fig. 4) Confronto tre passi di un percorso del campione della prima approssimazione B 0 (t) e la parte corrispondente della seconda approssimazione B 1 (t) in Fig. 1 e Fig. 4. Il secondo visite gli stessi numeri interi (diversi da quello precedente) nello stesso ordine della prima, in modo imita le prime, ma l'corrispondenti istanti differiscono in generale: 2 2 T 1 (k) k. Analogamente, (3) comporta la proprietà generale raffinamento ma c'è un ritardo in generale. L'idea di base della costruzione RW di BM è che questi sfasamenti temporali diventa uniformemente piccola se m ottiene abbastanza grande. Può essere dimostrato dalla seguente semplice lemma. Tabella 1. L'impostazione per la costruzione di RW BM Non sorprendentemente, questo e la proprietà di affinamento (5) implica la vicinanza uniforme delle due approssimazioni consecutive di BM se m è abbastanza grande partenza. Questo lemma garantisce la a. s. convergenza uniforme delle approssimazioni RW su intervalli compatti ed è chiaro che il processo di limite è il processo di Wiener (BM) con percorsi campione continui quasi sicuramente. Teorema 1 La RW approssimazione a. s. converge uniformemente ad un processo di Wiener su qualsiasi intervallo compatto. Per ogni e per ogni m m 2 (C), abbiamo i risultati sopra citati corrispondono a Lemma 2. Lemma 3 e 4 Lemma e Teorema 3 a Szabados (1996). Abbiamo detto che le dichiarazioni qui presentati sono espressi in forme un po 'più nitide, ma possono essere letti facilmente dalle prove del riferimento di cui sopra. 3 A approssimazione PathWise del moto browniano frazionario Una costruzione PathWise quasi sicuramente convergente di FBM è stato dato da Carmona e Coutin (1998) che rappresenta FBM come un funzionale lineare di un processo gaussiano dimensione infinita. Un'altra costruzione PathWise è stato dato da Decreusefond e stnel 1998 e Decreusefond e stnel 1999, che converge nel senso L 2. Questa costruzione utilizza approssimazioni discrete della rappresentazione media mobile di FBM (2). basato su partizioni deterministiche dell'asse tempo. Più esattamente, (2) è sostituito da un integrale sull'intervallo compatta 0, t, ma con un kernel più complessa contenente una serie ipergeometrica troppo. Il ravvicinamento delle FBM discusso qui sarà anche una versione discreta della rappresentazione media mobile (2) di FBM, ma le partizioni diadici sono prese sull'asse spaziale della BM e così si ottiene partizioni casuali sull'asse del tempo. Si tratta di un asintoticamente Skorohod-tipo incorporamento di RW annidati in BM. Come risultato, anziché integrale abbiamo somma, e BM è sostituito dalla nidificata, sequenza di raffinazione delle sue approssimazioni RW discussi nella sezione precedente. Poiché (2) contiene due facciate BM, dobbiamo due tali sequenze: uno per lato e una per la mezza asse sinistro. D'ora in poi, ci accingiamo a utilizzare le seguenti notazioni: m 0 è un numero intero, t 2 2 m. . Introducendo il kernel del mese ravvicinamento delle FBM, per definizione, è B m (H) (0) 0, e per interi positivi k, in cui la convenzione 0 H 12 0 viene applicata anche per esponenti negativi. È utile scrivere B m (H) in un'altra forma applicando una versione discreta di integrazione per parti. A partire da (8) e riorganizzare secondo le B m (TR), si ottiene per k 1 che in questo modo abbiamo ottenuto una versione discreta dei quali è quello che si ottiene da (2) utilizzando una formale integrazione per parti (cfr Lemma 5). Per supportare la definizione di cui sopra dimostrano che B m (H) ha proprietà analoghe alle proprietà caratterizzanti di FBM in un ambiente discreto. (A) B m (H) è centrata (chiaro dalla sua definizione) e ha incrementi stazionari. Se k 0 e k sono interi non negativi, allora (sostituendo u r k 0) (b) B m (H) è di circa auto-simile nel senso seguente: se un 2 2 0 m. dove m 0 è un numero intero, m 0 m. allora per ogni k intero non negativo che ka è anche un numero intero si ha che D'altro canto, Lemma 4 (e Teorema 2) qui di seguito mostrano che B m (H) e B m 1 (H) (e B mn ( H)) sono uniformemente stretta con grande probabilità arbitrario su qualsiasi intervallo compatto se m è sufficiente (se di grandi dimensioni). Potrebbe essere provata in modo simile che per un j. dove j 0 è un intero arbitrario, 2 2 n j 2 2 (n 1) con un numero intero n 0, le distribuzioni di dimensione finita di possono essere apportate arbitrariamente vicino alle distribuzioni di dimensione finita di B m n (H) se m è abbastanza grande. Di conseguenza, B m (H) è arbitrariamente vicino ad auto-simile per qualsiasi diadica un j 2 2 m 0 se m è abbastanza grande. (C) Per qualsiasi 0LT t 1 t LTLT n. la distribuzione limite del vettore come m è gaussiana. dove . Questo fatto segue dal Teorema 2 (sulla base di Lemma 5) sotto che indica che il processo di B m (H) converge quasi sicuramente al processo gaussiano W (H) su intervalli compatti. 4 La convergenza dell'approssimazione di FBM In un primo momento sarà mostrato che due approssimazioni consecutive di FBM definiti da (8). o equivalentemente da (9). sono uniformemente vicino se m è abbastanza grande, supponendo. A quanto pare, il sopra RW ravvicinamento delle BM non è abbastanza buono per avere convergenza. Quando dimostrando la convergenza, una grande diseguaglianza scostamento simile a Lemma 1 avrà un ruolo importante. Se X 1, X 2, è una sequenza di i. i.d. variabili casuali, e S r r X r. dove non tutti sono zero e, poi (vedi, ad esempio Stroock, 1993, pag. 33). La somma di cui sopra può estendersi sia per numero finito o numerabile a molti termini. Come corollario, se S 1, S 2 ,, SN sono somme arbitrarie del tipo sopra, si può ottenere il seguente analogica del Lemma 1. Per ogni gt1 C e N 1, Quindi utilizzare (19) si ottiene il risultato con il eccezione di un insieme di probabilità al massimo 2 (K 2 2 m) 1 C. Dove e C GT1 sono arbitrari. (D) Il massimo di U m, k. Dividiamo la linea di metà campo in intervalli di lunghezza L. dove L 4 K. Per definitezza, scegliere L 4 K. Oltre a ciò, questa parte sarà simile a parte (b). Nel seguito si usa la convenzione che quando il limite inferiore di una sommatoria è un numero reale x. la somma inizia alle x, e allo stesso modo, se il limite superiore è y. la somma termina a y. Con (17), Lemma 3 fornisce un limite superiore per la massima differenza tra due approssimazioni consecutive di BM se j 1 è un valore fisso arbitraria: con l'eccezione di un insieme di probabilità al massimo 3 (JL 2 2 m) 1 C. dove C gt1 è arbitraria e m m 1 (C). Ciò comporta per ogni C 3 e mm 1 (C) che la disuguaglianza sopra (24) contiene simultaneamente per tutti 1,2,3 j, con l'eccezione di un insieme di probabilità al massimo per l'altro fattore importante nella (23) binomiale trovano applicazione come sopra, con e v 1: nel secondo caso, quando il metodo di cui sopra dà apparentemente convergenza qui (come in parte (b)) solo se: per ogni C 3 e mm 1 (C) con l'eccezione di un insieme di probabilità al massimo (K 2 2 m) 1 C. Ora si possono combinare i risultati di parti (a) (d), vedi (18). (20). (21). (22). (27) e (28). per ottenere la dichiarazione del lemma. Ricordiamo che la velocità di convergenza in parti (a) e (c) è più veloce di quella in parti (b) e (d). In particolare, osserviamo che c'è un fattore m (b) e (d), che ha una controparte m 12 (a) e (c). Poiché nella comunicazione di questo lemma semplicemente sostituito i fattori convergenti veloci da quelli convergenti lenti, i moltiplicatori costanti in (a) e (c) possono essere ignorate se m è abbastanza grande. E 'semplice da estendere la formula (9) del m ° approssimazione B m (H) di FBM a reali t argomenti per interpolazione lineare, proprio come nel caso del m ° approssimazione B m (t) di ordinaria BM vedere, ad esempio, in Szabados (1996). Quindi cerchiamo m 0 e k 0 essere interi, 0,1, e definire quindi le conseguenti approssimazioni parametro continuo di FBM B m (H) (t) (t 0) hanno, percorsi campione a tratti lineare continuo. Con questa definizione siamo pronti a dichiarare il risultato principale di questo lavoro. dove (H, K) e sono gli stessi Lemma 4. (Il caso è descritto da Teorema 1.) fatta eccezione per un evento di probabilità al massimo 8 (K 2 2 m) 1 C. Poiché sia B m 1 (H) (t) e B m (H) (t) hanno percorsi campione lineare a tratti, la massima differenza deve avvenire vertici dei tracciati campione. Sia M m denota l'aumento massimo di B m (H) tra coppie di punti t k, t k 1 a 0, K: fatta eccezione per un evento di probabilità al massimo 2 (K 2 2 m) 1 C. cf. (31) al di sotto. Un percorso campione di B m 1 (H) (t) rende quattro passaggi su qualsiasi intervallo t k, t k 1. Per calcolare la deviazione massima da D m è sufficiente stimare il cambio tra il punto medio e un punto finale di un tale intervallo, a due passi sia dalla endpoint sinistro e destro: tranne per un evento di probabilità al massimo 2 (K 2 2 (m 1)) 1 C. Quindi, tranne per un evento di probabilità al massimo. La spiegazione di cui sopra mostra che nello stesso tempo questo dà il limite superiore cercavamo tranne per un evento di probabilità al massimo (82 32 C) (K 2 2 m) 1 C. Poi un argomento simile può essere utilizzato come nella dimostrazione del Lemma 4. Vedi, ad esempio, parte (a) c'è: Quindi tenendo N K 2 2 me GT1 C in (12). e con (19) troppo, si ottiene per m 1 che, ad eccezione di un insieme di probabilità al massimo 2 (K 2 2 m) 1 C. dove GT0 K e GT1 C sono arbitrari. tranne per un evento di probabilità al massimo 8.125 (K 2 2 m) 1 C dove (H, K) e (H) sono gli stessi come nel Lemma 4. Si ricordi che il tasso di convergenza (31). come in parti (a) e (c), la prova del Lemma 4. è più veloce di quella in parti (b) e (d) di tale prova. Oltre a moltiplicatori costanti, il risultato di (31) ha la stessa forma dei risultati di (a) e (c) vi. Dal momento che nella dichiarazione di questo teorema abbiamo semplicemente sostituito i fattori convergenti più veloci da quelli convergenti più lenti, i moltiplicatori costanti (31) possono essere ignorate se m è abbastanza grande. Questo è il motivo per cui la (H, K) definita da Lemma 4 è adatto anche qui. Quindi si può ottenere che A BorelCantelli lemma ciò implica che con probabilità 1, i percorsi campione di B m (H) (t) convergono uniformemente ad un processo W (H) (t) su qualsiasi intervallo compatta 0, K. Poi W (H) (t) ha percorsi campione continui, ed eredita le proprietà di B m (H) (t) descritto nella Sezione 3. È un processo di auto-simile centrato con incrementi stazionari. Come Lemma 5 sotto implica, il processo in modo definito è gaussiana. Pertanto, W (H) (t) è un FBM e (33) la velocità di convergenza della approssimazione è quella riportata nel teorema. Lo scopo del seguente lemma per mostrare che l'integrazione per parti è essenzialmente valido per (2) che rappresenta W (H) (t), risultante in una formula simile (10). Poi ne consegue che può essere arbitrariamente stocasticamente ben approssimata da una trasformazione lineare del processo gaussiano, così è anche gaussiana. Dopo il secondo termine sul lato destro (37) svoltiamo a terzo termine. Prendete ora qualsiasi (0, 0). Dal h (s, t) è continua w. r.t. derivata parziale s sugli intervalli 1, e, t e per il Teorema 1. B m a. s. converge uniformemente al processo W Wiener su questi intervalli, confrontare (35) e (36) mostra che con questo esiste un m tale che Teorema 1 implica anche che m può essere scelto in modo che per il quarto termine (37) una simile ha finalmente, Teorema 2 (o, con una costruzione modificata, Teorema 3 sotto) garantisce che m può essere scelto in modo che il primo termine (37) soddisfa la stessa disuguaglianza: Gli ultimi quattro formule insieme dimostrano il lemma. 5 Miglioramento della costruzione con il ravvicinamento Parti KMT (b) e (d), la prova del Lemma 4 ha dato peggiore tasso di convergenza di parti (a) e (c), in cui i tassi è ipotizzabile per essere migliore possibile. La ragione di questo è chiaramente la velocità di convergenza relativamente più debole della ravvicinamento RW ordinaria BM, che è stato utilizzato in parti (b) e (d), ma non in parti (a) e (c). E 'anche chiaro che da lì utilizzando la migliore approssimazione possibile KMT invece eliminerebbe questa debolezza e darebbe speriamo che il miglior prezzo possibile anche qui. Il prezzo si deve pagare per questo è la procedura complessa e il futuro dipendente con il quale il metodo KMT costruisce adatto ravvicinamento RW da BM. Il risultato abbiamo bisogno da Komls 1975 e Komls 1976 è la seguente. Supponiamo che si vuole definire un i. i.d. Sequenza X 1, X 2, di variabili casuali con una data distribuzione in modo che le somme parziali sono più vicino al BM possibile. Supponiamo che E (X k) 0, Var (X k) 1 e la funzione generatrice dei momenti E (e Ux k) lt per. Let S (k) X 1 X k. k 1 sia le somme parziali. Se viene dato BM W (t) (t 0), allora per ogni n 1 esiste una sequenza di trasformazioni quantile condizionali applicati a W (1), W (2) ,, W (n) in modo che si ottiene il desiderato parziali somme S (1), S (2) ,, S (n) e la differenza tra le due sequenze è la più piccola possibile: per ogni x GT0, dove C 0, K 0, sono costanti positive che dipendono dalla distribuzione di X k. ma non su n o x. Inoltre, può essere fatto arbitrariamente grande scegliendo un sufficiente C 0. Prendendo qui si ottiene dove n 1 è arbitraria. Fissare un intero m 0, e di introdurre le stesse notazioni come nelle sezioni precedenti:. Quindi moltiplicare la disuguaglianza interna in (42) da 2 m e utilizzare auto-similarità (1) di BM (con) per ottenere un RW rimpicciolito (0 k K 2 2 m) dal corrispondente valore diadico W (tk) (0 k K 2 2 m) di BM da una sequenza di trasformazioni quantile condizionato in modo che, ad eccezione di un insieme di probabilità inferiore a K 0 (K 2 2 m) C 0. per ogni GT0 m 1 e K. Qui (19) è stato utilizzato troppo. Poi (43) implica la differenza dei due approssimazioni consecutive che per ogni m 1 e K GT0. Questo è esattamente ciò che abbiamo bisogno di migliorare i tassi di convergenza in parti (b) e (d) del Lemma 4. Sostituire queste approssimazioni KMT nella definizione (8) o (9) di B m (H) (t k). In questo modo si può ottenere approssimazioni convergenti più veloci di FBM. Poi tutto sopra a 3 e 4 sono ancora validi, tranne che si può utilizzare la formula migliorata (44) invece di Lemma 3 a parti (b) e (d) nella prova del Lemma 4. In questo modo, invece di (21) si ottiene per ogni m 1, tranne che per un insieme di probabilità inferiore a 2 K 0 (K 2 2 m) C 0. Pure in (44). invece di (24) e (25) si ha le disuguaglianze migliorate: con l'eccezione di un insieme di probabilità inferiore a 2 K 0 (JL 2 2 m) C 0. dove m 1. Se C 0 viene scelto sufficientemente grande in modo che C 0 2, allora (46) vale simultaneamente per tutti j 1,2,3, ad eccezione di un insieme di probabilità inferiore a (ricordiamo che abbiamo scelto L 4 K in parte (d) della prova Lemma 4.) Quindi con questo in parte (d) del Lemma 4. invece di (26) occorre la stima Poi invece di (27) e (28). i migliori risultati sono i seguenti. Innanzitutto, nel caso si ha per ogni m 1 e C 0 abbastanza grande in modo che C 0 2, ad eccezione di un insieme di probabilità inferiore a in (47). Ora, nel caso ne consegue che per ogni m 1 e C 0 abbastanza grande in modo che C 0 2, ad eccezione di un insieme di probabilità inferiore a in (47). Come risultato, vi è una convergenza per qualsiasi H (0,1). Dal momento che il ravvicinamento KMT stessa ha migliore tariffa per approssimare BM ordinaria da RW, può essere ipotizzato che i tassi di convergenza risultanti nel prossimo lemma e il teorema è anche migliore possibile (a parte moltiplicatori costanti) per approssimare FBM per le medie di un RW in movimento . Proof combinare i risultati di parti (a) e (c) nella prova di Lemma 4 e migliorate disuguaglianze sopra, cioè, si applicano (18). (20). (45). (22) e (48). e (49). Anche in questo caso, abbiamo semplicemente sostituire i fattori più veloce convergenti da quelli convergenti più lenti, ma i moltiplicatori costante dei termini convergenti più veloci non possono essere ignorati, dal momento che il lemma è indicato per qualsiasi m 1. Ora siamo in grado di estendere le approssimazioni miglioramento della FBM di argomenti reali per interpolazione lineare, nello stesso modo come abbiamo fatto con le approssimazioni originali, vedi (29). In questo modo otteniamo approssimazioni continue dei parametri (t 0) per m 0,1,2 ,, con percorsi campione lineare continuo, a tratti. Ora siamo in grado di indicare il secondo risultato principale di questo lavoro. dove e sono gli stessi Lemma 6. (In altre parole. nella definizione di un Lemma 6 costante moltiplicatore 10 deve essere cambiato a 20 qui.) Le costanti sono definite mediante il ravvicinamento KMT (41) con C 0 prescelto così grande che C 0 2. Il caso è descritto da (43). Dimostrazione La dimostrazione può seguire la linea della dimostrazione del Teorema 2 con una sola eccezione: i moltiplicatori costanti (31) e di conseguenza a (30) non può essere ignorato qui. Questo è il motivo per cui il moltiplicatore di Lemma 6 doveva essere modificato nella dichiarazione del teorema. Si può ipotizzare che il tasso migliore di approssimazione di fbm da medie dei semplici RW movimento è, dove N è il numero di punti considerati. Anche se sembra molto probabile che la definizione di cui sopra, vedere (8) con le approssimazioni KMT, forniture questo tasso di convergenza per qualsiasi H (0,1), ma nel Teorema 3 siamo stati in grado di dimostrare questa tariffa solo quando. Una possibile spiegazione potrebbe essere che nelle parti (b) e (d) del Lemma 4 abbiamo separato i massimi del kernel e le parti integratore. Come risultato, la velocità di convergenza siamo stati in grado di dimostrare quando è lo stesso che l'approssimazione originale KMT (43) dà per ordinaria BM, dove N K 2 2 m. se in questo caso i percorsi campione di FBM sono agevole di quella di BM. (Vedere, per esempio Decreusefond e stnel 1998). D'altra parte, la velocità di convergenza ottenuto è peggio, ma ancora pensato per essere il migliore possibile, quando, che euristicamente può essere spiegata con i percorsi di campionamento meno labirintiche di fbm in questo caso. Riferimenti Carmona e Coutin 1998 P. Carmona. L. Coutin frazionale moto browniano e la Markov di proprietà Eletti. Comm. Probab. Volume 3. 1998. pp. 95107 Decreusefond e stnel 1998 Decreusefond, L. stnel, A. S. 1998. frazionario browniano movimento: Theory and Applications. Systmes Diffrentiels Fractionnaires, ESAIM Atti 5, Parigi, pp. 7586. Decreusefond e stnel 1999 L. Decreusefond. COME. stnel analisi stocastica del moto browniano frazionario Potenziale anale. Volume 10. 1999. pp. 174214 Feller 1966 W. Feller Introduzione alla teoria della probabilità e delle sue applicazioni, Vol. II. 1966. Wiley, New York cavaliere 1961 F. B. Cavaliere Sulla passeggiata casuale e moto browniano Trans. Amer. Matematica. Soc. Volume 103. 1961. pp. 218.228 Kolmogorov 1940 A. N. Kolmogorov Wienersche Spiralen und andere einige interessante Kurven im Raum Hilbertschen Doklady A. N. S. S.S. R. Volume 26. 1940. pp. 115118 Komls 1975 J. Komls. P. Maggiore. G. Tusndy Un ravvicinamento delle somme parziali di camper indipendenti, e il DF campione. I Z. Wahrscheinlichkeitstheorie verw. Gebiete. Volume 32. 1975. pp. 111131 Komls 1976 J. Komls. P. Maggiore. G. Tusndy Un ravvicinamento delle somme parziali di camper indipendenti, e il DF campione. II Z. Wahrscheinlichkeitstheorie verw. Gebiete. Volume 34. 1976. pp. 3358 Mandelbrot e Van Ness 1968 B. B. Mandelbrot. J. W. movimenti Van Ness frazionario browniano, rumori frazionali e applicazioni SIAM Rev. Volume 10. 1968. pp. 422.437 Rvsz 1990 P. Rvsz Random Walk in a caso e ambienti non casuale. 1990. World Scientific, Singapore Samko 1993 S. G. Samko. AA. Kilbas. O. I. Marichev frazionali integrali e derivate. 1993. Gordon amp Breach Science, Yverdon Skorohod 1965 A. V. Gli studi Skorohod nella teoria dei processi casuali. 1965. Addison-Wesley, Reading, MA Stroock 1993 D. W. Calcolo delle Probabilità Stroock, una vista analitico. 1993. Cambridge University Press, Cambridge 1990 Szabados Szabados, T. 1990. Una discreta La sua formula. Coll. Matematica. Soc. Jnos Bolyai 57. Limite Teoremi di Probabilità e Statistica, PC (Ungheria) 1989 North-Holland, Amsterdam, pp. 491502. Szabados 1996 T. Szabados una introduzione elementare al processo di Wiener e integrali stocastici Studia Sci. Matematica. Sospeso. Volume 31. 1996. pp. 249297 Wiener 1921 N. Wiener La media di un funzionale analitica e il movimento browniano Proc. Nat. Acad. Sci. U. S.A. Volume 7. 1921. pp. 294298 spazio Wiener 1923 N. Wiener differenziale J. Math. Phys. Volume 2. 1923. pp. 132174 Copyright 2001 Elsevier Science B. V. Tutti i diritti riservati. Citando articoli () medie mobili gaussiana, semimartingala e opzione tariffaria Patrick Cheridito. Dipartimento di Matematica, ETH Zurigo, CH-8092 Zurigo, Svizzera ricevuto 30 gennaio 2003. Rivisto l'11 giugno 2003. Accepted 18 agosto 2003. Disponibile online il 21 settembre 2003. Forniamo una caratterizzazione dei processi gaussiana con incrementi stazionari che possono essere rappresentati come una media mobile rispetto ad un moto browniano due lati. Per tale processo diamo una condizione necessaria e sufficiente per essere un semimartingala rispetto alla filtrazione generata dal moto browniano due lati. Inoltre, mostriamo che questa condizione implica che il processo è o di variazione finita o un multiplo di un moto browniano rispetto ad una misura di probabilità equivalente. Come applicazione si discute il problema di opzione tariffaria a modelli finanziari guidati da medie mobili gaussiana con incrementi stazionari. In particolare, deriviamo prezzi delle opzioni in una versione frazionale regolarizzata del modello BlackScholes. processi gaussiani Moving rappresentanza media semimartingala Equivalente misure martingala Option prezzi 1 Introduzione Sia uno spazio di probabilità dotato di un moto browniano due lati, cioè un processo gaussiano centrata continuo con covarianza per una funzione che è zero sull'asse reale negativo e soddisfa per ogni t GT0, si può definire il processo gaussiano centrato con incrementi stazionari, lo scopo di questo lavoro è lo studio dei processi della forma (1.1) con una vista verso modellazione finanziaria. Se (X t) t 0 è un processo stocastico su, indichiamo con la filtrazione più piccolo che soddisfa le usuali ipotesi e contiene la filtrazione By indichiamo la filtrazione più piccolo che soddisfa le usuali ipotesi e contiene la filtrazione La struttura della carta è segue. Nella sezione 2 ricordiamo un risultato di Karhunen (1950). che dà condizioni necessarie e sufficienti per un processo gaussiano stazionario centrata essere rappresentabili in forma dove. Nella sezione 3 diamo una caratterizzazione di quei processi della forma (1.1) che sono - semimartingales e mostriamo che sono i processi di variazione o finiti, o per ogni T (0,), esiste una misura di probabilità equivalente in base al quale (Y t) t 0, T è un multiplo di un moto browniano. In Section 4 we apply a transformation introduced in Masani (1972) to establish a one-to-one correspondence between stationary centred Gaussian processes and centred Gaussian processes with stationary increments that are zero for t 0. This allows us to extend Karhunens result to centred Gaussian processes with stationary increments and to show that every process of the form (1.1) can be approximated by semimartingales of the form (1.1). By transferring the results from Section 3 back to the framework of stationary centred Gaussian processes, we obtain an extension of Theorem 6.5 of Knight (1992). which gives a necessary and sufficient condition for a process of the form (1.2) to be an - semimartingale. In Section 5 we discuss the problem of option pricing in financial models driven by processes of the form (1.1). As an example we price a European call option in a regularized fractional BlackScholes model. 2 Stationary Gaussian moving averages Definition 2.1 A stochastic process is stationary if for all , where denotes equality of all finite-dimensional distributions. Definition 2.2 By S we denote the set of functions such that ( t )0 for all t lt0. If S . we can for all , define in the L 2 - sense. It is clear that is a stationary centred Gaussian process. If possible, we choose a right-continuous version. Example 2.3 Let , , for a gt0. Then, S . and is a stationary OrnsteinUhlenbeck process. Remark 2.4 Let S . It can be shown by approximating with continuous functions with compact support, that Hence, t X t is a continuous mapping from to . Moreover, where denotes the L 2 - closure of the linear span of a set of square-integrable random variables. The following theorem follows from Satz 5 in Karhunen (1950) . Theorem 2.5 (Karhunen, 1950 ) Let be a stationary centred Gaussian process such that Hence, exactly the same arguments that show that the standard BlackScholes model is arbitrage-free and complete, can be used to prove that the same is true for the model (5.1). In particular, the unique fair price of a European call option with maturity T and strike price K is given by If is of the form (i) or (ii), then it can easily be regularized: Choose an arbitrary volatility v gt0. By Proposition 4.4. there exists for all gt0 a function of the form (iii) such that and Remark 5.1 (1) Let SI I with (0)0. Obviously, the distribution of the process ( Y t ) t 0, T depends on the whole function . On the other hand, the option price (5.2) depends only on (0). The reason for this is that the option price given by (5.2) is the minimal amount of initial wealth needed to replicate the options pay-off with a trading strategy that can be adjusted continuously in time, and it can be seen from (3.9) that the volatility of the model (5.1) is given by (0). (2) By replacing the function SI in the representation (3.3) by a suitable stochastic process ( t ) t 0, T with values in SI . it should be possible to extend models of the form (5.1) to models with stochastic volatility. Example 5.2 (Regularized fractional BlackScholes model) Let for a positive constant . and c H as in Example 3.3 (b). Then the process is equal to , where is a standard fBm, and the corresponding model (5.1) is a fractional version of the BlackScholes model. For a discussion of the empirical evidence of correlation in stock price returns see, e. g. Cutland et al. (1995) or Willinger et al. (1999) and the references therein. In Klppelberg and Khn (2002) fractional asset price models are motivated by a demonstration that fBm can be seen as a limit of Poisson shot noise processes. However, it follows from Theorem 3.9 (b) that ( B t H ) t 0, T is not a semimartingale with respect to the filtration , and it is well known that it is not a semimartingale in its own filtration either (for a proof in the case see Example 4.9.2 in Liptser and Shiryaev (1989). for a general proof see Maheswaran and Sims (1993) or Rogers (1997) ). It follows from Theorem 7.2 in Delbaen and Schachermayer (1994) that there exists a free lunch with vanishing risk consisting of simple - predictable trading strategies. An early discussion about the existence of arbitrage in fBm models can be found in Maheswaran and Sims (1993). In Rogers (1997) an arbitrage for a linear fBm model is constructed, and it is shown that fBm can be turned into a semimartingale by modifying the function near zero. The arbitrage strategies given in Shiryaev (1998) and Salopek (1998) work for linear and exponential fBm models with . In Cheridito (2003) arbitrage for linear and exponential fBm models is constructed for all . To regularize the fractional BlackScholes model, we can modify the function (5.3) as follows: For v gt0 and d gt0, define It is clear that for given v gt0, Hence, it can be shown as in the proof of Proposition 4.4 that for all gt0 there exists a d gt0 such that On the other hand, since the function v , d is of form (iii), the corresponding model (5.1) is arbitrage-free and complete, and the price of a European call option is given by (5.2) . Acknowledgements This paper grew out of a chapter of the authors doctoral dissertation conducted at the ETH Zrich under the supervision of Freddy Delbaen. The author is thankful to Jan Rosinski and Marc Yor for helpful comments and to Yacine At-Sahalia for an invitation to the Bendheim Center for Finance in Princeton, where a part of the paper was written. Financial support from the Swiss National Science Foundation and Credit Suisse is gratefully acknowledged. References Black and Scholes 1973 F. Black. M. Scholes The pricing of options and corporate liabilities J. Polit. Econom. Volume 81. 1973. pp. 637659 Cheridito 2002 P. Cheridito Sensitivity of the BlackScholes option price to the local path behavior of the stochastic process modeling the underlying asset Proc. Steklov Inst. Math. Volume 237. 2002. pp. 225239 Cheridito 2003 P. Cheridito Arbitrage in fractional Brownian motion models Finance Stochast. Volume 7. Issue 4. 2003. pp. 533553 Cherny 2001 Cherny, A. 2001. When is a moving average a semimartingale Research Report No. 2001-28, MaPhySto, Denmark. Cutland 1995 N. J. Cutland. P. E. Kopp. W. Willinger Stock price returns and the Joseph effect a fractional version of the BlackScholes model Prog. Probab. Volume 36. 1995. pp. 327351 Delbaen and Schachermayer 1994 F. Delbaen. W. Schachermayer A general version of the fundamental theorem of asset pricing Math. Ann. Volume 300. Issue 3. 1994. pp. 463520 Embrechts and Maejima 2002 Embrechts, P. Maejima, M. 2002. Selfsimilar processes. Princeton Series in Applied Mathematics. Princeton University Press, Princeton, NJ. Emery 1982 M. Emery Corvariance des semimartingales gaussiennes C. R. Acad. Sci. Paris Sr. I Math. Volume 295. Issue 12. 1982. pp. 703705 Galchouk 1984 Galchouk, L. I. 1984. Gaussian semimartingales. Statistics and control of stochastic processes (Moscow), Transl. Ser. Math. Engrg. Optimization Software, New York, pp. 102121. Harrison 1984 J. M. Harrison. R. Pitbladdo. S. M. Schaefer Continuous price processes in frictionless markets have infinite variation J. Business. Volume 57. 1984. pp. 353365 Hitsuda 1968 M. Hitsuda Representation of Gaussian processes equivalent to Wiener process Osaka J. Math. Volume 5. 1968. pp. 299312 Jain and Monrad 1982 N. C. Jain. D. Monrad Gaussian quasimartingales Z. Wahrsch. Verw. Gebiete. Volume 59. Issue 2. 1982. pp. 139159 Jeulin and Yor 1993 Jeulin, T. Yor, M. 1993. Moyennes mobiles et semimartingales. Sminaire de Probabilits, Vol. XXVII, Lecture Notes in Mathematics, No. 1557, Springer, Berlin, pp. 5377. Karatzas and Shreve 1991 I. Karatzas. S. E. Shreve Brownian Motion and Stochastic Calculus. 1991. Springer, Berlin Karhunen 1950 K. Karhunen ber die Struktur stationrer zuflliger Funktionen Ark. Mat. Volume 1. Issue 3. 1950. pp. 141160 Klppelberg and Khn 2002 Klppelberg, C. Khn, C. 2002. Fractional Brownian motion as a weak limit of Poisson shot noise processeswith applications to finance. Preprint. Knight 1992 F. B. Knight Foundations of the Prediction Process. 1992. Oxford University Press, Oxford Kolmogorov 1940 A. N. Kolmogorov Wienersche Spiralen und einige andere interessante Kurven im Hilbertschen Raum C. R. (Doklady) Acad. Sci. URSS (N. S.). Volume 26. 1940. pp. 115118 Liptser and Shiryaev 1989 R. Sh. Liptser. A. N. Shiryaev Theory of Martingales. 1989. Kluwer Academic Publisher, Dordrecht, Hinghant, MA Maheswaran and Sims 1993 Maheswaran, S. Sims, C. A. 1993. Empirical implications of arbitrage-free asset markets. Models, Methods and Applications of Econometrics, Peter, C. Phillips, B. (Eds.), Basil Blackwell, Oxford. Mandelbrot and Van Ness 1968 B. B. Mandelbrot. J. W. Van Ness Fractional Brownian motions, fractional noises and applications SIAM Rev. Volume 10. 1968. pp. 422437 Masani 1972 P. Masani On helixes in Hilbert space I. Theory Probab. Appl. Volume 17. 1972. pp. 119 Protter 1990 P. Protter Stochastic Integration and Differential Equations. 1990. Springer, Berlin Rogers 1997 L. C.G. Rogers Arbitrage with fractional Brownian motion Math. Finance. Volume 7. Issue 1. 1997. pp. 95105 Revuz and Yor 1999 D. Revuz. M. Yor Continuous Martingales and Brownian Motion. 1999. Springer, Berlin Salopek 1998 D. M. Salopek Tolerance to arbitrage Stochast. Process. Appl. Volume 76. Issue 2. 1998. pp. 217230 Samorodnitsky and Taqqu 1994 G. Samorodnitsky. M. S. Taqqu Stable Non-Gaussian Random Processes. 1994. Chapman amp Hall, New York Samuelson 1965 P. A. Samuelson Rational theory of warrant pricing Indust. Manage. Rev. Volume 6. Issue 2. 1965. pp. 1331 Shiryaev 1998 Shiryaev, A. N. 1998. On arbitrage and replication for fractal models. Research Report No. 1998-20, MaPhySto, Denmark. Stricker 1977 C. Stricker Quasimartingales, martingales locales, semimartingales, et filtrations naturelles Zeit. fr Wahrsch. und verw. Gebiete. Volume 39. Issue 1. 1977. pp. 5564 Stricker 1983 C. Stricker Semimartingales gaussiennesapplication au problme de linnovation Z. Wahrsch. Verw. Gebiete. Volume 64. Issue 3. 1983. pp. 303312 Stricker 1984 Stricker, C. 1984. Quelques remarques sur les semimartingales Gaussiennes et le problme de linnovation. Lecture Notes in Control and Information Science, Vol. 61, Springer, Berlin, pp. 260276. Willinger 1999 W. Willinger. M. S. Taqqu. V. Teverovsky Stock market prices and long-range dependence Finance Stochast. Volume 3. Issue 1. 1999. pp. 113 Copyright 2003 Elsevier B. V. All rights reserved. Citing articles ( )Starting from the moving average (MA) integral representation of fractional Brownian motion (FBM), the class of fractional LxE9vy processes (FLPs) is introduced by replacing the Brownian motion by a general LxE9vy process with zero mean, finite variance and no Brownian component. We present different methods of constructing FLPs and study second-order and sample path properties. FLPs have the same second-order structure as FBM and, depending on the LxE9vy measure, they are not always semimartingales. We consider integrals with respect to FLPs and MA processes with the long memory property. In particular, we show that the LxE9vy-driven MA process with fractionally integrated kernel coincides with the MA process with the corresponding (not fractionally integrated) kernel and driven by the corresponding FLP. Article information Dates First available in Project Euclid: 4 December 2006 Permanent link to this document projecteuclid. orgeuclid. bj1165269152 Digital Object Identifier doi:10.3150bj1165269152 Marquardt, Tina. Fractional LxE9vy processes with an application to long memory moving average processes. Bernoulli 12 (2006), no. 6, 1099--1126. doi:10.3150bj1165269152. projecteuclid. orgeuclid. bj1165269152. Export citation References 1 Barndorff-Nielsen, O. E. and Shephard, N. (2001) Non-Gaussian Ornstein-Uhlenbeck based models and some of their uses in financial economics (with discussion). J. Roy. Statist. Soc. Ser. B, 63, 167-241. 2 Benassi, A. Cohen, S. and Istas, J. (2004) On roughness indices for fractional fields. Bernoulli, 10, 357-373.3 Bender, C. (2003) Integration with respect to a fractional Brownian motion and related market models. Doctoral thesis, University of Konstanz. 4 Brockwell, P. J. (2001) LxE9vy-driven CARMA processes. Ann. Inst. Statist. Math. 52, 1-18. 5 Brockwell, P. J. (2004) Representations of continuous-time ARMA processes. J. Appl. Probab. 41A, 375-382.6 Brockwell, P. J. and Marquardt, T. (2005) LxE9vy driven and fractionally integrated ARMA processes with continuous time parameter. Statist. Sinica, 15, 477-494. 7 Cohen, S. Lacaux, C. and Ledoux, M. (2005) A general framework for simulation of fractional fields. Preprint, UniversitxE9 Paul Sabatier, Toulouse. lsp. ups-tlse. frFpCohen.8 Cont, R. and Tankov, P. (2004) Financial Modelling with Jump Processes. Boca Raton, FL: Chapmann amp HallCRC. Mathematical Reviews (MathSciNet): MR2042661 9 Decreusefond, L. and Savy, N. (2004) Anticipative calculus for filtered Poisson processes. Preprint. perso. enst. fr10 Decreusefond, L. and xDCstxFCnel, A. S. (1999) Stochastic analysis of the fractional Brownian motion. Potential Anal. 10, 177-214.11 Doukhan, P. Oppenheim, G. and Taqqu, M. S. (2003) Theory and Applications of Long-Range Dependence, Boston: BirkhxE4user. 12 Duncan, T. E. Hu, Y. and Pasik-Duncan, B. (2000) Stochastic calculus for fractional Brownian motion I. Theory. SIAM J. Control. Optim. 28, 582-612.13 Eberlein, E. and Raible, S. (1999) Term structure models driven by general LxE9vy processes. Math. Finance, 9, 31-53.14 Fasen, V. (2004) Extremes of LxE9vy driven moving average processes with application in finance. Doctoral thesis, Munich University of Technology. 15 Gripenberg, N. and Norros, I. (1996) On the prediction of fractional Brownian motion. J. Appl. Probab. 33, 400-410.16 Kallenberg, O. (1997) Foundations of Modern Probability. New York: Springer-Verlag. Mathematical Reviews (MathSciNet): MR1464694 17 LoxE8ve, M. (1960) Probability Theory. Princeton, NJ: Van Nordstrand. 18 Mandelbrot, B. B. and Van Ness, J. W. (1968) Fractional Brownian motions, fractional noises and applications. SIAM Rev. 10, 422-437.19 Marcus, M. B. and Rosinski, J. (2005) Continuity and boundedness of infinitely divisible processes: a Poisson point process approach. J. Theoret. Probab. 18, 109-160.20 Nualart, D. (2003) Stochastic calculus with respect to the fractional Brownian motion and applications. In J. M. GonzxE1lez-Barrios, J. A. LeoxB4n and A. Meda (eds), Stochastic Models: Seventh Symposium on Probability and Stochastic Processes, Contemp. Math. 336, pp. 3-39. Providence, RI: American Mathematical Society. 21 Pipiras, V. and Taqqu, M. (2000) Integration questions related to fractional Brownian motion. Probab. Theory Related Fields, 118, 251-291.22 Protter, P. (2004) Stochastic Integration and Differential Equations, 2 edn. New York: Springer-Verlag. Mathematical Reviews (MathSciNet): MR2020294 23 Rajput, B. S. and Rosinski, J. (1989) Spectral representations of infinitely divisible processes. Probab. Theory Related Fields, 82, 451-487.24 Rosinski, J. (1989) On path properties of certain infinitely divisible processes, Stochastic Process. Appl. 33, 73-87.25 Rosinski, J. (1990) On series representations of infinitely divisible random vectors. Ann. Probab. 18, 405-430.26 Rosinski, J. (2002) Series representations of LxE9vy processes from the perspective of point processes. In O. E. Barndorff-Nielsen, T. Mikosch and S. Resnick (eds), LxE9vy Processes - Theory and Applications, pp. 401-415. Boston: BirkhxE4user. 27 Samko, S. G. Kilbas, A. A. and Marichev, O. I. (1993) Fractional Integrals and Derivatives. Lausanne: Gordon and Breach. Mathematical Reviews (MathSciNet): MR1347689 28 Samorodnitsky, G. and Taqqu, M. (1994) Stable Non-Gaussian Random Processes: Stochastic Models with Infinite Variance. New York: Chapman amp Hall.29 Sato, K. (1999) LxE9vy Processes and Infinitely Divisible Distributions. Cambridge: Cambridge University Press. 30 Shiryaev, A. N. (1996) Probability. New York: Springer-Verlag. Mathematical Reviews (MathSciNet): MR1368405 31 ZxE4hle, M. (1998) Integration with respect to fractal functions and stochastic calculus. Probab. Theory Related Fields, 111, 333-374.
No comments:
Post a Comment