|
Simona Sanfelici |
|
|
Università di Parma |
Abstract
I periodi di crisi economica mettono a dura prova la nostra comprensione
degli scenari finanziari e dovrebbero costituire un incentivo per
esplorare nuovi modelli e tecniche per interpretare eventi passati e
futuri e per misurare e gestire i rischi finanziari.
I dati finanziari ad alta frequenza contengono informazioni cruciali sul
processo sottostante. Un aspetto interessante della stima della
volatilità a partire dai dati ad alta frequenza è il rumore che nasconde
il prezzo efficiente. Lavori recenti hanno mostrato le potenzialità
dell'usare dati ad alta frequenza per il calcolo della covarianza, si veda
Andersen, Bollerslev, Diebold, Labys (Econometrica 2003), Bollerslev,
Zhang (J. Emp. Fin. 2003), Fleming, Kirby, Ostdiek (J. Fin. Econ. 2003).
Tuttavia, utilizzando dati ad alta frequenza si incontrano tre
difficoltà. La prima si riferisce al cosiddetto effetto Epps:
l'asincronicità delle quotazioni determina un bias verso zero nelle
correlazioni tra i titoli al crescere della frequenza di campionamento.
Pertanto le covarianze realizzate sottostimano drasticamente il grado di
dipendenza tra gli asset. La seconda riguarda la distorsione dal prezzo
efficiente dovuto agli effetti di microstruttura del mercato. Infine, in
un contesto multivariato complesso di crisi la distribuzione dei
rendimenti degli asset si allontanano dal paradigma di semimartingala
continua e le misure di rischio dovrebbero tener conto della presenza di
salti. Questi tre aspetti sono l'oggetto di una delle più recenti ed
attive aree di ricerca nel campo della Statistica, Econometria e Finanza
e sono di importanza fondamentale per comprendere gli scenari finanziari
e sviluppare strategie efficienti di gestione del rischio.
Motivati dalle conseguenze degli effetti sopra ricordati, un certo
numero di stimatori di covarianza è stato proposto nella letteratura;
tra questi, il metodo di Fourier proposto da Malliavin, Mancino (Fin.
and Stoch. 2002) fornisce uno strumento efficiente per trattare la non
sincronicità e gli effetti di microstruttura, mentre la cosiddetta
metodologia threshold sviluppata da Mancini (Scand. Actuarial J. 2004)
permette di separare la variazione
continua da quella discontinua. Per studiare l'econometria dei salti e
determinare misure di volatilità robuste ai salti è fondamentale
definire test statistici appropriati per identificare la presenza di
salti in una serie storica.
Si sta anche studiando uno stimatore basato su uno schema di
regolarizzazione a due passi che usa finestre di dati sovrapposte: ciò
definisce uno stimatore kernel su un insieme di dati regolarizzati e
questo è cruciale per trattare gli effetti di microstruttura. Inoltre,
il kernel, determinato tramite una procedura di ottimizzazione, permette
di implementare facilmente lo stimatore in modo da poter lavorare in
tempo reale.
Le diverse metodologie verranno messe a confronto con analoghe presenti
in letteratura, evidenziandone le rispettive potenzialità e limitazioni.