Tuesday 21 November 2017

Moving Media Sempre Stazionario


4.2 Modelli stazionari lineari per Time Series in cui la variabile casuale è chiamato innovazione perché rappresenta la parte della variabile osservato che è imprevedibile dati i valori passati. Il modello generale (4.4) presuppone che è l'uscita di un filtro lineare che trasforma le innovazioni ultime, cioè, è un processo lineare. Questa ipotesi di linearità si basa sulla decomposizione teorema Wolds (Wold 1938) che dice che qualsiasi processo covarianza stazionario discreto può essere espresso come somma di due processi non correlati, dove è puramente deterministico è un processo puramente indeterministica che può essere scritta come lineare somma del processo di innovazione: dove è una sequenza di variabili casuali serialmente non correlati con media nulla e varianza comune. Condizione necessaria per la stazionarietà. La formulazione (4.4) è una riparametrizzazione finito di rappresentazione infinita (4.5) - (4.6) con la costante. Di solito è scritto in termini dell'operatore lag definita da, che dà un'espressione più breve: dove i polinomi operatore lag e sono chiamati rispettivamente polinomiale e il polinomio,. Al fine di evitare la ridondanza parametro, assumiamo che non ci sono fattori comuni tra il ei componenti. Successivamente, studieremo la trama di alcune serie storiche generate da modelli fissi con l'obiettivo di determinare i principali modelli della loro evoluzione temporale. Figura 4.2 comprende due serie generato dai seguenti processi stazionari calcolate mediante l'quantlet genarma: Figura 4.2: Serie temporale generati dai modelli Come previsto, entrambe le serie mossa volta un livello costante senza cambiamenti nella varianza dovute alla struttura stazionaria. Inoltre, questo livello è vicino alla media teorica del processo, e la distanza di ciascun punto di questo valore è molto raramente fuori dei limiti. Inoltre, l'evoluzione della serie mostra partenze locali dalla media del processo, che è conosciuto come il comportamento reversione medio che caratterizza la serie temporale stazionaria. Studiamo con qualche dettaglio le proprietà dei diversi processi, in particolare, la funzione autocovarianza che cattura le proprietà dinamiche di un processo stocastico stazionario. Questa funzione dipende dalle unità di misura, in modo usuale misura del grado di linearità tra variabili è il coefficiente di correlazione. Nel caso di processi stazionari, il coefficiente di autocorrelazione al ritardo, indicato con, è definita come la correlazione tra e: Pertanto, la funzione di autocorrelazione (ACF) è la funzione autocovarianza standardizzate dalla varianza. Le proprietà della ACF sono: Data la proprietà di simmetria (4.10), l'ACF è di solito rappresentato per mezzo di un grafico a barre ai ritardi non negativi che si chiama la semplice correlogramma. Un altro strumento utile per descrivere le dinamiche di un processo stazionario è la funzione di autocorrelazione parziale (PACF). Il coefficiente di autocorrelazione parziale lag misura l'associazione lineare tra e rettificato degli effetti dei valori intermedi. Pertanto, è solo il coefficiente nel modello di regressione lineare: Le proprietà del PACF sono equivalenti a quelli della ACF (4.8) - (4.10) ed è facile dimostrare che (Box e Jenkins 1976). Come l'ACF, la funzione di autocorrelazione parziale non dipende dalle unità di misura ed è rappresentata per mezzo di un grafico a barre i ritardi non negativi che si chiama correlogramma parziale. Le proprietà dinamiche di ogni modello stazionario determinano una particolare forma dei correlogrammi. Inoltre, si può dimostrare che, per qualsiasi processo stazionario, entrambe le funzioni, ACF e PACF, approccio a zero quando il ritardo tende all'infinito. I modelli non sono sempre processi stazionari, per cui è necessario prima di determinare le condizioni di stazionarietà. Ci sono sottoclassi di modelli che hanno proprietà particolari così li studieremo separatamente. Così, quando e, è un processo rumore bianco. quando, è una pura movimento processo media dell'ordine. , E quando si tratta di un processo autoregressivo puro dell'ordine. . 4.2.1 White Noise Process Il modello più semplice è un processo di rumore bianco, dove si trova una sequenza di zero non correlati significa variabili con la varianza costante. Si è indicato con. Questo processo è stazionario se la varianza è finita,, dal momento che: condizioni verifica (4.1) - (4.3). Inoltre, non è correlata con il tempo, quindi la sua funzione di autocovarianza è: figura 4.7 mostra due serie storiche simulate generate dai processi con media zero e parametri e -0.7, rispettivamente. Il parametro autoregressivo misura la persistenza di eventi passati nei valori correnti. Ad esempio, se positivo (o negativo) Shock influenza positivamente (o negativamente) per un periodo di tempo che è più lungo più grande è il valore di. Quando la serie si muove più o meno intorno alla media per l'alternarsi nella direzione dell'effetto di, cioè, uno shock che influenza positivamente nel momento, ha effetti negativi sulla, positivi. Il processo è sempre invertibile ed è stazionaria quando il parametro del modello è vincolato a giacere nella regione. Per dimostrare la condizione stazionaria, prima scriviamo il sotto forma media mobile per sostituzione ricorsiva di a (4.14): Figura 4.8: correlogrammi popolazione per i processi che è, è una somma ponderata delle innovazioni del passato. I pesi dipendono dal valore del parametro: quando, (o), l'influenza di un dato aumenta innovazione (o diminuisce) nel tempo. Facendo affidamento a (4.15) per calcolare la media del processo, otteniamo: Dato che, il risultato è una somma di infiniti termini che converge per ogni valore di solo se, in questo caso. Un problema simile appare quando si calcola il secondo momento. La prova può essere semplificata assumendo che, cioè. Poi, varianza è: in questo caso, la varianza va all'infinito eccezione, nel qual caso. È facile verificare che sia la media e la varianza esplodono quando quella presa condizioni doesnt. La funzione autocovarianza di un processo stazionario è Di conseguenza, la funzione di autocorrelazione per il modello fisso è: Cioè, il correlogramma mostra un decadimento esponenziale con valori positivi sempre se è positivo e con oscillazioni negativo-positivo, se è negativo (vedi figura 4.8). Inoltre, il tasso di decadimento diminuisce all'aumentare, quindi maggiore è il valore della forte correlazione dinamica del processo. Infine, vi è un cutoff nella funzione di autocorrelazione parziale al primo ritardo. Figura 4.9: correlogrammi popolazione per i processi si può dimostrare che il processo generale (Box e Jenkins 1976): è fermo solo se le radici della equazione caratteristica della menzogna polinomiale di fuori del cerchio unitario. La media di un modello stazionario è. È sempre invertibile per valori dei parametri La sua posizione ACF va a zero esponenzialmente quando le radici di siano reali o con fluttuazioni onda sinusoidale coseno quando sono complex. Its PACF ha un cutoff al ritardo, cioè. Alcuni esempi di correlogrammi per i modelli più complessi, come la, può essere visto in figura 4.9. Essi sono molto simili ai modelli quando i processi hanno radici reali, ma richiedono una forma molto diversa quando le radici sono complesse (vedere la prima coppia di grafici di figura 4.9). 4.2.4 Autoregressive Il autoregressivo generale (finito-ordine) modello a media mobile di ordini di modello a media mobile,, è: modello a media mobile esponenziale e Come primo passo per andare oltre i modelli medi, modelli random walk, e modelli di tendenza lineare, nonseasonal modelli e tendenze possono essere estrapolati utilizzando un modello a media mobile o levigante. L'assunto di base dietro media e modelli di livellamento è che la serie temporale è localmente stazionario con una media lentamente variabile. Quindi, prendiamo una media mobile (locale) per stimare il valore corrente della media e poi utilizzarla come la previsione per il prossimo futuro. Questo può essere considerato come un compromesso tra il modello media e la deriva modello random walk-senza-. La stessa strategia può essere utilizzata per stimare e estrapolare una tendenza locale. Una media mobile è spesso chiamato una versione quotsmoothedquot della serie originale, perché la media a breve termine ha l'effetto di appianare i dossi nella serie originale. Regolando il grado di lisciatura (la larghezza della media mobile), possiamo sperare di colpire un qualche tipo di equilibrio ottimale tra le prestazioni dei modelli medi e random walk. Il tipo più semplice di modello di media è il. Semplice (equamente ponderate) Media mobile: Le previsioni per il valore di Y al tempo t1 che viene fatta al tempo t è pari alla media semplice dei più recenti osservazioni m: (Qui e altrove mi utilizzerà il simbolo 8220Y-hat8221 di stare per una previsione di serie temporali Y fatta quanto prima prima possibile da un dato modello.) Questa media è centrato periodo t - (m1) 2, il che implica che la stima della media locale tenderà a restare indietro il vero valore della media locale circa (m1) 2 periodi. Così, diciamo l'età media dei dati nella media mobile semplice (m1) 2 rispetto al periodo per il quale è calcolata la previsione: questa è la quantità di tempo per cui previsioni tenderanno a restare indietro ruotando punti nei dati . Ad esempio, se si sta una media degli ultimi 5 valori, le previsioni saranno circa 3 periodi in ritardo nel rispondere a punti di svolta. Si noti che se m1, il modello di media mobile semplice (SMA) è equivalente al modello random walk (senza crescita). Se m è molto grande (paragonabile alla lunghezza del periodo di stima), il modello SMA è equivalente al modello medio. Come con qualsiasi parametro di un modello di previsione, è consuetudine per regolare il valore di k per ottenere la migliore quotfitquot ai dati, cioè i più piccoli errori di previsione in media. Ecco un esempio di una serie che sembra mostrare fluttuazioni casuali intorno a una media lentamente variabile. Innanzitutto, proviamo per adattarsi con un modello casuale, che è equivalente a una media mobile semplice di 1 termine: Il modello random walk risponde molto velocemente alle variazioni della serie, ma così facendo raccoglie gran parte del quotnoisequot nel dati (le fluttuazioni casuali) e il quotsignalquot (media locale). Se invece cerchiamo una semplice media mobile di 5 termini, si ottiene un insieme più agevole dall'aspetto delle previsioni: Il 5-termine mobile semplice rese medie in modo significativo gli errori più piccoli rispetto al modello random walk in questo caso. L'età media dei dati di questa previsione è 3 ((51) 2), in modo che tende a ritardo punti di svolta da circa tre periodi. (Per esempio, una flessione sembra essersi verificato in periodo di 21, ma le previsioni non girare intorno fino a diversi periodi più tardi.) Si noti che le previsioni a lungo termine dal modello SMA sono una retta orizzontale, proprio come nel random walk modello. Pertanto, il modello SMA presuppone che vi sia alcuna tendenza nei dati. Tuttavia, mentre le previsioni del modello random walk sono semplicemente uguale all'ultimo valore osservato, le previsioni del modello di SMA sono pari ad una media ponderata dei valori ultimi. I limiti di confidenza calcolato dai Statgraphics per le previsioni a lungo termine della media mobile semplice non ottengono più ampio con l'aumento della previsione all'orizzonte. Questo ovviamente non è corretto Purtroppo, non vi è alcuna teoria statistica di fondo che ci dice come gli intervalli di confidenza deve ampliare per questo modello. Tuttavia, non è troppo difficile da calcolare le stime empiriche dei limiti di confidenza per le previsioni di più lungo orizzonte. Ad esempio, è possibile impostare un foglio di calcolo in cui il modello SMA sarebbe stato utilizzato per prevedere 2 passi avanti, 3 passi avanti, ecc all'interno del campione di dati storici. È quindi possibile calcolare le deviazioni standard campione degli errori in ogni orizzonte di previsione, e quindi la costruzione di intervalli di confidenza per le previsioni a lungo termine aggiungendo e sottraendo multipli della deviazione standard appropriato. Se cerchiamo una media del 9 termine semplice movimento, otteniamo le previsioni ancora più fluide e più di un effetto ritardo: L'età media è ora 5 punti ((91) 2). Se prendiamo una media mobile 19-termine, l'età media aumenta a 10: Si noti che, in effetti, le previsioni sono ora in ritardo punti di svolta da circa 10 periodi. Quale quantità di smoothing è meglio per questa serie Ecco una tabella che mette a confronto le loro statistiche di errore, anche compreso in media 3-termine: Modello C, la media mobile a 5-termine, i rendimenti il ​​valore più basso di RMSE da un piccolo margine su 3 - term e 9 termine medie, e le loro altre statistiche sono quasi identici. Così, tra i modelli con le statistiche di errore molto simili, possiamo scegliere se avremmo preferito un po 'più di risposta o un po' più scorrevolezza nelle previsioni. (Torna a inizio pagina.) Browns semplice esponenziale (media mobile esponenziale ponderata) Il modello a media mobile semplice di cui sopra ha la proprietà indesiderabile che tratta le ultime osservazioni k ugualmente e completamente ignora tutte le osservazioni che precedono. Intuitivamente, dati passati devono essere attualizzati in modo più graduale - per esempio, il più recente osservazione dovrebbe avere un peso poco più di 2 più recente, e la 2 più recente dovrebbe ottenere un po 'più peso che la 3 più recente, e presto. Il modello semplice di livellamento esponenziale (SES) realizza questo. Diamo 945 denotano una constantquot quotsmoothing (un numero compreso tra 0 e 1). Un modo per scrivere il modello è quello di definire una serie L che rappresenta il livello attuale (cioè il valore medio locale) della serie come stimato dai dati fino ad oggi. Il valore di L al momento t è calcolata in modo ricorsivo dal proprio valore precedente in questo modo: Così, il valore livellato corrente è una interpolazione tra il valore livellato precedente e l'osservazione corrente, dove 945 controlla la vicinanza del valore interpolato al più recente osservazione. Le previsioni per il prossimo periodo è semplicemente il valore livellato corrente: Equivalentemente, possiamo esprimere la prossima previsione direttamente in termini di precedenti previsioni e osservazioni precedenti, in una delle seguenti versioni equivalenti. Nella prima versione, la previsione è una interpolazione tra precedente meteorologiche e precedente osservazione: Nella seconda versione, la prossima previsione è ottenuta regolando la previsione precedente nella direzione dell'errore precedente di una quantità frazionaria 945. è l'errore al tempo t. Nella terza versione, la previsione è di un (cioè scontato) media mobile esponenziale ponderata con fattore di sconto 1- 945: La versione di interpolazione della formula di previsione è il più semplice da usare se si implementa il modello su un foglio di calcolo: si inserisce in un singola cellula e contiene i riferimenti di cella che puntano alla previsione precedente, l'osservazione precedente, e la cella in cui è memorizzato il valore di 945. Si noti che se 945 1, il modello SES è equivalente ad un modello random walk (senza crescita). Se 945 0, il modello SES è equivalente al modello medio, assumendo che il primo valore livellato è impostata uguale alla media. (Torna a inizio pagina). L'età media dei dati nelle previsioni semplice esponenziale-levigante è di 1 945 relativo al periodo per il quale è calcolata la previsione. (Questo non dovrebbe essere ovvio, ma può essere facilmente dimostrare valutando una serie infinita.) Quindi, la semplice previsione media mobile tende a restare indietro punti di svolta da circa 1 945 periodi. Ad esempio, quando 945 0.5 il ritardo è di 2 periodi in cui 945 0.2 il ritardo è di 5 periodi in cui 945 0.1 il ritardo è di 10 periodi, e così via. Per una data età media (cioè quantità di ritardo), il semplice livellamento esponenziale (SES) previsione è un po 'superiore alla previsione media mobile semplice (SMA) perché pone relativamente più peso sulla più recente --i. e osservazione. è leggermente più quotresponsivequot ai cambiamenti che si verificano nel recente passato. Per esempio, un modello di SMA con 9 termini e un modello di SES con 945 0,2 entrambi hanno un'età media di 5 per i dati nelle loro previsioni, ma il modello SES mette più peso sugli ultimi 3 valori di quanto non faccia il modello SMA e al contempo doesn8217t interamente 8220forget8221 sui valori più di 9 periodi vecchi, come mostrato in questo grafico: un altro importante vantaggio del modello SES sul modello SMA è che il modello SES utilizza un parametro smoothing che è continuamente variabile, in modo che possa facilmente ottimizzato utilizzando un algoritmo quotsolverquot per minimizzare l'errore quadratico medio. Il valore ottimale di 945 nel modello SES a questa serie risulta essere 0,2961, come illustrato di seguito: L'età media dei dati in questa previsione è 10.2961 3.4 periodi, che è simile a quella di una media 6 termine mobile semplice. Le previsioni a lungo termine dal modello SES sono una linea retta orizzontale. come nel modello SMA e il modello random walk senza crescita. Si noti tuttavia che gli intervalli di confidenza calcolati da Statgraphics ora divergono in modo ragionevole dall'aspetto, e che sono sostanzialmente più stretto gli intervalli di confidenza per il modello random walk. Il modello di SES presuppone che la serie è un po 'predictablequot quotmore di quanto non faccia il modello random walk. Un modello SES è in realtà un caso particolare di un modello ARIMA. così la teoria statistica dei modelli ARIMA fornisce una solida base per il calcolo intervalli di confidenza per il modello SES. In particolare, un modello SES è un modello ARIMA con una differenza nonseasonal, un MA (1) termine, e nessun termine costante. altrimenti noto come un modello quotARIMA (0,1,1) senza constantquot. Il MA (1) coefficiente nel modello ARIMA corrisponde alla quantità 1- 945 nel modello SES. Ad esempio, se si adatta un modello ARIMA (0,1,1) senza costante alla serie analizzate qui, il MA stimato (1) coefficiente risulta essere 0,7029, che è quasi esattamente un meno 0,2961. È possibile aggiungere l'assunzione di una tendenza non-zero costante lineare per un modello SES. Per fare questo, basta specificare un modello ARIMA con una differenza non stagionale e di un (1) termine MA con una costante, cioè un (0,1,1) modello ARIMA con costante. Le previsioni a lungo termine avranno quindi una tendenza che è uguale alla tendenza medio rilevato nel corso dell'intero periodo di stima. Non si può fare questo in collaborazione con destagionalizzazione, perché le opzioni di destagionalizzazione sono disattivati ​​quando il tipo di modello è impostato su ARIMA. Tuttavia, è possibile aggiungere una costante a lungo termine tendenza esponenziale ad un semplice modello di livellamento esponenziale (con o senza regolazione stagionale) utilizzando l'opzione di regolazione inflazione nella procedura di previsione. Il tasso appropriato quotinflationquot (crescita percentuale) per periodo può essere stimato come il coefficiente di pendenza in un modello trend lineare montato i dati in combinazione con una trasformazione logaritmo naturale, oppure può essere basata su altri, informazione indipendente per quanto riguarda le prospettive di crescita a lungo termine . (Ritorna all'inizio pagina.) Browns lineari (cioè doppie) modelli esponenziale La SMA e modelli di SES per scontato che non vi è alcuna tendenza di alcun tipo nei dati (che di solito è OK, o almeno non troppo male per 1- previsioni passo avanti quando i dati sono relativamente rumoroso), e possono essere modificati per includere un trend lineare costante come indicato sopra. Che dire di tendenze a breve termine Se una serie mostra un tasso variabile di crescita o un andamento ciclico che si distingue chiaramente contro il rumore, e se vi è la necessità di prevedere più di 1 periodo a venire, allora la stima di una tendenza locale potrebbe anche essere un problema. Il semplice modello di livellamento esponenziale può essere generalizzata per ottenere un modello lineare di livellamento esponenziale (LES) che calcola le stime locali sia a livello e di tendenza. Il modello di tendenza tempo-variante più semplice è Browns lineare modello di livellamento esponenziale, che utilizza due diverse serie levigato che sono centrate in diversi punti nel tempo. La formula di previsione si basa su un'estrapolazione di una linea attraverso i due centri. (Una versione più sofisticata di questo modello, Holt8217s, è discusso qui di seguito.) La forma algebrica di Brown8217s lineare modello di livellamento esponenziale, come quello del semplice modello di livellamento esponenziale, può essere espresso in una serie di forme diverse ma equivalenti. La forma quotstandardquot di questo modello è di solito espressa come segue: Sia S denotano la serie singolarmente-levigata ottenuta applicando semplice livellamento esponenziale di serie Y. Cioè, il valore di S al periodo t è dato da: (Ricordiamo che, in semplice livellamento esponenziale, questo sarebbe il tempo per Y al periodo t1) Allora che Squot denotano la serie doppiamente levigata ottenuta applicando semplice livellamento esponenziale (utilizzando lo stesso 945) per serie S:. Infine, le previsioni per Y tk. per qualsiasi kgt1, è data da: Questo produce e 1 0 (vale a dire imbrogliare un po ', e lasciare che la prima previsione uguale l'attuale prima osservazione), ed e 2 Y 2 8211 Y 1. dopo di che le previsioni sono generati usando l'equazione di cui sopra. Questo produce gli stessi valori stimati come la formula basata su S e S se questi ultimi sono stati avviati utilizzando S 1 S 1 Y 1. Questa versione del modello è usato nella pagina successiva che illustra una combinazione di livellamento esponenziale con regolazione stagionale. modello Holt8217s lineare esponenziale Brown8217s LES calcola stime locali di livello e l'andamento lisciando i dati recenti, ma il fatto che lo fa con un singolo parametro smoothing pone un vincolo sui modelli di dati che è in grado di adattarsi: il livello e tendenza non sono autorizzati a variare a tassi indipendenti. modello Holt8217s LES risolve questo problema includendo due costanti di lisciatura, uno per il livello e uno per la tendenza. In ogni momento t, come nel modello Brown8217s, il c'è una stima L t del livello locale e una T t stima della tendenza locale. Qui vengono calcolati ricorsivamente dal valore di Y osservata al tempo t e le stime precedenti del livello e l'andamento di due equazioni che si applicano livellamento esponenziale separatamente. Se il livello stimato e tendenza al tempo t-1 sono L t82091 e T t-1. rispettivamente, la previsione per Y tshy che sarebbe stato fatto al tempo t-1 è uguale a L t-1 T t-1. Quando si osserva il valore effettivo, la stima aggiornata del livello è calcolata in modo ricorsivo interpolando tra Y tshy e le sue previsioni, L t-1 T t-1, con pesi di 945 e 945. 1- La variazione del livello stimato, vale a dire L t 8209 L t82091. può essere interpretato come una misura rumorosa della tendenza al tempo t. La stima aggiornata del trend viene poi calcolata in modo ricorsivo interpolando tra L t 8209 L t82091 e la stima precedente del trend, T t-1. utilizzando pesi di 946 e 1-946: L'interpretazione del trend-smoothing costante 946 è analoga a quella del livello-levigatura costante 945. Modelli con piccoli valori di 946 assume che la tendenza cambia solo molto lentamente nel tempo, mentre i modelli con grande 946 supporre che sta cambiando più rapidamente. Un modello con un grande 946 ritiene che il lontano futuro è molto incerto, perché gli errori in trend-stima diventano molto importanti quando la previsione più di un periodo avanti. (Torna a inizio pagina.) Il livellamento costanti di 945 e 946 può essere stimato nel modo consueto minimizzando la media errore delle previsioni 1-step-ahead quadrato. Quando questo fatto in Statgraphics, le stime risultano essere 945 0,3048 e 946 0.008. Il valore molto piccolo di 946 significa che il modello assume molto poco cambiamento di tendenza da un periodo all'altro, in modo sostanzialmente questo modello sta cercando di stimare un trend di lungo periodo. Per analogia con la nozione di età media dei dati utilizzati nella stima del livello locale della serie, l'età media dei dati che viene utilizzato per stimare la tendenza locale è proporzionale a 1 946, anche se non esattamente uguale ad esso . In questo caso risulta essere 10,006 125. Questo isn8217t un numero molto preciso in quanto la precisione della stima di 946 isn8217t realmente 3 decimali, ma è dello stesso ordine generale di grandezza della dimensione del campione di 100, così questo modello è una media di più di un bel po 'di storia nella stima del trend. La trama meteo seguente mostra che il modello LES stima un leggermente maggiore tendenza locale alla fine della serie rispetto alla tendenza costante stimata nel modello SEStrend. Inoltre, il valore stimato di 945 è quasi identica a quella ottenuta inserendo il modello SES con o senza tendenza, quindi questo è quasi lo stesso modello. Ora, queste sembrano le previsioni ragionevoli per un modello che dovrebbe essere stimare un trend locale Se si 8220eyeball8221 questa trama, sembra che la tendenza locale si è trasformato in basso alla fine della serie Quello che è successo I parametri di questo modello sono stati stimati minimizzando l'errore quadratico delle previsioni 1-step-ahead, non le previsioni a lungo termine, nel qual caso la tendenza doesn8217t fare un sacco di differenza. Se tutti si sta guardando sono errori 1-step-avanti, non si è visto il quadro più ampio delle tendenze sopra (diciamo) 10 o 20 periodi. Al fine di ottenere questo modello più in sintonia con la nostra bulbo oculare estrapolazione dei dati, siamo in grado di regolare manualmente la tendenza-smoothing costante in modo che utilizzi una base più breve per la stima di tendenza. Ad esempio, se si sceglie di impostare 946 0.1, quindi l'età media dei dati utilizzati nella stima la tendenza locale è di 10 periodi, il che significa che ci sono in media il trend negli ultimi 20 periodi che o giù di lì. Here8217s quello che la trama del tempo si presenta come se impostiamo 946 0.1, mantenendo 945 0.3. Questo sembra intuitivamente ragionevole a questa serie, anche se probabilmente è pericoloso estrapolare questa tendenza eventuali più di 10 periodi in futuro. Che dire le statistiche di errore Ecco un confronto modello per i due modelli sopra indicati, nonché tre modelli SES. Il valore ottimale di 945.per modello SES è di circa 0,3, ma risultati simili (con leggermente più o meno reattività, rispettivamente) sono ottenute con 0,5 e 0,2. exp lineare (A) Holts. levigatura con alfa e beta 0,3048 0.008 (B) Holts exp lineare. levigatura con alpha 0.3 e beta 0.1 (C) livellamento esponenziale semplice con alfa 0,5 (D) livellamento esponenziale semplice con alpha 0.3 (E) livellamento esponenziale semplice con alpha 0.2 Le loro statistiche sono quasi identiche, quindi abbiamo davvero can8217t fare la scelta sulla base di errori di previsione 1-step-avanti all'interno del campione di dati. Dobbiamo ripiegare su altre considerazioni. Se crediamo fermamente che ha senso basare la stima attuale tendenza su quanto è successo negli ultimi 20 periodi o giù di lì, siamo in grado di fare un caso per il modello LES con 945 0,3 e 946 0.1. Se vogliamo essere agnostici sul fatto che vi è una tendenza locale, poi uno dei modelli SES potrebbe essere più facile da spiegare e darebbe anche altre previsioni middle-of-the-road per i prossimi 5 o 10 periodi. (Ritorna all'inizio pagina.) Quale tipo di trend-estrapolazione è meglio: L'evidenza empirica orizzontale o lineare suggerisce che, se sono già stati adeguati i dati (se necessario) per l'inflazione, allora può essere imprudente per estrapolare lineare a breve termine tendenze molto lontano nel futuro. Le tendenze evidenti oggi possono rallentare in futuro, dovuta a cause diverse quali obsolescenza dei prodotti, l'aumento della concorrenza, e flessioni cicliche o periodi di ripresa in un settore. Per questo motivo, semplice livellamento esponenziale spesso si comporta meglio out-of-sample che altrimenti potrebbero essere previsto, nonostante la sua quotnaivequot estrapolazione di tendenza orizzontale. modifiche di tendenza smorzato del modello di livellamento esponenziale lineare sono spesso utilizzati in pratica per introdurre una nota di conservatorismo nelle sue proiezioni di tendenza. Il modello LES smorzata-tendenza può essere implementato come un caso particolare di un modello ARIMA, in particolare, un modello (1,1,2) ARIMA. E 'possibile calcolare gli intervalli di confidenza intorno previsioni a lungo termine prodotte da modelli di livellamento esponenziale, considerandoli come casi speciali di modelli ARIMA. (Attenzione: non tutto il software calcola correttamente intervalli di confidenza per questi modelli.) La larghezza degli intervalli di confidenza dipende (i) l'errore RMS del modello, (ii) il tipo di levigatura (semplice o lineare) (iii) il valore (s) della costante di smoothing (s) e (iv) il numero di periodi avanti si prevedono. In generale, gli intervalli distribuite più veloce come 945 diventa più grande nel modello SES e si propagano molto più velocemente quando lineare piuttosto che semplice lisciatura viene utilizzato. Questo argomento è discusso ulteriormente nella sezione modelli ARIMA delle note. (Torna a inizio pagina.) Una breve introduzione alle Moderna Time Series Definizione Una serie temporale è una casuale funzione x t di t argomento in una serie T. In altre parole, una serie storica è una famiglia di variabili casuali. x t-1. x t. x t1. che corrisponde a tutti gli elementi del set T, dove T è dovrebbe essere una, insieme infinito numerabile. Definizione Un osservata tempo serie t t e T o T è considerata come una parte di una realizzazione di un funzione random x t. Un insieme infinito di possibili realizzazioni che potrebbero essere stati osservati si chiama un insieme. Per mettere le cose in modo più rigoroso, la serie storica (o funzione casuale) è una funzione reale x (w, t) delle due variabili w e t, dove wW e t T. Se fissiamo il valore di w. abbiamo una funzione reale x (t w) del tempo t, che è una realizzazione della serie temporale. Se fissiamo il valore di t, allora abbiamo una variabile casuale X (w t). Per un dato punto nel tempo vi è una distribuzione di probabilità su x. Così una funzione casuale x (w, t) può essere considerato sia per una famiglia di variabili casuali o come una famiglia di realizzazioni. Definizione Definiamo la funzione di distribuzione della variabile casuale w proposta t 0 come P o) x (x). Allo stesso modo possiamo definire la distribuzione congiunta di n variabili aleatorie I punti che contraddistinguono l'analisi di serie temporali di analisi statistiche ordinarie sono le seguenti (1) La dipendenza tra osservazioni in diversi punti cronologici in tempo gioca un ruolo essenziale. In altre parole, l'ordine delle osservazioni è importante. In un'analisi statistica ordinaria si assume che le osservazioni sono indipendenti. (2) Il dominio di t è infinito. (3) Dobbiamo fare una deduzione da una realizzazione. La realizzazione della variabile casuale può essere osservata solo una volta in ogni punto nel tempo. All'analisi multivariata abbiamo molte osservazioni su un numero finito di variabili. Questa differenza critica richiede l'assunzione di stazionarietà. Definizione La casuale funzione x t è detto di essere rigorosamente stazionari se tutte le funzioni di distribuzione di dimensione finita che definiscono x t rimangono gli stessi, anche se l'intero gruppo di punti t 1. t 2. t n viene spostato lungo l'asse del tempo. Cioè, se per qualsiasi intero t 1. t 2. t n e k. Graficamente, si potrebbe immaginare la realizzazione di una serie strettamente stazionaria come avente non solo allo stesso livello in due intervalli differenti, ma anche la stessa funzione di distribuzione, fino ai parametri che definiscono. L'assunzione di stazionarietà rende la nostra vita più semplice e meno costosa. Senza stazionarietà dovremmo provare il processo di frequente ad ogni tempo, al fine di costruire una caratterizzazione delle funzioni di distribuzione nella definizione precedente. Stazionarietà significa che possiamo limitare la nostra attenzione ad alcune delle semplici funzioni numeriche, cioè i momenti delle distribuzioni. I momenti centrali sono date da Definition (i) Il valore medio della serie temporale t è cioè il primo momento dell'ordine. (Ii) La funzione autocovarianza di t è cioè il secondo momento sul media. Se ts allora avete la varianza di x t. Useremo per indicare la autocovarianza di una serie stazionaria, dove k indica la differenza tra t e s. (Iii) La funzione di autocorrelazione (ACF) di t è Useremo per indicare l'autocorrelazione di una serie stazionaria, dove k indica la differenza tra t e s. (Iv) l'autocorrelazione parziale (PACF). f kk. è la correlazione tra z t e z tk dopo aver rimosso la loro dipendenza lineare reciproca sulla variabili intervenienti z T1. z t2. z tk-1. Un modo semplice per calcolare l'autocorrelazione parziale tra z t e z tk è quello di eseguire le due regressioni quindi calcolare la correlazione tra i due vettori residuo. Oppure, dopo aver misurato le variabili come deviazioni dalla loro mezzi, l'autocorrelazione parziale può essere trovato come il coefficiente di regressione LS su z t nel modello dove il punto sopra la variabile indica che è misurata come deviazione dalla media. (V) Le equazioni di Yule-Walker forniscono un importante rapporto tra le autocorrelazioni parziali e le autocorrelazioni. Moltiplicare entrambi i lati dell'equazione 10 per z tk-j e prendere le aspettative. Questa operazione ci dà la seguente equazione alle differenze nelle autocovarianze o, in termini di autocorrelazioni Questo apparentemente semplice rappresentazione è davvero un risultato potente. Vale a dire, per j1,2. k possiamo scrivere il pieno sistema di equazioni, noto come le equazioni di Yule-Walker, Da algebra lineare si sa che la matrice di r s è di rango pieno. Pertanto è possibile applicare Regola di Cramer successivamente per k1,2. per risolvere il sistema per le autocorrelazioni parziali. I primi tre sono Abbiamo tre importanti risultati in serie rigorosamente fermo. L'implicazione è che possiamo usare qualsiasi realizzazione finita della sequenza per stimare la media. In secondo luogo. se t è strettamente stazionaria e E t 2 lt poi L'implicazione è che l'autocovarianza dipende solo dalla differenza tra t e s, non il loro punto cronologico nel tempo. Potremmo usare qualsiasi coppia di intervalli nel calcolo del autocovarianza fintanto che il tempo tra loro era costante. E possiamo usare qualsiasi realizzazione finito di dati per stimare le autocovarianze. In terzo luogo, la funzione di autocorrelazione nel caso di stretta stazionarietà è dato da L'implicazione è che l'autocorrelazione dipende solo dalla differenza tra t e s pure, e di nuovo può essere stimato da qualsiasi realizzazione finita dei dati. Se il nostro obiettivo è quello di stimare i parametri descrittivi delle possibili realizzazioni delle serie temporali, allora forse rigorosa stazionarietà è troppo restrittiva. Ad esempio, se la media e covarianze di x t sono costanti e indipendenti dal punto cronologico nel tempo, allora forse non è importante per noi che la funzione di distribuzione sia uguale per diversi intervalli di tempo. Definizione Una funzione casuale è stazionario in senso lato (o debolmente stazionario, o stazionario in Khinchins senso, o covarianza fermo) se m 1 (t) m e m 11 (t, s). stazionarietà Strict per sé non implica stazionarietà debole. stazionarietà debole non implica rigorosa stazionarietà. stazionarietà rigoroso con E t 2 lt implica stazionarietà debole. teoremi ergodici riguardano la questione delle condizioni necessarie e sufficienti per fare inferenza da una sola realizzazione di una serie storica. In sostanza si riduce a assumendo stazionarietà debole. Teorema Se t è debolmente stazionario con media m e la funzione di covarianza, che poi è, per ogni data e gt 0 e h gt 0 esiste un certo numero di T o tale che per ogni T gt T o. se e solo se questa condizione necessaria e sufficiente è che i autocovarianze spengono, nel qual caso la media campionaria è uno stimatore consistente per la media della popolazione. Corollario Se t è debolmente stazionario con E tk xt 2 lt per ogni t, ed E tk xtx tsk x ts è indipendente t per ogni intero s, quindi se e solo se dove A conseguenza del corollario è presupposto che xtx tk è debolmente stazionario. Il Ergodic teorema non è altro che una legge di grandi numeri quando le osservazioni sono correlate. Ci si potrebbe chiedere a questo punto circa le implicazioni pratiche di stazionarietà. L'applicazione più comune di utilizzo di tecniche di serie temporali è in modellazione dei dati macroeconomici, sia teorici e atheoretic. Come esempio del primo, si potrebbe avere un modello acceleratore multiplier-. Per il modello di essere fermo, i parametri devono avere certi valori. Un test del modello è quindi quello di raccogliere i dati pertinenti e stimare i parametri. Se le stime non sono coerenti con la stazionarietà, allora si deve ripensare sia il modello teorico o il modello statisticla, o entrambi. Ora abbiamo abbastanza macchinari per cominciare a parlare della modellazione dei dati di serie temporali univariati. Ci sono quattro fasi del processo. 1. costruzione di modelli da Andor conoscenza esperienziale 2. Modelli teorici che identificano in base ai dati (serie osservato) 3. montaggio dei modelli (la stima dei parametri del modello (s)) 4. controllo del modello Se nella quarta fase non siamo soddisfatti torniamo al punto uno. Il processo è iterativo fino a nuovo controllo e respecification rendimenti nessun ulteriore miglioramento dei risultati. Schematicamente Definizione Alcune operazioni semplici sono i seguenti: L'operatore backshift Bx tx t-1 L'operatore Fx invio TX t1 L'operatore differenza 1 - B xtxt - x t-1 La differenza operatore si comporta in maniera coerente con la costante di una serie infinita . Cioè, la sua inversa è il limite di una somma infinita. Vale a dire, -1 (1-B) -1 1 (1-B) 1BB 2. Il integrare operatore S -1 Dato che è l'inverso dell'operatore differenza, l'operatore integrare serve per costruire la somma. COSTRUZIONE MODELLO In questa sezione vi proponiamo una breve rassegna del tipo più comune di modelli di serie storiche. Sulla base di quelle conoscenza del processo di generazione di dati uno raccoglie una classe di modelli per l'identificazione e la stima dalle possibilità che seguono. Definizione Supponiamo che Ex t m è indipendente da t. Un modello come le caratteristiche è chiamato modello autoregressivo di ordine p, AR (p). Definizione Se una variabile dipendente dal tempo (processo stocastico) t soddisfa quindi t si dice per soddisfare la proprietà di Markov. Sul lato sinistro l'aspettativa è condizionata sulla storia infinita di x t. Sul RHS è condizionata solo su una parte della storia. Dalle definizioni, un modello AR (p) è visto per soddisfare la proprietà di Markov. Utilizzando l'operatore backshift possiamo scrivere il nostro modello AR come Teorema Una condizione necessaria e sufficiente per il modello AR (p) sia stazionario è che tutte le radici del polinomio trovano all'esterno del cerchio unitario. Esempio 1 Si consideri il AR (1) L'unica radice di 1 - F 1 B 0 è B 1 F 1. La condizione per la stazionarietà richiede. Se poi apparirà molto frenetico della serie osservata. Per esempio. considerare in cui il termine rumore bianco ha una distribuzione normale con una media nulla e varianza di uno. Le osservazioni passare segno con quasi tutti osservazione. Se, d'altro canto, allora la serie osservata sarà molto più agevole. In questa serie un'osservazione tende ad essere superiore a 0 se il suo predecessore era superiore a zero. La varianza di e t è s e 2 per ogni t. La varianza di x t. quando ha media zero, è data dalla Poiché la serie è stazionario possiamo scrivere. Quindi, la funzione autocovarianza di un AR (1) serie è, supponendo senza perdita di generalità m 0 Per vedere come si presenta in termini di parametri AR faremo uso del fatto che possiamo scrivere xt come segue Moltiplicando per x TK e prendendo le aspettative Si noti che i autocovarianze muoiono come k cresce. La funzione di autocorrelazione è autocovarianza divisa per la varianza del termine rumore bianco. O, . Utilizzando le precedenti formule di Yule-Walker per le autocorrelazioni parziali che abbiamo per un AR (1) le autocorrelazioni muoiono in modo esponenziale e le autocorrelazioni parziali mostrano un picco ad un lag e sono pari a zero in seguito. Esempio 2 Si consideri l'AR (2) Il polinomio associato nell'operatore di ritardo è Le radici possono essere trovati utilizzando la formula quadratica. Le radici sono Quando le radici sono reali e di conseguenza la serie diminuirà esponenzialmente in risposta ad uno shock. Quando le radici sono complesse e apparirà come un'onda segno smorzato la serie. Il teorema stazionarietà impone le seguenti condizioni sulla AR coefficienti Il autocovarianza per (2) processo AR, a media nulla, è dividendo per la varianza xt dà la funzione di autocorrelazione Da possiamo scrivere Analogamente per il secondo e terzo autocorrelazioni Gli altri autocorrelazioni sono risolti per il modo ricorsivo. Il loro modello è regolato dalle radici della seconda equazione differenza ordine lineare Se le radici sono reali allora le autocorrelazioni diminuirà in maniera esponenziale. Quando le radici sono complesse le autocorrelazioni appariranno come una sinusoide smorzata. Utilizzando le equazioni di Yule-Walker, le autocorrelazioni parziali sono in questo caso, le autocorrelazioni muoiono lentamente. L'autocorrelazione parziale invece è abbastanza distintivo. Ha picchi a uno e due GAL ed è pari a zero in seguito. Teorema Se x t è un processo stazionario AR (p), allora può essere scritto equivalentemente come modello filtro lineare. Cioè, il polinomio nell'operatore backshift può essere invertita e AR (p) scritto come una media mobile di ordine infinito invece. Esempio Supponiamo che z t è un AR (1) processo con media pari a zero. Ciò che è vero per il periodo corrente deve essere vero anche per i periodi precedenti. Così per sostituzione ricorsiva possiamo scrivere Piazza due parti e tener aspettative destra svanisce come k dal f lt 1. Pertanto la somma converge a z t in media quadratica. Possiamo riscrivere il modello AR (p) come filtro lineare che sappiamo essere stazionaria. La funzione di autocorrelazione e autocorrelazione parziale Generalmente Supponiamo che un fermo serie Z t con media zero è conosciuto per essere autoregressiva. La funzione di autocorrelazione di un AR (p) è trovata prendendo aspettative di e dividendo per la varianza di z t Questo ci dice che r k è una combinazione lineare delle autocorrelazioni precedenti. Possiamo usare questo nell'applicare Cramers regola per (i) nella soluzione per f kk. In particolare possiamo vedere che questa dipendenza lineare causerà f kk 0 per k gt p. Questa caratteristica distintiva della serie autoregressivo sarà molto utile quando si tratta di individuazione di una serie sconosciuta. Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare interactivley con alcune fo i (p) idee AR qui presentati. Modello a media mobile consideri un modello dinamico in cui la serie di interesse dipende solo una parte della storia del termine rumore bianco. Schematicamente questo potrebbe essere rappresentato come Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un processo media mobile di ordine q, MA (q), è dato da Teorema: Un processo media mobile è sempre stazionaria. Dimostrazione: Piuttosto che iniziare con una prova generale, lo faremo per un caso specifico. Supponiamo che z t è MA (1). Poi . Naturalmente, una t ha media nulla e varianza finita. La media di z t è sempre zero. I autocovarianze saranno tenute da Si può vedere che la media della variabile casuale non dipende dal tempo in alcun modo. Si può anche vedere che il autocovarianza dipende solo le s offset, non su dove nella serie si parte. Si può dimostrare lo stesso risultato, più in generale partendo, che ha il movimento alternativo rappresentanza media. Consideriamo innanzitutto la varianza di Z t. Mediante sostituzione ricorsiva si può dimostrare che questa è uguale alla somma sappiamo essere una serie convergente così la varianza è finita ed è indipendente dal tempo. I covarianze sono, per esempio, si può anche vedere che le covarianze auto dipendono solo sui punti relativi a tempo, non il punto cronologico nel tempo. La nostra conclusione da tutto questo è che un processo MA () è stazionario. Per il processo MA generale (q) la funzione di autocorrelazione è dato dalla funzione di autocorrelazione parziale morirà senza intoppi. Si può vedere questo invertendo il processo per ottenere un processo AR (). Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare in modo interattivo con alcune delle idee (q) MA qui presentati. Mixed Autoregressive - media mobile modelle Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un autoregressivo, spostando processo media di ordine (p, q), ARMA (p, q), è dato da Le radici dell'operatore autoregressivo deve trovano tutti al di fuori del cerchio unitario. Il numero di incognite è PQ2. Il p e q sono evidenti. Il 2 comprende il livello del processo, m. e la varianza del termine rumore bianco, sa 2. Supponiamo che si combinano nostri AR e MA rappresentazioni in modo che il modello è ei coefficienti sono normalizzati in modo che bo 1. Quindi questa rappresentazione è chiamato ARMA (p, q) se il radici di (1) tutto si trovano al di fuori del cerchio unitario. Supponiamo che y t sono misurati come deviazioni dalla media in modo che possiamo cadere una o. allora la funzione autocovarianza è derivato da se jgtq allora i termini MA abbandonano in attesa di dare Cioè, la funzione autocovarianza si presenta come un tipico AR per ritardi dopo q muoiono senza intoppi dopo q, ma non possiamo dire come 1,2,133, q sarà. Possiamo anche esaminare la PACF per questa classe di modello. Il modello può essere scritto come Possiamo scrivere questo come un processo MA (inf) che suggerisce che le PACFs morire lentamente. Con un po 'di aritmetica abbiamo potuto dimostrare che questo avviene solo dopo le prime punte p contribuito da parte AR. Legge empirica In realtà, una serie temporale stazionaria potrebbe essere rappresentata da p 2 e q 2. Se la tua azienda è quello di fornire una buona approssimazione alla realtà e bontà di adattamento è il vostro criterio allora un modello prodigo è preferito. Se il vostro interesse è l'efficienza predittiva allora il modello parsimoniosa è preferito. Esperimento con le idee ARMA di cui sopra con un foglio di lavoro MathCAD. Autoregressive Integrare modello a media mobile filtro MA filtro AR Integrare filtro A volte il processo, o di una serie, stiamo cercando di modella non è fermo in livelli. Ma potrebbe essere stazionario, per esempio, le prime differenze. Vale a dire, nella sua forma originale i autocovarianze per la serie potrebbe non essere indipendente dal punto cronologico nel tempo. Tuttavia, se si costruisce una nuova serie, che è la prima differenza della serie originale, questa nuova serie soddisfa la definizione di stazionarietà. Questo è spesso il caso con dati economici che è altamente è tendenzialmente. Definizione Supponiamo che z T non è fermo, ma Z t - z t-1 soddisfa la definizione di stazionarietà. Inoltre, a, il termine rumore bianco ha finito media e varianza. Possiamo scrivere il modello in quanto questo è il nome di una (d, p q) modello ARIMA. p identifica l'ordine dell'operatore AR, d identifica l'alimentazione. q identifica l'ordine dell'operatore MA. Se le radici di f (B) si trovano al di fuori del cerchio unitario allora possiamo riscrivere la ARIMA (p, d, q) come filtro lineare. Cioè esso può essere scritto come un MA (). Ci riserviamo la discussione della rilevazione di radici unitarie per un'altra parte delle dispense. Si consideri un sistema dinamico con x t come una serie di input e y t come una serie di uscita. Schematicamente abbiamo Questi modelli sono un'analogia discreto di equazioni differenziali lineari. Supponiamo la seguente relazione dove B indica un ritardo puro. Ricordiamo che (1-B). Con questa sostituzione il modello può essere scritta Se il polinomio coefficiente y t può essere invertita, allora il modello può essere scritta come V (B) è noto come la risposta impulsiva. Ci si troverà di fronte questa terminologia di nuovo nel nostro tardi discussione del vettore autoregressivo. modelli di cointegrazione e correzione degli errori. IDENTIFICAZIONE Avendo deciso su una classe di modelli, si deve ora identificare l'ordine dei processi che generano i dati. Cioè, si deve fare congetture migliori per l'ordine dei processi AR e MA guidare la serie stazionaria. Una serie stazionaria viene completamente caratterizzato dalla sua media e autocovarianze. Per motivi di analisi che di solito lavoriamo con le autocorrelazioni e autocorrelazioni parziali. Questi due strumenti di base hanno modelli unici per stazionari processi AR e MA. Si potrebbe calcolare le stime di esempio delle funzioni di autocorrelazione e autocorrelazione parziale e confrontarle con i risultati tabulati per i modelli standard. Funzione di esempio autocovarianza Funzione di esempio autocorrelazione I autocorrelazioni parziali del campione prevede di utilizzare le autocorrelazioni e autocorrelazioni parziali è abbastanza semplice in linea di principio. Supponiamo di avere una serie z t. con media zero, che è AR (1). Se dovessimo eseguire la regressione di z t2 su z t1 e Z t ci aspettiamo di trovare che il coefficiente su z t non è stato diverso da zero dal momento che questo autocorrelazione parziale dovrebbe essere pari a zero. D'altra parte, le autocorrelazioni per questa serie dovrebbe essere in diminuzione esponenziale per aumentare ritardi (vedi AR (1) nell'esempio precedente). Supponiamo che la serie è davvero una media mobile. L'autocorrelazione dovrebbe essere zero ovunque ma al primo ritardo. L'autocorrelazione parziale deve morire fuori in modo esponenziale. Anche dal nostro romp molto superficiale attraverso le basi di analisi delle serie temporali è evidente che c'è una dualità tra processi AR e MA. Questa dualità può essere riassunto nella seguente tabella.

No comments:

Post a Comment