Jeg har forsøkt å finne ut hvordan skrive en Quora type svar på dette spørsmålet. Det er faktisk lettere å forklare matematikken som forklarer hva det er. Men, let039s gir det et forsøk. For det første er ARMA en del av et sett med teknikker for å analysere data som er sekvensiell, vanligvis med tiden som en uavhengig variabel. (Imidlertid har jeg brukt teknikkene til å analysere dato hvor tiden ikke var en faktor) Fordi dataene vanligvis blir tatt sekvensielt i tid ved et gitt intervall, kalles dataene selv en tidsserie. Formålet med disse teknikkene er å finne en ligning som forklarer dataene og å foreta en prediksjon fra dataene. Disse spådommene brukes i statistikk, økonomi, industriell styring og kontrollsystemer. ARMA selv er en kombinasjon av to av teknikkene: automatisk regressiv (AR) og glidende gjennomsnitt (MA). Først vurderer den regressive delen, er dette rett og slett en lineær kurve som passer til et sett med datapunkter. Når et nytt datapunkt kommer inn, blir regresjonen flyttet opp ett punkt og det eldste datapunktet slått ut. Lengden på datapunkter som vurderes er notert som AR (4) der 4 av de nyeste datapunktene vurderes. Koeffisientene av regresjonen er vekt eller parametere i ligningen og er vanligvis funnet ved hjelp av minst kvadratregressjon. Den bevegelige gjennomsnittlige delen gjør nøyaktig det samme, bortsett fra feilen mellom den faktiske verdien og den forutsagte verdien, brukes i stedet for datapunktene. Dermed vil MA (3) være et veid gjennomsnitt av den nåværende feilen og de to siste feilene. Igjen blir vikene vanligvis funnet ved å subtrahere gjennomsnittet fra datapunktet og deretter bruke minst kvadrateregresjon for å bestemme vektene. Når disse to teknikkene blir satt sammen ved tillegg, vil resultatet være en ARMA (4,3) modell. Det er mange utvidelser av disse grunnleggende AR - og MA-teknikkene, inkludert en integrering av vilkår for en ARIMA-modell, ved bruk av ikke-lineære termer for en NARMA-modell, ved bruk av eksogene variabler for å danne ARX, MAX, ARMAX og NARMAX-modeller. Et annet sett som tilhører disse teknikkene er ARCH - og GARCH-modellene (avanserte former inkluderer også integrerte og ikke-lineære termer) som bruker termer som representerer statistiske tiltak. EDIT ADDED: Se min kommentar nedenfor på godhet av passform. Det er noe mer om dette som jeg bare tenkte på da jeg lå seng. ARMA og andre modeller av denne typen er ofte veldig gode til å gjøre et skritt foran spådommer. Imidlertid mislykkes de ofte dårlig når de gjør flere trinns estimater. Jeg tror dette fordi neste punkt er sannsynligvis bundet begrenset til hvor mye det kan variere fra det forrige punktet i de fleste tilfeller. Men feilen i å gå videre er minst additiv og kan være multiplikativ eller eksponentiell, noe som resulterer i at prediksjonen avtar videre og videre fra de faktiske innsamlede data. Dermed pasienten passe 945 Visninger middot Vis Oppvoter middot Ikke for ReproduksjonA RIMA står for Autoregressive Integrated Moving Average-modeller. Univariate (single vector) ARIMA er en prognose teknikk som projiserer fremtidens verdier av en serie basert helt på egen treghet. Hovedapplikasjonen er i området for kortsiktig prognose som krever minst 40 historiske datapunkter. Det fungerer best når dataene dine viser et stabilt eller konsistent mønster over tid med et minimum av utelukker. Noen ganger kalt Box-Jenkins (etter de opprinnelige forfatterne), er ARIMA vanligvis overlegen mot eksponensiell utjevningsteknikker når dataene er rimelig lange og korrelasjonen mellom tidligere observasjoner er stabil. Hvis dataene er korte eller svært volatile, kan noen utjevningsmetode virke bedre. Hvis du ikke har minst 38 datapunkter, bør du vurdere en annen metode enn ARIMA. Det første trinnet i å anvende ARIMA-metoden er å sjekke for stasjonar. Stasjonaritet innebærer at serien forblir på et relativt konstant nivå over tid. Hvis det finnes en trend, som i de fleste økonomiske eller forretningsmessige applikasjoner, er dataene dine ikke stasjonære. Dataene skal også vise en konstant variasjon i sine svingninger over tid. Dette er lett å se med en serie som er tungt sesongmessig og vokser i raskere takt. I et slikt tilfelle vil oppturer og nedturer i sesongmessigheten bli mer dramatisk over tid. Uten disse stasjonarforholdene blir oppfylt, kan mange av beregningene som er knyttet til prosessen ikke beregnes. Hvis en grafisk oversikt over dataene indikerer ikke-stationaritet, bør du forskjellere serien. Differensiering er en utmerket måte å transformere en ikke-stationær serie til en stasjonær en. Dette gjøres ved å trekke observasjonen i den nåværende perioden fra den forrige. Hvis denne transformasjonen bare er gjort en gang til en serie, sier du at dataene først er forskjellig. Denne prosessen eliminerer i hovedsak trenden hvis serien din vokser til en forholdsvis konstant hastighet. Hvis den vokser i økende grad, kan du bruke samme prosedyre og forskjell dataene igjen. Dine data vil da bli annerledes forskjellig. Autokorrelasjoner er numeriske verdier som angir hvordan en dataserie er relatert til seg selv over tid. Nærmere bestemt måler det hvor sterkt dataverdier på et spesifisert antall perioder fra hverandre er korrelert til hverandre over tid. Antallet perioder fra hverandre kalles vanligvis laget. For eksempel måler en autokorrelasjon ved lag 1 hvordan verdier 1 periode fra hverandre er korrelert til hverandre gjennom serien. En autokorrelasjon ved lag 2 måler hvordan dataene to perioder fra hverandre er korrelert gjennom hele serien. Autokorrelasjoner kan variere fra 1 til -1. En verdi nær 1 indikerer en høy positiv korrelasjon, mens en verdi nær -1 innebærer en høy negativ korrelasjon. Disse tiltakene blir oftest vurdert gjennom grafiske tomter kalt correlagrams. Et korrelagram plotter automatisk korrelasjonsverdiene for en gitt serie på forskjellige lag. Dette kalles autokorrelasjonsfunksjonen og er svært viktig i ARIMA-metoden. ARIMA-metodikken forsøker å beskrive bevegelsene i en stasjonær tidsserie som en funksjon av det som kalles autoregressive og bevegelige gjennomsnittsparametere. Disse refereres til som AR parametere (autoregessive) og MA parametere (glidende gjennomsnitt). En AR-modell med bare 1 parameter kan skrives som. X (t) A (1) X (t-1) E (t) hvor X (t) tidsserier under undersøkelse A (1) den autoregressive parameteren i rekkefølge 1 X (t-1) tidsseriene forsinket 1 periode E (t) feilmodellen til modellen Dette betyr ganske enkelt at en gitt verdi X (t) kan forklares med en funksjon av sin tidligere verdi, X (t-1), pluss noe uforklarlig tilfeldig feil, E (t). Hvis den estimerte verdien av A (1) var .30, ville dagens verdi av serien være relatert til 30 av verdien 1 periode siden. Selvfølgelig kan serien være relatert til mer enn bare en fortid verdi. For eksempel, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dette indikerer at dagens verdi av serien er en kombinasjon av de to umiddelbart foregående verdiene, X (t-1) og X (t-2), pluss noen tilfeldig feil E (t). Vår modell er nå en autoregressiv modell av rekkefølge 2. Flytende gjennomsnittsmodeller: En annen type Box-Jenkins-modell kalles en bevegelig gjennomsnittsmodell. Selv om disse modellene ser veldig ut som AR-modellen, er konseptet bak dem ganske annerledes. Flytte gjennomsnittlige parametere relaterer til hva som skjer i periode t bare til de tilfeldige feilene som oppstod i tidligere tidsperioder, dvs. E (t-1), E (t-2) osv. Heller enn til X (t-1), X t-2), (Xt-3) som i de autoregressive tilnærmingene. En glidende gjennomsnittsmodell med en MA-term kan skrives som følger. X (t) - B (1) E (t-1) E (t) Betegnelsen B (1) kalles en MA i rekkefølge 1. Det negative tegnet foran parameteren brukes kun til konvensjon og skrives vanligvis ut ut automatisk ved de fleste dataprogrammer. Ovennevnte modell sier bare at en gitt verdi av X (t) er direkte relatert til den tilfeldige feilen i den forrige perioden, E (t-1) og til dagens feilperiode, E (t). Som i tilfelle av autoregressive modeller, kan de bevegelige gjennomsnittlige modellene utvides til høyere ordningsstrukturer som dekker forskjellige kombinasjoner og bevegelige gjennomsnittslengder. ARIMA-metoden lar også modeller bygges som inneholder både autoregressive og bevegelige gjennomsnittsparametre sammen. Disse modellene kalles ofte blandede modeller. Selv om dette gir et mer komplisert prognoseverktøy, kan strukturen faktisk simulere serien bedre og gi en mer nøyaktig prognose. Rene modeller innebærer at strukturen kun består av AR eller MA parametere - ikke begge deler. Modeller utviklet av denne tilnærmingen kalles vanligvis ARIMA-modeller fordi de bruker en kombinasjon av autoregressiv (AR), integrasjon (I) - refererer til omvendt prosess av differensiering for å produsere prognosen og flytte gjennomsnittlige (MA) operasjoner. En ARIMA-modell er vanligvis oppgitt som ARIMA (p, d, q). Dette representerer rekkefølgen på de autoregressive komponentene (p), antall differensieringsoperatører (d) og den høyeste rekkefølgen av den bevegelige gjennomsnittlige termen. For eksempel betyr ARIMA (2,1,1) at du har en andre ordre autoregressiv modell med en første rekkefølge som beveger gjennomsnittlig komponent hvis serie er forskjellig en gang for å indusere stasjonar. Plukker riktig spesifikasjon: Hovedproblemet i klassiske Box-Jenkins prøver å bestemme hvilken ARIMA-spesifikasjon som skal brukes - i. e. hvor mange AR og eller MA parametere som skal inkluderes. Dette er hvor mye Box-Jenkings 1976 var viet til identifikasjonsprosessen. Det var avhengig av grafisk og numerisk vurdering av prøveautokorrelasjonen og delvise autokorrelasjonsfunksjoner. Vel, for dine grunnleggende modeller, er oppgaven ikke for vanskelig. Hver har autokorrelasjonsfunksjoner som ser på en bestemt måte. Men når du går opp i kompleksitet, er mønstrene ikke så lett oppdaget. For å gjøre saken vanskeligere representerer dataene bare en prøve av den underliggende prosessen. Dette betyr at prøvetakingsfeil (utjevningsmidler, målefeil, etc.) kan forvride den teoretiske identifikasjonsprosessen. Det er derfor tradisjonell ARIMA-modellering er en kunst i stedet for en vitenskap. Kapittel 9: Autoregressive Moving Average Models av Svetlozar T. Rachev, Frank J. Fabozzi, Markus Hoechstoetter, Sergio M. Focardi, Bala G. Arshanapalli Autoregressive Moving Average Models En fter leser dette kapittelet vil du forstå: Begrepet autoregresjon og autoregressive modeller. Hvordan identifisere autoregressive modeller. Konseptet med å bevege gjennomsnittlig prosess og bevegelige gjennomsnittlige modeller. Hvordan identifisere bevegelige gjennomsnittsmodeller. Hvordan modellere autoregressive glidende gjennomsnittlige (ARMA) modeller. Slik bruker du informasjonskriterier for ARMA-modellvalg. Hvordan søke ARMA i modellering avkastning av aksjer. Hvordan bruke autoregressive modeller, flytte gjennomsnittlige modeller og ARMA-modeller for å prognostisere aksjeavkastning og hvordan man kan evaluere prognostiseringen av disse modellene. Konseptet med vektor autoregression. I kapittel 5 presenterte vi tidsserieanalyse hvor variabler endres over tid. Som diskutert i det kapitlet, er grunnlaget for tidsseriemodeller basert på antagelsen om at forstyrrelsen er en hvit støyprosess. Implikasjonen av denne antagelsen er at den siste perioder forstyrrelsen ikke kan brukes til å forutsi gjeldende forstyrrelsestid, og at forstyrrelsen har konstant varians. Med andre ord, implikasjonen av denne antagelsen er fraværet av seriell korrelasjon (eller forutsigbarhet) og homoscedasticitet (eller betinget konstant varians). Men i empiriske applikasjoner blir den hvite støyforutsetningen ofte krenket. Det vil si at etterfølgende observasjoner viser seriell avhengighet. Under disse omstendighetene kan prognostiseringsverktøy som eksponensiell utjevning 1 være ineffektiv og noen ganger upassende fordi. Med Safari lærer du hvordan du lærer best. Få ubegrenset tilgang til videoer, live online trening, læringsbaner, bøker, interaktive opplæringsprogrammer og mer. Kredittkort kreves ikke Dokumentasjon er ubetinget gjennomsnitt av prosessen, og x03C8 (L) er et rasjonelt, uendelig gradforsinkelsespolynom, (1 x03C8 1 L x03C8 2 L 2 x2026). Merk: Konstantegenskapen til et arima-modellobjekt samsvarer med c. og ikke det ubetingede gjennomsnittet 956. Ved Wolds dekomponering 1. Ligning 5-12 tilsvarer en stasjonær stokastisk prosess forutsatt at koeffisientene x03C8 jeg er absolutt summerbare. Dette er tilfellet når AR-polynomet, x03D5 (L). er stabil. som betyr at alle røttene ligger utenfor enhetens sirkel. I tillegg er prosessen kausal forutsatt at MA-polynomet er inverterbart. som betyr at alle røttene ligger utenfor enhetens sirkel. Econometrics Toolbox styrker stabiliteten og invertibility av ARMA prosesser. Når du angir en ARMA-modell ved hjelp av arima. du får en feil hvis du angir koeffisienter som ikke samsvarer med et stabilt AR-polynomial eller inverterbart MA-polynom. På samme måte pålegger estimatene stasjonar og invertibilitetsbegrensninger under estimering. Referanser 1 Wold, H. En studie i analysen av stationær tidsserie. Uppsala, Sverige: Almqvist amp Wiksell, 1938. Velg ditt land
No comments:
Post a Comment