Free Statistics

of Irreproducible Research!

Author's title

Author*The author of this computation has been verified*
R Software Modulerwasp_arimaforecasting.wasp
Title produced by softwareARIMA Forecasting
Date of computationMon, 15 Dec 2008 12:50:05 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/15/t12293706431n89wjmxyfl5n7g.htm/, Retrieved Wed, 15 May 2024 12:46:04 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=33792, Retrieved Wed, 15 May 2024 12:46:04 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact209
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
-     [Univariate Data Series] [data set] [2008-12-01 19:54:57] [b98453cac15ba1066b407e146608df68]
F RMP   [Variance Reduction Matrix] [step1.1] [2008-12-08 18:32:25] [922d8ae7bd2fd460a62d9020ccd4931a]
F RMP     [(Partial) Autocorrelation Function] [step2] [2008-12-08 18:51:58] [922d8ae7bd2fd460a62d9020ccd4931a]
F RMP       [Spectral Analysis] [step24] [2008-12-08 19:05:43] [922d8ae7bd2fd460a62d9020ccd4931a]
-   P         [Spectral Analysis] [step242] [2008-12-08 19:08:43] [922d8ae7bd2fd460a62d9020ccd4931a]
F   P           [Spectral Analysis] [step25] [2008-12-08 19:10:33] [922d8ae7bd2fd460a62d9020ccd4931a]
- RMP             [(Partial) Autocorrelation Function] [step4] [2008-12-08 19:25:51] [922d8ae7bd2fd460a62d9020ccd4931a]
F RMP               [ARIMA Backward Selection] [step51] [2008-12-08 19:39:36] [922d8ae7bd2fd460a62d9020ccd4931a]
F   PD                [ARIMA Backward Selection] [step56] [2008-12-09 21:19:40] [922d8ae7bd2fd460a62d9020ccd4931a]
F RMPD                    [ARIMA Forecasting] [arimaforecasting] [2008-12-15 19:50:05] [89a49ebb3ece8e9a225c7f9f53a14c57] [Current]
Feedback Forum
2008-12-17 14:24:15 [Dave Bellekens] [reply
duidelijke en correcte uitleg.
Een p-waarde die kleiner is dan de gehanteerce alpha-fout (van 5% in dit geval) wijst op een significant verschil tussen de forecast en de werkelijke waarde en duidt er dus op dat de voorspelling geen goede voorspelling is.
2008-12-17 14:32:48 [Dave Bellekens] [reply
Stap 1: duidelijke en correcte uitleg.
Een p-waarde die kleiner is dan de gehanteerce alpha-fout (van 5% in dit geval) wijst op een significant verschil tussen de forecast en de werkelijke waarde en duidt er dus op dat de voorspelling geen goede voorspelling is.

Stap 2: we zien inderdaad aan de waarde in de kolom 'P(F[t]>Y[t-1])' dat er een stijgende trend is waar te nemen, aangezien de percentages die de kans op een hogere waarde tov van vorig jaar aangeven vrij groot zijn.

Stap 3: we zien aan de %S.E. inderdaad dat de kans dat we ons vergissen bij de voorspelling gaat van 3,6% tot 6.4%. Dit zijn vrij lage percentages en we mogen dus stellen dat we hier een vrij goed voorspellingsmodel hebben.

Stap 4 & 5: we zien inderdaad dat de voorspelling op een aantal punten afwijkt van de werkelijke waarden. We zien in de tabel dat voor deze tijdstippen de afwijking tussen de werkelijke data en de voorspelling de grootse is van de hele forecast. Maar de voorspelling valt binnen het 95% betrouwbaarheidsinterval (zoals we zien in stap 5)en dat is goed.
2008-12-22 18:03:35 [Jasmine Hendrikx] [reply
Evaluatie:
Step 1: De berekening is goed uitgevoerd. Er is echter niet echt een antwoord gegeven op de vraag. Als de AR processen stabiel zijn, wordt er verondersteld dat de parameters van het AR proces binnen het aanvaarde gebied van de parametercombinaties liggen dat resulteert in een niet-explosieve voorspelling.

Als de MA processen omkeerbaar zijn , wordt er verondersteld dat de parameters van het MA proces binnen het aanvaarde gebied van de parametercombinaties liggen dat resulteert in een niet-explosieve voorspelling.
Wanneer bijvoorbeeld de parameter phi buiten een bepaalde waarde valt (dus groter dan 1 of kleiner dan -1) zal de tijdreeks een explosief karakter vertonen. Dus eigenlijk kun je al op voorhand weten of de tijdreeks explosief is of niet (aan de hand van de parameters die de computer heeft berekend via de Backward Selection method). Je moet gebruik maken van de eerste grafiek die de berekening genereert (of de tweede grafiek) om te kijken of de voorspelling explosief is of niet. Wanneer de lijn van de werkelijke waarden in het betrouwbaarheidsinterval ligt dan is er geen sprake van explosiviteit. Wanneer echter de werkelijke waarden serieus buiten het betrouwbaarheidsinterval vallen, en naar + of – oneindig gaan, dan kunnen we van een explosieve voorspelling spreken. Wanneer er dus geen explosieve voorspelling is, dan kunnen we zeggen dat de AR processen stabiel zijn en de MA processen omkeerbaar (invertible). In de grafiek kunnen we zien dat de werkelijke waarden niet buiten het betrouwbaarheidsinterval vallen, dus we kunnen niet spreken van een explosieve voorspelling. Bijgevolg kunnen we zeggen dat de AR processen stabiel zijn en de MA processen omkeerbaar.


Step 2: De uitleg die bij de vraag staat is correct, maar deze vraag kan je vooral oplossen door naar de eerste grafiek te kijken.
Wanneer je in de verleden waarden een duidelijk patroon ziet dat herhaald wordt in de voorspelde waarden (bepaalde pieken die overeenkomen met seizoenale periodes) dan is dit een indicatie van seizoenaliteit.
Of er een conjunctuurcyclus aanwezig is, daarvoor moet je ook naar de grafiek kijken.
Wanneer je een bergparabool (dus eerst stijging, daarna redelijk gelijklopend en daarna daling) kan tekenen door de verleden waarden en de voorspelde waarden zetten deze trend verder , dan zou je kunnen spreken van een conjunctuurcyclus. Conjunctuur gaat namelijk over de op- en neergaande beweging van de economie.
In de grafieken in het document is er zeker geen sprake van een conjunctuurcyclus. De grafiek is wel zeer flexibel (pieken en dalen wisselen elkaar af). In de grafiek zouden we een trend kunnen zien, hoewel deze zich op het einde lijkt te stabiliseren als we naar het voorspelde deel van de grafiek kijken.

Stap 3: Er is gebruik gemaakt van de juiste tabel om de vraag op te lossen. De vraag is ook vrij goed besproken.
De voorspelde standaardfout (% SE) wordt berekend op basis van het model. Het is een theoretische schatting van de gemaakte fout op basis van het model en de theoretische assumpties. In de tweede kolom zien we de werkelijke fout.
We moeten de werkelijke fout vergelijken met de geschatte fout. Normaal is de absolute waarde van de werkelijke fout kleiner dan de fout die je voorspeld hebt.
Wanneer dit niet het geval is, dus wanneer de voorspelde standaardfout kleiner is dan de absolute waarde van de werkelijke fout, kan dit twee verklaringen hebben.
Oftewel wil dit zeggen dat de werkelijke fout overschat is (door bijvoorbeeld een outlier die een serieuze invloed heeft). Oftewel wil dit zeggen dat er in die maand iets uitzonderlijks gebeurd moet zijn, iets exceptioneels. Er zou hier dus een economische reden achter moeten zitten aangezien we uitgingen van een Ceteris Paribus-veronderstelling. Het is inderdaad ook zo dat de geschatte standaardfout stijgt doorheen de tijd, want hoe meer we in de toekomst voorspellen, hoe groter de fout zal zijn.
Wanneer we dan naar de tabel kijken zien we dat de absolute waarden van de werkelijke fout van 4 maanden (74, 77, 81, 85) groter zijn dan de geschatte standaardfout, dit in tegenstelling tot wat de student had gezegd. Dit kunnen we nakijken in de eerste tabel door naar de p-waarde te kijken. In de periode 74 en 81 zien we inderdaad dat de p-waarde kleiner is dan 5% en er dus een significant verschil is tussen de werkelijke waarde en de voorspelde waarde. Als we dit dan weer nakijken in de tweede tabel (met geschatte standaardfout en werkelijke fout) zien we dat het verschil tussen de absolute waarden van de werkelijke fout en de geschatte standaardfout in deze perioden het grootst zijn. Deze periodes kunnen dus waarschijnlijk niet goed voorspeld worden. Aan de hand van deze tabel zouden we dus kunnen concluderen dat er 10 maanden van de 12 maanden goed voorspeld kunnen worden. De geschatte standaardfout is hier vrij laag (slechts 6%) wat dit tot een goed model maakt.

Stap 4: Om deze vraag op te lossen, moet je eigenlijk kijken naar de laatste drie kolommen van de eerste tabel. Dit heeft de student ook gedaan.
Kolom 7 van tabel 1 geeft de waarschijnlijkheid/ kans weer dat de voorspelde waarde groter is dan de werkelijke waarde van de vorige periode (dus 1 periode vroeger). Dus wat is de waarschijnlijkheid dat er een stijging zal zijn? Aangezien de kansen op een stijging uiteenlopen van 2% tot 99% en erg afwisselend hoog en laag zijn, kunnen we zeggen dat het waarschijnlijk een heel flexibele grafiek zal zijn met veel dalen en pieken, hetgeen we ook uit de grafiek kunnen afleiden.
De voorlaatste kolom geeft de kans weer dat in een bepaalde maand de voorspelde waarde groter is dan dezelfde maand vorig jaar, zoals de student ook correct vermeldde. Zo kun je dus onderzoeken of er wel degelijk een stijging is ten opzichte van vorig jaar en kan je een stijgende trend voorspellen. We kunnen uit de tabel afleiden dat de meeste kansen onder de 50% liggen, waaruit we kunnen concluderen dat er waarschijnlijk niet echt sprake zal zijn van een stijgende trend ten opzichte van vorig jaar.
De laatste kolom geeft de kans/ waarschijnlijkheid weer dat de voorspelde waarde groter is ten opzichte van de laatst gekende waarde. Zoals de student correct vermeldt, vinden we deze terug bij de 73ste observatie. Dus als we 1,2,3,.. maanden vooruitkijken, wat is dan de waarschijnlijkheid dat de voorspelde waarde hoger zal zijn dan de laatst gekende waarde? Vooral in de eerste maanden vinden we een hoge kans terug dat de voorspelde waarde hoger is dan de laatst gekende waarde. Als we kijken naar maand 84 en 85 zien we dat deze kans gedaald is tot onder de 50%. De student vermeldt echter niet wat de onderliggende assumptie juist is. Het model dat berekend wordt, gaat uit van een normaalverdeling. Alle residu’s moeten normaal verdeeld zijn. Dit kun je nazien door te kijken naar de density plot, de QQ-plot, etc.. van de residu’s die berekend zijn met behulp van de Backward Selection Method. Zo kun je zien of deze assumptie vervuld is. Wanneer dit niet het geval blijkt te zijn, zullen de p-waarde, de waarschijnlijkheden en eigenlijk alles dat berekend is, anders zijn, omdat het model dus van een normaalverdeling uitgaat.

Stap 5: Om deze vraag op te lossen kan je onder andere naar de grafiek kijken waar de voorspelde en werkelijke waarden mooi uitvergroot zijn, zoals de student gedaan heeft. Als er dan vreemde dingen zijn, kun je dit nakijken in de eerste tabel. In de eerste tabel moet je gebruik maken van de kolommen Y(t), F(t) en de p-waarde. Als de p-waarde groter is dan 5%, wil dit zeggen dat het verschil tussen de voorspelde waarde en de werkelijke waarde niet significant is. Wanneer dit kleiner is dan 5%, wil dit zeggen dat het verschil tussen de voorspelde waarde en de werkelijke waarde wel significant is.
Dit kan je dan ook vergelijken met de voorspelde theoretische standaardafwijking.
Het is inderdaad zo dat we uit de grafiek kunnen zien dat de werkelijke waarden mooi in het betrouwbaarheidsinterval liggen, zoals de student vermeldt, maar in maand 74 lijkt de werkelijke waarde net iets buiten het betrouwbaarheidsinterval te vallen. Dit kijken we dan na in de eerste tabel en het blijkt daar inderdaad dat de p-waarde kleiner is dan 5%, zodat er een significant verschil is tussen de werkelijke en de voorspelde waarde. Dit kijken we dan na in de tabel met de standaardfouten en we kunnen inderdaad zien dat de werkelijke fout daar groter is dan de geschatte standaardfout. Dit zou dan verklaard kunnen worden doordat er in deze maand een exceptionele gebeurtenis is geweest, hier zou dan een economische reden achter kunnen zitten.

Algemeen zou er misschien nog vermeld kunnen worden dat met ARIMA forecasting men de tijdreeks iets korter gaat maken. De 12 laatste maanden laat je wegvallen. En daarna wordt er een voorspelling gemaakt van 12 maanden vooruit op basis van gegevens uit het verleden. Vervolgens vergelijk je de geschatte waarden met de werkelijke waarden.

Post a new message
Dataseries X:
97.8
107.4
117.5
105.6
97.4
99.5
98
104.3
100.6
101.1
103.9
96.9
95.5
108.4
117
103.8
100.8
110.6
104
112.6
107.3
98.9
109.8
104.9
102.2
123.9
124.9
112.7
121.9
100.6
104.3
120.4
107.5
102.9
125.6
107.5
108.8
128.4
121.1
119.5
128.7
108.7
105.5
119.8
111.3
110.6
120.1
97.5
107.7
127.3
117.2
119.8
116.2
111
112.4
130.6
109.1
118.8
123.9
101.6
112.8
128
129.6
125.8
119.5
115.7
113.6
129.7
112
116.8
127
112.1
114.2
121.1
131.6
125
120.4
117.7
117.5
120.6
127.5
112.3
124.5
115.2
105.4




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time6 seconds
R Server'George Udny Yule' @ 72.249.76.132

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 6 seconds \tabularnewline
R Server & 'George Udny Yule' @ 72.249.76.132 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33792&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]6 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'George Udny Yule' @ 72.249.76.132[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33792&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33792&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time6 seconds
R Server'George Udny Yule' @ 72.249.76.132







Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[73])
61112.8-------
62128-------
63129.6-------
64125.8-------
65119.5-------
66115.7-------
67113.6-------
68129.7-------
69112-------
70116.8-------
71127-------
72112.1-------
73114.2-------
74121.1131.0012121.7652140.23710.01780.99980.73790.9998
75131.6132.6231123.2284142.01780.41550.99190.73590.9999
76125124.3279114.7763133.87940.44520.06780.38130.9812
77120.4126.6381115.2683138.00790.14110.61120.89070.984
78117.7115.5577103.922127.19330.35910.20730.49040.5904
79117.5113.0996101.1925125.00680.23440.22440.46720.4281
80120.6126.0609113.3059138.81580.20070.90580.2880.9658
81127.5116.2048103.1573129.25230.04490.25450.73620.6184
82112.3113.7168100.3753127.05840.41760.02140.32530.4717
83124.5126.4528112.6102140.29540.39110.97750.46910.9586
84115.2111.721597.6009125.84220.31460.03810.47910.3654
85105.4113.519299.1241127.91440.13450.40950.46310.4631

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast \tabularnewline
time & Y[t] & F[t] & 95% LB & 95% UB & p-value(H0: Y[t] = F[t]) & P(F[t]>Y[t-1]) & P(F[t]>Y[t-s]) & P(F[t]>Y[73]) \tabularnewline
61 & 112.8 & - & - & - & - & - & - & - \tabularnewline
62 & 128 & - & - & - & - & - & - & - \tabularnewline
63 & 129.6 & - & - & - & - & - & - & - \tabularnewline
64 & 125.8 & - & - & - & - & - & - & - \tabularnewline
65 & 119.5 & - & - & - & - & - & - & - \tabularnewline
66 & 115.7 & - & - & - & - & - & - & - \tabularnewline
67 & 113.6 & - & - & - & - & - & - & - \tabularnewline
68 & 129.7 & - & - & - & - & - & - & - \tabularnewline
69 & 112 & - & - & - & - & - & - & - \tabularnewline
70 & 116.8 & - & - & - & - & - & - & - \tabularnewline
71 & 127 & - & - & - & - & - & - & - \tabularnewline
72 & 112.1 & - & - & - & - & - & - & - \tabularnewline
73 & 114.2 & - & - & - & - & - & - & - \tabularnewline
74 & 121.1 & 131.0012 & 121.7652 & 140.2371 & 0.0178 & 0.9998 & 0.7379 & 0.9998 \tabularnewline
75 & 131.6 & 132.6231 & 123.2284 & 142.0178 & 0.4155 & 0.9919 & 0.7359 & 0.9999 \tabularnewline
76 & 125 & 124.3279 & 114.7763 & 133.8794 & 0.4452 & 0.0678 & 0.3813 & 0.9812 \tabularnewline
77 & 120.4 & 126.6381 & 115.2683 & 138.0079 & 0.1411 & 0.6112 & 0.8907 & 0.984 \tabularnewline
78 & 117.7 & 115.5577 & 103.922 & 127.1933 & 0.3591 & 0.2073 & 0.4904 & 0.5904 \tabularnewline
79 & 117.5 & 113.0996 & 101.1925 & 125.0068 & 0.2344 & 0.2244 & 0.4672 & 0.4281 \tabularnewline
80 & 120.6 & 126.0609 & 113.3059 & 138.8158 & 0.2007 & 0.9058 & 0.288 & 0.9658 \tabularnewline
81 & 127.5 & 116.2048 & 103.1573 & 129.2523 & 0.0449 & 0.2545 & 0.7362 & 0.6184 \tabularnewline
82 & 112.3 & 113.7168 & 100.3753 & 127.0584 & 0.4176 & 0.0214 & 0.3253 & 0.4717 \tabularnewline
83 & 124.5 & 126.4528 & 112.6102 & 140.2954 & 0.3911 & 0.9775 & 0.4691 & 0.9586 \tabularnewline
84 & 115.2 & 111.7215 & 97.6009 & 125.8422 & 0.3146 & 0.0381 & 0.4791 & 0.3654 \tabularnewline
85 & 105.4 & 113.5192 & 99.1241 & 127.9144 & 0.1345 & 0.4095 & 0.4631 & 0.4631 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33792&T=1

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast[/C][/ROW]
[ROW][C]time[/C][C]Y[t][/C][C]F[t][/C][C]95% LB[/C][C]95% UB[/C][C]p-value(H0: Y[t] = F[t])[/C][C]P(F[t]>Y[t-1])[/C][C]P(F[t]>Y[t-s])[/C][C]P(F[t]>Y[73])[/C][/ROW]
[ROW][C]61[/C][C]112.8[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]62[/C][C]128[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]63[/C][C]129.6[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]64[/C][C]125.8[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]65[/C][C]119.5[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]66[/C][C]115.7[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]67[/C][C]113.6[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]68[/C][C]129.7[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]69[/C][C]112[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]70[/C][C]116.8[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]71[/C][C]127[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]72[/C][C]112.1[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]73[/C][C]114.2[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]74[/C][C]121.1[/C][C]131.0012[/C][C]121.7652[/C][C]140.2371[/C][C]0.0178[/C][C]0.9998[/C][C]0.7379[/C][C]0.9998[/C][/ROW]
[ROW][C]75[/C][C]131.6[/C][C]132.6231[/C][C]123.2284[/C][C]142.0178[/C][C]0.4155[/C][C]0.9919[/C][C]0.7359[/C][C]0.9999[/C][/ROW]
[ROW][C]76[/C][C]125[/C][C]124.3279[/C][C]114.7763[/C][C]133.8794[/C][C]0.4452[/C][C]0.0678[/C][C]0.3813[/C][C]0.9812[/C][/ROW]
[ROW][C]77[/C][C]120.4[/C][C]126.6381[/C][C]115.2683[/C][C]138.0079[/C][C]0.1411[/C][C]0.6112[/C][C]0.8907[/C][C]0.984[/C][/ROW]
[ROW][C]78[/C][C]117.7[/C][C]115.5577[/C][C]103.922[/C][C]127.1933[/C][C]0.3591[/C][C]0.2073[/C][C]0.4904[/C][C]0.5904[/C][/ROW]
[ROW][C]79[/C][C]117.5[/C][C]113.0996[/C][C]101.1925[/C][C]125.0068[/C][C]0.2344[/C][C]0.2244[/C][C]0.4672[/C][C]0.4281[/C][/ROW]
[ROW][C]80[/C][C]120.6[/C][C]126.0609[/C][C]113.3059[/C][C]138.8158[/C][C]0.2007[/C][C]0.9058[/C][C]0.288[/C][C]0.9658[/C][/ROW]
[ROW][C]81[/C][C]127.5[/C][C]116.2048[/C][C]103.1573[/C][C]129.2523[/C][C]0.0449[/C][C]0.2545[/C][C]0.7362[/C][C]0.6184[/C][/ROW]
[ROW][C]82[/C][C]112.3[/C][C]113.7168[/C][C]100.3753[/C][C]127.0584[/C][C]0.4176[/C][C]0.0214[/C][C]0.3253[/C][C]0.4717[/C][/ROW]
[ROW][C]83[/C][C]124.5[/C][C]126.4528[/C][C]112.6102[/C][C]140.2954[/C][C]0.3911[/C][C]0.9775[/C][C]0.4691[/C][C]0.9586[/C][/ROW]
[ROW][C]84[/C][C]115.2[/C][C]111.7215[/C][C]97.6009[/C][C]125.8422[/C][C]0.3146[/C][C]0.0381[/C][C]0.4791[/C][C]0.3654[/C][/ROW]
[ROW][C]85[/C][C]105.4[/C][C]113.5192[/C][C]99.1241[/C][C]127.9144[/C][C]0.1345[/C][C]0.4095[/C][C]0.4631[/C][C]0.4631[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33792&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33792&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[73])
61112.8-------
62128-------
63129.6-------
64125.8-------
65119.5-------
66115.7-------
67113.6-------
68129.7-------
69112-------
70116.8-------
71127-------
72112.1-------
73114.2-------
74121.1131.0012121.7652140.23710.01780.99980.73790.9998
75131.6132.6231123.2284142.01780.41550.99190.73590.9999
76125124.3279114.7763133.87940.44520.06780.38130.9812
77120.4126.6381115.2683138.00790.14110.61120.89070.984
78117.7115.5577103.922127.19330.35910.20730.49040.5904
79117.5113.0996101.1925125.00680.23440.22440.46720.4281
80120.6126.0609113.3059138.81580.20070.90580.2880.9658
81127.5116.2048103.1573129.25230.04490.25450.73620.6184
82112.3113.7168100.3753127.05840.41760.02140.32530.4717
83124.5126.4528112.6102140.29540.39110.97750.46910.9586
84115.2111.721597.6009125.84220.31460.03810.47910.3654
85105.4113.519299.1241127.91440.13450.40950.46310.4631







Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
740.036-0.07560.006398.03338.16942.8582
750.0361-0.00776e-041.04670.08720.2953
760.03920.00545e-040.45170.03760.194
770.0458-0.04930.004138.91423.24291.8008
780.05140.01850.00154.58960.38250.6184
790.05370.03890.003219.36321.61361.2703
800.0516-0.04330.003629.8212.48511.5764
810.05730.09720.0081127.581910.63183.2606
820.0599-0.01250.0012.00740.16730.409
830.0559-0.01540.00133.81350.31780.5637
840.06450.03110.002612.09981.00831.0042
850.0647-0.07150.00665.92195.49352.3438

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast Performance \tabularnewline
time & % S.E. & PE & MAPE & Sq.E & MSE & RMSE \tabularnewline
74 & 0.036 & -0.0756 & 0.0063 & 98.0333 & 8.1694 & 2.8582 \tabularnewline
75 & 0.0361 & -0.0077 & 6e-04 & 1.0467 & 0.0872 & 0.2953 \tabularnewline
76 & 0.0392 & 0.0054 & 5e-04 & 0.4517 & 0.0376 & 0.194 \tabularnewline
77 & 0.0458 & -0.0493 & 0.0041 & 38.9142 & 3.2429 & 1.8008 \tabularnewline
78 & 0.0514 & 0.0185 & 0.0015 & 4.5896 & 0.3825 & 0.6184 \tabularnewline
79 & 0.0537 & 0.0389 & 0.0032 & 19.3632 & 1.6136 & 1.2703 \tabularnewline
80 & 0.0516 & -0.0433 & 0.0036 & 29.821 & 2.4851 & 1.5764 \tabularnewline
81 & 0.0573 & 0.0972 & 0.0081 & 127.5819 & 10.6318 & 3.2606 \tabularnewline
82 & 0.0599 & -0.0125 & 0.001 & 2.0074 & 0.1673 & 0.409 \tabularnewline
83 & 0.0559 & -0.0154 & 0.0013 & 3.8135 & 0.3178 & 0.5637 \tabularnewline
84 & 0.0645 & 0.0311 & 0.0026 & 12.0998 & 1.0083 & 1.0042 \tabularnewline
85 & 0.0647 & -0.0715 & 0.006 & 65.9219 & 5.4935 & 2.3438 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33792&T=2

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast Performance[/C][/ROW]
[ROW][C]time[/C][C]% S.E.[/C][C]PE[/C][C]MAPE[/C][C]Sq.E[/C][C]MSE[/C][C]RMSE[/C][/ROW]
[ROW][C]74[/C][C]0.036[/C][C]-0.0756[/C][C]0.0063[/C][C]98.0333[/C][C]8.1694[/C][C]2.8582[/C][/ROW]
[ROW][C]75[/C][C]0.0361[/C][C]-0.0077[/C][C]6e-04[/C][C]1.0467[/C][C]0.0872[/C][C]0.2953[/C][/ROW]
[ROW][C]76[/C][C]0.0392[/C][C]0.0054[/C][C]5e-04[/C][C]0.4517[/C][C]0.0376[/C][C]0.194[/C][/ROW]
[ROW][C]77[/C][C]0.0458[/C][C]-0.0493[/C][C]0.0041[/C][C]38.9142[/C][C]3.2429[/C][C]1.8008[/C][/ROW]
[ROW][C]78[/C][C]0.0514[/C][C]0.0185[/C][C]0.0015[/C][C]4.5896[/C][C]0.3825[/C][C]0.6184[/C][/ROW]
[ROW][C]79[/C][C]0.0537[/C][C]0.0389[/C][C]0.0032[/C][C]19.3632[/C][C]1.6136[/C][C]1.2703[/C][/ROW]
[ROW][C]80[/C][C]0.0516[/C][C]-0.0433[/C][C]0.0036[/C][C]29.821[/C][C]2.4851[/C][C]1.5764[/C][/ROW]
[ROW][C]81[/C][C]0.0573[/C][C]0.0972[/C][C]0.0081[/C][C]127.5819[/C][C]10.6318[/C][C]3.2606[/C][/ROW]
[ROW][C]82[/C][C]0.0599[/C][C]-0.0125[/C][C]0.001[/C][C]2.0074[/C][C]0.1673[/C][C]0.409[/C][/ROW]
[ROW][C]83[/C][C]0.0559[/C][C]-0.0154[/C][C]0.0013[/C][C]3.8135[/C][C]0.3178[/C][C]0.5637[/C][/ROW]
[ROW][C]84[/C][C]0.0645[/C][C]0.0311[/C][C]0.0026[/C][C]12.0998[/C][C]1.0083[/C][C]1.0042[/C][/ROW]
[ROW][C]85[/C][C]0.0647[/C][C]-0.0715[/C][C]0.006[/C][C]65.9219[/C][C]5.4935[/C][C]2.3438[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33792&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33792&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
740.036-0.07560.006398.03338.16942.8582
750.0361-0.00776e-041.04670.08720.2953
760.03920.00545e-040.45170.03760.194
770.0458-0.04930.004138.91423.24291.8008
780.05140.01850.00154.58960.38250.6184
790.05370.03890.003219.36321.61361.2703
800.0516-0.04330.003629.8212.48511.5764
810.05730.09720.0081127.581910.63183.2606
820.0599-0.01250.0012.00740.16730.409
830.0559-0.01540.00133.81350.31780.5637
840.06450.03110.002612.09981.00831.0042
850.0647-0.07150.00665.92195.49352.3438



Parameters (Session):
par1 = 12 ; par2 = 1 ; par3 = 0 ; par4 = 1 ; par5 = 12 ; par6 = 3 ; par7 = 0 ; par8 = 2 ; par9 = 1 ; par10 = FALSE ;
Parameters (R input):
par1 = 12 ; par2 = 1 ; par3 = 0 ; par4 = 1 ; par5 = 12 ; par6 = 3 ; par7 = 0 ; par8 = 2 ; par9 = 1 ; par10 = FALSE ;
R code (references can be found in the software module):
par1 <- as.numeric(par1) #cut off periods
par2 <- as.numeric(par2) #lambda
par3 <- as.numeric(par3) #degree of non-seasonal differencing
par4 <- as.numeric(par4) #degree of seasonal differencing
par5 <- as.numeric(par5) #seasonal period
par6 <- as.numeric(par6) #p
par7 <- as.numeric(par7) #q
par8 <- as.numeric(par8) #P
par9 <- as.numeric(par9) #Q
if (par10 == 'TRUE') par10 <- TRUE
if (par10 == 'FALSE') par10 <- FALSE
if (par2 == 0) x <- log(x)
if (par2 != 0) x <- x^par2
lx <- length(x)
first <- lx - 2*par1
nx <- lx - par1
nx1 <- nx + 1
fx <- lx - nx
if (fx < 1) {
fx <- par5
nx1 <- lx + fx - 1
first <- lx - 2*fx
}
first <- 1
if (fx < 3) fx <- round(lx/10,0)
(arima.out <- arima(x[1:nx], order=c(par6,par3,par7), seasonal=list(order=c(par8,par4,par9), period=par5), include.mean=par10, method='ML'))
(forecast <- predict(arima.out,fx))
(lb <- forecast$pred - 1.96 * forecast$se)
(ub <- forecast$pred + 1.96 * forecast$se)
if (par2 == 0) {
x <- exp(x)
forecast$pred <- exp(forecast$pred)
lb <- exp(lb)
ub <- exp(ub)
}
if (par2 != 0) {
x <- x^(1/par2)
forecast$pred <- forecast$pred^(1/par2)
lb <- lb^(1/par2)
ub <- ub^(1/par2)
}
if (par2 < 0) {
olb <- lb
lb <- ub
ub <- olb
}
(actandfor <- c(x[1:nx], forecast$pred))
(perc.se <- (ub-forecast$pred)/1.96/forecast$pred)
bitmap(file='test1.png')
opar <- par(mar=c(4,4,2,2),las=1)
ylim <- c( min(x[first:nx],lb), max(x[first:nx],ub))
plot(x,ylim=ylim,type='n',xlim=c(first,lx))
usr <- par('usr')
rect(usr[1],usr[3],nx+1,usr[4],border=NA,col='lemonchiffon')
rect(nx1,usr[3],usr[2],usr[4],border=NA,col='lavender')
abline(h= (-3:3)*2 , col ='gray', lty =3)
polygon( c(nx1:lx,lx:nx1), c(lb,rev(ub)), col = 'orange', lty=2,border=NA)
lines(nx1:lx, lb , lty=2)
lines(nx1:lx, ub , lty=2)
lines(x, lwd=2)
lines(nx1:lx, forecast$pred , lwd=2 , col ='white')
box()
par(opar)
dev.off()
prob.dec <- array(NA, dim=fx)
prob.sdec <- array(NA, dim=fx)
prob.ldec <- array(NA, dim=fx)
prob.pval <- array(NA, dim=fx)
perf.pe <- array(0, dim=fx)
perf.mape <- array(0, dim=fx)
perf.se <- array(0, dim=fx)
perf.mse <- array(0, dim=fx)
perf.rmse <- array(0, dim=fx)
for (i in 1:fx) {
locSD <- (ub[i] - forecast$pred[i]) / 1.96
perf.pe[i] = (x[nx+i] - forecast$pred[i]) / forecast$pred[i]
perf.mape[i] = perf.mape[i] + abs(perf.pe[i])
perf.se[i] = (x[nx+i] - forecast$pred[i])^2
perf.mse[i] = perf.mse[i] + perf.se[i]
prob.dec[i] = pnorm((x[nx+i-1] - forecast$pred[i]) / locSD)
prob.sdec[i] = pnorm((x[nx+i-par5] - forecast$pred[i]) / locSD)
prob.ldec[i] = pnorm((x[nx] - forecast$pred[i]) / locSD)
prob.pval[i] = pnorm(abs(x[nx+i] - forecast$pred[i]) / locSD)
}
perf.mape = perf.mape / fx
perf.mse = perf.mse / fx
perf.rmse = sqrt(perf.mse)
bitmap(file='test2.png')
plot(forecast$pred, pch=19, type='b',main='ARIMA Extrapolation Forecast', ylab='Forecast and 95% CI', xlab='time',ylim=c(min(lb),max(ub)))
dum <- forecast$pred
dum[1:12] <- x[(nx+1):lx]
lines(dum, lty=1)
lines(ub,lty=3)
lines(lb,lty=3)
dev.off()
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast',9,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'Y[t]',1,header=TRUE)
a<-table.element(a,'F[t]',1,header=TRUE)
a<-table.element(a,'95% LB',1,header=TRUE)
a<-table.element(a,'95% UB',1,header=TRUE)
a<-table.element(a,'p-value
(H0: Y[t] = F[t])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-1])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-s])',1,header=TRUE)
mylab <- paste('P(F[t]>Y[',nx,sep='')
mylab <- paste(mylab,'])',sep='')
a<-table.element(a,mylab,1,header=TRUE)
a<-table.row.end(a)
for (i in (nx-par5):nx) {
a<-table.row.start(a)
a<-table.element(a,i,header=TRUE)
a<-table.element(a,x[i])
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.row.end(a)
}
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(x[nx+i],4))
a<-table.element(a,round(forecast$pred[i],4))
a<-table.element(a,round(lb[i],4))
a<-table.element(a,round(ub[i],4))
a<-table.element(a,round((1-prob.pval[i]),4))
a<-table.element(a,round((1-prob.dec[i]),4))
a<-table.element(a,round((1-prob.sdec[i]),4))
a<-table.element(a,round((1-prob.ldec[i]),4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast Performance',7,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'% S.E.',1,header=TRUE)
a<-table.element(a,'PE',1,header=TRUE)
a<-table.element(a,'MAPE',1,header=TRUE)
a<-table.element(a,'Sq.E',1,header=TRUE)
a<-table.element(a,'MSE',1,header=TRUE)
a<-table.element(a,'RMSE',1,header=TRUE)
a<-table.row.end(a)
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(perc.se[i],4))
a<-table.element(a,round(perf.pe[i],4))
a<-table.element(a,round(perf.mape[i],4))
a<-table.element(a,round(perf.se[i],4))
a<-table.element(a,round(perf.mse[i],4))
a<-table.element(a,round(perf.rmse[i],4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable1.tab')