Free Statistics

of Irreproducible Research!

Author's title

Author*Unverified author*
R Software Modulerwasp_arimaforecasting.wasp
Title produced by softwareARIMA Forecasting
Date of computationTue, 16 Dec 2008 10:13:10 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/16/t122944772527qp0ui4qn909wy.htm/, Retrieved Wed, 15 May 2024 14:25:30 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=34041, Retrieved Wed, 15 May 2024 14:25:30 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact224
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F     [(Partial) Autocorrelation Function] [paper bel20 autoc...] [2008-12-03 13:05:59] [f58cc3b532da25682c394745f1a82535]
-   PD  [(Partial) Autocorrelation Function] [paper variance re...] [2008-12-03 14:08:24] [f58cc3b532da25682c394745f1a82535]
- RM      [Spectral Analysis] [paper spectral an...] [2008-12-03 14:40:03] [f58cc3b532da25682c394745f1a82535]
-   P       [Spectral Analysis] [] [2008-12-07 15:17:33] [74be16979710d4c4e7c6647856088456]
F RMP         [ARIMA Backward Selection] [] [2008-12-09 18:26:36] [300682cb535653f8775e6b312a464dab]
-   P           [ARIMA Backward Selection] [] [2008-12-14 15:26:26] [74be16979710d4c4e7c6647856088456]
-   P             [ARIMA Backward Selection] [] [2008-12-15 18:05:04] [74be16979710d4c4e7c6647856088456]
-   P               [ARIMA Backward Selection] [] [2008-12-16 16:31:14] [74be16979710d4c4e7c6647856088456]
F RMP                   [ARIMA Forecasting] [] [2008-12-16 17:13:10] [d41d8cd98f00b204e9800998ecf8427e] [Current]
Feedback Forum
2008-12-18 17:00:00 [6066575aa30c0611e452e930b1dff53d] [reply
Hier was het eigenlijk de bedoeling om te vermelden of er sprake is van een explosieve voorspelling. Aangezien de werkelijke waarde in het betrouwbaarheidsinterval ligt, is er geen sprake van explosiviteit. We kunnen dus stellen dat de AR processen stabiel zijn en dat de MA processen omkeerbaar zijn.
  2008-12-18 17:43:29 [6066575aa30c0611e452e930b1dff53d] [reply
In het begin (tijdstip 71, 72) zien we dat de werkelijke waarden wel buiten het betrouwbaarheidsinterval liggen, maar aangezien deze niet naar + of - oneindig gaan, kunnen we niet van een explosieve voorspelling spreken.
2008-12-18 17:08:16 [6066575aa30c0611e452e930b1dff53d] [reply
We zien dat er misschien een conjunctuurcyclus aanwezig is. Dit komt doordat, als we kijken naar de eerste grafiek, we er als het ware een 'bergparabool' door kunnen tekenen. (er is dus sprake van een stijging, daarna redelijk gelijklopend en daarna een daling). Maar deze daling wordt niet verder gezet door de voorspelde waarde. Dit doet ons twijfelen of er echt wel sprake is van een conjunctuurcyclus. Verder zien we geen pieken die kunnen wijzen op seizoenaliteit. Er is dus geen sprake van seizoenaliteit.
2008-12-18 17:16:43 [6066575aa30c0611e452e930b1dff53d] [reply
We zien dat bij time 71 en 72 de werkelijke fout (PE) niet kleiner is dan de voorspelde standaardfout (%S.E.) Dit kan twee verklaringen hebben. Een eerste verklaring is dat dit komt doordat er sprake is van een outlier. Een tweede verklaring is dat er iets exceptioneels gebeurd moet zijn. Verder kunnen we ook nog vermelden dat de standaardfout de theoretische schatting is op basis van het model van de gemaakte fout. We voorspellen dat we er in de eerste maand 2,6% naast zullen zitten. De procentuele afwijking stijgt want hoe verder we naar de toekomst voorspellen, hoe groter de afwijking wordt. Dit is dus een goed model.
2008-12-18 17:30:28 [6066575aa30c0611e452e930b1dff53d] [reply
F[t] is de forecast. Hier wordt berekend welke de meest waarschijnlijke uitkomst is, er is dus sprake van extrapolatie (voorspelling naar de toekomst toe). 95% LB (lower bound) en 95% UB (upper bound)staan voor de ondergrens en bovengrens van het 95% betrouwbaarheidsinterval. De p-value (H0: Y[t] = F[t])houdt in dat y(t) en f(t) niet significant van elkaar mogen verschillen. Op tijdstip 71 zien we dat de werkelijke waarde 4296.49 bedraagt. De voorspelde waarde bedraagt dan 4042.4624. Het verschil is significant (p= 0.008) en er is dus een significante afwijking tussen de werkelijkheid en de voorspelling. Het is een ceterus paribus voorspelling. Dit significant verschil kan economische redenen hebben. P(F[t]>Y[t-1])staat voor de waarschijnlijkheid dat f> y-1. Dus 0.0644 is de waarschijnlijkheid dat er een stijging is ten opzichte van de maand voorheen. P(F[t]>Y[t-s]) staat voor: wat is de kans dat in deze maanden de waarde groter is dan dezelfde maand 1 jaar voorheen. We zien dat voor het tijdstip 71 dit 0.7538 bedraagt. We gaan dus stijgen tov vorig jaar. Er is dus een stijgende trend tov het jaar voorheen. P(F[t]>Y[70]) 70 is de laatst gekende waarde. Dit is de kans op een stijging tov de laatst gekende waarde.
2008-12-18 17:38:27 [6066575aa30c0611e452e930b1dff53d] [reply
Verder kunnen we er ook nog aan toevoegen dat de p-waarde kleiner is dan 5% voor (zoals al eerder vermeld) tijdstip 71 en ook voor tijdstip 72. Dit houdt in dat het verschil tussen de voorspelde waarde en de werkelijke waarde significant is. Dit zien we ook in de grafiek. We zien dat de werkelijke waarden op tijdstip 71 en 72 buiten het betrouwbaarheidsinterval liggen. Verder is ook PE groter dan %SE op tijdstip 71 en 72, als we dit mee in gedachte nemen kunnen we besluiten dat dit waarschijnlijk door een economische reden komt.
2008-12-22 18:57:04 [Gilliam Schoorel] [reply
Je workshop is goed uitgevoerd al zijn je conclusies soms wat te kort.

Voor de eerste stap had je veel meer kunnen bespreken.

Deze conclusie klopt hier inderdaad maar is wederom wat beperkt.
Je had eventueel de 2e extrapolation grafiek nog verder kunnen bespreken.
hier kan je zien dat er in het begin een uitstijging is boven het betrouwbaarheidsinterval, deze is niet echt noemenswaardig te noemen aangezien ze er matig overgaat en enkel daar overschreden wordt.

Op de eerste grafiek worden de laatste 12 voorspelde maanden grijs gekleurd. Hier gaat het over de periode waarvoor we voorspellingen gaan doen; Deze periode wordt in de andere forecast grafiek (extrapolation forecast) uitvergroot.

Goede conclusie voor de derde vraag. Je moet hier dus kijken naar de kolom met de standaardfout, deze vind je in de 2e kolom ( %S.E.).
De procentuele standaardfout loopt dus steeds op. Hoe verder in de toekomst hoe hoger de procentuele standaardfout. De standaardfout is de fout die verwacht wordt onder normale omstandigheden (ceteris paribus).

Hier zeg je dat bij een voorspelling van 12 maanden in de toekomst de tijdreeks gemiddeld 15% verschild. Dit is toch een grote verandering binnen een jaar denk ik, maar je zegt van niet.
Deze waarde/S.E. kan zowel naar boven als naar beneden/positief of negatief evolueren, maar dit kunnen we niet voorspellen.
Je moet dit wel nuanceren naar bedrijfstak/industrie omdat deze zeer verschillend kunnen zijn en de ene meer kan dragen dan de andere.

Als de p-waarde kleiner is dan vijf procent kunnen we zien dat er een significant verschil ontstaat tussen de werkelijke/orginele waarde van de tijdreeks en de voorspelde. Je kan zien in het begin van de forecast dat dit het geval is.
Je kan ook zien dat deze intervallen het betrouwbaarheidsinterval overschrijden op twee maanden.
Deze tijdreeks is wellicht zeer gevoelig aan economische situatie en conjunctuur. Er is een goede voorspelling uitgevoerd voor deze tijdreeks.





Post a new message
Dataseries X:
2659.81
2638.53
2720.25
2745.88
2735.7
2811.7
2799.43
2555.28
2304.98
2214.95
2065.81
1940.49
2042
1995.37
1946.81
1765.9
1635.25
1833.42
1910.43
1959.67
1969.6
2061.41
2093.48
2120.88
2174.56
2196.72
2350.44
2440.25
2408.64
2472.81
2407.6
2454.62
2448.05
2497.84
2645.64
2756.76
2849.27
2921.44
2981.85
3080.58
3106.22
3119.31
3061.26
3097.31
3161.69
3257.16
3277.01
3295.32
3363.99
3494.17
3667.03
3813.06
3917.96
3895.51
3801.06
3570.12
3701.61
3862.27
3970.1
4138.52
4199.75
4290.89
4443.91
4502.64
4356.98
4591.27
4696.96
4621.4
4562.84
4202.52
4296.49
4435.23
4105.18
4116.68
3844.49
3720.98
3674.4
3857.62
3801.06
3504.37
3032.6
3047.03




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'Herman Ole Andreas Wold' @ 193.190.124.10:1001

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 2 seconds \tabularnewline
R Server & 'Herman Ole Andreas Wold' @ 193.190.124.10:1001 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=34041&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]2 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Herman Ole Andreas Wold' @ 193.190.124.10:1001[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=34041&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=34041&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'Herman Ole Andreas Wold' @ 193.190.124.10:1001







Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[70])
583862.27-------
593970.1-------
604138.52-------
614199.75-------
624290.89-------
634443.91-------
644502.64-------
654356.98-------
664591.27-------
674696.96-------
684621.4-------
694562.84-------
704202.52-------
714296.494042.46243835.89364249.03120.0080.06440.75380.0644
724435.233971.36333608.49884334.22780.00610.03950.18330.1059
734105.183939.78043443.13964436.42130.2570.02530.15250.1499
744116.683925.7513313.99884537.50320.27040.28270.1210.1876
753844.493919.5193207.03054632.00750.41820.29380.07460.2181
763720.983916.75073114.46554719.03590.31620.57010.07620.2425
773674.43915.5213031.86024799.18180.29640.66690.16370.2622
783857.623914.97472956.5524873.39740.45330.68860.08330.2783
793801.063914.73212886.85844942.60570.41420.54340.06790.2916
803504.373914.62432821.65695007.59170.2310.58070.10250.3028
813032.63914.57642760.16015068.99280.06710.75690.13550.3125
823047.033914.55512701.7915127.31930.08050.9230.32080.3208

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast \tabularnewline
time & Y[t] & F[t] & 95% LB & 95% UB & p-value(H0: Y[t] = F[t]) & P(F[t]>Y[t-1]) & P(F[t]>Y[t-s]) & P(F[t]>Y[70]) \tabularnewline
58 & 3862.27 & - & - & - & - & - & - & - \tabularnewline
59 & 3970.1 & - & - & - & - & - & - & - \tabularnewline
60 & 4138.52 & - & - & - & - & - & - & - \tabularnewline
61 & 4199.75 & - & - & - & - & - & - & - \tabularnewline
62 & 4290.89 & - & - & - & - & - & - & - \tabularnewline
63 & 4443.91 & - & - & - & - & - & - & - \tabularnewline
64 & 4502.64 & - & - & - & - & - & - & - \tabularnewline
65 & 4356.98 & - & - & - & - & - & - & - \tabularnewline
66 & 4591.27 & - & - & - & - & - & - & - \tabularnewline
67 & 4696.96 & - & - & - & - & - & - & - \tabularnewline
68 & 4621.4 & - & - & - & - & - & - & - \tabularnewline
69 & 4562.84 & - & - & - & - & - & - & - \tabularnewline
70 & 4202.52 & - & - & - & - & - & - & - \tabularnewline
71 & 4296.49 & 4042.4624 & 3835.8936 & 4249.0312 & 0.008 & 0.0644 & 0.7538 & 0.0644 \tabularnewline
72 & 4435.23 & 3971.3633 & 3608.4988 & 4334.2278 & 0.0061 & 0.0395 & 0.1833 & 0.1059 \tabularnewline
73 & 4105.18 & 3939.7804 & 3443.1396 & 4436.4213 & 0.257 & 0.0253 & 0.1525 & 0.1499 \tabularnewline
74 & 4116.68 & 3925.751 & 3313.9988 & 4537.5032 & 0.2704 & 0.2827 & 0.121 & 0.1876 \tabularnewline
75 & 3844.49 & 3919.519 & 3207.0305 & 4632.0075 & 0.4182 & 0.2938 & 0.0746 & 0.2181 \tabularnewline
76 & 3720.98 & 3916.7507 & 3114.4655 & 4719.0359 & 0.3162 & 0.5701 & 0.0762 & 0.2425 \tabularnewline
77 & 3674.4 & 3915.521 & 3031.8602 & 4799.1818 & 0.2964 & 0.6669 & 0.1637 & 0.2622 \tabularnewline
78 & 3857.62 & 3914.9747 & 2956.552 & 4873.3974 & 0.4533 & 0.6886 & 0.0833 & 0.2783 \tabularnewline
79 & 3801.06 & 3914.7321 & 2886.8584 & 4942.6057 & 0.4142 & 0.5434 & 0.0679 & 0.2916 \tabularnewline
80 & 3504.37 & 3914.6243 & 2821.6569 & 5007.5917 & 0.231 & 0.5807 & 0.1025 & 0.3028 \tabularnewline
81 & 3032.6 & 3914.5764 & 2760.1601 & 5068.9928 & 0.0671 & 0.7569 & 0.1355 & 0.3125 \tabularnewline
82 & 3047.03 & 3914.5551 & 2701.791 & 5127.3193 & 0.0805 & 0.923 & 0.3208 & 0.3208 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=34041&T=1

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast[/C][/ROW]
[ROW][C]time[/C][C]Y[t][/C][C]F[t][/C][C]95% LB[/C][C]95% UB[/C][C]p-value(H0: Y[t] = F[t])[/C][C]P(F[t]>Y[t-1])[/C][C]P(F[t]>Y[t-s])[/C][C]P(F[t]>Y[70])[/C][/ROW]
[ROW][C]58[/C][C]3862.27[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]59[/C][C]3970.1[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]60[/C][C]4138.52[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]61[/C][C]4199.75[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]62[/C][C]4290.89[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]63[/C][C]4443.91[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]64[/C][C]4502.64[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]65[/C][C]4356.98[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]66[/C][C]4591.27[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]67[/C][C]4696.96[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]68[/C][C]4621.4[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]69[/C][C]4562.84[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]70[/C][C]4202.52[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]71[/C][C]4296.49[/C][C]4042.4624[/C][C]3835.8936[/C][C]4249.0312[/C][C]0.008[/C][C]0.0644[/C][C]0.7538[/C][C]0.0644[/C][/ROW]
[ROW][C]72[/C][C]4435.23[/C][C]3971.3633[/C][C]3608.4988[/C][C]4334.2278[/C][C]0.0061[/C][C]0.0395[/C][C]0.1833[/C][C]0.1059[/C][/ROW]
[ROW][C]73[/C][C]4105.18[/C][C]3939.7804[/C][C]3443.1396[/C][C]4436.4213[/C][C]0.257[/C][C]0.0253[/C][C]0.1525[/C][C]0.1499[/C][/ROW]
[ROW][C]74[/C][C]4116.68[/C][C]3925.751[/C][C]3313.9988[/C][C]4537.5032[/C][C]0.2704[/C][C]0.2827[/C][C]0.121[/C][C]0.1876[/C][/ROW]
[ROW][C]75[/C][C]3844.49[/C][C]3919.519[/C][C]3207.0305[/C][C]4632.0075[/C][C]0.4182[/C][C]0.2938[/C][C]0.0746[/C][C]0.2181[/C][/ROW]
[ROW][C]76[/C][C]3720.98[/C][C]3916.7507[/C][C]3114.4655[/C][C]4719.0359[/C][C]0.3162[/C][C]0.5701[/C][C]0.0762[/C][C]0.2425[/C][/ROW]
[ROW][C]77[/C][C]3674.4[/C][C]3915.521[/C][C]3031.8602[/C][C]4799.1818[/C][C]0.2964[/C][C]0.6669[/C][C]0.1637[/C][C]0.2622[/C][/ROW]
[ROW][C]78[/C][C]3857.62[/C][C]3914.9747[/C][C]2956.552[/C][C]4873.3974[/C][C]0.4533[/C][C]0.6886[/C][C]0.0833[/C][C]0.2783[/C][/ROW]
[ROW][C]79[/C][C]3801.06[/C][C]3914.7321[/C][C]2886.8584[/C][C]4942.6057[/C][C]0.4142[/C][C]0.5434[/C][C]0.0679[/C][C]0.2916[/C][/ROW]
[ROW][C]80[/C][C]3504.37[/C][C]3914.6243[/C][C]2821.6569[/C][C]5007.5917[/C][C]0.231[/C][C]0.5807[/C][C]0.1025[/C][C]0.3028[/C][/ROW]
[ROW][C]81[/C][C]3032.6[/C][C]3914.5764[/C][C]2760.1601[/C][C]5068.9928[/C][C]0.0671[/C][C]0.7569[/C][C]0.1355[/C][C]0.3125[/C][/ROW]
[ROW][C]82[/C][C]3047.03[/C][C]3914.5551[/C][C]2701.791[/C][C]5127.3193[/C][C]0.0805[/C][C]0.923[/C][C]0.3208[/C][C]0.3208[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=34041&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=34041&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[70])
583862.27-------
593970.1-------
604138.52-------
614199.75-------
624290.89-------
634443.91-------
644502.64-------
654356.98-------
664591.27-------
674696.96-------
684621.4-------
694562.84-------
704202.52-------
714296.494042.46243835.89364249.03120.0080.06440.75380.0644
724435.233971.36333608.49884334.22780.00610.03950.18330.1059
734105.183939.78043443.13964436.42130.2570.02530.15250.1499
744116.683925.7513313.99884537.50320.27040.28270.1210.1876
753844.493919.5193207.03054632.00750.41820.29380.07460.2181
763720.983916.75073114.46554719.03590.31620.57010.07620.2425
773674.43915.5213031.86024799.18180.29640.66690.16370.2622
783857.623914.97472956.5524873.39740.45330.68860.08330.2783
793801.063914.73212886.85844942.60570.41420.54340.06790.2916
803504.373914.62432821.65695007.59170.2310.58070.10250.3028
813032.63914.57642760.16015068.99280.06710.75690.13550.3125
823047.033914.55512701.7915127.31930.08050.9230.32080.3208







Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
710.02610.06280.005264530.00855377.500773.3314
720.04660.11680.0097215172.289917931.0242133.9068
730.06430.0420.003527357.01742279.751447.7467
740.07950.04860.004136453.883037.823355.1165
750.0927-0.01910.00165629.3515469.112621.659
760.1045-0.050.004238326.16283193.846956.5141
770.1151-0.06160.005158139.32574844.943869.6056
780.1249-0.01470.00123289.5648274.130416.5569
790.134-0.0290.002412921.34141076.778432.8143
800.1424-0.10480.0087168308.583414025.7153118.4302
810.1505-0.22530.0188777882.389664823.5325254.6047
820.1581-0.22160.0185752599.872462716.656250.4329

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast Performance \tabularnewline
time & % S.E. & PE & MAPE & Sq.E & MSE & RMSE \tabularnewline
71 & 0.0261 & 0.0628 & 0.0052 & 64530.0085 & 5377.5007 & 73.3314 \tabularnewline
72 & 0.0466 & 0.1168 & 0.0097 & 215172.2899 & 17931.0242 & 133.9068 \tabularnewline
73 & 0.0643 & 0.042 & 0.0035 & 27357.0174 & 2279.7514 & 47.7467 \tabularnewline
74 & 0.0795 & 0.0486 & 0.0041 & 36453.88 & 3037.8233 & 55.1165 \tabularnewline
75 & 0.0927 & -0.0191 & 0.0016 & 5629.3515 & 469.1126 & 21.659 \tabularnewline
76 & 0.1045 & -0.05 & 0.0042 & 38326.1628 & 3193.8469 & 56.5141 \tabularnewline
77 & 0.1151 & -0.0616 & 0.0051 & 58139.3257 & 4844.9438 & 69.6056 \tabularnewline
78 & 0.1249 & -0.0147 & 0.0012 & 3289.5648 & 274.1304 & 16.5569 \tabularnewline
79 & 0.134 & -0.029 & 0.0024 & 12921.3414 & 1076.7784 & 32.8143 \tabularnewline
80 & 0.1424 & -0.1048 & 0.0087 & 168308.5834 & 14025.7153 & 118.4302 \tabularnewline
81 & 0.1505 & -0.2253 & 0.0188 & 777882.3896 & 64823.5325 & 254.6047 \tabularnewline
82 & 0.1581 & -0.2216 & 0.0185 & 752599.8724 & 62716.656 & 250.4329 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=34041&T=2

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast Performance[/C][/ROW]
[ROW][C]time[/C][C]% S.E.[/C][C]PE[/C][C]MAPE[/C][C]Sq.E[/C][C]MSE[/C][C]RMSE[/C][/ROW]
[ROW][C]71[/C][C]0.0261[/C][C]0.0628[/C][C]0.0052[/C][C]64530.0085[/C][C]5377.5007[/C][C]73.3314[/C][/ROW]
[ROW][C]72[/C][C]0.0466[/C][C]0.1168[/C][C]0.0097[/C][C]215172.2899[/C][C]17931.0242[/C][C]133.9068[/C][/ROW]
[ROW][C]73[/C][C]0.0643[/C][C]0.042[/C][C]0.0035[/C][C]27357.0174[/C][C]2279.7514[/C][C]47.7467[/C][/ROW]
[ROW][C]74[/C][C]0.0795[/C][C]0.0486[/C][C]0.0041[/C][C]36453.88[/C][C]3037.8233[/C][C]55.1165[/C][/ROW]
[ROW][C]75[/C][C]0.0927[/C][C]-0.0191[/C][C]0.0016[/C][C]5629.3515[/C][C]469.1126[/C][C]21.659[/C][/ROW]
[ROW][C]76[/C][C]0.1045[/C][C]-0.05[/C][C]0.0042[/C][C]38326.1628[/C][C]3193.8469[/C][C]56.5141[/C][/ROW]
[ROW][C]77[/C][C]0.1151[/C][C]-0.0616[/C][C]0.0051[/C][C]58139.3257[/C][C]4844.9438[/C][C]69.6056[/C][/ROW]
[ROW][C]78[/C][C]0.1249[/C][C]-0.0147[/C][C]0.0012[/C][C]3289.5648[/C][C]274.1304[/C][C]16.5569[/C][/ROW]
[ROW][C]79[/C][C]0.134[/C][C]-0.029[/C][C]0.0024[/C][C]12921.3414[/C][C]1076.7784[/C][C]32.8143[/C][/ROW]
[ROW][C]80[/C][C]0.1424[/C][C]-0.1048[/C][C]0.0087[/C][C]168308.5834[/C][C]14025.7153[/C][C]118.4302[/C][/ROW]
[ROW][C]81[/C][C]0.1505[/C][C]-0.2253[/C][C]0.0188[/C][C]777882.3896[/C][C]64823.5325[/C][C]254.6047[/C][/ROW]
[ROW][C]82[/C][C]0.1581[/C][C]-0.2216[/C][C]0.0185[/C][C]752599.8724[/C][C]62716.656[/C][C]250.4329[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=34041&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=34041&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
710.02610.06280.005264530.00855377.500773.3314
720.04660.11680.0097215172.289917931.0242133.9068
730.06430.0420.003527357.01742279.751447.7467
740.07950.04860.004136453.883037.823355.1165
750.0927-0.01910.00165629.3515469.112621.659
760.1045-0.050.004238326.16283193.846956.5141
770.1151-0.06160.005158139.32574844.943869.6056
780.1249-0.01470.00123289.5648274.130416.5569
790.134-0.0290.002412921.34141076.778432.8143
800.1424-0.10480.0087168308.583414025.7153118.4302
810.1505-0.22530.0188777882.389664823.5325254.6047
820.1581-0.22160.0185752599.872462716.656250.4329



Parameters (Session):
par1 = 12 ; par2 = 1 ; par3 = 1 ; par4 = 0 ; par5 = 12 ; par6 = 1 ; par7 = 0 ; par8 = 0 ; par9 = 0 ; par10 = FALSE ;
Parameters (R input):
par1 = 12 ; par2 = 1 ; par3 = 1 ; par4 = 0 ; par5 = 12 ; par6 = 1 ; par7 = 0 ; par8 = 0 ; par9 = 0 ; par10 = FALSE ;
R code (references can be found in the software module):
par1 <- as.numeric(par1) #cut off periods
par2 <- as.numeric(par2) #lambda
par3 <- as.numeric(par3) #degree of non-seasonal differencing
par4 <- as.numeric(par4) #degree of seasonal differencing
par5 <- as.numeric(par5) #seasonal period
par6 <- as.numeric(par6) #p
par7 <- as.numeric(par7) #q
par8 <- as.numeric(par8) #P
par9 <- as.numeric(par9) #Q
if (par10 == 'TRUE') par10 <- TRUE
if (par10 == 'FALSE') par10 <- FALSE
if (par2 == 0) x <- log(x)
if (par2 != 0) x <- x^par2
lx <- length(x)
first <- lx - 2*par1
nx <- lx - par1
nx1 <- nx + 1
fx <- lx - nx
if (fx < 1) {
fx <- par5
nx1 <- lx + fx - 1
first <- lx - 2*fx
}
first <- 1
if (fx < 3) fx <- round(lx/10,0)
(arima.out <- arima(x[1:nx], order=c(par6,par3,par7), seasonal=list(order=c(par8,par4,par9), period=par5), include.mean=par10, method='ML'))
(forecast <- predict(arima.out,fx))
(lb <- forecast$pred - 1.96 * forecast$se)
(ub <- forecast$pred + 1.96 * forecast$se)
if (par2 == 0) {
x <- exp(x)
forecast$pred <- exp(forecast$pred)
lb <- exp(lb)
ub <- exp(ub)
}
if (par2 != 0) {
x <- x^(1/par2)
forecast$pred <- forecast$pred^(1/par2)
lb <- lb^(1/par2)
ub <- ub^(1/par2)
}
if (par2 < 0) {
olb <- lb
lb <- ub
ub <- olb
}
(actandfor <- c(x[1:nx], forecast$pred))
(perc.se <- (ub-forecast$pred)/1.96/forecast$pred)
bitmap(file='test1.png')
opar <- par(mar=c(4,4,2,2),las=1)
ylim <- c( min(x[first:nx],lb), max(x[first:nx],ub))
plot(x,ylim=ylim,type='n',xlim=c(first,lx))
usr <- par('usr')
rect(usr[1],usr[3],nx+1,usr[4],border=NA,col='lemonchiffon')
rect(nx1,usr[3],usr[2],usr[4],border=NA,col='lavender')
abline(h= (-3:3)*2 , col ='gray', lty =3)
polygon( c(nx1:lx,lx:nx1), c(lb,rev(ub)), col = 'orange', lty=2,border=NA)
lines(nx1:lx, lb , lty=2)
lines(nx1:lx, ub , lty=2)
lines(x, lwd=2)
lines(nx1:lx, forecast$pred , lwd=2 , col ='white')
box()
par(opar)
dev.off()
prob.dec <- array(NA, dim=fx)
prob.sdec <- array(NA, dim=fx)
prob.ldec <- array(NA, dim=fx)
prob.pval <- array(NA, dim=fx)
perf.pe <- array(0, dim=fx)
perf.mape <- array(0, dim=fx)
perf.se <- array(0, dim=fx)
perf.mse <- array(0, dim=fx)
perf.rmse <- array(0, dim=fx)
for (i in 1:fx) {
locSD <- (ub[i] - forecast$pred[i]) / 1.96
perf.pe[i] = (x[nx+i] - forecast$pred[i]) / forecast$pred[i]
perf.mape[i] = perf.mape[i] + abs(perf.pe[i])
perf.se[i] = (x[nx+i] - forecast$pred[i])^2
perf.mse[i] = perf.mse[i] + perf.se[i]
prob.dec[i] = pnorm((x[nx+i-1] - forecast$pred[i]) / locSD)
prob.sdec[i] = pnorm((x[nx+i-par5] - forecast$pred[i]) / locSD)
prob.ldec[i] = pnorm((x[nx] - forecast$pred[i]) / locSD)
prob.pval[i] = pnorm(abs(x[nx+i] - forecast$pred[i]) / locSD)
}
perf.mape = perf.mape / fx
perf.mse = perf.mse / fx
perf.rmse = sqrt(perf.mse)
bitmap(file='test2.png')
plot(forecast$pred, pch=19, type='b',main='ARIMA Extrapolation Forecast', ylab='Forecast and 95% CI', xlab='time',ylim=c(min(lb),max(ub)))
dum <- forecast$pred
dum[1:12] <- x[(nx+1):lx]
lines(dum, lty=1)
lines(ub,lty=3)
lines(lb,lty=3)
dev.off()
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast',9,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'Y[t]',1,header=TRUE)
a<-table.element(a,'F[t]',1,header=TRUE)
a<-table.element(a,'95% LB',1,header=TRUE)
a<-table.element(a,'95% UB',1,header=TRUE)
a<-table.element(a,'p-value
(H0: Y[t] = F[t])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-1])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-s])',1,header=TRUE)
mylab <- paste('P(F[t]>Y[',nx,sep='')
mylab <- paste(mylab,'])',sep='')
a<-table.element(a,mylab,1,header=TRUE)
a<-table.row.end(a)
for (i in (nx-par5):nx) {
a<-table.row.start(a)
a<-table.element(a,i,header=TRUE)
a<-table.element(a,x[i])
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.row.end(a)
}
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(x[nx+i],4))
a<-table.element(a,round(forecast$pred[i],4))
a<-table.element(a,round(lb[i],4))
a<-table.element(a,round(ub[i],4))
a<-table.element(a,round((1-prob.pval[i]),4))
a<-table.element(a,round((1-prob.dec[i]),4))
a<-table.element(a,round((1-prob.sdec[i]),4))
a<-table.element(a,round((1-prob.ldec[i]),4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast Performance',7,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'% S.E.',1,header=TRUE)
a<-table.element(a,'PE',1,header=TRUE)
a<-table.element(a,'MAPE',1,header=TRUE)
a<-table.element(a,'Sq.E',1,header=TRUE)
a<-table.element(a,'MSE',1,header=TRUE)
a<-table.element(a,'RMSE',1,header=TRUE)
a<-table.row.end(a)
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(perc.se[i],4))
a<-table.element(a,round(perf.pe[i],4))
a<-table.element(a,round(perf.mape[i],4))
a<-table.element(a,round(perf.se[i],4))
a<-table.element(a,round(perf.mse[i],4))
a<-table.element(a,round(perf.rmse[i],4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable1.tab')