Free Statistics

of Irreproducible Research!

Author's title

Author*Unverified author*
R Software Modulerwasp_arimaforecasting.wasp
Title produced by softwareARIMA Forecasting
Date of computationSun, 14 Dec 2008 08:36:53 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/14/t1229269136j5cixcr1w1hz33d.htm/, Retrieved Wed, 15 May 2024 03:54:44 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=33425, Retrieved Wed, 15 May 2024 03:54:44 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact229
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F       [ARIMA Forecasting] [] [2008-12-14 15:36:53] [84357e896eab491ec515599b43df427d] [Current]
- RMP     [ARIMA Backward Selection] [Assessment ARIMA ...] [2008-12-18 09:48:50] [74be16979710d4c4e7c6647856088456]
-           [ARIMA Backward Selection] [ARIMA] [2008-12-22 20:49:31] [a4602103a5e123497aa555277d0e627b]
-   P     [ARIMA Forecasting] [Assessment ARIMA ...] [2008-12-18 09:57:38] [74be16979710d4c4e7c6647856088456]
-           [ARIMA Forecasting] [arima] [2008-12-22 20:39:03] [a4602103a5e123497aa555277d0e627b]
Feedback Forum
2008-12-18 10:41:38 [Jonas Scheltjens] [reply
Algemeen: in de berekening die gemaakt werd heeft de student de p, P, q, Q op 0 ingesteld terwijl ik bij controle in de ARIMA Backward Selection voor deze tijdreeks toch uitkom op een seizoenaal AR –proces met een coëfficiënt met een toch redelijk grote waarde (-0,58). Dit ARIMA Backward Selection-model geeft voor deze berekening dan ook mooie grafieken. Daarom deze link met de Bacward Selection: http://www.freestatistics.org/blog/index.php?v=date/2008/Dec/18/t1229594145vpj2e8yyj18v8v5.htm

Deze Forecast is in zijn geheel dus niet correct. De juiste zou de volgende moeten zijn:
http://www.freestatistics.org/blog/index.php?v=date/2008/Dec/18/t1229594307mn45tzswe9ac1zq.htm

Aangezien het niet de bedoeling is dat ik het hele werk voor de student ga doen, ga ik nu verder op de (foute) berekeningen van de student om hem hierin op zijn goede en foute besprekingen te wijzen.
Step 1:
De student heeft hier zeer beperkt geantwoord op de vraag. De vraagstelling zegt hier dat het de bedoeling is om na te gaan of de voorspelling die berekend wordt al dan niet explosief gebeurd of met grote schommelingen.
Doordat de testing period op 12 ingesteld wordt, worden de laatste 12 maanden weggelaten en aldus wordt een voorspelling gemaakt voor de 12 komende maanden zonder rekening te houden met de gegevens van het laatste jaar. De bedoeling is dan om de voorspelling gaan vergelijken met de weggelaten waarden. We kunnen zien dat de voorspelling goed in lijn ligt met de voorgaande trend in de gegevensreeks. Of dit al dan niet betrouwbaar is gaan we na met behulp van de tabellen en grafieken.
In de tabel ‘Univariate ARIMA Extrapolation Forecast’, geven de lower- en upper bound de waarden weer die de onder- en bovengrens van het betrouwbaarheidsinterval voorstellen. Op deze manier is het mogelijk na te gaan of de verkregen waarden al dan niet significant verschillend zijn. Praktisch gezien wil dit interval hier zeggen dat de volgende waarde met een waarschijnlijkheid van 95% zich tussen deze grenzen zal bevinden, buiten indien er zich een exceptionaliteit voordoet. Uit de tabel kunnen we dan ook afleiden dat er in de 7de, 8ste en 9de voorspelde maand inderdaad een p-waarde kleiner dan 5%. Dit wil dan zeggen dat het verband tussen de voorspelde waarde en de werkelijke waarde significant is. Hierin heeft de student dus wel gelijk.
Wanneer we dan de grafiek van de voorspelde waarden gaan onderzoeken moeten we alvast weten dat in de grafiek de 12 laatste maanden ‘weggeknipt’ zijn aangezien zij niet binnen de berekening vallen. Ook ziet men duidelijk dat de voorspelde waarden met een witte lijn in de forecast zijn weergegeven. Wat we hier kunnen zien is dus dat de voorspelde waarden dezelfde stijgende trend volgen dan hun voorgaande, reeds bekende waarden. Dus we kunnen nogmaals stellen dat indien er zich exceptionele gebeurtenissen voordoen, de trend van de tijdreeks blijft behouden.

Step 2:
Wat we hier moeten onderzoeken is er nog een seizoenale of niet- seizoenale trend is. De student blijft hier beperkt aangezien seizoenaliteit niet werd besproken. We kunnen een schommeling in de voorspelling waarnemen. Omdat deze opeenvolgende maand hoog en laag ligt denk ik dat dit niet met seizoenaliteit te maken heeft maar met een snel fluctuerende conjucntuur. Omdat de student nergens vermeld over wat voor soort tijdreeks het gaat, kan hier dan ook niet dieper op worden ingegaan.

Step 3:
In de tabel ‘Univariate ARIMA Extrapolation Forecast Performance’ kunnen we de theoretische schatting terugvinden op basis van de theoretische assumpties met de procentuele waarden van de afwijkingen.
Zoals de student zegt is dit inderdaad geen goed model. Dit zijn zeer hoge waarde voor een voorspellingsfout. En de werkelijke fout vinden we echter terug in de 2de kolom en niet in de derde, in tegenstelling tot wat de student zegt.
In de 2de kolom van deze tabel zien we de werkelijke fout die er werd gemaakt bij het schatten van de waarden. Zo zien we dat in de 8ste maand werd geschat dat de voorspelde waarde er met 55% had kunnen naast liggen, maar in werkelijkheid lag deze waarde er met 86% naast. We kunnen dus besluiten dat er iets in deze maand moet gebeurd zijn. Verder zien we nog dat de geschatte fout bij de voorspelde waarden van de maanden vaak negatief zijn.

hardere stijging of daling weer dan er in werkelijkheid gebeurd.
Step 4:
Hier is het vooral de bedoeling om de eerste tabel van de berekening te bespreken.
Zoals we kunnen zien in van de tabel ‘Univariate ARIMA Extrapolation Forecast’, staan de lower- en upper bound voor de waarden die de onder- en bovengrens van het betrouwbaarheidsinterval voorstellen. We kunnen zo dus nagaan of de verkregen waarden al dan niet significant verschillend zijn. Praktisch gezien wil dit interval hier zeggen dat de volgende waarde met een waarschijnlijkheid van 95% zich tussen deze grenzen zal bevinden, buiten indien er zich een exceptionaliteit voordoet.
In de zesde kolom wordt de p-waarde van toetsing aan de nulhypothese weergegeven. De stelling die hier gesteld wordt luidt als volgt: ‘de waarde van Yt is gelijk aan de waarde van Ft, tenzij er zich iets exceptioneels voordoet’, wat dus neerkomt op een ceteris paribus-stelling. Het komt er dus op neer dat de stelling zegt dat het verschil tussen de voorspelde en de werkelijke waarde niet significant is. De bijhorende p-waarde zegt dan hoeveel procent kans er is dat indein men de stelling verwerpt en dus zegt dat het verschil wel significant is, men zich vergist. Als voorbeeld: bij observatie 50 zien we dat de kans dat men zich vergist indien men zegt dat het verschil tussen de voorspelde en werkelijke waarde gelijk is aan 40,77%, wat dus erop wijst dat er dus geen significant verschil bestaat tussen deze waarden.
Wat op zijn beurt dan weer opvalt is de 55ste observatie, aangezien de p-waarde hier 0.0032 bedraagt, en dus wil zeggen dat het verschil van de voorspelde waarde (58) en de werkelijke waarde (23) wel significant is. Hier heeft zich dus iets voorgedaan dat een behoorlijke impact heeft op de tijdreeks. In de 7de kolom kunnen we dan de p-waarde terugvinden die de waarschijnlijkheid aangeeft dat de Ft groter is dan de gekende waarde van de voorgaande periode.
In de achtste kolom krijgen we de waarden te zien hoe groot de kans is dat in deze maanden de waarden die zijn verkregen groter zijn dan de waarden van een jaar eerder. Indien er zich hoge waarden voordoen duidt dit erop dat de voorspelling een stijgende trend kent.
In de negende en laatste kolom kunnen we dan de waarschijnlijkheid waarnemen dat Ft groter is dan Y49 ( de laatst gekende waarde).

Bij Step 5 was het de bedoeling dat we de mate waarin de werkelijkheid overeenkomt met de voorspelling overeenkomt werd geëvalueerd. De student heeft deze stap niet gemaakt.Hiervoor is het aangewezen om de ARIMA extrapolation en de voorspellingsgrafiek te gebruiken.
2008-12-22 21:06:48 [An Knapen] [reply
Deze workshop is fout gemaakt.
Deze link geeft de oplossing weer.
http://www.freestatistics.org/blog/index.php?v=date/2008/Dec/22/t1229979019a1bq5bgr6nboalu.htm

Step 1:
De student heeft hier zeer beperkt geantwoord op de vraag. Het is de bedoeling dat er wordt nagegaan of de voorspelling bepaalde kenmerken vertoont. Hiermee wordt bedoeld dat je moet kijken of er schommelingen aanwezig zijn of dat er een explosie gebeurt.
In dit voorbeeld stellen we de test periode gelijk aan 12. Hiermee wordt bedoeld dat de laatste twaalf maanden worden weggelaten. Er wordt dan een voorspelling gedaan op basis van de vorige waarden. Nadien moet je dan een vergelijking maken tussen de voorspelde waarden en de werkelijke waarden.
We kunnen zien dat de voorspelling goed niet afwijkt van de voorgaande waarden. De trend wordt dus gewoon behouden.
tabel:
LB= lower bound=ondergrens van het betrouwbaarheidsinterval
UB= upper bound=bovengrens van het betrouwbaarheidsinterval
Deze twee grenzen vormen dus het 95% betrouwbaarheidsinterval. M.a.w. er is dus een waarschijnlijkheid van 95% dat de waarde gelegen is in het interval.
F(t)=forecast= voorspelling die gebaseerd is op het verleden
Grafiek:
Het betrouwbaarheidsinterval wordt voorgesteld door de stippellijnen en de curve geeft de voorspelling weer.
We zien duidelijk dat deze grafiek een trend vertoont en deze ook verderzet bij de voorspellingen.

Step 2:
IN deze vraag moeten we onderzoeken of er een trend aanwezig is. We kunnen in dit voorbeeld noch een lange termijn trend, noch seizoenaleit vaststellen

Step 3:

In de tabel kunnen we de theoretische schatting terugvinden op basis van de assumpties met de procentuele waarden van de afwijkingen.
De standaardfout geeft de fout of afwijking weer die kan voorkomen. Deze is voor deze gegevens toch wel vrij groot.
Zoals de student zegt is dit dus inderdaad geen goed model.

Step 4:

De lowerbound(ondergrens) en upper bound(bovengrens) geven de grenzen van het betrouwbaarheidsinterval weer. We kunnen zo dus nagaan of de verkregen waarden al dan niet significant verschillend zijn. Dit interval wil zeggen dat de volgende waarde zich met een waarschijnlijkheid van 95% zich tussen deze grenzen zal bevinden.
In de zesde kolom wordt de p-waarde van toetsing aan de nulhypothese weergegeven. Deze geeft aan dat er een ceteris paribus stelling is wanneer de voorspelling gelijk is aan de waarden van Yt. Het komt er dus op neer dat de stelling zegt dat het verschil tussen de voorspelde en de werkelijke waarde niet significant is. De bijhorende p-waarde zegt geeft de kans weer dat men zich vergist bij het verwerpen van de nulhypothese. In de 7de kolom kunnen we dan de p-waarde terugvinden die de waarschijnlijkheid aangeeft dat de Ft groter is dan de gekende waarde van de voorgaande periode.
Step 5
We moesten nagaan of de werkelijkheid overeenkomt met de voorspelling.
Deze vraag werd echter niet beantwoord door de student.
2008-12-23 19:21:29 [Peter Van Doninck] [reply
Zoals reeds door de andere 2 studenten werd aangehaald, is de workshop dus verkeerd gemaakt. Ik ga me beperken tot bespreken wat de student geschreven heeft, om daar commentaar op te geven.
Bij step 1: enkel bij 55 en 57 is de waarde kleiner dan 0,05%. De p-waarde moet groot genoeg zijn, opdat het verschil niet significant is.
Bij deze stap had hij beide grafieken moeten weergeven, om aan te tonen of er al dan niet veel schommelingen waren. Op zijn 'gevonden' grafieken, kan je afleiden (vooral op de 2de), dat de voorspelling en de reële waarden alles behalve samenlopen. Er zijn vrij veel schommelingen waar te nemen, waardoor dit dus niet stationair is..
Hij had eveneens de eerste tabel dienen te interpreteren. Deze geeft de werkelijke waarde weer (y(t)) en de voorspelling F(t)). Zoals reeds aangehaald is de 6de kolom, die met de p-waarde, belangrijk.
Wat ook opvalt, is dat de 8ste kolom steeds de waarde 0,5 weergeeft. Dit wil zeggen dat er 50% kans is dat de waarde groter is dan dezelfde maand vorig jaar. Toch kunnen we, gezien de verkeerde parameters, niets afleiden uit dit model.

Step2: bij 52 en 56 is de voorspelling niet groter als de forecast.. Hij heeft wel de juiste grafiek genomen.

Step3: de student heeft wel de juiste tabel genomen, we moeten echter rekening houden met de verkeerde parameters. De fout bij 52 bedraagt bijna 90%... Bij 59 214%... Het is dus duidelijk dat dit 'model' geen voorspellingen kan maken..

Step4: Hier moeten we nagaan in hoeverre de forecast met de werkelijkheid overeen komt. Dit zien we in tabel 1. We moeten dan rekening houden met het 95% betrouwbaarheidsinterval, en kijken of onze voorspelling hier in ligt. HEt antwoord van de student is hier irrelevant.

Step5: niet gemaakt. Hier moet hij de forecast met de actuele data vergelijken.

Post a new message
Dataseries X:
45
24
18
20
22
39
55
35
38
47
1
57
50
33
19
2
7
15
56
53
24
48
2
49
46
32
37
10
8
16
55
46
46
45
6
45
52
44
35
15
44
51
58
23
44
43
6
51
53
47
19
18
38
43
23
43
18
43
6
31
49




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'Herman Ole Andreas Wold' @ 193.190.124.10:1001

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 2 seconds \tabularnewline
R Server & 'Herman Ole Andreas Wold' @ 193.190.124.10:1001 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33425&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]2 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Herman Ole Andreas Wold' @ 193.190.124.10:1001[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33425&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33425&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'Herman Ole Andreas Wold' @ 193.190.124.10:1001







Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[49])
3752-------
3844-------
3935-------
4015-------
4144-------
4251-------
4358-------
4423-------
4544-------
4643-------
476-------
4851-------
4953-------
50474418.804869.19520.40770.24190.50.2419
5119359.804860.19520.10660.17530.50.0807
521815-10.195240.19520.40770.37780.50.0016
53384418.804869.19520.32030.97840.50.2419
54435125.804876.19520.26690.84410.50.4382
55235832.804883.19520.00320.87840.50.6513
564323-2.195248.19520.05990.50.50.0098
57184418.804869.19520.02160.5310.50.2419
58434317.804868.19520.50.97410.50.2183
5966-19.195231.19520.50.0020.51e-04
60315125.804876.19520.05990.99980.50.4382
61495327.804878.19520.37780.95650.50.5

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast \tabularnewline
time & Y[t] & F[t] & 95% LB & 95% UB & p-value(H0: Y[t] = F[t]) & P(F[t]>Y[t-1]) & P(F[t]>Y[t-s]) & P(F[t]>Y[49]) \tabularnewline
37 & 52 & - & - & - & - & - & - & - \tabularnewline
38 & 44 & - & - & - & - & - & - & - \tabularnewline
39 & 35 & - & - & - & - & - & - & - \tabularnewline
40 & 15 & - & - & - & - & - & - & - \tabularnewline
41 & 44 & - & - & - & - & - & - & - \tabularnewline
42 & 51 & - & - & - & - & - & - & - \tabularnewline
43 & 58 & - & - & - & - & - & - & - \tabularnewline
44 & 23 & - & - & - & - & - & - & - \tabularnewline
45 & 44 & - & - & - & - & - & - & - \tabularnewline
46 & 43 & - & - & - & - & - & - & - \tabularnewline
47 & 6 & - & - & - & - & - & - & - \tabularnewline
48 & 51 & - & - & - & - & - & - & - \tabularnewline
49 & 53 & - & - & - & - & - & - & - \tabularnewline
50 & 47 & 44 & 18.8048 & 69.1952 & 0.4077 & 0.2419 & 0.5 & 0.2419 \tabularnewline
51 & 19 & 35 & 9.8048 & 60.1952 & 0.1066 & 0.1753 & 0.5 & 0.0807 \tabularnewline
52 & 18 & 15 & -10.1952 & 40.1952 & 0.4077 & 0.3778 & 0.5 & 0.0016 \tabularnewline
53 & 38 & 44 & 18.8048 & 69.1952 & 0.3203 & 0.9784 & 0.5 & 0.2419 \tabularnewline
54 & 43 & 51 & 25.8048 & 76.1952 & 0.2669 & 0.8441 & 0.5 & 0.4382 \tabularnewline
55 & 23 & 58 & 32.8048 & 83.1952 & 0.0032 & 0.8784 & 0.5 & 0.6513 \tabularnewline
56 & 43 & 23 & -2.1952 & 48.1952 & 0.0599 & 0.5 & 0.5 & 0.0098 \tabularnewline
57 & 18 & 44 & 18.8048 & 69.1952 & 0.0216 & 0.531 & 0.5 & 0.2419 \tabularnewline
58 & 43 & 43 & 17.8048 & 68.1952 & 0.5 & 0.9741 & 0.5 & 0.2183 \tabularnewline
59 & 6 & 6 & -19.1952 & 31.1952 & 0.5 & 0.002 & 0.5 & 1e-04 \tabularnewline
60 & 31 & 51 & 25.8048 & 76.1952 & 0.0599 & 0.9998 & 0.5 & 0.4382 \tabularnewline
61 & 49 & 53 & 27.8048 & 78.1952 & 0.3778 & 0.9565 & 0.5 & 0.5 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33425&T=1

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast[/C][/ROW]
[ROW][C]time[/C][C]Y[t][/C][C]F[t][/C][C]95% LB[/C][C]95% UB[/C][C]p-value(H0: Y[t] = F[t])[/C][C]P(F[t]>Y[t-1])[/C][C]P(F[t]>Y[t-s])[/C][C]P(F[t]>Y[49])[/C][/ROW]
[ROW][C]37[/C][C]52[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]38[/C][C]44[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]39[/C][C]35[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]40[/C][C]15[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]41[/C][C]44[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]42[/C][C]51[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]43[/C][C]58[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]44[/C][C]23[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]45[/C][C]44[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]46[/C][C]43[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]47[/C][C]6[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]48[/C][C]51[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]49[/C][C]53[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]50[/C][C]47[/C][C]44[/C][C]18.8048[/C][C]69.1952[/C][C]0.4077[/C][C]0.2419[/C][C]0.5[/C][C]0.2419[/C][/ROW]
[ROW][C]51[/C][C]19[/C][C]35[/C][C]9.8048[/C][C]60.1952[/C][C]0.1066[/C][C]0.1753[/C][C]0.5[/C][C]0.0807[/C][/ROW]
[ROW][C]52[/C][C]18[/C][C]15[/C][C]-10.1952[/C][C]40.1952[/C][C]0.4077[/C][C]0.3778[/C][C]0.5[/C][C]0.0016[/C][/ROW]
[ROW][C]53[/C][C]38[/C][C]44[/C][C]18.8048[/C][C]69.1952[/C][C]0.3203[/C][C]0.9784[/C][C]0.5[/C][C]0.2419[/C][/ROW]
[ROW][C]54[/C][C]43[/C][C]51[/C][C]25.8048[/C][C]76.1952[/C][C]0.2669[/C][C]0.8441[/C][C]0.5[/C][C]0.4382[/C][/ROW]
[ROW][C]55[/C][C]23[/C][C]58[/C][C]32.8048[/C][C]83.1952[/C][C]0.0032[/C][C]0.8784[/C][C]0.5[/C][C]0.6513[/C][/ROW]
[ROW][C]56[/C][C]43[/C][C]23[/C][C]-2.1952[/C][C]48.1952[/C][C]0.0599[/C][C]0.5[/C][C]0.5[/C][C]0.0098[/C][/ROW]
[ROW][C]57[/C][C]18[/C][C]44[/C][C]18.8048[/C][C]69.1952[/C][C]0.0216[/C][C]0.531[/C][C]0.5[/C][C]0.2419[/C][/ROW]
[ROW][C]58[/C][C]43[/C][C]43[/C][C]17.8048[/C][C]68.1952[/C][C]0.5[/C][C]0.9741[/C][C]0.5[/C][C]0.2183[/C][/ROW]
[ROW][C]59[/C][C]6[/C][C]6[/C][C]-19.1952[/C][C]31.1952[/C][C]0.5[/C][C]0.002[/C][C]0.5[/C][C]1e-04[/C][/ROW]
[ROW][C]60[/C][C]31[/C][C]51[/C][C]25.8048[/C][C]76.1952[/C][C]0.0599[/C][C]0.9998[/C][C]0.5[/C][C]0.4382[/C][/ROW]
[ROW][C]61[/C][C]49[/C][C]53[/C][C]27.8048[/C][C]78.1952[/C][C]0.3778[/C][C]0.9565[/C][C]0.5[/C][C]0.5[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33425&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33425&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[49])
3752-------
3844-------
3935-------
4015-------
4144-------
4251-------
4358-------
4423-------
4544-------
4643-------
476-------
4851-------
4953-------
50474418.804869.19520.40770.24190.50.2419
5119359.804860.19520.10660.17530.50.0807
521815-10.195240.19520.40770.37780.50.0016
53384418.804869.19520.32030.97840.50.2419
54435125.804876.19520.26690.84410.50.4382
55235832.804883.19520.00320.87840.50.6513
564323-2.195248.19520.05990.50.50.0098
57184418.804869.19520.02160.5310.50.2419
58434317.804868.19520.50.97410.50.2183
5966-19.195231.19520.50.0020.51e-04
60315125.804876.19520.05990.99980.50.4382
61495327.804878.19520.37780.95650.50.5







Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
500.29220.06820.005790.750.866
510.3673-0.45710.038125621.33334.6188
520.8570.20.016790.750.866
530.2922-0.13640.01143631.7321
540.2521-0.15690.0131645.33332.3094
550.2216-0.60340.05031225102.083310.1036
560.55890.86960.072540033.33335.7735
570.2922-0.59090.049267656.33337.5056
580.298900000
592.142400000
600.2521-0.39220.032740033.33335.7735
610.2425-0.07550.0063161.33331.1547

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast Performance \tabularnewline
time & % S.E. & PE & MAPE & Sq.E & MSE & RMSE \tabularnewline
50 & 0.2922 & 0.0682 & 0.0057 & 9 & 0.75 & 0.866 \tabularnewline
51 & 0.3673 & -0.4571 & 0.0381 & 256 & 21.3333 & 4.6188 \tabularnewline
52 & 0.857 & 0.2 & 0.0167 & 9 & 0.75 & 0.866 \tabularnewline
53 & 0.2922 & -0.1364 & 0.0114 & 36 & 3 & 1.7321 \tabularnewline
54 & 0.2521 & -0.1569 & 0.0131 & 64 & 5.3333 & 2.3094 \tabularnewline
55 & 0.2216 & -0.6034 & 0.0503 & 1225 & 102.0833 & 10.1036 \tabularnewline
56 & 0.5589 & 0.8696 & 0.0725 & 400 & 33.3333 & 5.7735 \tabularnewline
57 & 0.2922 & -0.5909 & 0.0492 & 676 & 56.3333 & 7.5056 \tabularnewline
58 & 0.2989 & 0 & 0 & 0 & 0 & 0 \tabularnewline
59 & 2.1424 & 0 & 0 & 0 & 0 & 0 \tabularnewline
60 & 0.2521 & -0.3922 & 0.0327 & 400 & 33.3333 & 5.7735 \tabularnewline
61 & 0.2425 & -0.0755 & 0.0063 & 16 & 1.3333 & 1.1547 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33425&T=2

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast Performance[/C][/ROW]
[ROW][C]time[/C][C]% S.E.[/C][C]PE[/C][C]MAPE[/C][C]Sq.E[/C][C]MSE[/C][C]RMSE[/C][/ROW]
[ROW][C]50[/C][C]0.2922[/C][C]0.0682[/C][C]0.0057[/C][C]9[/C][C]0.75[/C][C]0.866[/C][/ROW]
[ROW][C]51[/C][C]0.3673[/C][C]-0.4571[/C][C]0.0381[/C][C]256[/C][C]21.3333[/C][C]4.6188[/C][/ROW]
[ROW][C]52[/C][C]0.857[/C][C]0.2[/C][C]0.0167[/C][C]9[/C][C]0.75[/C][C]0.866[/C][/ROW]
[ROW][C]53[/C][C]0.2922[/C][C]-0.1364[/C][C]0.0114[/C][C]36[/C][C]3[/C][C]1.7321[/C][/ROW]
[ROW][C]54[/C][C]0.2521[/C][C]-0.1569[/C][C]0.0131[/C][C]64[/C][C]5.3333[/C][C]2.3094[/C][/ROW]
[ROW][C]55[/C][C]0.2216[/C][C]-0.6034[/C][C]0.0503[/C][C]1225[/C][C]102.0833[/C][C]10.1036[/C][/ROW]
[ROW][C]56[/C][C]0.5589[/C][C]0.8696[/C][C]0.0725[/C][C]400[/C][C]33.3333[/C][C]5.7735[/C][/ROW]
[ROW][C]57[/C][C]0.2922[/C][C]-0.5909[/C][C]0.0492[/C][C]676[/C][C]56.3333[/C][C]7.5056[/C][/ROW]
[ROW][C]58[/C][C]0.2989[/C][C]0[/C][C]0[/C][C]0[/C][C]0[/C][C]0[/C][/ROW]
[ROW][C]59[/C][C]2.1424[/C][C]0[/C][C]0[/C][C]0[/C][C]0[/C][C]0[/C][/ROW]
[ROW][C]60[/C][C]0.2521[/C][C]-0.3922[/C][C]0.0327[/C][C]400[/C][C]33.3333[/C][C]5.7735[/C][/ROW]
[ROW][C]61[/C][C]0.2425[/C][C]-0.0755[/C][C]0.0063[/C][C]16[/C][C]1.3333[/C][C]1.1547[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33425&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33425&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
500.29220.06820.005790.750.866
510.3673-0.45710.038125621.33334.6188
520.8570.20.016790.750.866
530.2922-0.13640.01143631.7321
540.2521-0.15690.0131645.33332.3094
550.2216-0.60340.05031225102.083310.1036
560.55890.86960.072540033.33335.7735
570.2922-0.59090.049267656.33337.5056
580.298900000
592.142400000
600.2521-0.39220.032740033.33335.7735
610.2425-0.07550.0063161.33331.1547



Parameters (Session):
par1 = 12 ; par2 = 1 ; par3 = 0 ; par4 = 1 ; par5 = 12 ; par6 = 0 ; par7 = 0 ; par8 = 0 ; par9 = 0 ; par10 = FALSE ;
Parameters (R input):
par1 = 12 ; par2 = 1 ; par3 = 0 ; par4 = 1 ; par5 = 12 ; par6 = 0 ; par7 = 0 ; par8 = 0 ; par9 = 0 ; par10 = FALSE ;
R code (references can be found in the software module):
par1 <- as.numeric(par1) #cut off periods
par2 <- as.numeric(par2) #lambda
par3 <- as.numeric(par3) #degree of non-seasonal differencing
par4 <- as.numeric(par4) #degree of seasonal differencing
par5 <- as.numeric(par5) #seasonal period
par6 <- as.numeric(par6) #p
par7 <- as.numeric(par7) #q
par8 <- as.numeric(par8) #P
par9 <- as.numeric(par9) #Q
if (par10 == 'TRUE') par10 <- TRUE
if (par10 == 'FALSE') par10 <- FALSE
if (par2 == 0) x <- log(x)
if (par2 != 0) x <- x^par2
lx <- length(x)
first <- lx - 2*par1
nx <- lx - par1
nx1 <- nx + 1
fx <- lx - nx
if (fx < 1) {
fx <- par5
nx1 <- lx + fx - 1
first <- lx - 2*fx
}
first <- 1
if (fx < 3) fx <- round(lx/10,0)
(arima.out <- arima(x[1:nx], order=c(par6,par3,par7), seasonal=list(order=c(par8,par4,par9), period=par5), include.mean=par10, method='ML'))
(forecast <- predict(arima.out,fx))
(lb <- forecast$pred - 1.96 * forecast$se)
(ub <- forecast$pred + 1.96 * forecast$se)
if (par2 == 0) {
x <- exp(x)
forecast$pred <- exp(forecast$pred)
lb <- exp(lb)
ub <- exp(ub)
}
if (par2 != 0) {
x <- x^(1/par2)
forecast$pred <- forecast$pred^(1/par2)
lb <- lb^(1/par2)
ub <- ub^(1/par2)
}
if (par2 < 0) {
olb <- lb
lb <- ub
ub <- olb
}
(actandfor <- c(x[1:nx], forecast$pred))
(perc.se <- (ub-forecast$pred)/1.96/forecast$pred)
bitmap(file='test1.png')
opar <- par(mar=c(4,4,2,2),las=1)
ylim <- c( min(x[first:nx],lb), max(x[first:nx],ub))
plot(x,ylim=ylim,type='n',xlim=c(first,lx))
usr <- par('usr')
rect(usr[1],usr[3],nx+1,usr[4],border=NA,col='lemonchiffon')
rect(nx1,usr[3],usr[2],usr[4],border=NA,col='lavender')
abline(h= (-3:3)*2 , col ='gray', lty =3)
polygon( c(nx1:lx,lx:nx1), c(lb,rev(ub)), col = 'orange', lty=2,border=NA)
lines(nx1:lx, lb , lty=2)
lines(nx1:lx, ub , lty=2)
lines(x, lwd=2)
lines(nx1:lx, forecast$pred , lwd=2 , col ='white')
box()
par(opar)
dev.off()
prob.dec <- array(NA, dim=fx)
prob.sdec <- array(NA, dim=fx)
prob.ldec <- array(NA, dim=fx)
prob.pval <- array(NA, dim=fx)
perf.pe <- array(0, dim=fx)
perf.mape <- array(0, dim=fx)
perf.se <- array(0, dim=fx)
perf.mse <- array(0, dim=fx)
perf.rmse <- array(0, dim=fx)
for (i in 1:fx) {
locSD <- (ub[i] - forecast$pred[i]) / 1.96
perf.pe[i] = (x[nx+i] - forecast$pred[i]) / forecast$pred[i]
perf.mape[i] = perf.mape[i] + abs(perf.pe[i])
perf.se[i] = (x[nx+i] - forecast$pred[i])^2
perf.mse[i] = perf.mse[i] + perf.se[i]
prob.dec[i] = pnorm((x[nx+i-1] - forecast$pred[i]) / locSD)
prob.sdec[i] = pnorm((x[nx+i-par5] - forecast$pred[i]) / locSD)
prob.ldec[i] = pnorm((x[nx] - forecast$pred[i]) / locSD)
prob.pval[i] = pnorm(abs(x[nx+i] - forecast$pred[i]) / locSD)
}
perf.mape = perf.mape / fx
perf.mse = perf.mse / fx
perf.rmse = sqrt(perf.mse)
bitmap(file='test2.png')
plot(forecast$pred, pch=19, type='b',main='ARIMA Extrapolation Forecast', ylab='Forecast and 95% CI', xlab='time',ylim=c(min(lb),max(ub)))
dum <- forecast$pred
dum[1:12] <- x[(nx+1):lx]
lines(dum, lty=1)
lines(ub,lty=3)
lines(lb,lty=3)
dev.off()
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast',9,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'Y[t]',1,header=TRUE)
a<-table.element(a,'F[t]',1,header=TRUE)
a<-table.element(a,'95% LB',1,header=TRUE)
a<-table.element(a,'95% UB',1,header=TRUE)
a<-table.element(a,'p-value
(H0: Y[t] = F[t])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-1])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-s])',1,header=TRUE)
mylab <- paste('P(F[t]>Y[',nx,sep='')
mylab <- paste(mylab,'])',sep='')
a<-table.element(a,mylab,1,header=TRUE)
a<-table.row.end(a)
for (i in (nx-par5):nx) {
a<-table.row.start(a)
a<-table.element(a,i,header=TRUE)
a<-table.element(a,x[i])
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.row.end(a)
}
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(x[nx+i],4))
a<-table.element(a,round(forecast$pred[i],4))
a<-table.element(a,round(lb[i],4))
a<-table.element(a,round(ub[i],4))
a<-table.element(a,round((1-prob.pval[i]),4))
a<-table.element(a,round((1-prob.dec[i]),4))
a<-table.element(a,round((1-prob.sdec[i]),4))
a<-table.element(a,round((1-prob.ldec[i]),4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast Performance',7,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'% S.E.',1,header=TRUE)
a<-table.element(a,'PE',1,header=TRUE)
a<-table.element(a,'MAPE',1,header=TRUE)
a<-table.element(a,'Sq.E',1,header=TRUE)
a<-table.element(a,'MSE',1,header=TRUE)
a<-table.element(a,'RMSE',1,header=TRUE)
a<-table.row.end(a)
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(perc.se[i],4))
a<-table.element(a,round(perf.pe[i],4))
a<-table.element(a,round(perf.mape[i],4))
a<-table.element(a,round(perf.se[i],4))
a<-table.element(a,round(perf.mse[i],4))
a<-table.element(a,round(perf.rmse[i],4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable1.tab')