Free Statistics

of Irreproducible Research!

Author's title

Author*The author of this computation has been verified*
R Software Modulerwasp_rwalk.wasp
Title produced by softwareLaw of Averages
Date of computationTue, 02 Dec 2008 03:20:39 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/02/t1228213428mag3dlu5yg72qw1.htm/, Retrieved Fri, 17 May 2024 03:19:31 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=27588, Retrieved Fri, 17 May 2024 03:19:31 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact191
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F     [Law of Averages] [Random Walk Simul...] [2008-11-25 18:31:28] [b98453cac15ba1066b407e146608df68]
F         [Law of Averages] [Non stationary ti...] [2008-12-02 10:20:39] [a1f1fdabaee79c21770ea0f7b7f045f3] [Current]
Feedback Forum
2008-12-06 12:10:55 [Carole Thielens] [reply
De studente merkt enkel op dat de kleinste variantie bij haar berekende tabel 0.99 is, maar geeft geen verdere uitleg.

Wat is immers het nut van het zoeken van de kleinste variantie?

- D en d hebben betrekking op het aantal keer dat je differentieert. d wordt gebruikt om de algemene trend eruit te halen en aan de hand van D gaan we de spreiding reduceren.
Om de impact van seizoenaliteit weg werken en bijgevolg te komen tot een stationaire verdeling, moeten we trachten de variantie zo minimaal mogelijk te houden. Uit de tabel selecteren we dus de kleinste waarde voor de variantie, en kijken we met welk aantal differentiaties(d) dit overeenkomt. Hier is dat d=1 met een variantie van 0.99.
Hieruit kunnen we besluiten dat d=1 de meest geschikte waarde is om te differentiëren en dus de lange termijntrend het best weg kan werken. We gaan bijgevolg 1 maal differentiëren.
2008-12-06 12:22:55 [Carole Thielens] [reply
De studente merkt enkel op dat de kleinste variantie bij haar berekende tabel 0.99 is, maar geeft geen verdere uitleg.

Wat is immers het nut van het zoeken van de kleinste variantie?

- D en d hebben betrekking op het aantal keer dat je differentieert. d wordt gebruikt om de algemene trend eruit te halen en aan de hand van D gaan we de spreiding reduceren.
Om de impact van seizoenaliteit weg werken en bijgevolg te komen tot een stationaire verdeling, moeten we trachten de variantie zo minimaal mogelijk te houden. Uit de tabel selecteren we dus de kleinste waarde voor de variantie, en kijken we met welk aantal differentiaties(d) dit overeenkomt. Hier is dat d=1 met een variantie van 0.99, wat logisch is omdat we dit immers zo simuleerden.
Hieruit kunnen we besluiten dat d=1 de meest geschikte waarde is om te differentiëren en dus de lange termijntrend het best weg kan werken. We gaan bijgevolg 1 maal differentiëren.
2008-12-06 13:58:31 [c00776cbed2786c9c4960950021bd861] [reply
De conclusie van de studente is weer correct maar te beperkt!
Daardoor enkele aanvullingen:

we moeten inderdaad zoeken naar de kleinste variantie, zo kunnen we te weten komen hoe we onze tijdreeks moeten differentiëren.
De 'd' = aantal keer dat we gewoon differentiëren
'D' = aantal keer dat we seizoenaal differentiëren
Bij de kleinste variantie staat --> d=1 en D=0 : we moeten dus enkel 1 keer gewoon differentiëren (= niveau gelijk maken, de trend eruit halen)

We zien ook een kolom met de getrimde variantie staan. Dit zijn de varianties waarbij de invloed van een andere variabele wordt weggelaten.
2008-12-08 12:30:27 [] [reply
De student geeft juist aan dat hoe lager de variantie is, hoe meer er verklaart wordt. Verder geeft hij geen uitleg wat de waarde van de variantie te maken heeft met de d en D waarden in de eerste kolom.

In deze kolom staan immers de waarden d (die er voor zorgt dat de trend uit de reeks wordt gehaald) en D (die de spreiding gelijk verdeelt) die nodig zijn om tot een zo kleine variantie te komen. De d en D geven het aantal differentiaties weer die moeten worden toegepast op de tijdreeks om tot dat resultaat te komen.
2008-12-08 12:38:01 [Dave Bellekens] [reply
De student geeft juist aan dat hoe lager de variantie is, hoe meer er verklaart wordt. Verder geeft hij geen uitleg wat de waarde van de variantie te maken heeft met de d en D waarden in de eerste kolom.

In deze kolom staan immers de waarden d (die er voor zorgt dat de trend uit de reeks wordt gehaald) en D (die de spreiding gelijk verdeelt) die nodig zijn om tot een zo kleine variantie te komen. De d en D geven het aantal differentiaties weer die moeten worden toegepast op de tijdreeks om tot dat resultaat te komen.

Post a new message




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time1 seconds
R Server'Gwilym Jenkins' @ 72.249.127.135

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 1 seconds \tabularnewline
R Server & 'Gwilym Jenkins' @ 72.249.127.135 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=27588&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]1 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Gwilym Jenkins' @ 72.249.127.135[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=27588&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=27588&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time1 seconds
R Server'Gwilym Jenkins' @ 72.249.127.135







Variance Reduction Matrix
V(Y[t],d=0,D=0)97.9378597194389Range42Trim Var.66.9136060439672
V(Y[t],d=1,D=0)0.99949296182727Range2Trim Var.NA
V(Y[t],d=2,D=0)2.07645875251509Range4Trim Var.0
V(Y[t],d=3,D=0)6.54030635425456Range8Trim Var.2.49665711556829
V(Y[t],d=0,D=1)12.4063520382401Range18Trim Var.6.74924845890211
V(Y[t],d=1,D=1)1.95884773662551Range4Trim Var.0
V(Y[t],d=2,D=1)4.09895210215943Range8Trim Var.2.34816450332307
V(Y[t],d=3,D=1)12.8841441594956Range16Trim Var.6.4765388656127
V(Y[t],d=0,D=2)22.2229986731535Range26Trim Var.13.2351077087413
V(Y[t],d=1,D=2)5.95716633355541Range8Trim Var.2.47405356682977
V(Y[t],d=2,D=2)12.3381058152916Range16Trim Var.6.75511221945137
V(Y[t],d=3,D=2)38.4745762711864Range32Trim Var.22.1398041719881

\begin{tabular}{lllllllll}
\hline
Variance Reduction Matrix \tabularnewline
V(Y[t],d=0,D=0) & 97.9378597194389 & Range & 42 & Trim Var. & 66.9136060439672 \tabularnewline
V(Y[t],d=1,D=0) & 0.99949296182727 & Range & 2 & Trim Var. & NA \tabularnewline
V(Y[t],d=2,D=0) & 2.07645875251509 & Range & 4 & Trim Var. & 0 \tabularnewline
V(Y[t],d=3,D=0) & 6.54030635425456 & Range & 8 & Trim Var. & 2.49665711556829 \tabularnewline
V(Y[t],d=0,D=1) & 12.4063520382401 & Range & 18 & Trim Var. & 6.74924845890211 \tabularnewline
V(Y[t],d=1,D=1) & 1.95884773662551 & Range & 4 & Trim Var. & 0 \tabularnewline
V(Y[t],d=2,D=1) & 4.09895210215943 & Range & 8 & Trim Var. & 2.34816450332307 \tabularnewline
V(Y[t],d=3,D=1) & 12.8841441594956 & Range & 16 & Trim Var. & 6.4765388656127 \tabularnewline
V(Y[t],d=0,D=2) & 22.2229986731535 & Range & 26 & Trim Var. & 13.2351077087413 \tabularnewline
V(Y[t],d=1,D=2) & 5.95716633355541 & Range & 8 & Trim Var. & 2.47405356682977 \tabularnewline
V(Y[t],d=2,D=2) & 12.3381058152916 & Range & 16 & Trim Var. & 6.75511221945137 \tabularnewline
V(Y[t],d=3,D=2) & 38.4745762711864 & Range & 32 & Trim Var. & 22.1398041719881 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=27588&T=1

[TABLE]
[ROW][C]Variance Reduction Matrix[/C][/ROW]
[ROW][C]V(Y[t],d=0,D=0)[/C][C]97.9378597194389[/C][C]Range[/C][C]42[/C][C]Trim Var.[/C][C]66.9136060439672[/C][/ROW]
[ROW][C]V(Y[t],d=1,D=0)[/C][C]0.99949296182727[/C][C]Range[/C][C]2[/C][C]Trim Var.[/C][C]NA[/C][/ROW]
[ROW][C]V(Y[t],d=2,D=0)[/C][C]2.07645875251509[/C][C]Range[/C][C]4[/C][C]Trim Var.[/C][C]0[/C][/ROW]
[ROW][C]V(Y[t],d=3,D=0)[/C][C]6.54030635425456[/C][C]Range[/C][C]8[/C][C]Trim Var.[/C][C]2.49665711556829[/C][/ROW]
[ROW][C]V(Y[t],d=0,D=1)[/C][C]12.4063520382401[/C][C]Range[/C][C]18[/C][C]Trim Var.[/C][C]6.74924845890211[/C][/ROW]
[ROW][C]V(Y[t],d=1,D=1)[/C][C]1.95884773662551[/C][C]Range[/C][C]4[/C][C]Trim Var.[/C][C]0[/C][/ROW]
[ROW][C]V(Y[t],d=2,D=1)[/C][C]4.09895210215943[/C][C]Range[/C][C]8[/C][C]Trim Var.[/C][C]2.34816450332307[/C][/ROW]
[ROW][C]V(Y[t],d=3,D=1)[/C][C]12.8841441594956[/C][C]Range[/C][C]16[/C][C]Trim Var.[/C][C]6.4765388656127[/C][/ROW]
[ROW][C]V(Y[t],d=0,D=2)[/C][C]22.2229986731535[/C][C]Range[/C][C]26[/C][C]Trim Var.[/C][C]13.2351077087413[/C][/ROW]
[ROW][C]V(Y[t],d=1,D=2)[/C][C]5.95716633355541[/C][C]Range[/C][C]8[/C][C]Trim Var.[/C][C]2.47405356682977[/C][/ROW]
[ROW][C]V(Y[t],d=2,D=2)[/C][C]12.3381058152916[/C][C]Range[/C][C]16[/C][C]Trim Var.[/C][C]6.75511221945137[/C][/ROW]
[ROW][C]V(Y[t],d=3,D=2)[/C][C]38.4745762711864[/C][C]Range[/C][C]32[/C][C]Trim Var.[/C][C]22.1398041719881[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=27588&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=27588&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Variance Reduction Matrix
V(Y[t],d=0,D=0)97.9378597194389Range42Trim Var.66.9136060439672
V(Y[t],d=1,D=0)0.99949296182727Range2Trim Var.NA
V(Y[t],d=2,D=0)2.07645875251509Range4Trim Var.0
V(Y[t],d=3,D=0)6.54030635425456Range8Trim Var.2.49665711556829
V(Y[t],d=0,D=1)12.4063520382401Range18Trim Var.6.74924845890211
V(Y[t],d=1,D=1)1.95884773662551Range4Trim Var.0
V(Y[t],d=2,D=1)4.09895210215943Range8Trim Var.2.34816450332307
V(Y[t],d=3,D=1)12.8841441594956Range16Trim Var.6.4765388656127
V(Y[t],d=0,D=2)22.2229986731535Range26Trim Var.13.2351077087413
V(Y[t],d=1,D=2)5.95716633355541Range8Trim Var.2.47405356682977
V(Y[t],d=2,D=2)12.3381058152916Range16Trim Var.6.75511221945137
V(Y[t],d=3,D=2)38.4745762711864Range32Trim Var.22.1398041719881



Parameters (Session):
par1 = 500 ; par2 = 0.5 ;
Parameters (R input):
par1 = 500 ; par2 = 0.5 ;
R code (references can be found in the software module):
n <- as.numeric(par1)
p <- as.numeric(par2)
heads=rbinom(n-1,1,p)
a=2*(heads)-1
b=diffinv(a,xi=0)
c=1:n
pheads=(diffinv(heads,xi=.5))/c
bitmap(file='test1.png')
op=par(mfrow=c(2,1))
plot(c,b,type='n',main='Law of Averages',xlab='Toss Number',ylab='Excess of Heads',lwd=2,cex.lab=1.5,cex.main=2)
lines(c,b,col='red')
lines(c,rep(0,n),col='black')
plot(c,pheads,type='n',xlab='Toss Number',ylab='Proportion of Heads',lwd=2,cex.lab=1.5)
lines(c,pheads,col='blue')
lines(c,rep(.5,n),col='black')
par(op)
dev.off()
b
par1 <- as.numeric(12)
x <- as.array(b)
n <- length(x)
sx <- sort(x)
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Variance Reduction Matrix',6,TRUE)
a<-table.row.end(a)
for (bigd in 0:2) {
for (smalld in 0:3) {
mylabel <- 'V(Y[t],d='
mylabel <- paste(mylabel,as.character(smalld),sep='')
mylabel <- paste(mylabel,',D=',sep='')
mylabel <- paste(mylabel,as.character(bigd),sep='')
mylabel <- paste(mylabel,')',sep='')
a<-table.row.start(a)
a<-table.element(a,mylabel,header=TRUE)
myx <- x
if (smalld > 0) myx <- diff(x,lag=1,differences=smalld)
if (bigd > 0) myx <- diff(myx,lag=par1,differences=bigd)
a<-table.element(a,var(myx))
a<-table.element(a,'Range',header=TRUE)
a<-table.element(a,max(myx)-min(myx))
a<-table.element(a,'Trim Var.',header=TRUE)
smyx <- sort(myx)
sn <- length(smyx)
a<-table.element(a,var(smyx[smyx>quantile(smyx,0.05) & smyxa<-table.row.end(a)
}
}
a<-table.end(a)
table.save(a,file='mytable.tab')