Free Statistics

of Irreproducible Research!

Author's title

Author*The author of this computation has been verified*
R Software Modulerwasp_multipleregression.wasp
Title produced by softwareMultiple Regression
Date of computationMon, 24 Nov 2008 09:57:33 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Nov/24/t1227545930uuc55b8n8lvv5f1.htm/, Retrieved Mon, 13 May 2024 20:41:58 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=25459, Retrieved Mon, 13 May 2024 20:41:58 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact135
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F     [Multiple Regression] [] [2007-11-19 19:55:31] [b731da8b544846036771bbf9bf2f34ce]
-   PD    [Multiple Regression] [Q3 Seatbelt law m...] [2008-11-24 16:57:33] [35348cd8592af0baf5f138bd59921307] [Current]
-           [Multiple Regression] [Q3 seatbelt trend...] [2008-11-24 19:37:49] [c993f605b206b366f754f7f8c1fcc291]
Feedback Forum

Post a new message
Dataseries X:
7.8	0
7.6	0
7.5	0
7.6	0
7.5	0
7.3	0
7.6	0
7.5	0
7.6	0
7.9	0
7.9	0
8.1	0
8.2	0
8.0	0
7.5	0
6.8	0
6.5	0
6.6	0
7.6	0
8.0	0
8.0	0
7.7	0
7.5	0
7.6	0
7.7	0
7.9	0
7.8	0
7.5	0
7.5	0
7.1	0
7.5	0
7.5	0
7.6	0
7.7	0
7.7	1
7.9	1
8.1	1
8.2	1
8.2	1
8.1	1
7.9	1
7.3	1
6.9	1
6.6	1
6.7	1
6.9	1
7.0	1
7.1	1
7.2	1
7.1	1
6.9	1
7.0	1
6.8	1
6.4	1
6.7	1
6.7	1
6.4	1
6.3	1
6.2	1
6.5	1
6.8	1
6.8	1
6.5	1
6.3	1
5.9	1
5.9	1
6.4	1
6.4	1




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time3 seconds
R Server'Gwilym Jenkins' @ 72.249.127.135

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 3 seconds \tabularnewline
R Server & 'Gwilym Jenkins' @ 72.249.127.135 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25459&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]3 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Gwilym Jenkins' @ 72.249.127.135[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25459&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25459&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time3 seconds
R Server'Gwilym Jenkins' @ 72.249.127.135







Multiple Linear Regression - Estimated Regression Equation
y[t] = + 8.239 + 0.245x[t] + 0.0864444444444467M1[t] + 0.0793888888888898M2[t] -0.0943333333333322M3[t] -0.251388888888888M4[t] -0.42511111111111M5[t] -0.648833333333333M6[t] -0.272555555555555M7[t] -0.246277777777777M8[t] -0.209833333333333M9[t] -0.143555555555555M10[t] -0.206277777777777M11[t] -0.0262777777777778t + e[t]

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Estimated Regression Equation \tabularnewline
y[t] =  +  8.239 +  0.245x[t] +  0.0864444444444467M1[t] +  0.0793888888888898M2[t] -0.0943333333333322M3[t] -0.251388888888888M4[t] -0.42511111111111M5[t] -0.648833333333333M6[t] -0.272555555555555M7[t] -0.246277777777777M8[t] -0.209833333333333M9[t] -0.143555555555555M10[t] -0.206277777777777M11[t] -0.0262777777777778t  + e[t] \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25459&T=1

[TABLE]
[ROW][C]Multiple Linear Regression - Estimated Regression Equation[/C][/ROW]
[ROW][C]y[t] =  +  8.239 +  0.245x[t] +  0.0864444444444467M1[t] +  0.0793888888888898M2[t] -0.0943333333333322M3[t] -0.251388888888888M4[t] -0.42511111111111M5[t] -0.648833333333333M6[t] -0.272555555555555M7[t] -0.246277777777777M8[t] -0.209833333333333M9[t] -0.143555555555555M10[t] -0.206277777777777M11[t] -0.0262777777777778t  + e[t][/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25459&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25459&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Estimated Regression Equation
y[t] = + 8.239 + 0.245x[t] + 0.0864444444444467M1[t] + 0.0793888888888898M2[t] -0.0943333333333322M3[t] -0.251388888888888M4[t] -0.42511111111111M5[t] -0.648833333333333M6[t] -0.272555555555555M7[t] -0.246277777777777M8[t] -0.209833333333333M9[t] -0.143555555555555M10[t] -0.206277777777777M11[t] -0.0262777777777778t + e[t]







Multiple Linear Regression - Ordinary Least Squares
VariableParameterS.D.T-STATH0: parameter = 02-tail p-value1-tail p-value
(Intercept)8.2390.22362136.843600
x0.2450.2192781.11730.2688110.134406
M10.08644444444444670.2659190.32510.7463780.373189
M20.07938888888888980.2657940.29870.7663260.383163
M3-0.09433333333333220.265785-0.35490.724030.362015
M4-0.2513888888888880.265894-0.94540.3486420.174321
M5-0.425111111111110.26612-1.59740.1160030.058002
M6-0.6488333333333330.266463-2.4350.0182260.009113
M7-0.2725555555555550.266922-1.02110.3117570.155878
M8-0.2462777777777770.267497-0.92070.3613140.180657
M9-0.2098333333333330.279024-0.7520.45530.22765
M10-0.1435555555555550.27951-0.51360.6096290.304814
M11-0.2062777777777770.277423-0.74350.4603730.230186
t-0.02627777777777780.005583-4.70711.8e-059e-06

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Ordinary Least Squares \tabularnewline
Variable & Parameter & S.D. & T-STATH0: parameter = 0 & 2-tail p-value & 1-tail p-value \tabularnewline
(Intercept) & 8.239 & 0.223621 & 36.8436 & 0 & 0 \tabularnewline
x & 0.245 & 0.219278 & 1.1173 & 0.268811 & 0.134406 \tabularnewline
M1 & 0.0864444444444467 & 0.265919 & 0.3251 & 0.746378 & 0.373189 \tabularnewline
M2 & 0.0793888888888898 & 0.265794 & 0.2987 & 0.766326 & 0.383163 \tabularnewline
M3 & -0.0943333333333322 & 0.265785 & -0.3549 & 0.72403 & 0.362015 \tabularnewline
M4 & -0.251388888888888 & 0.265894 & -0.9454 & 0.348642 & 0.174321 \tabularnewline
M5 & -0.42511111111111 & 0.26612 & -1.5974 & 0.116003 & 0.058002 \tabularnewline
M6 & -0.648833333333333 & 0.266463 & -2.435 & 0.018226 & 0.009113 \tabularnewline
M7 & -0.272555555555555 & 0.266922 & -1.0211 & 0.311757 & 0.155878 \tabularnewline
M8 & -0.246277777777777 & 0.267497 & -0.9207 & 0.361314 & 0.180657 \tabularnewline
M9 & -0.209833333333333 & 0.279024 & -0.752 & 0.4553 & 0.22765 \tabularnewline
M10 & -0.143555555555555 & 0.27951 & -0.5136 & 0.609629 & 0.304814 \tabularnewline
M11 & -0.206277777777777 & 0.277423 & -0.7435 & 0.460373 & 0.230186 \tabularnewline
t & -0.0262777777777778 & 0.005583 & -4.7071 & 1.8e-05 & 9e-06 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25459&T=2

[TABLE]
[ROW][C]Multiple Linear Regression - Ordinary Least Squares[/C][/ROW]
[ROW][C]Variable[/C][C]Parameter[/C][C]S.D.[/C][C]T-STATH0: parameter = 0[/C][C]2-tail p-value[/C][C]1-tail p-value[/C][/ROW]
[ROW][C](Intercept)[/C][C]8.239[/C][C]0.223621[/C][C]36.8436[/C][C]0[/C][C]0[/C][/ROW]
[ROW][C]x[/C][C]0.245[/C][C]0.219278[/C][C]1.1173[/C][C]0.268811[/C][C]0.134406[/C][/ROW]
[ROW][C]M1[/C][C]0.0864444444444467[/C][C]0.265919[/C][C]0.3251[/C][C]0.746378[/C][C]0.373189[/C][/ROW]
[ROW][C]M2[/C][C]0.0793888888888898[/C][C]0.265794[/C][C]0.2987[/C][C]0.766326[/C][C]0.383163[/C][/ROW]
[ROW][C]M3[/C][C]-0.0943333333333322[/C][C]0.265785[/C][C]-0.3549[/C][C]0.72403[/C][C]0.362015[/C][/ROW]
[ROW][C]M4[/C][C]-0.251388888888888[/C][C]0.265894[/C][C]-0.9454[/C][C]0.348642[/C][C]0.174321[/C][/ROW]
[ROW][C]M5[/C][C]-0.42511111111111[/C][C]0.26612[/C][C]-1.5974[/C][C]0.116003[/C][C]0.058002[/C][/ROW]
[ROW][C]M6[/C][C]-0.648833333333333[/C][C]0.266463[/C][C]-2.435[/C][C]0.018226[/C][C]0.009113[/C][/ROW]
[ROW][C]M7[/C][C]-0.272555555555555[/C][C]0.266922[/C][C]-1.0211[/C][C]0.311757[/C][C]0.155878[/C][/ROW]
[ROW][C]M8[/C][C]-0.246277777777777[/C][C]0.267497[/C][C]-0.9207[/C][C]0.361314[/C][C]0.180657[/C][/ROW]
[ROW][C]M9[/C][C]-0.209833333333333[/C][C]0.279024[/C][C]-0.752[/C][C]0.4553[/C][C]0.22765[/C][/ROW]
[ROW][C]M10[/C][C]-0.143555555555555[/C][C]0.27951[/C][C]-0.5136[/C][C]0.609629[/C][C]0.304814[/C][/ROW]
[ROW][C]M11[/C][C]-0.206277777777777[/C][C]0.277423[/C][C]-0.7435[/C][C]0.460373[/C][C]0.230186[/C][/ROW]
[ROW][C]t[/C][C]-0.0262777777777778[/C][C]0.005583[/C][C]-4.7071[/C][C]1.8e-05[/C][C]9e-06[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25459&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25459&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Ordinary Least Squares
VariableParameterS.D.T-STATH0: parameter = 02-tail p-value1-tail p-value
(Intercept)8.2390.22362136.843600
x0.2450.2192781.11730.2688110.134406
M10.08644444444444670.2659190.32510.7463780.373189
M20.07938888888888980.2657940.29870.7663260.383163
M3-0.09433333333333220.265785-0.35490.724030.362015
M4-0.2513888888888880.265894-0.94540.3486420.174321
M5-0.425111111111110.26612-1.59740.1160030.058002
M6-0.6488333333333330.266463-2.4350.0182260.009113
M7-0.2725555555555550.266922-1.02110.3117570.155878
M8-0.2462777777777770.267497-0.92070.3613140.180657
M9-0.2098333333333330.279024-0.7520.45530.22765
M10-0.1435555555555550.27951-0.51360.6096290.304814
M11-0.2062777777777770.277423-0.74350.4603730.230186
t-0.02627777777777780.005583-4.70711.8e-059e-06







Multiple Linear Regression - Regression Statistics
Multiple R0.7726057207896
R-squared0.596919599796816
Adjusted R-squared0.499881725673828
F-TEST (value)6.15140845975524
F-TEST (DF numerator)13
F-TEST (DF denominator)54
p-value7.15354301350501e-07
Multiple Linear Regression - Residual Statistics
Residual Standard Deviation0.438556132646074
Sum Squared Residuals10.3859

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Regression Statistics \tabularnewline
Multiple R & 0.7726057207896 \tabularnewline
R-squared & 0.596919599796816 \tabularnewline
Adjusted R-squared & 0.499881725673828 \tabularnewline
F-TEST (value) & 6.15140845975524 \tabularnewline
F-TEST (DF numerator) & 13 \tabularnewline
F-TEST (DF denominator) & 54 \tabularnewline
p-value & 7.15354301350501e-07 \tabularnewline
Multiple Linear Regression - Residual Statistics \tabularnewline
Residual Standard Deviation & 0.438556132646074 \tabularnewline
Sum Squared Residuals & 10.3859 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25459&T=3

[TABLE]
[ROW][C]Multiple Linear Regression - Regression Statistics[/C][/ROW]
[ROW][C]Multiple R[/C][C]0.7726057207896[/C][/ROW]
[ROW][C]R-squared[/C][C]0.596919599796816[/C][/ROW]
[ROW][C]Adjusted R-squared[/C][C]0.499881725673828[/C][/ROW]
[ROW][C]F-TEST (value)[/C][C]6.15140845975524[/C][/ROW]
[ROW][C]F-TEST (DF numerator)[/C][C]13[/C][/ROW]
[ROW][C]F-TEST (DF denominator)[/C][C]54[/C][/ROW]
[ROW][C]p-value[/C][C]7.15354301350501e-07[/C][/ROW]
[ROW][C]Multiple Linear Regression - Residual Statistics[/C][/ROW]
[ROW][C]Residual Standard Deviation[/C][C]0.438556132646074[/C][/ROW]
[ROW][C]Sum Squared Residuals[/C][C]10.3859[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25459&T=3

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25459&T=3

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Regression Statistics
Multiple R0.7726057207896
R-squared0.596919599796816
Adjusted R-squared0.499881725673828
F-TEST (value)6.15140845975524
F-TEST (DF numerator)13
F-TEST (DF denominator)54
p-value7.15354301350501e-07
Multiple Linear Regression - Residual Statistics
Residual Standard Deviation0.438556132646074
Sum Squared Residuals10.3859







Multiple Linear Regression - Actuals, Interpolation, and Residuals
Time or IndexActualsInterpolationForecastResidualsPrediction Error
17.88.29916666666666-0.499166666666658
27.68.26583333333333-0.665833333333333
37.58.06583333333333-0.565833333333333
47.67.8825-0.282500000000001
57.57.6825-0.182500000000001
67.37.4325-0.132500000000001
77.67.7825-0.182500000000001
87.57.7825-0.282500000000000
97.67.79266666666667-0.192666666666667
107.97.832666666666670.067333333333333
117.97.743666666666670.156333333333333
128.17.923666666666670.176333333333333
138.27.983833333333330.216166666666664
1487.95050.0495000000000002
157.57.7505-0.2505
166.87.56716666666667-0.767166666666667
176.57.36716666666667-0.867166666666667
186.67.11716666666667-0.517166666666667
197.67.467166666666670.132833333333333
2087.467166666666670.532833333333334
2187.477333333333330.522666666666667
227.77.517333333333330.182666666666667
237.57.428333333333330.0716666666666665
247.67.60833333333333-0.0083333333333333
257.77.66850.0314999999999983
267.97.635166666666670.264833333333334
277.87.435166666666670.364833333333333
287.57.251833333333330.248166666666667
297.57.051833333333330.448166666666667
307.16.801833333333330.298166666666666
317.57.151833333333330.348166666666667
327.57.151833333333330.348166666666667
337.67.1620.438
347.77.2020.498
357.77.3580.342
367.97.5380.362000000000001
378.17.598166666666670.501833333333331
388.27.564833333333330.635166666666666
398.27.364833333333330.835166666666666
408.17.18150.9185
417.96.98150.9185
427.36.73150.5685
436.97.0815-0.181499999999999
446.67.0815-0.4815
456.77.09166666666667-0.391666666666666
466.97.13166666666667-0.231666666666666
4777.04266666666667-0.0426666666666668
487.17.22266666666667-0.122666666666667
497.27.28283333333334-0.082833333333335
507.17.2495-0.149500000000000
516.97.0495-0.149500000000000
5276.866166666666670.133833333333334
536.86.666166666666670.133833333333333
546.46.41616666666667-0.0161666666666662
556.76.76616666666667-0.0661666666666662
566.76.76616666666667-0.0661666666666665
576.46.77633333333333-0.376333333333333
586.36.81633333333333-0.516333333333334
596.26.72733333333333-0.527333333333333
606.56.90733333333333-0.407333333333333
616.86.9675-0.167500000000002
626.86.93416666666667-0.134166666666667
636.56.73416666666667-0.234166666666667
646.36.55083333333333-0.250833333333333
655.96.35083333333333-0.450833333333333
665.96.10083333333333-0.200833333333333
676.46.45083333333333-0.0508333333333327
686.46.45083333333333-0.050833333333333

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Actuals, Interpolation, and Residuals \tabularnewline
Time or Index & Actuals & InterpolationForecast & ResidualsPrediction Error \tabularnewline
1 & 7.8 & 8.29916666666666 & -0.499166666666658 \tabularnewline
2 & 7.6 & 8.26583333333333 & -0.665833333333333 \tabularnewline
3 & 7.5 & 8.06583333333333 & -0.565833333333333 \tabularnewline
4 & 7.6 & 7.8825 & -0.282500000000001 \tabularnewline
5 & 7.5 & 7.6825 & -0.182500000000001 \tabularnewline
6 & 7.3 & 7.4325 & -0.132500000000001 \tabularnewline
7 & 7.6 & 7.7825 & -0.182500000000001 \tabularnewline
8 & 7.5 & 7.7825 & -0.282500000000000 \tabularnewline
9 & 7.6 & 7.79266666666667 & -0.192666666666667 \tabularnewline
10 & 7.9 & 7.83266666666667 & 0.067333333333333 \tabularnewline
11 & 7.9 & 7.74366666666667 & 0.156333333333333 \tabularnewline
12 & 8.1 & 7.92366666666667 & 0.176333333333333 \tabularnewline
13 & 8.2 & 7.98383333333333 & 0.216166666666664 \tabularnewline
14 & 8 & 7.9505 & 0.0495000000000002 \tabularnewline
15 & 7.5 & 7.7505 & -0.2505 \tabularnewline
16 & 6.8 & 7.56716666666667 & -0.767166666666667 \tabularnewline
17 & 6.5 & 7.36716666666667 & -0.867166666666667 \tabularnewline
18 & 6.6 & 7.11716666666667 & -0.517166666666667 \tabularnewline
19 & 7.6 & 7.46716666666667 & 0.132833333333333 \tabularnewline
20 & 8 & 7.46716666666667 & 0.532833333333334 \tabularnewline
21 & 8 & 7.47733333333333 & 0.522666666666667 \tabularnewline
22 & 7.7 & 7.51733333333333 & 0.182666666666667 \tabularnewline
23 & 7.5 & 7.42833333333333 & 0.0716666666666665 \tabularnewline
24 & 7.6 & 7.60833333333333 & -0.0083333333333333 \tabularnewline
25 & 7.7 & 7.6685 & 0.0314999999999983 \tabularnewline
26 & 7.9 & 7.63516666666667 & 0.264833333333334 \tabularnewline
27 & 7.8 & 7.43516666666667 & 0.364833333333333 \tabularnewline
28 & 7.5 & 7.25183333333333 & 0.248166666666667 \tabularnewline
29 & 7.5 & 7.05183333333333 & 0.448166666666667 \tabularnewline
30 & 7.1 & 6.80183333333333 & 0.298166666666666 \tabularnewline
31 & 7.5 & 7.15183333333333 & 0.348166666666667 \tabularnewline
32 & 7.5 & 7.15183333333333 & 0.348166666666667 \tabularnewline
33 & 7.6 & 7.162 & 0.438 \tabularnewline
34 & 7.7 & 7.202 & 0.498 \tabularnewline
35 & 7.7 & 7.358 & 0.342 \tabularnewline
36 & 7.9 & 7.538 & 0.362000000000001 \tabularnewline
37 & 8.1 & 7.59816666666667 & 0.501833333333331 \tabularnewline
38 & 8.2 & 7.56483333333333 & 0.635166666666666 \tabularnewline
39 & 8.2 & 7.36483333333333 & 0.835166666666666 \tabularnewline
40 & 8.1 & 7.1815 & 0.9185 \tabularnewline
41 & 7.9 & 6.9815 & 0.9185 \tabularnewline
42 & 7.3 & 6.7315 & 0.5685 \tabularnewline
43 & 6.9 & 7.0815 & -0.181499999999999 \tabularnewline
44 & 6.6 & 7.0815 & -0.4815 \tabularnewline
45 & 6.7 & 7.09166666666667 & -0.391666666666666 \tabularnewline
46 & 6.9 & 7.13166666666667 & -0.231666666666666 \tabularnewline
47 & 7 & 7.04266666666667 & -0.0426666666666668 \tabularnewline
48 & 7.1 & 7.22266666666667 & -0.122666666666667 \tabularnewline
49 & 7.2 & 7.28283333333334 & -0.082833333333335 \tabularnewline
50 & 7.1 & 7.2495 & -0.149500000000000 \tabularnewline
51 & 6.9 & 7.0495 & -0.149500000000000 \tabularnewline
52 & 7 & 6.86616666666667 & 0.133833333333334 \tabularnewline
53 & 6.8 & 6.66616666666667 & 0.133833333333333 \tabularnewline
54 & 6.4 & 6.41616666666667 & -0.0161666666666662 \tabularnewline
55 & 6.7 & 6.76616666666667 & -0.0661666666666662 \tabularnewline
56 & 6.7 & 6.76616666666667 & -0.0661666666666665 \tabularnewline
57 & 6.4 & 6.77633333333333 & -0.376333333333333 \tabularnewline
58 & 6.3 & 6.81633333333333 & -0.516333333333334 \tabularnewline
59 & 6.2 & 6.72733333333333 & -0.527333333333333 \tabularnewline
60 & 6.5 & 6.90733333333333 & -0.407333333333333 \tabularnewline
61 & 6.8 & 6.9675 & -0.167500000000002 \tabularnewline
62 & 6.8 & 6.93416666666667 & -0.134166666666667 \tabularnewline
63 & 6.5 & 6.73416666666667 & -0.234166666666667 \tabularnewline
64 & 6.3 & 6.55083333333333 & -0.250833333333333 \tabularnewline
65 & 5.9 & 6.35083333333333 & -0.450833333333333 \tabularnewline
66 & 5.9 & 6.10083333333333 & -0.200833333333333 \tabularnewline
67 & 6.4 & 6.45083333333333 & -0.0508333333333327 \tabularnewline
68 & 6.4 & 6.45083333333333 & -0.050833333333333 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25459&T=4

[TABLE]
[ROW][C]Multiple Linear Regression - Actuals, Interpolation, and Residuals[/C][/ROW]
[ROW][C]Time or Index[/C][C]Actuals[/C][C]InterpolationForecast[/C][C]ResidualsPrediction Error[/C][/ROW]
[ROW][C]1[/C][C]7.8[/C][C]8.29916666666666[/C][C]-0.499166666666658[/C][/ROW]
[ROW][C]2[/C][C]7.6[/C][C]8.26583333333333[/C][C]-0.665833333333333[/C][/ROW]
[ROW][C]3[/C][C]7.5[/C][C]8.06583333333333[/C][C]-0.565833333333333[/C][/ROW]
[ROW][C]4[/C][C]7.6[/C][C]7.8825[/C][C]-0.282500000000001[/C][/ROW]
[ROW][C]5[/C][C]7.5[/C][C]7.6825[/C][C]-0.182500000000001[/C][/ROW]
[ROW][C]6[/C][C]7.3[/C][C]7.4325[/C][C]-0.132500000000001[/C][/ROW]
[ROW][C]7[/C][C]7.6[/C][C]7.7825[/C][C]-0.182500000000001[/C][/ROW]
[ROW][C]8[/C][C]7.5[/C][C]7.7825[/C][C]-0.282500000000000[/C][/ROW]
[ROW][C]9[/C][C]7.6[/C][C]7.79266666666667[/C][C]-0.192666666666667[/C][/ROW]
[ROW][C]10[/C][C]7.9[/C][C]7.83266666666667[/C][C]0.067333333333333[/C][/ROW]
[ROW][C]11[/C][C]7.9[/C][C]7.74366666666667[/C][C]0.156333333333333[/C][/ROW]
[ROW][C]12[/C][C]8.1[/C][C]7.92366666666667[/C][C]0.176333333333333[/C][/ROW]
[ROW][C]13[/C][C]8.2[/C][C]7.98383333333333[/C][C]0.216166666666664[/C][/ROW]
[ROW][C]14[/C][C]8[/C][C]7.9505[/C][C]0.0495000000000002[/C][/ROW]
[ROW][C]15[/C][C]7.5[/C][C]7.7505[/C][C]-0.2505[/C][/ROW]
[ROW][C]16[/C][C]6.8[/C][C]7.56716666666667[/C][C]-0.767166666666667[/C][/ROW]
[ROW][C]17[/C][C]6.5[/C][C]7.36716666666667[/C][C]-0.867166666666667[/C][/ROW]
[ROW][C]18[/C][C]6.6[/C][C]7.11716666666667[/C][C]-0.517166666666667[/C][/ROW]
[ROW][C]19[/C][C]7.6[/C][C]7.46716666666667[/C][C]0.132833333333333[/C][/ROW]
[ROW][C]20[/C][C]8[/C][C]7.46716666666667[/C][C]0.532833333333334[/C][/ROW]
[ROW][C]21[/C][C]8[/C][C]7.47733333333333[/C][C]0.522666666666667[/C][/ROW]
[ROW][C]22[/C][C]7.7[/C][C]7.51733333333333[/C][C]0.182666666666667[/C][/ROW]
[ROW][C]23[/C][C]7.5[/C][C]7.42833333333333[/C][C]0.0716666666666665[/C][/ROW]
[ROW][C]24[/C][C]7.6[/C][C]7.60833333333333[/C][C]-0.0083333333333333[/C][/ROW]
[ROW][C]25[/C][C]7.7[/C][C]7.6685[/C][C]0.0314999999999983[/C][/ROW]
[ROW][C]26[/C][C]7.9[/C][C]7.63516666666667[/C][C]0.264833333333334[/C][/ROW]
[ROW][C]27[/C][C]7.8[/C][C]7.43516666666667[/C][C]0.364833333333333[/C][/ROW]
[ROW][C]28[/C][C]7.5[/C][C]7.25183333333333[/C][C]0.248166666666667[/C][/ROW]
[ROW][C]29[/C][C]7.5[/C][C]7.05183333333333[/C][C]0.448166666666667[/C][/ROW]
[ROW][C]30[/C][C]7.1[/C][C]6.80183333333333[/C][C]0.298166666666666[/C][/ROW]
[ROW][C]31[/C][C]7.5[/C][C]7.15183333333333[/C][C]0.348166666666667[/C][/ROW]
[ROW][C]32[/C][C]7.5[/C][C]7.15183333333333[/C][C]0.348166666666667[/C][/ROW]
[ROW][C]33[/C][C]7.6[/C][C]7.162[/C][C]0.438[/C][/ROW]
[ROW][C]34[/C][C]7.7[/C][C]7.202[/C][C]0.498[/C][/ROW]
[ROW][C]35[/C][C]7.7[/C][C]7.358[/C][C]0.342[/C][/ROW]
[ROW][C]36[/C][C]7.9[/C][C]7.538[/C][C]0.362000000000001[/C][/ROW]
[ROW][C]37[/C][C]8.1[/C][C]7.59816666666667[/C][C]0.501833333333331[/C][/ROW]
[ROW][C]38[/C][C]8.2[/C][C]7.56483333333333[/C][C]0.635166666666666[/C][/ROW]
[ROW][C]39[/C][C]8.2[/C][C]7.36483333333333[/C][C]0.835166666666666[/C][/ROW]
[ROW][C]40[/C][C]8.1[/C][C]7.1815[/C][C]0.9185[/C][/ROW]
[ROW][C]41[/C][C]7.9[/C][C]6.9815[/C][C]0.9185[/C][/ROW]
[ROW][C]42[/C][C]7.3[/C][C]6.7315[/C][C]0.5685[/C][/ROW]
[ROW][C]43[/C][C]6.9[/C][C]7.0815[/C][C]-0.181499999999999[/C][/ROW]
[ROW][C]44[/C][C]6.6[/C][C]7.0815[/C][C]-0.4815[/C][/ROW]
[ROW][C]45[/C][C]6.7[/C][C]7.09166666666667[/C][C]-0.391666666666666[/C][/ROW]
[ROW][C]46[/C][C]6.9[/C][C]7.13166666666667[/C][C]-0.231666666666666[/C][/ROW]
[ROW][C]47[/C][C]7[/C][C]7.04266666666667[/C][C]-0.0426666666666668[/C][/ROW]
[ROW][C]48[/C][C]7.1[/C][C]7.22266666666667[/C][C]-0.122666666666667[/C][/ROW]
[ROW][C]49[/C][C]7.2[/C][C]7.28283333333334[/C][C]-0.082833333333335[/C][/ROW]
[ROW][C]50[/C][C]7.1[/C][C]7.2495[/C][C]-0.149500000000000[/C][/ROW]
[ROW][C]51[/C][C]6.9[/C][C]7.0495[/C][C]-0.149500000000000[/C][/ROW]
[ROW][C]52[/C][C]7[/C][C]6.86616666666667[/C][C]0.133833333333334[/C][/ROW]
[ROW][C]53[/C][C]6.8[/C][C]6.66616666666667[/C][C]0.133833333333333[/C][/ROW]
[ROW][C]54[/C][C]6.4[/C][C]6.41616666666667[/C][C]-0.0161666666666662[/C][/ROW]
[ROW][C]55[/C][C]6.7[/C][C]6.76616666666667[/C][C]-0.0661666666666662[/C][/ROW]
[ROW][C]56[/C][C]6.7[/C][C]6.76616666666667[/C][C]-0.0661666666666665[/C][/ROW]
[ROW][C]57[/C][C]6.4[/C][C]6.77633333333333[/C][C]-0.376333333333333[/C][/ROW]
[ROW][C]58[/C][C]6.3[/C][C]6.81633333333333[/C][C]-0.516333333333334[/C][/ROW]
[ROW][C]59[/C][C]6.2[/C][C]6.72733333333333[/C][C]-0.527333333333333[/C][/ROW]
[ROW][C]60[/C][C]6.5[/C][C]6.90733333333333[/C][C]-0.407333333333333[/C][/ROW]
[ROW][C]61[/C][C]6.8[/C][C]6.9675[/C][C]-0.167500000000002[/C][/ROW]
[ROW][C]62[/C][C]6.8[/C][C]6.93416666666667[/C][C]-0.134166666666667[/C][/ROW]
[ROW][C]63[/C][C]6.5[/C][C]6.73416666666667[/C][C]-0.234166666666667[/C][/ROW]
[ROW][C]64[/C][C]6.3[/C][C]6.55083333333333[/C][C]-0.250833333333333[/C][/ROW]
[ROW][C]65[/C][C]5.9[/C][C]6.35083333333333[/C][C]-0.450833333333333[/C][/ROW]
[ROW][C]66[/C][C]5.9[/C][C]6.10083333333333[/C][C]-0.200833333333333[/C][/ROW]
[ROW][C]67[/C][C]6.4[/C][C]6.45083333333333[/C][C]-0.0508333333333327[/C][/ROW]
[ROW][C]68[/C][C]6.4[/C][C]6.45083333333333[/C][C]-0.050833333333333[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25459&T=4

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25459&T=4

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Actuals, Interpolation, and Residuals
Time or IndexActualsInterpolationForecastResidualsPrediction Error
17.88.29916666666666-0.499166666666658
27.68.26583333333333-0.665833333333333
37.58.06583333333333-0.565833333333333
47.67.8825-0.282500000000001
57.57.6825-0.182500000000001
67.37.4325-0.132500000000001
77.67.7825-0.182500000000001
87.57.7825-0.282500000000000
97.67.79266666666667-0.192666666666667
107.97.832666666666670.067333333333333
117.97.743666666666670.156333333333333
128.17.923666666666670.176333333333333
138.27.983833333333330.216166666666664
1487.95050.0495000000000002
157.57.7505-0.2505
166.87.56716666666667-0.767166666666667
176.57.36716666666667-0.867166666666667
186.67.11716666666667-0.517166666666667
197.67.467166666666670.132833333333333
2087.467166666666670.532833333333334
2187.477333333333330.522666666666667
227.77.517333333333330.182666666666667
237.57.428333333333330.0716666666666665
247.67.60833333333333-0.0083333333333333
257.77.66850.0314999999999983
267.97.635166666666670.264833333333334
277.87.435166666666670.364833333333333
287.57.251833333333330.248166666666667
297.57.051833333333330.448166666666667
307.16.801833333333330.298166666666666
317.57.151833333333330.348166666666667
327.57.151833333333330.348166666666667
337.67.1620.438
347.77.2020.498
357.77.3580.342
367.97.5380.362000000000001
378.17.598166666666670.501833333333331
388.27.564833333333330.635166666666666
398.27.364833333333330.835166666666666
408.17.18150.9185
417.96.98150.9185
427.36.73150.5685
436.97.0815-0.181499999999999
446.67.0815-0.4815
456.77.09166666666667-0.391666666666666
466.97.13166666666667-0.231666666666666
4777.04266666666667-0.0426666666666668
487.17.22266666666667-0.122666666666667
497.27.28283333333334-0.082833333333335
507.17.2495-0.149500000000000
516.97.0495-0.149500000000000
5276.866166666666670.133833333333334
536.86.666166666666670.133833333333333
546.46.41616666666667-0.0161666666666662
556.76.76616666666667-0.0661666666666662
566.76.76616666666667-0.0661666666666665
576.46.77633333333333-0.376333333333333
586.36.81633333333333-0.516333333333334
596.26.72733333333333-0.527333333333333
606.56.90733333333333-0.407333333333333
616.86.9675-0.167500000000002
626.86.93416666666667-0.134166666666667
636.56.73416666666667-0.234166666666667
646.36.55083333333333-0.250833333333333
655.96.35083333333333-0.450833333333333
665.96.10083333333333-0.200833333333333
676.46.45083333333333-0.0508333333333327
686.46.45083333333333-0.050833333333333



Parameters (Session):
par1 = 0 ; par2 = Include Monthly Dummies ; par3 = Linear Trend ;
Parameters (R input):
par1 = 0 ; par2 = Include Monthly Dummies ; par3 = Linear Trend ;
R code (references can be found in the software module):
library(lattice)
par1 <- as.numeric(par1)
x <- t(y)
k <- length(x[1,])
n <- length(x[,1])
x1 <- cbind(x[,par1], x[,1:k!=par1])
mycolnames <- c(colnames(x)[par1], colnames(x)[1:k!=par1])
colnames(x1) <- mycolnames #colnames(x)[par1]
x <- x1
if (par3 == 'First Differences'){
x2 <- array(0, dim=c(n-1,k), dimnames=list(1:(n-1), paste('(1-B)',colnames(x),sep='')))
for (i in 1:n-1) {
for (j in 1:k) {
x2[i,j] <- x[i+1,j] - x[i,j]
}
}
x <- x2
}
if (par2 == 'Include Monthly Dummies'){
x2 <- array(0, dim=c(n,11), dimnames=list(1:n, paste('M', seq(1:11), sep ='')))
for (i in 1:11){
x2[seq(i,n,12),i] <- 1
}
x <- cbind(x, x2)
}
if (par2 == 'Include Quarterly Dummies'){
x2 <- array(0, dim=c(n,3), dimnames=list(1:n, paste('Q', seq(1:3), sep ='')))
for (i in 1:3){
x2[seq(i,n,4),i] <- 1
}
x <- cbind(x, x2)
}
k <- length(x[1,])
if (par3 == 'Linear Trend'){
x <- cbind(x, c(1:n))
colnames(x)[k+1] <- 't'
}
x
k <- length(x[1,])
df <- as.data.frame(x)
(mylm <- lm(df))
(mysum <- summary(mylm))
bitmap(file='test0.png')
plot(x[,1], type='l', main='Actuals and Interpolation', ylab='value of Actuals and Interpolation (dots)', xlab='time or index')
points(x[,1]-mysum$resid)
grid()
dev.off()
bitmap(file='test1.png')
plot(mysum$resid, type='b', pch=19, main='Residuals', ylab='value of Residuals', xlab='time or index')
grid()
dev.off()
bitmap(file='test2.png')
hist(mysum$resid, main='Residual Histogram', xlab='values of Residuals')
grid()
dev.off()
bitmap(file='test3.png')
densityplot(~mysum$resid,col='black',main='Residual Density Plot', xlab='values of Residuals')
dev.off()
bitmap(file='test4.png')
qqnorm(mysum$resid, main='Residual Normal Q-Q Plot')
grid()
dev.off()
(myerror <- as.ts(mysum$resid))
bitmap(file='test5.png')
dum <- cbind(lag(myerror,k=1),myerror)
dum
dum1 <- dum[2:length(myerror),]
dum1
z <- as.data.frame(dum1)
z
plot(z,main=paste('Residual Lag plot, lowess, and regression line'), ylab='values of Residuals', xlab='lagged values of Residuals')
lines(lowess(z))
abline(lm(z))
grid()
dev.off()
bitmap(file='test6.png')
acf(mysum$resid, lag.max=length(mysum$resid)/2, main='Residual Autocorrelation Function')
grid()
dev.off()
bitmap(file='test7.png')
pacf(mysum$resid, lag.max=length(mysum$resid)/2, main='Residual Partial Autocorrelation Function')
grid()
dev.off()
bitmap(file='test8.png')
opar <- par(mfrow = c(2,2), oma = c(0, 0, 1.1, 0))
plot(mylm, las = 1, sub='Residual Diagnostics')
par(opar)
dev.off()
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Estimated Regression Equation', 1, TRUE)
a<-table.row.end(a)
myeq <- colnames(x)[1]
myeq <- paste(myeq, '[t] = ', sep='')
for (i in 1:k){
if (mysum$coefficients[i,1] > 0) myeq <- paste(myeq, '+', '')
myeq <- paste(myeq, mysum$coefficients[i,1], sep=' ')
if (rownames(mysum$coefficients)[i] != '(Intercept)') {
myeq <- paste(myeq, rownames(mysum$coefficients)[i], sep='')
if (rownames(mysum$coefficients)[i] != 't') myeq <- paste(myeq, '[t]', sep='')
}
}
myeq <- paste(myeq, ' + e[t]')
a<-table.row.start(a)
a<-table.element(a, myeq)
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable1.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,hyperlink('ols1.htm','Multiple Linear Regression - Ordinary Least Squares',''), 6, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Variable',header=TRUE)
a<-table.element(a,'Parameter',header=TRUE)
a<-table.element(a,'S.D.',header=TRUE)
a<-table.element(a,'T-STAT
H0: parameter = 0',header=TRUE)
a<-table.element(a,'2-tail p-value',header=TRUE)
a<-table.element(a,'1-tail p-value',header=TRUE)
a<-table.row.end(a)
for (i in 1:k){
a<-table.row.start(a)
a<-table.element(a,rownames(mysum$coefficients)[i],header=TRUE)
a<-table.element(a,mysum$coefficients[i,1])
a<-table.element(a, round(mysum$coefficients[i,2],6))
a<-table.element(a, round(mysum$coefficients[i,3],4))
a<-table.element(a, round(mysum$coefficients[i,4],6))
a<-table.element(a, round(mysum$coefficients[i,4]/2,6))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable2.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Regression Statistics', 2, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Multiple R',1,TRUE)
a<-table.element(a, sqrt(mysum$r.squared))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'R-squared',1,TRUE)
a<-table.element(a, mysum$r.squared)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Adjusted R-squared',1,TRUE)
a<-table.element(a, mysum$adj.r.squared)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (value)',1,TRUE)
a<-table.element(a, mysum$fstatistic[1])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (DF numerator)',1,TRUE)
a<-table.element(a, mysum$fstatistic[2])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (DF denominator)',1,TRUE)
a<-table.element(a, mysum$fstatistic[3])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'p-value',1,TRUE)
a<-table.element(a, 1-pf(mysum$fstatistic[1],mysum$fstatistic[2],mysum$fstatistic[3]))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Residual Statistics', 2, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Residual Standard Deviation',1,TRUE)
a<-table.element(a, mysum$sigma)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Sum Squared Residuals',1,TRUE)
a<-table.element(a, sum(myerror*myerror))
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable3.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Actuals, Interpolation, and Residuals', 4, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Time or Index', 1, TRUE)
a<-table.element(a, 'Actuals', 1, TRUE)
a<-table.element(a, 'Interpolation
Forecast', 1, TRUE)
a<-table.element(a, 'Residuals
Prediction Error', 1, TRUE)
a<-table.row.end(a)
for (i in 1:n) {
a<-table.row.start(a)
a<-table.element(a,i, 1, TRUE)
a<-table.element(a,x[i])
a<-table.element(a,x[i]-mysum$resid[i])
a<-table.element(a,mysum$resid[i])
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable4.tab')