Free Statistics

of Irreproducible Research!

Author's title

Author*The author of this computation has been verified*
R Software Modulerwasp_logisticregression.wasp
Title produced by softwareBias-Reduced Logistic Regression
Date of computationSat, 08 Dec 2012 03:48:44 -0500
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2012/Dec/08/t1354956532x71dv4ymh0x2g7s.htm/, Retrieved Tue, 23 Apr 2024 13:26:59 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=197520, Retrieved Tue, 23 Apr 2024 13:26:59 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact123
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
-     [Bias-Reduced Logistic Regression] [Logistic Regressi...] [2012-12-08 08:09:55] [3f1165f0052bdaf7d486f8ac60253253]
-    D    [Bias-Reduced Logistic Regression] [] [2012-12-08 08:48:44] [bdee33f3d7ceb254f97215ce68b6a08e] [Current]
Feedback Forum

Post a new message
Dataseries X:
0	1
0	0
0	0
0	0
0	0
0	0
0	0
0	1
0	0
0	0
0	1
0	0
0	0
0	1
0	0
0	1
1	1
0	1
0	0
1	1
0	0
0	0
0	0
0	0
0	1
0	0
0	0
0	0
0	0
0	0
0	0
0	0
0	0
0	1
0	0
0	0
0	1
0	0
0	0
0	1
1	0
0	0
0	0
0	1
0	0
0	0
0	0
0	0
0	0
0	0
0	1
1	1
0	0
1	0
0	0
0	1
0	0
0	0
0	0
1	1
0	1
0	0
0	0
0	1
0	0
0	0
1	1
0	0
0	0
0	0
0	0
0	0
0	0
0	0
0	0
0	1
0	0
0	0
1	1
0	1
0	0
0	0
0	0
1	0
0	0
0	0




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'Gertrude Mary Cox' @ cox.wessa.net

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 2 seconds \tabularnewline
R Server & 'Gertrude Mary Cox' @ cox.wessa.net \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=197520&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]2 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Gertrude Mary Cox' @ cox.wessa.net[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=197520&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=197520&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time2 seconds
R Server'Gertrude Mary Cox' @ cox.wessa.net







Coefficients of Bias-Reduced Logistic Regression
VariableParameterS.E.t-stat2-sided p-value
(Intercept)-2.849880396541430.554112554112414-5.143143528134661.73987924156904e-06
`4wPR`1.859481692513550.7260875765872782.56096062303310.0122257486519974

\begin{tabular}{lllllllll}
\hline
Coefficients of Bias-Reduced Logistic Regression \tabularnewline
Variable & Parameter & S.E. & t-stat & 2-sided p-value \tabularnewline
(Intercept) & -2.84988039654143 & 0.554112554112414 & -5.14314352813466 & 1.73987924156904e-06 \tabularnewline
`4wPR` & 1.85948169251355 & 0.726087576587278 & 2.5609606230331 & 0.0122257486519974 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=197520&T=1

[TABLE]
[ROW][C]Coefficients of Bias-Reduced Logistic Regression[/C][/ROW]
[ROW][C]Variable[/C][C]Parameter[/C][C]S.E.[/C][C]t-stat[/C][C]2-sided p-value[/C][/ROW]
[ROW][C](Intercept)[/C][C]-2.84988039654143[/C][C]0.554112554112414[/C][C]-5.14314352813466[/C][C]1.73987924156904e-06[/C][/ROW]
[ROW][C]`4wPR`[/C][C]1.85948169251355[/C][C]0.726087576587278[/C][C]2.5609606230331[/C][C]0.0122257486519974[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=197520&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=197520&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Coefficients of Bias-Reduced Logistic Regression
VariableParameterS.E.t-stat2-sided p-value
(Intercept)-2.849880396541430.554112554112414-5.143143528134661.73987924156904e-06
`4wPR`1.859481692513550.7260875765872782.56096062303310.0122257486519974







Summary of Bias-Reduced Logistic Regression
Deviance50.5995070095154
Penalized deviance47.9053425032463
Residual Degrees of Freedom84
ROC Area0.722943722943723
Hosmer–Lemeshow test
Chi-squareNA
Degrees of FreedomNA
P(>Chi)NA

\begin{tabular}{lllllllll}
\hline
Summary of Bias-Reduced Logistic Regression \tabularnewline
Deviance & 50.5995070095154 \tabularnewline
Penalized deviance & 47.9053425032463 \tabularnewline
Residual Degrees of Freedom & 84 \tabularnewline
ROC Area & 0.722943722943723 \tabularnewline
Hosmer–Lemeshow test \tabularnewline
Chi-square & NA \tabularnewline
Degrees of Freedom & NA \tabularnewline
P(>Chi) & NA \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=197520&T=2

[TABLE]
[ROW][C]Summary of Bias-Reduced Logistic Regression[/C][/ROW]
[ROW][C]Deviance[/C][C]50.5995070095154[/C][/ROW]
[ROW][C]Penalized deviance[/C][C]47.9053425032463[/C][/ROW]
[ROW][C]Residual Degrees of Freedom[/C][C]84[/C][/ROW]
[ROW][C]ROC Area[/C][C]0.722943722943723[/C][/ROW]
[ROW][C]Hosmer–Lemeshow test[/C][/ROW]
[ROW][C]Chi-square[/C][C]NA[/C][/ROW]
[ROW][C]Degrees of Freedom[/C][C]NA[/C][/ROW]
[ROW][C]P(>Chi)[/C][C]NA[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=197520&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=197520&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of Bias-Reduced Logistic Regression
Deviance50.5995070095154
Penalized deviance47.9053425032463
Residual Degrees of Freedom84
ROC Area0.722943722943723
Hosmer–Lemeshow test
Chi-squareNA
Degrees of FreedomNA
P(>Chi)NA







Fit of Logistic Regression
IndexActualFittedError
100.270833333333333-0.270833333333333
200.0546875-0.0546875
300.0546875-0.0546875
400.0546875-0.0546875
500.0546875-0.0546875
600.0546875-0.0546875
700.0546875-0.0546875
800.270833333333333-0.270833333333333
900.0546875-0.0546875
1000.0546875-0.0546875
1100.270833333333333-0.270833333333333
1200.0546875-0.0546875
1300.0546875-0.0546875
1400.270833333333333-0.270833333333333
1500.0546875-0.0546875
1600.270833333333333-0.270833333333333
1710.2708333333333330.729166666666667
1800.270833333333333-0.270833333333333
1900.0546875-0.0546875
2010.2708333333333330.729166666666667
2100.0546875-0.0546875
2200.0546875-0.0546875
2300.0546875-0.0546875
2400.0546875-0.0546875
2500.270833333333333-0.270833333333333
2600.0546875-0.0546875
2700.0546875-0.0546875
2800.0546875-0.0546875
2900.0546875-0.0546875
3000.0546875-0.0546875
3100.0546875-0.0546875
3200.0546875-0.0546875
3300.0546875-0.0546875
3400.270833333333333-0.270833333333333
3500.0546875-0.0546875
3600.0546875-0.0546875
3700.270833333333333-0.270833333333333
3800.0546875-0.0546875
3900.0546875-0.0546875
4000.270833333333333-0.270833333333333
4110.05468750.9453125
4200.0546875-0.0546875
4300.0546875-0.0546875
4400.270833333333333-0.270833333333333
4500.0546875-0.0546875
4600.0546875-0.0546875
4700.0546875-0.0546875
4800.0546875-0.0546875
4900.0546875-0.0546875
5000.0546875-0.0546875
5100.270833333333333-0.270833333333333
5210.2708333333333330.729166666666667
5300.0546875-0.0546875
5410.05468750.9453125
5500.0546875-0.0546875
5600.270833333333333-0.270833333333333
5700.0546875-0.0546875
5800.0546875-0.0546875
5900.0546875-0.0546875
6010.2708333333333330.729166666666667
6100.270833333333333-0.270833333333333
6200.0546875-0.0546875
6300.0546875-0.0546875
6400.270833333333333-0.270833333333333
6500.0546875-0.0546875
6600.0546875-0.0546875
6710.2708333333333330.729166666666667
6800.0546875-0.0546875
6900.0546875-0.0546875
7000.0546875-0.0546875
7100.0546875-0.0546875
7200.0546875-0.0546875
7300.0546875-0.0546875
7400.0546875-0.0546875
7500.0546875-0.0546875
7600.270833333333333-0.270833333333333
7700.0546875-0.0546875
7800.0546875-0.0546875
7910.2708333333333330.729166666666667
8000.270833333333333-0.270833333333333
8100.0546875-0.0546875
8200.0546875-0.0546875
8300.0546875-0.0546875
8410.05468750.9453125
8500.0546875-0.0546875
8600.0546875-0.0546875

\begin{tabular}{lllllllll}
\hline
Fit of Logistic Regression \tabularnewline
Index & Actual & Fitted & Error \tabularnewline
1 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
2 & 0 & 0.0546875 & -0.0546875 \tabularnewline
3 & 0 & 0.0546875 & -0.0546875 \tabularnewline
4 & 0 & 0.0546875 & -0.0546875 \tabularnewline
5 & 0 & 0.0546875 & -0.0546875 \tabularnewline
6 & 0 & 0.0546875 & -0.0546875 \tabularnewline
7 & 0 & 0.0546875 & -0.0546875 \tabularnewline
8 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
9 & 0 & 0.0546875 & -0.0546875 \tabularnewline
10 & 0 & 0.0546875 & -0.0546875 \tabularnewline
11 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
12 & 0 & 0.0546875 & -0.0546875 \tabularnewline
13 & 0 & 0.0546875 & -0.0546875 \tabularnewline
14 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
15 & 0 & 0.0546875 & -0.0546875 \tabularnewline
16 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
17 & 1 & 0.270833333333333 & 0.729166666666667 \tabularnewline
18 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
19 & 0 & 0.0546875 & -0.0546875 \tabularnewline
20 & 1 & 0.270833333333333 & 0.729166666666667 \tabularnewline
21 & 0 & 0.0546875 & -0.0546875 \tabularnewline
22 & 0 & 0.0546875 & -0.0546875 \tabularnewline
23 & 0 & 0.0546875 & -0.0546875 \tabularnewline
24 & 0 & 0.0546875 & -0.0546875 \tabularnewline
25 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
26 & 0 & 0.0546875 & -0.0546875 \tabularnewline
27 & 0 & 0.0546875 & -0.0546875 \tabularnewline
28 & 0 & 0.0546875 & -0.0546875 \tabularnewline
29 & 0 & 0.0546875 & -0.0546875 \tabularnewline
30 & 0 & 0.0546875 & -0.0546875 \tabularnewline
31 & 0 & 0.0546875 & -0.0546875 \tabularnewline
32 & 0 & 0.0546875 & -0.0546875 \tabularnewline
33 & 0 & 0.0546875 & -0.0546875 \tabularnewline
34 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
35 & 0 & 0.0546875 & -0.0546875 \tabularnewline
36 & 0 & 0.0546875 & -0.0546875 \tabularnewline
37 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
38 & 0 & 0.0546875 & -0.0546875 \tabularnewline
39 & 0 & 0.0546875 & -0.0546875 \tabularnewline
40 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
41 & 1 & 0.0546875 & 0.9453125 \tabularnewline
42 & 0 & 0.0546875 & -0.0546875 \tabularnewline
43 & 0 & 0.0546875 & -0.0546875 \tabularnewline
44 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
45 & 0 & 0.0546875 & -0.0546875 \tabularnewline
46 & 0 & 0.0546875 & -0.0546875 \tabularnewline
47 & 0 & 0.0546875 & -0.0546875 \tabularnewline
48 & 0 & 0.0546875 & -0.0546875 \tabularnewline
49 & 0 & 0.0546875 & -0.0546875 \tabularnewline
50 & 0 & 0.0546875 & -0.0546875 \tabularnewline
51 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
52 & 1 & 0.270833333333333 & 0.729166666666667 \tabularnewline
53 & 0 & 0.0546875 & -0.0546875 \tabularnewline
54 & 1 & 0.0546875 & 0.9453125 \tabularnewline
55 & 0 & 0.0546875 & -0.0546875 \tabularnewline
56 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
57 & 0 & 0.0546875 & -0.0546875 \tabularnewline
58 & 0 & 0.0546875 & -0.0546875 \tabularnewline
59 & 0 & 0.0546875 & -0.0546875 \tabularnewline
60 & 1 & 0.270833333333333 & 0.729166666666667 \tabularnewline
61 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
62 & 0 & 0.0546875 & -0.0546875 \tabularnewline
63 & 0 & 0.0546875 & -0.0546875 \tabularnewline
64 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
65 & 0 & 0.0546875 & -0.0546875 \tabularnewline
66 & 0 & 0.0546875 & -0.0546875 \tabularnewline
67 & 1 & 0.270833333333333 & 0.729166666666667 \tabularnewline
68 & 0 & 0.0546875 & -0.0546875 \tabularnewline
69 & 0 & 0.0546875 & -0.0546875 \tabularnewline
70 & 0 & 0.0546875 & -0.0546875 \tabularnewline
71 & 0 & 0.0546875 & -0.0546875 \tabularnewline
72 & 0 & 0.0546875 & -0.0546875 \tabularnewline
73 & 0 & 0.0546875 & -0.0546875 \tabularnewline
74 & 0 & 0.0546875 & -0.0546875 \tabularnewline
75 & 0 & 0.0546875 & -0.0546875 \tabularnewline
76 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
77 & 0 & 0.0546875 & -0.0546875 \tabularnewline
78 & 0 & 0.0546875 & -0.0546875 \tabularnewline
79 & 1 & 0.270833333333333 & 0.729166666666667 \tabularnewline
80 & 0 & 0.270833333333333 & -0.270833333333333 \tabularnewline
81 & 0 & 0.0546875 & -0.0546875 \tabularnewline
82 & 0 & 0.0546875 & -0.0546875 \tabularnewline
83 & 0 & 0.0546875 & -0.0546875 \tabularnewline
84 & 1 & 0.0546875 & 0.9453125 \tabularnewline
85 & 0 & 0.0546875 & -0.0546875 \tabularnewline
86 & 0 & 0.0546875 & -0.0546875 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=197520&T=3

[TABLE]
[ROW][C]Fit of Logistic Regression[/C][/ROW]
[ROW][C]Index[/C][C]Actual[/C][C]Fitted[/C][C]Error[/C][/ROW]
[ROW][C]1[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]2[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]3[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]4[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]5[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]6[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]7[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]8[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]9[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]10[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]11[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]12[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]13[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]14[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]15[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]16[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]17[/C][C]1[/C][C]0.270833333333333[/C][C]0.729166666666667[/C][/ROW]
[ROW][C]18[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]19[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]20[/C][C]1[/C][C]0.270833333333333[/C][C]0.729166666666667[/C][/ROW]
[ROW][C]21[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]22[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]23[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]24[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]25[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]26[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]27[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]28[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]29[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]30[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]31[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]32[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]33[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]34[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]35[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]36[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]37[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]38[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]39[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]40[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]41[/C][C]1[/C][C]0.0546875[/C][C]0.9453125[/C][/ROW]
[ROW][C]42[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]43[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]44[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]45[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]46[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]47[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]48[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]49[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]50[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]51[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]52[/C][C]1[/C][C]0.270833333333333[/C][C]0.729166666666667[/C][/ROW]
[ROW][C]53[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]54[/C][C]1[/C][C]0.0546875[/C][C]0.9453125[/C][/ROW]
[ROW][C]55[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]56[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]57[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]58[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]59[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]60[/C][C]1[/C][C]0.270833333333333[/C][C]0.729166666666667[/C][/ROW]
[ROW][C]61[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]62[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]63[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]64[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]65[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]66[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]67[/C][C]1[/C][C]0.270833333333333[/C][C]0.729166666666667[/C][/ROW]
[ROW][C]68[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]69[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]70[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]71[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]72[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]73[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]74[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]75[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]76[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]77[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]78[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]79[/C][C]1[/C][C]0.270833333333333[/C][C]0.729166666666667[/C][/ROW]
[ROW][C]80[/C][C]0[/C][C]0.270833333333333[/C][C]-0.270833333333333[/C][/ROW]
[ROW][C]81[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]82[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]83[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]84[/C][C]1[/C][C]0.0546875[/C][C]0.9453125[/C][/ROW]
[ROW][C]85[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[ROW][C]86[/C][C]0[/C][C]0.0546875[/C][C]-0.0546875[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=197520&T=3

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=197520&T=3

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Fit of Logistic Regression
IndexActualFittedError
100.270833333333333-0.270833333333333
200.0546875-0.0546875
300.0546875-0.0546875
400.0546875-0.0546875
500.0546875-0.0546875
600.0546875-0.0546875
700.0546875-0.0546875
800.270833333333333-0.270833333333333
900.0546875-0.0546875
1000.0546875-0.0546875
1100.270833333333333-0.270833333333333
1200.0546875-0.0546875
1300.0546875-0.0546875
1400.270833333333333-0.270833333333333
1500.0546875-0.0546875
1600.270833333333333-0.270833333333333
1710.2708333333333330.729166666666667
1800.270833333333333-0.270833333333333
1900.0546875-0.0546875
2010.2708333333333330.729166666666667
2100.0546875-0.0546875
2200.0546875-0.0546875
2300.0546875-0.0546875
2400.0546875-0.0546875
2500.270833333333333-0.270833333333333
2600.0546875-0.0546875
2700.0546875-0.0546875
2800.0546875-0.0546875
2900.0546875-0.0546875
3000.0546875-0.0546875
3100.0546875-0.0546875
3200.0546875-0.0546875
3300.0546875-0.0546875
3400.270833333333333-0.270833333333333
3500.0546875-0.0546875
3600.0546875-0.0546875
3700.270833333333333-0.270833333333333
3800.0546875-0.0546875
3900.0546875-0.0546875
4000.270833333333333-0.270833333333333
4110.05468750.9453125
4200.0546875-0.0546875
4300.0546875-0.0546875
4400.270833333333333-0.270833333333333
4500.0546875-0.0546875
4600.0546875-0.0546875
4700.0546875-0.0546875
4800.0546875-0.0546875
4900.0546875-0.0546875
5000.0546875-0.0546875
5100.270833333333333-0.270833333333333
5210.2708333333333330.729166666666667
5300.0546875-0.0546875
5410.05468750.9453125
5500.0546875-0.0546875
5600.270833333333333-0.270833333333333
5700.0546875-0.0546875
5800.0546875-0.0546875
5900.0546875-0.0546875
6010.2708333333333330.729166666666667
6100.270833333333333-0.270833333333333
6200.0546875-0.0546875
6300.0546875-0.0546875
6400.270833333333333-0.270833333333333
6500.0546875-0.0546875
6600.0546875-0.0546875
6710.2708333333333330.729166666666667
6800.0546875-0.0546875
6900.0546875-0.0546875
7000.0546875-0.0546875
7100.0546875-0.0546875
7200.0546875-0.0546875
7300.0546875-0.0546875
7400.0546875-0.0546875
7500.0546875-0.0546875
7600.270833333333333-0.270833333333333
7700.0546875-0.0546875
7800.0546875-0.0546875
7910.2708333333333330.729166666666667
8000.270833333333333-0.270833333333333
8100.0546875-0.0546875
8200.0546875-0.0546875
8300.0546875-0.0546875
8410.05468750.9453125
8500.0546875-0.0546875
8600.0546875-0.0546875







Type I & II errors for various threshold values
ThresholdType IType II
0.0101
0.0201
0.0301
0.0401
0.0501
0.060.3333333333333330.220779220779221
0.070.3333333333333330.220779220779221
0.080.3333333333333330.220779220779221
0.090.3333333333333330.220779220779221
0.10.3333333333333330.220779220779221
0.110.3333333333333330.220779220779221
0.120.3333333333333330.220779220779221
0.130.3333333333333330.220779220779221
0.140.3333333333333330.220779220779221
0.150.3333333333333330.220779220779221
0.160.3333333333333330.220779220779221
0.170.3333333333333330.220779220779221
0.180.3333333333333330.220779220779221
0.190.3333333333333330.220779220779221
0.20.3333333333333330.220779220779221
0.210.3333333333333330.220779220779221
0.220.3333333333333330.220779220779221
0.230.3333333333333330.220779220779221
0.240.3333333333333330.220779220779221
0.250.3333333333333330.220779220779221
0.260.3333333333333330.220779220779221
0.270.3333333333333330.220779220779221
0.2810
0.2910
0.310
0.3110
0.3210
0.3310
0.3410
0.3510
0.3610
0.3710
0.3810
0.3910
0.410
0.4110
0.4210
0.4310
0.4410
0.4510
0.4610
0.4710
0.4810
0.4910
0.510
0.5110
0.5210
0.5310
0.5410
0.5510
0.5610
0.5710
0.5810
0.5910
0.610
0.6110
0.6210
0.6310
0.6410
0.6510
0.6610
0.6710
0.6810
0.6910
0.710
0.7110
0.7210
0.7310
0.7410
0.7510
0.7610
0.7710
0.7810
0.7910
0.810
0.8110
0.8210
0.8310
0.8410
0.8510
0.8610
0.8710
0.8810
0.8910
0.910
0.9110
0.9210
0.9310
0.9410
0.9510
0.9610
0.9710
0.9810
0.9910

\begin{tabular}{lllllllll}
\hline
Type I & II errors for various threshold values \tabularnewline
Threshold & Type I & Type II \tabularnewline
0.01 & 0 & 1 \tabularnewline
0.02 & 0 & 1 \tabularnewline
0.03 & 0 & 1 \tabularnewline
0.04 & 0 & 1 \tabularnewline
0.05 & 0 & 1 \tabularnewline
0.06 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.07 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.08 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.09 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.1 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.11 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.12 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.13 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.14 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.15 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.16 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.17 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.18 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.19 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.2 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.21 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.22 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.23 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.24 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.25 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.26 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.27 & 0.333333333333333 & 0.220779220779221 \tabularnewline
0.28 & 1 & 0 \tabularnewline
0.29 & 1 & 0 \tabularnewline
0.3 & 1 & 0 \tabularnewline
0.31 & 1 & 0 \tabularnewline
0.32 & 1 & 0 \tabularnewline
0.33 & 1 & 0 \tabularnewline
0.34 & 1 & 0 \tabularnewline
0.35 & 1 & 0 \tabularnewline
0.36 & 1 & 0 \tabularnewline
0.37 & 1 & 0 \tabularnewline
0.38 & 1 & 0 \tabularnewline
0.39 & 1 & 0 \tabularnewline
0.4 & 1 & 0 \tabularnewline
0.41 & 1 & 0 \tabularnewline
0.42 & 1 & 0 \tabularnewline
0.43 & 1 & 0 \tabularnewline
0.44 & 1 & 0 \tabularnewline
0.45 & 1 & 0 \tabularnewline
0.46 & 1 & 0 \tabularnewline
0.47 & 1 & 0 \tabularnewline
0.48 & 1 & 0 \tabularnewline
0.49 & 1 & 0 \tabularnewline
0.5 & 1 & 0 \tabularnewline
0.51 & 1 & 0 \tabularnewline
0.52 & 1 & 0 \tabularnewline
0.53 & 1 & 0 \tabularnewline
0.54 & 1 & 0 \tabularnewline
0.55 & 1 & 0 \tabularnewline
0.56 & 1 & 0 \tabularnewline
0.57 & 1 & 0 \tabularnewline
0.58 & 1 & 0 \tabularnewline
0.59 & 1 & 0 \tabularnewline
0.6 & 1 & 0 \tabularnewline
0.61 & 1 & 0 \tabularnewline
0.62 & 1 & 0 \tabularnewline
0.63 & 1 & 0 \tabularnewline
0.64 & 1 & 0 \tabularnewline
0.65 & 1 & 0 \tabularnewline
0.66 & 1 & 0 \tabularnewline
0.67 & 1 & 0 \tabularnewline
0.68 & 1 & 0 \tabularnewline
0.69 & 1 & 0 \tabularnewline
0.7 & 1 & 0 \tabularnewline
0.71 & 1 & 0 \tabularnewline
0.72 & 1 & 0 \tabularnewline
0.73 & 1 & 0 \tabularnewline
0.74 & 1 & 0 \tabularnewline
0.75 & 1 & 0 \tabularnewline
0.76 & 1 & 0 \tabularnewline
0.77 & 1 & 0 \tabularnewline
0.78 & 1 & 0 \tabularnewline
0.79 & 1 & 0 \tabularnewline
0.8 & 1 & 0 \tabularnewline
0.81 & 1 & 0 \tabularnewline
0.82 & 1 & 0 \tabularnewline
0.83 & 1 & 0 \tabularnewline
0.84 & 1 & 0 \tabularnewline
0.85 & 1 & 0 \tabularnewline
0.86 & 1 & 0 \tabularnewline
0.87 & 1 & 0 \tabularnewline
0.88 & 1 & 0 \tabularnewline
0.89 & 1 & 0 \tabularnewline
0.9 & 1 & 0 \tabularnewline
0.91 & 1 & 0 \tabularnewline
0.92 & 1 & 0 \tabularnewline
0.93 & 1 & 0 \tabularnewline
0.94 & 1 & 0 \tabularnewline
0.95 & 1 & 0 \tabularnewline
0.96 & 1 & 0 \tabularnewline
0.97 & 1 & 0 \tabularnewline
0.98 & 1 & 0 \tabularnewline
0.99 & 1 & 0 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=197520&T=4

[TABLE]
[ROW][C]Type I & II errors for various threshold values[/C][/ROW]
[ROW][C]Threshold[/C][C]Type I[/C][C]Type II[/C][/ROW]
[ROW][C]0.01[/C][C]0[/C][C]1[/C][/ROW]
[ROW][C]0.02[/C][C]0[/C][C]1[/C][/ROW]
[ROW][C]0.03[/C][C]0[/C][C]1[/C][/ROW]
[ROW][C]0.04[/C][C]0[/C][C]1[/C][/ROW]
[ROW][C]0.05[/C][C]0[/C][C]1[/C][/ROW]
[ROW][C]0.06[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.07[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.08[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.09[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.1[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.11[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.12[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.13[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.14[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.15[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.16[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.17[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.18[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.19[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.2[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.21[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.22[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.23[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.24[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.25[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.26[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.27[/C][C]0.333333333333333[/C][C]0.220779220779221[/C][/ROW]
[ROW][C]0.28[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.29[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.3[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.31[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.32[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.33[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.34[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.35[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.36[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.37[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.38[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.39[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.4[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.41[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.42[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.43[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.44[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.45[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.46[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.47[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.48[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.49[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.5[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.51[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.52[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.53[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.54[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.55[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.56[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.57[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.58[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.59[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.6[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.61[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.62[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.63[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.64[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.65[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.66[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.67[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.68[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.69[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.7[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.71[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.72[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.73[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.74[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.75[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.76[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.77[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.78[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.79[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.8[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.81[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.82[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.83[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.84[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.85[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.86[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.87[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.88[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.89[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.9[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.91[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.92[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.93[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.94[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.95[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.96[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.97[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.98[/C][C]1[/C][C]0[/C][/ROW]
[ROW][C]0.99[/C][C]1[/C][C]0[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=197520&T=4

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=197520&T=4

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Type I & II errors for various threshold values
ThresholdType IType II
0.0101
0.0201
0.0301
0.0401
0.0501
0.060.3333333333333330.220779220779221
0.070.3333333333333330.220779220779221
0.080.3333333333333330.220779220779221
0.090.3333333333333330.220779220779221
0.10.3333333333333330.220779220779221
0.110.3333333333333330.220779220779221
0.120.3333333333333330.220779220779221
0.130.3333333333333330.220779220779221
0.140.3333333333333330.220779220779221
0.150.3333333333333330.220779220779221
0.160.3333333333333330.220779220779221
0.170.3333333333333330.220779220779221
0.180.3333333333333330.220779220779221
0.190.3333333333333330.220779220779221
0.20.3333333333333330.220779220779221
0.210.3333333333333330.220779220779221
0.220.3333333333333330.220779220779221
0.230.3333333333333330.220779220779221
0.240.3333333333333330.220779220779221
0.250.3333333333333330.220779220779221
0.260.3333333333333330.220779220779221
0.270.3333333333333330.220779220779221
0.2810
0.2910
0.310
0.3110
0.3210
0.3310
0.3410
0.3510
0.3610
0.3710
0.3810
0.3910
0.410
0.4110
0.4210
0.4310
0.4410
0.4510
0.4610
0.4710
0.4810
0.4910
0.510
0.5110
0.5210
0.5310
0.5410
0.5510
0.5610
0.5710
0.5810
0.5910
0.610
0.6110
0.6210
0.6310
0.6410
0.6510
0.6610
0.6710
0.6810
0.6910
0.710
0.7110
0.7210
0.7310
0.7410
0.7510
0.7610
0.7710
0.7810
0.7910
0.810
0.8110
0.8210
0.8310
0.8410
0.8510
0.8610
0.8710
0.8810
0.8910
0.910
0.9110
0.9210
0.9310
0.9410
0.9510
0.9610
0.9710
0.9810
0.9910



Parameters (Session):
Parameters (R input):
R code (references can be found in the software module):
library(brglm)
roc.plot <- function (sd, sdc, newplot = TRUE, ...)
{
sall <- sort(c(sd, sdc))
sens <- 0
specc <- 0
for (i in length(sall):1) {
sens <- c(sens, mean(sd >= sall[i], na.rm = T))
specc <- c(specc, mean(sdc >= sall[i], na.rm = T))
}
if (newplot) {
plot(specc, sens, xlim = c(0, 1), ylim = c(0, 1), type = 'l',
xlab = '1-specificity', ylab = 'sensitivity', main = 'ROC plot', ...)
abline(0, 1)
}
else lines(specc, sens, ...)
npoints <- length(sens)
area <- sum(0.5 * (sens[-1] + sens[-npoints]) * (specc[-1] -
specc[-npoints]))
lift <- (sens - specc)[-1]
cutoff <- sall[lift == max(lift)][1]
sensopt <- sens[-1][lift == max(lift)][1]
specopt <- 1 - specc[-1][lift == max(lift)][1]
list(area = area, cutoff = cutoff, sensopt = sensopt, specopt = specopt)
}
roc.analysis <- function (object, newdata = NULL, newplot = TRUE, ...)
{
if (is.null(newdata)) {
sd <- object$fitted[object$y == 1]
sdc <- object$fitted[object$y == 0]
}
else {
sd <- predict(object, newdata, type = 'response')[newdata$y ==
1]
sdc <- predict(object, newdata, type = 'response')[newdata$y ==
0]
}
roc.plot(sd, sdc, newplot, ...)
}
hosmerlem <- function (y, yhat, g = 10)
{
cutyhat <- cut(yhat, breaks = quantile(yhat, probs = seq(0,
1, 1/g)), include.lowest = T)
obs <- xtabs(cbind(1 - y, y) ~ cutyhat)
expect <- xtabs(cbind(1 - yhat, yhat) ~ cutyhat)
chisq <- sum((obs - expect)^2/expect)
P <- 1 - pchisq(chisq, g - 2)
c('X^2' = chisq, Df = g - 2, 'P(>Chi)' = P)
}
x <- as.data.frame(t(y))
r <- brglm(x)
summary(r)
rc <- summary(r)$coeff
try(hm <- hosmerlem(y[1,],r$fitted.values),silent=T)
try(hm,silent=T)
bitmap(file='test0.png')
ra <- roc.analysis(r)
dev.off()
te <- array(0,dim=c(2,99))
for (i in 1:99) {
threshold <- i / 100
numcorr1 <- 0
numfaul1 <- 0
numcorr0 <- 0
numfaul0 <- 0
for (j in 1:length(r$fitted.values)) {
if (y[1,j] > 0.99) {
if (r$fitted.values[j] >= threshold) numcorr1 = numcorr1 + 1 else numfaul1 = numfaul1 + 1
} else {
if (r$fitted.values[j] < threshold) numcorr0 = numcorr0 + 1 else numfaul0 = numfaul0 + 1
}
}
te[1,i] <- numfaul1 / (numfaul1 + numcorr1)
te[2,i] <- numfaul0 / (numfaul0 + numcorr0)
}
bitmap(file='test1.png')
op <- par(mfrow=c(2,2))
plot((1:99)/100,te[1,],xlab='Threshold',ylab='Type I error', main='1 - Specificity')
plot((1:99)/100,te[2,],xlab='Threshold',ylab='Type II error', main='1 - Sensitivity')
plot(te[1,],te[2,],xlab='Type I error',ylab='Type II error', main='(1-Sens.) vs (1-Spec.)')
plot((1:99)/100,te[1,]+te[2,],xlab='Threshold',ylab='Sum of Type I & II error', main='(1-Sens.) + (1-Spec.)')
par(op)
dev.off()
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Coefficients of Bias-Reduced Logistic Regression',5,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Variable',header=TRUE)
a<-table.element(a,'Parameter',header=TRUE)
a<-table.element(a,'S.E.',header=TRUE)
a<-table.element(a,'t-stat',header=TRUE)
a<-table.element(a,'2-sided p-value',header=TRUE)
a<-table.row.end(a)
for (i in 1:length(rc[,1])) {
a<-table.row.start(a)
a<-table.element(a,labels(rc)[[1]][i],header=TRUE)
a<-table.element(a,rc[i,1])
a<-table.element(a,rc[i,2])
a<-table.element(a,rc[i,3])
a<-table.element(a,2*(1-pt(abs(rc[i,3]),r$df.residual)))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Summary of Bias-Reduced Logistic Regression',2,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Deviance',1,TRUE)
a<-table.element(a,r$deviance)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Penalized deviance',1,TRUE)
a<-table.element(a,r$penalized.deviance)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Residual Degrees of Freedom',1,TRUE)
a<-table.element(a,r$df.residual)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'ROC Area',1,TRUE)
a<-table.element(a,ra$area)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Hosmer–Lemeshow test',2,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Chi-square',1,TRUE)
phm <- array('NA',dim=3)
for (i in 1:3) { try(phm[i] <- hm[i],silent=T) }
a<-table.element(a,phm[1])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Degrees of Freedom',1,TRUE)
a<-table.element(a,phm[2])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'P(>Chi)',1,TRUE)
a<-table.element(a,phm[3])
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable1.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Fit of Logistic Regression',4,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Index',1,TRUE)
a<-table.element(a,'Actual',1,TRUE)
a<-table.element(a,'Fitted',1,TRUE)
a<-table.element(a,'Error',1,TRUE)
a<-table.row.end(a)
for (i in 1:length(r$fitted.values)) {
a<-table.row.start(a)
a<-table.element(a,i,1,TRUE)
a<-table.element(a,y[1,i])
a<-table.element(a,r$fitted.values[i])
a<-table.element(a,y[1,i]-r$fitted.values[i])
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable2.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Type I & II errors for various threshold values',3,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Threshold',1,TRUE)
a<-table.element(a,'Type I',1,TRUE)
a<-table.element(a,'Type II',1,TRUE)
a<-table.row.end(a)
for (i in 1:99) {
a<-table.row.start(a)
a<-table.element(a,i/100,1,TRUE)
a<-table.element(a,te[1,i])
a<-table.element(a,te[2,i])
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable3.tab')