Welches Mathematische Verfahren zur Bestimmung der "Zufälligkeit"
-
Stati schrieb:
@ Volkard: Offensichtlich haben auch andere schon ihre Diehard ergebnisse dort gepostet. Aber entweder habe ich die Daten im falschen Format oder ich mache irgendwas falsch (einfach ergebnis ins Fenster copy-pasten und absenden) ?!
Ja, einfach pasten und abschicken und...
MIST. Das geht ja gar nicht!??
Man muß da auch noch Name/Titel und Beschribung/Frage ausfüllen. Dann kriegt man eine url wie http://de.pastebin.ca/1552028
Sorry. Andere pastebin-Seiten sind netter und man muß gar nichts weiter ausfüllen.
-
naja, bis zum link auf meinen post bin ich auch gekommen :> Ich poste einfach mal die Ergebnisdatei hier ins forum (auch wenn ichs vermeiden wollte, hier alles voll zu spammen. der Post kann ja nachträglich noch editiert/gelöscht werden). Bisher habe ich nur einen Post auf pastebin gesehen, der eine Auswertung für seine Ergebnisse erhalten hat. Die Ergebnisse waren aber in einem etwas anderen Format als meine. Naja, probiers einfach selbst aus
[code]
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
NOTE: Most of the tests in DIEHARD return a p-value, which
should be uniform on [0,1) if the input file contains truly
independent random bits. Those p-values are obtained by
p=F(X), where F is the assumed distribution of the sample
random variable X---often normal. But that assumed F is just
an asymptotic approximation, for which the fit will be worst
in the tails. Thus you should not be surprised with
occasional p-values near 0 or 1, such as .0012 or .9983.
When a bit stream really FAILS BIG, you will get p's of 0 or
1 to six or more places. By all means, do not, as a
Statistician might, think that a p < .025 or p> .975 means
that the RNG has "failed the test at the .05 level". Such
p's happen among the hundreds that DIEHARD produces, even
with good RNG's. So keep in mind that " p happens".
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
:: This is the BIRTHDAY SPACINGS TEST ::
:: Choose m birthdays in a year of n days. List the spacings ::
:: between the birthdays. If j is the number of values that ::
:: occur more than once in that list, then j is asymptotically ::
:: Poisson distributed with mean m^3/(4n). Experience shows n ::
:: must be quite large, say n>=2^18, for comparing the results ::
:: to the Poisson distribution with that mean. This test uses ::
:: n=2^24 and m=2^9, so that the underlying distribution for j ::
:: is taken to be Poisson with lambda=227/(226)=2. A sample ::
:: of 500 j's is taken, and a chi-square goodness of fit test ::
:: provides a p value. The first test uses bits 1-24 (counting ::
:: from the left) from integers in the specified file. ::
:: Then the file is closed and reopened. Next, bits 2-25 are ::
:: used to provide birthdays, then 3-26 and so on to bits 9-32. ::
:: Each set of bits provides a p-value, and the nine p-values ::
:: provide a sample for a KSTEST. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
BIRTHDAY SPACINGS TEST, M= 512 N=2**24 LAMBDA= 2.0000
Results for c.32
For a sample of size 500: mean
c.32 using bits 1 to 24 2.012
duplicate number number
spacings observed expected
0 65. 67.668
1 130. 135.335
2 138. 135.335
3 92. 90.224
4 54. 45.112
5 18. 18.045
6 to INF 3. 8.282
Chisquare with 6 d.o.f. = 5.52 p-value= .521295
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 2 to 25 1.986
duplicate number number
spacings observed expected
0 60. 67.668
1 141. 135.335
2 139. 135.335
3 94. 90.224
4 44. 45.112
5 16. 18.045
6 to INF 6. 8.282
Chisquare with 6 d.o.f. = 2.25 p-value= .104776
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 3 to 26 1.930
duplicate number number
spacings observed expected
0 73. 67.668
1 140. 135.335
2 136. 135.335
3 83. 90.224
4 42. 45.112
5 20. 18.045
6 to INF 6. 8.282
Chisquare with 6 d.o.f. = 2.22 p-value= .101381
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 4 to 27 1.938
duplicate number number
spacings observed expected
0 64. 67.668
1 148. 135.335
2 134. 135.335
3 93. 90.224
4 43. 45.112
5 9. 18.045
6 to INF 9. 8.282
Chisquare with 6 d.o.f. = 6.18 p-value= .596371
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 5 to 28 1.864
duplicate number number
spacings observed expected
0 82. 67.668
1 140. 135.335
2 129. 135.335
3 83. 90.224
4 50. 45.112
5 12. 18.045
6 to INF 4. 8.282
Chisquare with 6 d.o.f. = 8.84 p-value= .817202
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 6 to 29 1.960
duplicate number number
spacings observed expected
0 80. 67.668
1 141. 135.335
2 112. 135.335
3 97. 90.224
4 38. 45.112
5 22. 18.045
6 to INF 10. 8.282
Chisquare with 6 d.o.f. = 9.36 p-value= .845772
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 7 to 30 1.942
duplicate number number
spacings observed expected
0 77. 67.668
1 134. 135.335
2 130. 135.335
3 86. 90.224
4 51. 45.112
5 17. 18.045
6 to INF 5. 8.282
Chisquare with 6 d.o.f. = 3.84 p-value= .301386
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 8 to 31 2.134
duplicate number number
spacings observed expected
0 58. 67.668
1 134. 135.335
2 117. 135.335
3 100. 90.224
4 59. 45.112
5 29. 18.045
6 to INF 3. 8.282
Chisquare with 6 d.o.f. = 19.23 p-value= .996213
:::::::::::::::::::::::::::::::::::::::::
For a sample of size 500: mean
c.32 using bits 9 to 32 2.034
duplicate number number
spacings observed expected
0 77. 67.668
1 113. 135.335
2 142. 135.335
3 94. 90.224
4 47. 45.112
5 17. 18.045
6 to INF 10. 8.282
Chisquare with 6 d.o.f. = 5.96 p-value= .571804
:::::::::::::::::::::::::::::::::::::::::
The 9 p-values were
.521295 .104776 .101381 .596371 .817202
.845772 .301386 .996213 .571804
A KSTEST for the 9 p-values yields .246421:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: THE OVERLAPPING 5-PERMUTATION TEST ::
:: This is the OPERM5 test. It looks at a sequence of one mill- ::
:: ion 32-bit random integers. Each set of five consecutive ::
:: integers can be in one of 120 states, for the 5! possible or- ::
:: derings of five numbers. Thus the 5th, 6th, 7th,...numbers ::
:: each provide a state. As many thousands of state transitions ::
:: are observed, cumulative counts are made of the number of ::
:: occurences of each state. Then the quadratic form in the ::
:: weak inverse of the 120x120 covariance matrix yields a test ::
:: equivalent to the likelihood ratio test that the 120 cell ::
:: counts came from the specified (asymptotically) normal dis- ::
:: tribution with the specified 120x120 covariance matrix (with ::
:: rank 99). This version uses 1,000,000 integers, twice. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
OPERM5 test for file c.32
For a sample of 1,000,000 consecutive 5-tuples,
chisquare for 99 degrees of freedom= 94.660; p-value= .395239
OPERM5 test for file c.32
For a sample of 1,000,000 consecutive 5-tuples,
chisquare for 99 degrees of freedom= 81.346; p-value= .098490
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
:: This is the BINARY RANK TEST for 31x31 matrices. The leftmost ::
:: 31 bits of 31 random integers from the test sequence are used ::
:: to form a 31x31 binary matrix over the field {0,1}. The rank ::
:: is determined. That rank can be from 0 to 31, but ranks< 28 ::
:: are rare, and their counts are pooled with those for rank 28. ::
:: Ranks are found for 40,000 such random matrices and a chisqua-::
:: re test is performed on counts for ranks 31,30,29 and <=28. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
Binary rank test for c.32
Rank test for 31x31 binary matrices:
rows from leftmost 31 bits of each 32-bit integer
rank observed expected (o-e)^2/e sum
28 206 211.4 .138848 .139
29 5056 5134.0 1.185350 1.324
30 23163 23103.0 .155580 1.480
31 11575 11551.5 .047708 1.527
chisquare= 1.527 for 3 d. of f.; p-value= .432304
--------------------------------------------------------------
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
:: This is the BINARY RANK TEST for 32x32 matrices. A random 32x ::
:: 32 binary matrix is formed, each row a 32-bit random integer. ::
:: The rank is determined. That rank can be from 0 to 32, ranks ::
:: less than 29 are rare, and their counts are pooled with those ::
:: for rank 29. Ranks are found for 40,000 such random matrices ::
:: and a chisquare test is performed on counts for ranks 32,31, ::
:: 30 and <=29. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
Binary rank test for c.32
Rank test for 32x32 binary matrices:
rows from leftmost 32 bits of each 32-bit integer
rank observed expected (o-e)^2/e sum
29 197 211.4 .983261 .983
30 5172 5134.0 .281110 1.264
31 23160 23103.0 .140400 1.405
32 11471 11551.5 .561327 1.966
chisquare= 1.966 for 3 d. of f.; p-value= .500959
--------------------------------------------------------------:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: This is the BINARY RANK TEST for 6x8 matrices. From each of ::
:: six random 32-bit integers from the generator under test, a ::
:: specified byte is chosen, and the resulting six bytes form a ::
:: 6x8 binary matrix whose rank is determined. That rank can be ::
:: from 0 to 6, but ranks 0,1,2,3 are rare; their counts are ::
:: pooled with those for rank 4. Ranks are found for 100,000 ::
:: random matrices, and a chi-square test is performed on ::
:: counts for ranks 6,5 and <=4. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
Binary Rank Test for c.32
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 1 to 8
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 977 944.3 1.132 1.132
r =5 21773 21743.9 .039 1.171
r =6 77250 77311.8 .049 1.221
p=1-exp(-SUM/2)= .45682
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 2 to 9
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 989 944.3 2.116 2.116
r =5 21603 21743.9 .913 3.029
r =6 77408 77311.8 .120 3.149
p=1-exp(-SUM/2)= .79284
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 3 to 10
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 996 944.3 2.830 2.830
r =5 21735 21743.9 .004 2.834
r =6 77269 77311.8 .024 2.858
p=1-exp(-SUM/2)= .76042
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 4 to 11
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 921 944.3 .575 .575
r =5 21911 21743.9 1.284 1.859
r =6 77168 77311.8 .267 2.127
p=1-exp(-SUM/2)= .65469
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 5 to 12
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 963 944.3 .370 .370
r =5 21791 21743.9 .102 .472
r =6 77246 77311.8 .056 .528
p=1-exp(-SUM/2)= .23214
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 6 to 13
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 961 944.3 .295 .295
r =5 21553 21743.9 1.676 1.971
r =6 77486 77311.8 .392 2.364
p=1-exp(-SUM/2)= .69330
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 7 to 14
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 932 944.3 .160 .160
r =5 21485 21743.9 3.083 3.243
r =6 77583 77311.8 .951 4.194
p=1-exp(-SUM/2)= .87719
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 8 to 15
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 926 944.3 .355 .355
r =5 21641 21743.9 .487 .842
r =6 77433 77311.8 .190 1.032
p=1-exp(-SUM/2)= .40299
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 9 to 16
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 969 944.3 .646 .646
r =5 21564 21743.9 1.488 2.134
r =6 77467 77311.8 .312 2.446
p=1-exp(-SUM/2)= .70565
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 10 to 17
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 938 944.3 .042 .042
r =5 21747 21743.9 .000 .042
r =6 77315 77311.8 .000 .043
p=1-exp(-SUM/2)= .02109
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 11 to 18
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 931 944.3 .187 .187
r =5 21877 21743.9 .815 1.002
r =6 77192 77311.8 .186 1.188
p=1-exp(-SUM/2)= .44782
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 12 to 19
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 950 944.3 .034 .034
r =5 22010 21743.9 3.256 3.291
r =6 77040 77311.8 .956 4.246
p=1-exp(-SUM/2)= .88036
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 13 to 20
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 919 944.3 .678 .678
r =5 21844 21743.9 .461 1.139
r =6 77237 77311.8 .072 1.211
p=1-exp(-SUM/2)= .45423
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 14 to 21
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 955 944.3 .121 .121
r =5 21776 21743.9 .047 .169
r =6 77269 77311.8 .024 .192
p=1-exp(-SUM/2)= .09167
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 15 to 22
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 986 944.3 1.841 1.841
r =5 21965 21743.9 2.248 4.090
r =6 77049 77311.8 .893 4.983
p=1-exp(-SUM/2)= .91721
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 16 to 23
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 1019 944.3 5.909 5.909
r =5 21730 21743.9 .009 5.918
r =6 77251 77311.8 .048 5.966
p=1-exp(-SUM/2)= .94935
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 17 to 24
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 977 944.3 1.132 1.132
r =5 21638 21743.9 .516 1.648
r =6 77385 77311.8 .069 1.717
p=1-exp(-SUM/2)= .57628
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 18 to 25
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 940 944.3 .020 .020
r =5 21913 21743.9 1.315 1.335
r =6 77147 77311.8 .351 1.686
p=1-exp(-SUM/2)= .56958
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 19 to 26
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 971 944.3 .755 .755
r =5 21859 21743.9 .609 1.364
r =6 77170 77311.8 .260 1.624
p=1-exp(-SUM/2)= .55608
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 20 to 27
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 903 944.3 1.806 1.806
r =5 21700 21743.9 .089 1.895
r =6 77397 77311.8 .094 1.989
p=1-exp(-SUM/2)= .63008
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 21 to 28
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 881 944.3 4.243 4.243
r =5 21672 21743.9 .238 4.481
r =6 77447 77311.8 .236 4.718
p=1-exp(-SUM/2)= .90547
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 22 to 29
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 930 944.3 .217 .217
r =5 21733 21743.9 .005 .222
r =6 77337 77311.8 .008 .230
p=1-exp(-SUM/2)= .10875
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 23 to 30
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 889 944.3 3.239 3.239
r =5 21414 21743.9 5.005 8.244
r =6 77697 77311.8 1.919 10.163
p=1-exp(-SUM/2)= .99379
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 24 to 31
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 889 944.3 3.239 3.239
r =5 21838 21743.9 .407 3.646
r =6 77273 77311.8 .019 3.665
p=1-exp(-SUM/2)= .84001
Rank of a 6x8 binary matrix,
rows formed from eight bits of the RNG c.32
b-rank test for bits 25 to 32
OBSERVED EXPECTED (O-E)^2/E SUM
r<=4 940 944.3 .020 .020
r =5 21735 21743.9 .004 .023
r =6 77325 77311.8 .002 .025
p=1-exp(-SUM/2)= .01266
TEST SUMMARY, 25 tests on 100,000 random 6x8 matrices
These should be 25 uniform [0,1] random variables:
.456819 .792842 .760422 .654686 .232141
.693303 .877190 .402990 .705650 .021085
.447816 .880356 .454228 .091673 .917211
.949353 .576275 .569576 .556083 .630078
.905465 .108752 .993790 .840013 .012663
brank test summary for c.32
The KS test for those 25 supposed UNI's yields
KS p-value= .790200:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: THE BITSTREAM TEST ::
:: The file under test is viewed as a stream of bits. Call them ::
:: b1,b2,... . Consider an alphabet with two "letters", 0 and 1 ::
:: and think of the stream of bits as a succession of 20-letter ::
:: "words", overlapping. Thus the first word is b1b2...b20, the ::
:: second is b2b3...b21, and so on. The bitstream test counts ::
:: the number of missing 20-letter (20-bit) words in a string of ::
:: 2^21 overlapping 20-letter words. There are 2^20 possible 20 ::
:: letter words. For a truly random string of 2^21+19 bits, the ::
:: number of missing words j should be (very close to) normally ::
:: distributed with mean 141,909 and sigma 428. Thus ::
:: (j-141909)/428 should be a standard normal variate (z score) ::
:: that leads to a uniform [0,1) p value. The test is repeated ::
:: twenty times. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
THE OVERLAPPING 20-tuples BITSTREAM TEST, 20 BITS PER WORD, N words
This test uses N=2^21 and samples the bitstream 20 times.
No. missing words should average 141909. with sigma=428.
---------------------------------------------------------
tst no 1: 141736 missing words, -.40 sigmas from mean, p-value= .34275
tst no 2: 142545 missing words, 1.49 sigmas from mean, p-value= .93126
tst no 3: 141345 missing words, -1.32 sigmas from mean, p-value= .09366
tst no 4: 142620 missing words, 1.66 sigmas from mean, p-value= .95159
tst no 5: 142423 missing words, 1.20 sigmas from mean, p-value= .88496
tst no 6: 142103 missing words, .45 sigmas from mean, p-value= .67455
tst no 7: 141872 missing words, -.09 sigmas from mean, p-value= .46525
tst no 8: 141763 missing words, -.34 sigmas from mean, p-value= .36622
tst no 9: 141631 missing words, -.65 sigmas from mean, p-value= .25775
tst no 10: 141555 missing words, -.83 sigmas from mean, p-value= .20387
tst no 11: 141678 missing words, -.54 sigmas from mean, p-value= .29443
tst no 12: 142300 missing words, .91 sigmas from mean, p-value= .81932
tst no 13: 142486 missing words, 1.35 sigmas from mean, p-value= .91107
tst no 14: 142147 missing words, .56 sigmas from mean, p-value= .71066
tst no 15: 141558 missing words, -.82 sigmas from mean, p-value= .20586
tst no 16: 141478 missing words, -1.01 sigmas from mean, p-value= .15678
tst no 17: 141668 missing words, -.56 sigmas from mean, p-value= .28643
tst no 18: 142606 missing words, 1.63 sigmas from mean, p-value= .94821
tst no 19: 142645 missing words, 1.72 sigmas from mean, p-value= .95718
tst no 20: 141870 missing words, -.09 sigmas from mean, p-value= .46339:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: The tests OPSO, OQSO and DNA ::
:: OPSO means Overlapping-Pairs-Sparse-Occupancy ::
:: The OPSO test considers 2-letter words from an alphabet of ::
:: 1024 letters. Each letter is determined by a specified ten ::
:: bits from a 32-bit integer in the sequence to be tested. OPSO ::
:: generates 2^21 (overlapping) 2-letter words (from 2^21+1 ::
:: "keystrokes") and counts the number of missing words---that ::
:: is 2-letter words which do not appear in the entire sequence. ::
:: That count should be very close to normally distributed with ::
:: mean 141,909, sigma 290. Thus (missingwrds-141909)/290 should ::
:: be a standard normal variable. The OPSO test takes 32 bits at ::
:: a time from the test file and uses a designated set of ten ::
:: consecutive bits. It then restarts the file for the next de- ::
:: signated 10 bits, and so on. ::
:: ::
:: OQSO means Overlapping-Quadruples-Sparse-Occupancy ::
:: The test OQSO is similar, except that it considers 4-letter ::
:: words from an alphabet of 32 letters, each letter determined ::
:: by a designated string of 5 consecutive bits from the test ::
:: file, elements of which are assumed 32-bit random integers. ::
:: The mean number of missing words in a sequence of 2^21 four- ::
:: letter words, (2^21+3 "keystrokes"), is again 141909, with ::
:: sigma = 295. The mean is based on theory; sigma comes from ::
:: extensive simulation. ::
:: ::
:: The DNA test considers an alphabet of 4 letters:: C,G,A,T,::
:: determined by two designated bits in the sequence of random ::
:: integers being tested. It considers 10-letter words, so that ::
:: as in OPSO and OQSO, there are 2^20 possible words, and the ::
:: mean number of missing words from a string of 2^21 (over- ::
:: lapping) 10-letter words (2^21+9 "keystrokes") is 141909. ::
:: The standard deviation sigma=339 was determined as for OQSO ::
:: by simulation. (Sigma for OPSO, 290, is the true value (to ::
:: three places), not determined by simulation. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
OPSO test for generator c.32
Output: No. missing words (mw), equiv normal variate (z), p-value (p)
mw z p
OPSO for c.32 using bits 23 to 32 142099 .654 .7435
OPSO for c.32 using bits 22 to 31 141826 -.287 .3869
OPSO for c.32 using bits 21 to 30 141996 .299 .6175
OPSO for c.32 using bits 20 to 29 141269 -2.208 .0136
OPSO for c.32 using bits 19 to 28 141851 -.201 .4203
OPSO for c.32 using bits 18 to 27 142189 .964 .8326
OPSO for c.32 using bits 17 to 26 141806 -.356 .3608
OPSO for c.32 using bits 16 to 25 142096 .644 .7401
OPSO for c.32 using bits 15 to 24 142205 1.020 .8460
OPSO for c.32 using bits 14 to 23 141912 .009 .5037
OPSO for c.32 using bits 13 to 22 142147 .820 .7938
OPSO for c.32 using bits 12 to 21 142184 .947 .8282
OPSO for c.32 using bits 11 to 20 141510 -1.377 .0843
OPSO for c.32 using bits 10 to 19 142250 1.175 .8799
OPSO for c.32 using bits 9 to 18 141851 -.201 .4203
OPSO for c.32 using bits 8 to 17 141772 -.474 .3179
OPSO for c.32 using bits 7 to 16 142371 1.592 .9443
OPSO for c.32 using bits 6 to 15 141992 .285 .6122
OPSO for c.32 using bits 5 to 14 142156 .851 .8025
OPSO for c.32 using bits 4 to 13 142129 .757 .7756
OPSO for c.32 using bits 3 to 12 142140 .795 .7868
OPSO for c.32 using bits 2 to 11 142236 1.126 .8700
OPSO for c.32 using bits 1 to 10 141826 -.287 .3869
OQSO test for generator c.32
Output: No. missing words (mw), equiv normal variate (z), p-value (p)
mw z p
OQSO for c.32 using bits 28 to 32 141881 -.096 .4617
OQSO for c.32 using bits 27 to 31 141823 -.293 .3849
OQSO for c.32 using bits 26 to 30 141890 -.066 .4739
OQSO for c.32 using bits 25 to 29 142168 .877 .8097
OQSO for c.32 using bits 24 to 28 142251 1.158 .8766
OQSO for c.32 using bits 23 to 27 141990 .273 .6078
OQSO for c.32 using bits 22 to 26 142110 .680 .7518
OQSO for c.32 using bits 21 to 25 142098 .640 .7388
OQSO for c.32 using bits 20 to 24 141948 .131 .5521
OQSO for c.32 using bits 19 to 23 141637 -.923 .1780
OQSO for c.32 using bits 18 to 22 141752 -.533 .2969
OQSO for c.32 using bits 17 to 21 142057 .501 .6917
OQSO for c.32 using bits 16 to 20 141748 -.547 .2922
OQSO for c.32 using bits 15 to 19 142218 1.046 .8523
OQSO for c.32 using bits 14 to 18 141738 -.581 .2807
OQSO for c.32 using bits 13 to 17 141972 .212 .5841
OQSO for c.32 using bits 12 to 16 141853 -.191 .4243
OQSO for c.32 using bits 11 to 15 142054 .490 .6881
OQSO for c.32 using bits 10 to 14 142184 .931 .8241
OQSO for c.32 using bits 9 to 13 141931 .073 .5293
OQSO for c.32 using bits 8 to 12 141688 -.750 .2265
OQSO for c.32 using bits 7 to 11 142082 .585 .7208
OQSO for c.32 using bits 6 to 10 142194 .965 .8327
OQSO for c.32 using bits 5 to 9 141971 .209 .5828
OQSO for c.32 using bits 4 to 8 142129 .745 .7718
OQSO for c.32 using bits 3 to 7 141869 -.137 .4456
OQSO for c.32 using bits 2 to 6 141801 -.367 .3567
OQSO for c.32 using bits 1 to 5 141958 .165 .5655
DNA test for generator c.32
Output: No. missing words (mw), equiv normal variate (z), p-value (p)
mw z p
DNA for c.32 using bits 31 to 32 142426 1.524 .9363
DNA for c.32 using bits 30 to 31 141768 -.417 .3384
DNA for c.32 using bits 29 to 30 141574 -.989 .1613
DNA for c.32 using bits 28 to 29 141495 -1.222 .1108
DNA for c.32 using bits 27 to 28 141451 -1.352 .0882
DNA for c.32 using bits 26 to 27 141648 -.771 .2204
DNA for c.32 using bits 25 to 26 141641 -.792 .2143
DNA for c.32 using bits 24 to 25 141922 .037 .5149
DNA for c.32 using bits 23 to 24 142379 1.385 .9170
DNA for c.32 using bits 22 to 23 141570 -1.001 .1584
DNA for c.32 using bits 21 to 22 142071 .477 .6833
DNA for c.32 using bits 20 to 21 141895 -.042 .4831
DNA for c.32 using bits 19 to 20 141893 -.048 .4808
DNA for c.32 using bits 18 to 19 141876 -.098 .4608
DNA for c.32 using bits 17 to 18 141668 -.712 .2383
DNA for c.32 using bits 16 to 17 142413 1.486 .9313
DNA for c.32 using bits 15 to 16 141887 -.066 .4737
DNA for c.32 using bits 14 to 15 141642 -.789 .2152
DNA for c.32 using bits 13 to 14 142030 .356 .6391
DNA for c.32 using bits 12 to 13 141865 -.131 .4480
DNA for c.32 using bits 11 to 12 141562 -1.025 .1528
DNA for c.32 using bits 10 to 11 142205 .872 .8084
DNA for c.32 using bits 9 to 10 142530 1.831 .9664
DNA for c.32 using bits 8 to 9 141565 -1.016 .1549
DNA for c.32 using bits 7 to 8 142275 1.079 .8596
DNA for c.32 using bits 6 to 7 142225 .931 .8241
DNA for c.32 using bits 5 to 6 142406 1.465 .9286
DNA for c.32 using bits 4 to 5 141986 .226 .5895
DNA for c.32 using bits 3 to 4 142158 .734 .7684
DNA for c.32 using bits 2 to 3 141749 -.473 .3181
DNA for c.32 using bits 1 to 2 142046 .403 .6566:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: This is the COUNT-THE-1's TEST on a stream of bytes. ::
:: Consider the file under test as a stream of bytes (four per ::
:: 32 bit integer). Each byte can contain from 0 to 8 1's, ::
:: with probabilities 1,8,28,56,70,56,28,8,1 over 256. Now let ::
:: the stream of bytes provide a string of overlapping 5-letter ::
:: words, each "letter" taking values A,B,C,D,E. The letters are ::
:: determined by the number of 1's in a byte:: 0,1,or 2 yield A,::
:: 3 yields B, 4 yields C, 5 yields D and 6,7 or 8 yield E. Thus ::
:: we have a monkey at a typewriter hitting five keys with vari- ::
:: ous probabilities (37,56,70,56,37 over 256). There are 5^5 ::
:: possible 5-letter words, and from a string of 256,000 (over- ::
:: lapping) 5-letter words, counts are made on the frequencies ::
:: for each word. The quadratic form in the weak inverse of ::
:: the covariance matrix of the cell counts provides a chisquare ::
:: test:: Q5-Q4, the difference of the naive Pearson sums of ::
:: (OBS-EXP)^2/EXP on counts for 5- and 4-letter cell counts. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
Test results for c.32
Chi-square with 55-54=2500 d.of f. for sample size:2560000
chisquare equiv normal p-value
Results fo COUNT-THE-1's in successive bytes:
byte stream for c.32 2508.77 .124 .549351
byte stream for c.32 2523.70 .335 .631236:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: This is the COUNT-THE-1's TEST for specific bytes. ::
:: Consider the file under test as a stream of 32-bit integers. ::
:: From each integer, a specific byte is chosen , say the left- ::
:: most:: bits 1 to 8. Each byte can contain from 0 to 8 1's, ::
:: with probabilitie 1,8,28,56,70,56,28,8,1 over 256. Now let ::
:: the specified bytes from successive integers provide a string ::
:: of (overlapping) 5-letter words, each "letter" taking values ::
:: A,B,C,D,E. The letters are determined by the number of 1's, ::
:: in that byte:: 0,1,or 2 ---> A, 3 ---> B, 4 ---> C, 5 ---> D,::
:: and 6,7 or 8 ---> E. Thus we have a monkey at a typewriter ::
:: hitting five keys with with various probabilities:: 37,56,70,::
:: 56,37 over 256. There are 5^5 possible 5-letter words, and ::
:: from a string of 256,000 (overlapping) 5-letter words, counts ::
:: are made on the frequencies for each word. The quadratic form ::
:: in the weak inverse of the covariance matrix of the cell ::
:: counts provides a chisquare test:: Q5-Q4, the difference of ::
:: the naive Pearson sums of (OBS-EXP)^2/EXP on counts for 5- ::
:: and 4-letter cell counts. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
Chi-square with 55-54=2500 d.of f. for sample size: 256000
chisquare equiv normal p value
Results for COUNT-THE-1's in specified bytes:
bits 1 to 8 2581.47 1.152 .875380
bits 2 to 9 2580.38 1.137 .872181
bits 3 to 10 2572.75 1.029 .848228
bits 4 to 11 2470.58 -.416 .338688
bits 5 to 12 2457.84 -.596 .275505
bits 6 to 13 2421.89 -1.105 .134664
bits 7 to 14 2420.85 -1.119 .131482
bits 8 to 15 2564.18 .908 .817949
bits 9 to 16 2589.06 1.259 .896069
bits 10 to 17 2515.05 .213 .584267
bits 11 to 18 2508.17 .116 .546007
bits 12 to 19 2505.66 .080 .531910
bits 13 to 20 2573.65 1.042 .851180
bits 14 to 21 2438.95 -.863 .193957
bits 15 to 22 2581.73 1.156 .876122
bits 16 to 23 2468.38 -.447 .327364
bits 17 to 24 2454.58 -.642 .260350
bits 18 to 25 2544.89 .635 .737243
bits 19 to 26 2596.62 1.366 .914103
bits 20 to 27 2493.62 -.090 .464039
bits 21 to 28 2689.84 2.685 .996370
bits 22 to 29 2473.96 -.368 .356319
bits 23 to 30 2522.82 .323 .626564
bits 24 to 31 2518.52 .262 .603320
bits 25 to 32 2612.97 1.598 .944942:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
:: THIS IS A PARKING LOT TEST ::
:: In a square of side 100, randomly "park" a car---a circle of ::
:: radius 1. Then try to park a 2nd, a 3rd, and so on, each ::
:: time parking "by ear". That is, if an attempt to park a car ::
:: causes a crash with one already parked, try again at a new ::
:: random location. (To avoid path problems, consider parking ::
:: helicopters rather than cars.) Each attempt leads to either ::
:: a crash or a success, the latter followed by an increment to ::
:: the list of cars already parked. If we plot n: the number of ::
:: attempts, versus k:: the number successfully parked, we get a::
:: curve that should be similar to those provided by a perfect ::
:: random number generator. Theory for the behavior of such a ::
:: random curve seems beyond reach, and as graphics displays are ::
:: not available for this battery of tests, a simple characteriz ::
:: ation of the random experiment is used: k, the number of cars ::
:: successfully parked after n=12,000 attempts. Simulation shows ::
:: that k should average 3523 with sigma 21.9 and is very close ::
:: to normally distributed. Thus (k-3523)/21.9 should be a st- ::
:: andard normal variable, which, converted to a uniform varia- ::
:: ble, provides input to a KSTEST based on a sample of 10. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
CDPARK: result of ten tests on file c.32
Of 12,000 tries, the average no. of successes
should be 3523 with sigma=21.9
Successes: 3588 z-score: 2.968 p-value: .998501
Successes: 3518 z-score: -.228 p-value: .409702
Successes: 3533 z-score: .457 p-value: .676028
Successes: 3519 z-score: -.183 p-value: .427537
Successes: 3497 z-score: -1.187 p-value: .117571
Successes: 3491 z-score: -1.461 p-value: .071982
Successes: 3486 z-score: -1.689 p-value: .045562
Successes: 3524 z-score: .046 p-value: .518210
Successes: 3521 z-score: -.091 p-value: .463618
Successes: 3561 z-score: 1.735 p-value: .958644square size avg. no. parked sample sigma
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
100. 3523.800 29.799
KSTEST for the above 10: p= .562656:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: THE MINIMUM DISTANCE TEST ::
:: It does this 100 times:: choose n=8000 random points in a ::
:: square of side 10000. Find d, the minimum distance between ::
:: the (n^2-n)/2 pairs of points. If the points are truly inde- ::
:: pendent uniform, then d^2, the square of the minimum distance ::
:: should be (very close to) exponentially distributed with mean ::
:: .995 . Thus 1-exp(-d^2/.995) should be uniform on [0,1) and ::
:: a KSTEST on the resulting 100 values serves as a test of uni- ::
:: formity for random points in the square. Test numbers=0 mod 5 ::
:: are printed but the KSTEST is based on the full set of 100 ::
:: random choices of 8000 points in the 10000x10000 square. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
This is the MINIMUM DISTANCE test
for random integers in the file c.32
Sample no. d^2 avg equiv uni
5 .9076 .7767 .598357
10 .2197 .8334 .198102
15 2.4735 .8691 .916753
20 .5738 .8191 .438246
25 .7117 .8448 .510933
30 1.9512 .8303 .859277
35 1.7969 .9237 .835685
40 3.2534 .9461 .961985
45 2.4814 1.0306 .917409
50 1.7080 1.0913 .820327
55 .3498 1.0700 .296418
60 .0876 1.0648 .084290
65 .8642 1.0655 .580449
70 .7705 1.0181 .539028
75 .9252 .9983 .605389
80 1.9128 1.0123 .853745
85 2.0366 1.0179 .870858
90 3.1117 1.0746 .956166
95 .4765 1.0527 .380520
100 .2584 1.0307 .228748
MINIMUM DISTANCE TEST for c.32
Result of KS test on 20 transformed mindist^2's:
p-value= .293281:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: THE 3DSPHERES TEST ::
:: Choose 4000 random points in a cube of edge 1000. At each ::
:: point, center a sphere large enough to reach the next closest ::
:: point. Then the volume of the smallest such sphere is (very ::
:: close to) exponentially distributed with mean 120pi/3. Thus ::
:: the radius cubed is exponential with mean 30. (The mean is ::
:: obtained by extensive simulation). The 3DSPHERES test gener- ::
:: ates 4000 such spheres 20 times. Each min radius cubed leads ::
:: to a uniform variable by means of 1-exp(-r^3/30.), then a ::
:: KSTEST is done on the 20 p-values. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
The 3DSPHERES test for file c.32
sample no: 1 r^3= 13.073 p-value= .35323
sample no: 2 r^3= 9.690 p-value= .27602
sample no: 3 r^3= 18.474 p-value= .45979
sample no: 4 r^3= 31.497 p-value= .65002
sample no: 5 r^3= 3.695 p-value= .11587
sample no: 6 r^3= 91.368 p-value= .95243
sample no: 7 r^3= 33.229 p-value= .66966
sample no: 8 r^3= 3.627 p-value= .11387
sample no: 9 r^3= 24.570 p-value= .55912
sample no: 10 r^3= 11.718 p-value= .32334
sample no: 11 r^3= 19.329 p-value= .47497
sample no: 12 r^3= 165.088 p-value= .99593
sample no: 13 r^3= 19.323 p-value= .47486
sample no: 14 r^3= 7.099 p-value= .21073
sample no: 15 r^3= 35.158 p-value= .69023
sample no: 16 r^3= 2.410 p-value= .07719
sample no: 17 r^3= 6.384 p-value= .19168
sample no: 18 r^3= 28.604 p-value= .61459
sample no: 19 r^3= 55.092 p-value= .84061
sample no: 20 r^3= 65.348 p-value= .88676
A KS test is applied to those 20 p-values.
---------------------------------------------------------
3DSPHERES test for file c.32 p-value= .031460:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$
:: This is the SQEEZE test ::
:: Random integers are floated to get uniforms on [0,1). Start- ::
:: ing with k=2^31=2147483647, the test finds j, the number of ::
:: iterations necessary to reduce k to 1, using the reduction ::
:: k=ceiling(k*U), with U provided by floating integers from ::
:: the file being tested. Such j's are found 100,000 times, ::
:: then counts for the number of times j was <=6,7,...,47,>=48 ::
:: are used to provide a chi-square test for cell frequencies. ::
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
RESULTS OF SQUEEZE TEST FOR c.32
Table of standardized frequency counts
( (obs-exp)/sqrt(exp) )^2
for j taking values <=6,7,8,...,47,>=48:
-.1 -1.2 .6 .0 -1.1 -.5
-.2 -.5 .2 .6 -.2 .3
-.4 -2.0 1.3 -.4 -.1 -.1
.8 1.1 -1.2 .4 -.3 -1.7
.7 2.6 -1.0 -.3 .2 -.7
1.6 1.4 -.9 1.1 1.3 .8
-1.4 -1.7 -.8 -.1 -1.3 -1.0
-.1
Chi-square with 42 degrees of freedom: 42.955
z-score= .104 p-value= .569931
______________________________________________________________
-
Stati schrieb:
When a bit stream really FAILS BIG, you will get p's of 0 or 1 to six or more places. By all means, do not, as a Statistician might, think that a p < .025 or p> .975 means that the RNG has "failed the test at the .05 level". Such p's happen among the hundreds that DIEHARD produces, even with good RNG's. So keep in mind that " p happens".
Das ist doch ok.
Da schaust Du die p-Werte an und siehst, daß bei Deinen Sachen kein fetter Versager ist.Der Test sagt Dir nicht
- Ist toll zufällig
oder
- Ist nicht toll zufällig
, sondern ist nur geeignet, die Zufälligkeit verschiederner Zufallsquellen zu vergleichen, wenn dabei Quellen sind, die abkacken. So kackt zum Beispiel std::rand()%256 bei ein paar Test ab, während ein Multiply-With-Carry%256 bei keinem Test abkackt.Ok, ich habe mich wohl fasch erinnert, und es gab keine Zusammenfassung.
-
Naja, das sollte auch erstmal reichen. Mein algorithmus war auch eher als kleine Übung zu Bitwise-Operatoren für mich gedacht. Ich glaube die Ansprüche, die ich hier stellen, sind eh zu hoch
-
Entropiker schrieb:
Nennt sich das nicht Entropie?
Wieso nicht! Allerdings wie willst Du die Entropy für eine bliebige Menge der möglicher Ausgabewerte bestimmen?
http://en.wikipedia.org/wiki/Information_entropy;fricky schrieb:
Prof84 schrieb:
http://de.wikipedia.org/wiki/Statistische_Signifikanz
http://de.wikipedia.org/wiki/F-Testthema verfehlt, setzen, 6!
hier: http://en.wikipedia.org/wiki/Randomness_tests
Bestreite ich! Hast Du keine Signifikanz, hast Du einen positiven Ramdonness Test. Oder?!
-
Entropie? Ich höre immer "Entropie". Die hat doch nichts mit Zufälligkeit zu tun. Aber auch gar nichts.
Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.
-
volkard schrieb:
Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.Das ist nett. Kannst du bitte einen Plot der Zufälligkeit aller 10-Stelligen binären Zahlen machen?
-
Prof84 schrieb:
Bestreite ich! Hast Du keine Signifikanz, hast Du einen positiven Ramdonness Test. Oder?!
das sind doch verschiedene dinge. bei dieser signifikanz geht's um echte daten, irgendwelche messwerte oder sowas, die ausreisser haben und die man rausfiltern will (steht z.b. in deinem link). ein zufallsgenerator soll einfach nur möglichst weisses rauschen abgeben. um das zu testen, musste jedes bit einbeziehen, daher sind alle werte gleich signifikant.
-
nett3r schrieb:
volkard schrieb:
Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.Das ist nett. Kannst du bitte einen Plot der Zufälligkeit aller 10-Stelligen binären Zahlen machen?
Es kommt natürlich auch auf die Reihenfolge an, nicht nur auf die Zahlen selbst.
-
Jester schrieb:
nett3r schrieb:
volkard schrieb:
Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.Das ist nett. Kannst du bitte einen Plot der Zufälligkeit aller 10-Stelligen binären Zahlen machen?
Es kommt natürlich auch auf die Reihenfolge an, nicht nur auf die Zahlen selbst.
ja, die reihenfolge der bits in der 10-stelligen zahl
-
volkard schrieb:
Entropie? Ich höre immer "Entropie". Die hat doch nichts mit Zufälligkeit zu tun. Aber auch gar nichts.
Irgendwie habe ich hier ein starkes Dejavû-Gefühl:
http://en.wikipedia.org/wiki/Differential_entropy
Ich hatte vor Kurzem eine Wiki-Seite gefunden, die illustriert, dass die max. mögliche Entropie von -1.41 genau die der Standardnormalverteilung entspricht.
Aber ich finde i.M. die Seite nicht wieder.volkard schrieb:
Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.Die Informationstheologen schlagen wieder zu
:
Welche willst Du überhaupt ansetzen? - einfache TM, Ndetermistische TM, Multiband TM oder DMTM.
Wie soll der Septupel dazu aussehen, so dass Du dazu Induktionansatz und -schritt führen kannst?
http://de.wikipedia.org/wiki/Turingmaschine => formale DefinitionSollte "echte" Zufälligkeit nicht zeigen, dass es keine reflexive-transitiven Hüllen-Operatoren für die Transferfunktion δ(p, λ) gibt?
http://de.wikipedia.org/wiki/Hüllenoperator
http://de.wikipedia.org/wiki/Transitive_HülleWäre "echte" Zufälligkeit, nicht der Beweis einer Nichtexistenz dieser Turing-Maschine?
Na, dann mache Deinen Prof mal Ehre und viel Glück! ...
;fricky schrieb:
Prof84 schrieb:
Bestreite ich! Hast Du keine Signifikanz, hast Du einen positiven Ramdonness Test. Oder?!
das sind doch verschiedene dinge. bei dieser signifikanz geht's um echte daten, irgendwelche messwerte oder sowas, die ausreisser haben und die man rausfiltern will (steht z.b. in deinem link). ein zufallsgenerator soll einfach nur möglichst weisses rauschen abgeben. um das zu testen, musste jedes bit einbeziehen, daher sind alle werte gleich signifikant.
Verstehe ich nicht. Ob zufallsgeneriert oder nicht, Messwert ist Messwert.
-
Prof84 schrieb:
Die Informationstheologen schlagen wieder zu
:
Welche willst Du überhaupt ansetzen? - einfache TM, Ndetermistische TM, Multiband TM oder DMTM.Nichtdeterministische wäre natürlich quatsch, da kann man jede Zahlenfolge sehr kurz erzeugen: Immer ne Zahl raten und die Ausgeben -- Nichtdeterminismus macht's möglich.
Wäre "echte" Zufälligkeit, nicht der Beweis einer Nichtexistenz dieser Turing-Maschine?
Es geht um endliche Zahlenfolgen. Diese lassen sich glücklicherweise immer durch eine TM erzeugen.
-
Prof84 schrieb:
volkard schrieb:
Entropie? Ich höre immer "Entropie". Die hat doch nichts mit Zufälligkeit zu tun. Aber auch gar nichts.
Irgendwie habe ich hier ein starkes Dejavû-Gefühl:
http://en.wikipedia.org/wiki/Differential_entropy
Ich hatte vor Kurzem eine Wiki-Seite gefunden, die illustriert, dass die max. mögliche Entropie von -1.41 genau die der Standardnormalverteilung entspricht.
Aber ich finde i.M. die Seite nicht wieder.Mach's einfacher. Welche Entropie hat Π?
Was hat diese maximale Entropie mit der kaum vorhandenen Zufälligkeit dieser Ziffern zu tun?Prof84 schrieb:
volkard schrieb:
Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.Die Informationstheologen schlagen wieder zu
:
Welche willst Du überhaupt ansetzen? - einfache TM, Ndetermistische TM, Multiband TM oder DMTM.Ist doch egal. Nimm Java. Ein Programm, das eine Million Nachkommastellen von Π ausgibt, ist ein Bißchen größer, als ein Programm, das eine Million Nullen anzeigt.
Prof84 schrieb:
Wie soll der Septupel dazu aussehen, so dass Du dazu Induktionansatz und -schritt führen kannst?
http://de.wikipedia.org/wiki/Turingmaschine => formale DefinitionNimm Java.
Prof84 schrieb:
Sollte "echte" Zufälligkeit nicht zeigen, dass es keine reflexive-transitiven Hüllen-Operatoren für die Transferfunktion δ(p, λ) gibt?
http://de.wikipedia.org/wiki/Hüllenoperator
http://de.wikipedia.org/wiki/Transitive_HülleBeachte: Ein Automat, der unendlich viele Primzahlen schreibt, terminiert auch nicht.
Prof84 schrieb:
Wäre "echte" Zufälligkeit, nicht der Beweis einer Nichtexistenz dieser Turing-Maschine?
Für jede endliche Folge gibt's auch Automaten. Für unendliche Folgen haben wir das Halteproblem und können uns viel Mühe sparen, fürchte ich.
-
Jester schrieb:
Nichtdeterministische wäre natürlich quatsch, da kann man jede Zahlenfolge sehr kurz erzeugen: Immer ne Zahl raten und die Ausgeben -- Nichtdeterminismus macht's möglich.
Ich behaupte: Jede TM ist Quatsch für echte Zufallswerte! Jeder maschinengenerierter Zufallswert hat eine Signifikanz.
Z.B.:
http://www.c-plusplus.net/forum/viewtopic-var-t-is-172876.html
Was in Wirklichkeit hier nur gemacht wurde ist eine Konkatenation von Zufallswerten, um nicht liniare Attraktoren zu simulieren.Und deshalb brauchen wir immer eine schöne heiße Tasse Tee damit der unendliche Unwahrscheinlichkeitsdrive funktioniert ...
Jester schrieb:
Es geht um endliche Zahlenfolgen. Diese lassen sich glücklicherweise immer durch eine TM erzeugen.
Und was hat das mit den Thema Zufall zu tunen?! Es wurde sogar gezeigt, das die TM für Quantenomputering gilt. Deshalb haben wir aber immer noch keine Algobeschreibung für den Zufall.
volkard schrieb:
Mach's einfacher. Welche Entropie hat Π?
Was hat diese maximale Entropie mit der kaum vorhandenen Zufälligkeit dieser Ziffern zu tun?Eine Niedrige?!
http://de.wikipedia.org/wiki/Bailey-Borwein-Plouffe-Formel
Besser , ich schiebe! ...volkard schrieb:
Ist doch egal. Nimm Java. Ein Programm, das eine Million Nachkommastellen von Π ausgibt, ist ein Bißchen größer, als ein Programm, das eine Million Nullen anzeigt.
Ägypten?!
volkard schrieb:
Nimm Java
Rembrandt?!
Prof84 schrieb:
Beachte: Ein Automat, der unendlich viele Primzahlen schreibt, terminiert auch nicht.
Ich diskutiere hier nicht die Berechbarkeit, sondern wie die Übergangsfunktionen formuliert werden könnten , um eine TM als echten Zufallsgenerator zu verkaufen!
volkard schrieb:
Für jede endliche Folge gibt's auch Automaten. Für unendliche Folgen haben wir das Halteproblem und können uns viel Mühe sparen, fürchte ich.
Ja, logisch! Wenn Du die indiskrete Übergangsfunktion durch ein endloses Band ersetzt ...
So, no TMs!
QED.
-
Prof84 schrieb:
Jester schrieb:
Nichtdeterministische wäre natürlich quatsch, da kann man jede Zahlenfolge sehr kurz erzeugen: Immer ne Zahl raten und die Ausgeben -- Nichtdeterminismus macht's möglich.
Ich behaupte: Jede TM ist Quatsch für echte Zufallswerte! Jeder maschinengenerierter Zufallswert hat eine Signifikanz.
Darum geht es ja auch garnicht. Wir wollen die Turingmaschine nicht, damit sie uns die Zahlen erzeugt, wir wollen sie nur um zu schauen wie groß sie ist. Im Extremfall speichert man einfach die Zahlenfolge und gibt sie aus, bei echt zufälligen Folgen bleibt einem kaum was anderes übrig. Wenn also die TM ähnlich groß wird, wie die, die einfach die Liste speichert und ausgibt, dann sind die Daten recht zufällig, ist die TM dagegen kurz beschreibbar, dann liegt der Folge eine hohe Systematik zugrunde und sie ist eben nicht sehr zufällig.
Jester schrieb:
Es geht um endliche Zahlenfolgen. Diese lassen sich glücklicherweise immer durch eine TM erzeugen.
Und was hat das mit den Thema Zufall zu tunen?! Es wurde sogar gezeigt, das die TM für Quantenomputering gilt. Deshalb haben wir aber immer noch keine Algobeschreibung für den Zufall.
Ich weiß nicht wovon Du da redest. Was bedeutet "TM gilt für xyz"? Was bedeutet das im Speziellen für xyz=Quantencomput(er)ing? Wer möchte denn Zufall algorithmisch beschreiben? Keiner, oder?
Mit dem Thema haben endliche Zahlenfolgen folgendes zu tun: Ausgangspunkt war, wir haben eine *endliche Zahlenfolge* und wollen wissen ob die Zahlenfolge zufällig ist.
Wir behaupten doch nur, dass eine Folge von Zahlen zufälliger ist, wenn es schwieriger ist sie algorithmisch zu beschreiben. Wenn es quasi unmöglich ist sie algorithmisch zu beschreiben, dann ist die Folge eben zufällig.
Prof84 schrieb:
Ich diskutiere hier nicht die Berechbarkeit, sondern wie die Übergangsfunktionen formuliert werden könnten , um eine TM als echten Zufallsgenerator zu verkaufen!
Das ist aber reines Marketing, jeder der Ahnung hat wird Dir sagen, dass eine deterministische TM keinen Zufall produzieren kann. Deswegen beschäftigen wir uns ja auch gerade mit einer ganz anderen Thematik. Aber Du findest bestimmt auch Leute, denen Du eine TM als echten Zufallsgenerator verkaufen kannst -- nur halt vielleicht nicht hier.
-
@Jester:
Sag mal, merkst Du überhaupt noch was? Lese mal den Thread von Vorne, bevor Du hier irgendwie einsteigst.
-
Prof84 schrieb:
@Jester:
Sag mal, merkst Du überhaupt noch was? Lese mal den Thread von Vorne, bevor Du hier irgendwie einsteigst.Er begründet seine Sachen, redet vernünftig, bemüht sich um Verständlichkeit. Ich lese Jesters Beiträge gerne.
-
Prof84 schrieb:
@Jester:
Sag mal, merkst Du überhaupt noch was? Lese mal den Thread von Vorne, bevor Du hier irgendwie einsteigst.Sorry, das hilft mir nun auch nicht weiter. Meiner Meinung nach bin ich direkt am Thema dran. Wenn Du anderer Meinung bist, würde es helfen, wenn Du auch hinweist an welcher Stelle und warum das der Fall ist.