Welches Mathematische Verfahren zur Bestimmung der "Zufälligkeit"



  • naja, bis zum link auf meinen post bin ich auch gekommen :> Ich poste einfach mal die Ergebnisdatei hier ins forum (auch wenn ichs vermeiden wollte, hier alles voll zu spammen. der Post kann ja nachträglich noch editiert/gelöscht werden). Bisher habe ich nur einen Post auf pastebin gesehen, der eine Auswertung für seine Ergebnisse erhalten hat. Die Ergebnisse waren aber in einem etwas anderen Format als meine. Naja, probiers einfach selbst aus 😃

    [code]
    NOTE: Most of the tests in DIEHARD return a p-value, which
    should be uniform on [0,1) if the input file contains truly
    independent random bits. Those p-values are obtained by
    p=F(X), where F is the assumed distribution of the sample
    random variable X---often normal. But that assumed F is just
    an asymptotic approximation, for which the fit will be worst
    in the tails. Thus you should not be surprised with
    occasional p-values near 0 or 1, such as .0012 or .9983.
    When a bit stream really FAILS BIG, you will get p's of 0 or
    1 to six or more places. By all means, do not, as a
    Statistician might, think that a p < .025 or p> .975 means
    that the RNG has "failed the test at the .05 level". Such
    p's happen among the hundreds that DIEHARD produces, even
    with good RNG's. So keep in mind that " p happens".
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: This is the BIRTHDAY SPACINGS TEST ::
    :: Choose m birthdays in a year of n days. List the spacings ::
    :: between the birthdays. If j is the number of values that ::
    :: occur more than once in that list, then j is asymptotically ::
    :: Poisson distributed with mean m^3/(4n). Experience shows n ::
    :: must be quite large, say n>=2^18, for comparing the results ::
    :: to the Poisson distribution with that mean. This test uses ::
    :: n=2^24 and m=2^9, so that the underlying distribution for j ::
    :: is taken to be Poisson with lambda=227/(226)=2. A sample ::
    :: of 500 j's is taken, and a chi-square goodness of fit test ::
    :: provides a p value. The first test uses bits 1-24 (counting ::
    :: from the left) from integers in the specified file. ::
    :: Then the file is closed and reopened. Next, bits 2-25 are ::
    :: used to provide birthdays, then 3-26 and so on to bits 9-32. ::
    :: Each set of bits provides a p-value, and the nine p-values ::
    :: provide a sample for a KSTEST. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    BIRTHDAY SPACINGS TEST, M= 512 N=2**24 LAMBDA= 2.0000
    Results for c.32
    For a sample of size 500: mean
    c.32 using bits 1 to 24 2.012
    duplicate number number
    spacings observed expected
    0 65. 67.668
    1 130. 135.335
    2 138. 135.335
    3 92. 90.224
    4 54. 45.112
    5 18. 18.045
    6 to INF 3. 8.282
    Chisquare with 6 d.o.f. = 5.52 p-value= .521295
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 2 to 25 1.986
    duplicate number number
    spacings observed expected
    0 60. 67.668
    1 141. 135.335
    2 139. 135.335
    3 94. 90.224
    4 44. 45.112
    5 16. 18.045
    6 to INF 6. 8.282
    Chisquare with 6 d.o.f. = 2.25 p-value= .104776
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 3 to 26 1.930
    duplicate number number
    spacings observed expected
    0 73. 67.668
    1 140. 135.335
    2 136. 135.335
    3 83. 90.224
    4 42. 45.112
    5 20. 18.045
    6 to INF 6. 8.282
    Chisquare with 6 d.o.f. = 2.22 p-value= .101381
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 4 to 27 1.938
    duplicate number number
    spacings observed expected
    0 64. 67.668
    1 148. 135.335
    2 134. 135.335
    3 93. 90.224
    4 43. 45.112
    5 9. 18.045
    6 to INF 9. 8.282
    Chisquare with 6 d.o.f. = 6.18 p-value= .596371
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 5 to 28 1.864
    duplicate number number
    spacings observed expected
    0 82. 67.668
    1 140. 135.335
    2 129. 135.335
    3 83. 90.224
    4 50. 45.112
    5 12. 18.045
    6 to INF 4. 8.282
    Chisquare with 6 d.o.f. = 8.84 p-value= .817202
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 6 to 29 1.960
    duplicate number number
    spacings observed expected
    0 80. 67.668
    1 141. 135.335
    2 112. 135.335
    3 97. 90.224
    4 38. 45.112
    5 22. 18.045
    6 to INF 10. 8.282
    Chisquare with 6 d.o.f. = 9.36 p-value= .845772
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 7 to 30 1.942
    duplicate number number
    spacings observed expected
    0 77. 67.668
    1 134. 135.335
    2 130. 135.335
    3 86. 90.224
    4 51. 45.112
    5 17. 18.045
    6 to INF 5. 8.282
    Chisquare with 6 d.o.f. = 3.84 p-value= .301386
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 8 to 31 2.134
    duplicate number number
    spacings observed expected
    0 58. 67.668
    1 134. 135.335
    2 117. 135.335
    3 100. 90.224
    4 59. 45.112
    5 29. 18.045
    6 to INF 3. 8.282
    Chisquare with 6 d.o.f. = 19.23 p-value= .996213
    :::::::::::::::::::::::::::::::::::::::::
    For a sample of size 500: mean
    c.32 using bits 9 to 32 2.034
    duplicate number number
    spacings observed expected
    0 77. 67.668
    1 113. 135.335
    2 142. 135.335
    3 94. 90.224
    4 47. 45.112
    5 17. 18.045
    6 to INF 10. 8.282
    Chisquare with 6 d.o.f. = 5.96 p-value= .571804
    :::::::::::::::::::::::::::::::::::::::::
    The 9 p-values were
    .521295 .104776 .101381 .596371 .817202
    .845772 .301386 .996213 .571804
    A KSTEST for the 9 p-values yields .246421

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: THE OVERLAPPING 5-PERMUTATION TEST ::
    :: This is the OPERM5 test. It looks at a sequence of one mill- ::
    :: ion 32-bit random integers. Each set of five consecutive ::
    :: integers can be in one of 120 states, for the 5! possible or- ::
    :: derings of five numbers. Thus the 5th, 6th, 7th,...numbers ::
    :: each provide a state. As many thousands of state transitions ::
    :: are observed, cumulative counts are made of the number of ::
    :: occurences of each state. Then the quadratic form in the ::
    :: weak inverse of the 120x120 covariance matrix yields a test ::
    :: equivalent to the likelihood ratio test that the 120 cell ::
    :: counts came from the specified (asymptotically) normal dis- ::
    :: tribution with the specified 120x120 covariance matrix (with ::
    :: rank 99). This version uses 1,000,000 integers, twice. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    OPERM5 test for file c.32
    For a sample of 1,000,000 consecutive 5-tuples,
    chisquare for 99 degrees of freedom= 94.660; p-value= .395239
    OPERM5 test for file c.32
    For a sample of 1,000,000 consecutive 5-tuples,
    chisquare for 99 degrees of freedom= 81.346; p-value= .098490
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: This is the BINARY RANK TEST for 31x31 matrices. The leftmost ::
    :: 31 bits of 31 random integers from the test sequence are used ::
    :: to form a 31x31 binary matrix over the field {0,1}. The rank ::
    :: is determined. That rank can be from 0 to 31, but ranks< 28 ::
    :: are rare, and their counts are pooled with those for rank 28. ::
    :: Ranks are found for 40,000 such random matrices and a chisqua-::
    :: re test is performed on counts for ranks 31,30,29 and <=28. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    Binary rank test for c.32
    Rank test for 31x31 binary matrices:
    rows from leftmost 31 bits of each 32-bit integer
    rank observed expected (o-e)^2/e sum
    28 206 211.4 .138848 .139
    29 5056 5134.0 1.185350 1.324
    30 23163 23103.0 .155580 1.480
    31 11575 11551.5 .047708 1.527
    chisquare= 1.527 for 3 d. of f.; p-value= .432304
    --------------------------------------------------------------
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: This is the BINARY RANK TEST for 32x32 matrices. A random 32x ::
    :: 32 binary matrix is formed, each row a 32-bit random integer. ::
    :: The rank is determined. That rank can be from 0 to 32, ranks ::
    :: less than 29 are rare, and their counts are pooled with those ::
    :: for rank 29. Ranks are found for 40,000 such random matrices ::
    :: and a chisquare test is performed on counts for ranks 32,31, ::
    :: 30 and <=29. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    Binary rank test for c.32
    Rank test for 32x32 binary matrices:
    rows from leftmost 32 bits of each 32-bit integer
    rank observed expected (o-e)^2/e sum
    29 197 211.4 .983261 .983
    30 5172 5134.0 .281110 1.264
    31 23160 23103.0 .140400 1.405
    32 11471 11551.5 .561327 1.966
    chisquare= 1.966 for 3 d. of f.; p-value= .500959
    --------------------------------------------------------------

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: This is the BINARY RANK TEST for 6x8 matrices. From each of ::
    :: six random 32-bit integers from the generator under test, a ::
    :: specified byte is chosen, and the resulting six bytes form a ::
    :: 6x8 binary matrix whose rank is determined. That rank can be ::
    :: from 0 to 6, but ranks 0,1,2,3 are rare; their counts are ::
    :: pooled with those for rank 4. Ranks are found for 100,000 ::
    :: random matrices, and a chi-square test is performed on ::
    :: counts for ranks 6,5 and <=4. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    Binary Rank Test for c.32
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 1 to 8
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 977 944.3 1.132 1.132
    r =5 21773 21743.9 .039 1.171
    r =6 77250 77311.8 .049 1.221
    p=1-exp(-SUM/2)= .45682
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 2 to 9
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 989 944.3 2.116 2.116
    r =5 21603 21743.9 .913 3.029
    r =6 77408 77311.8 .120 3.149
    p=1-exp(-SUM/2)= .79284
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 3 to 10
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 996 944.3 2.830 2.830
    r =5 21735 21743.9 .004 2.834
    r =6 77269 77311.8 .024 2.858
    p=1-exp(-SUM/2)= .76042
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 4 to 11
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 921 944.3 .575 .575
    r =5 21911 21743.9 1.284 1.859
    r =6 77168 77311.8 .267 2.127
    p=1-exp(-SUM/2)= .65469
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 5 to 12
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 963 944.3 .370 .370
    r =5 21791 21743.9 .102 .472
    r =6 77246 77311.8 .056 .528
    p=1-exp(-SUM/2)= .23214
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 6 to 13
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 961 944.3 .295 .295
    r =5 21553 21743.9 1.676 1.971
    r =6 77486 77311.8 .392 2.364
    p=1-exp(-SUM/2)= .69330
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 7 to 14
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 932 944.3 .160 .160
    r =5 21485 21743.9 3.083 3.243
    r =6 77583 77311.8 .951 4.194
    p=1-exp(-SUM/2)= .87719
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 8 to 15
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 926 944.3 .355 .355
    r =5 21641 21743.9 .487 .842
    r =6 77433 77311.8 .190 1.032
    p=1-exp(-SUM/2)= .40299
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 9 to 16
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 969 944.3 .646 .646
    r =5 21564 21743.9 1.488 2.134
    r =6 77467 77311.8 .312 2.446
    p=1-exp(-SUM/2)= .70565
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 10 to 17
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 938 944.3 .042 .042
    r =5 21747 21743.9 .000 .042
    r =6 77315 77311.8 .000 .043
    p=1-exp(-SUM/2)= .02109
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 11 to 18
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 931 944.3 .187 .187
    r =5 21877 21743.9 .815 1.002
    r =6 77192 77311.8 .186 1.188
    p=1-exp(-SUM/2)= .44782
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 12 to 19
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 950 944.3 .034 .034
    r =5 22010 21743.9 3.256 3.291
    r =6 77040 77311.8 .956 4.246
    p=1-exp(-SUM/2)= .88036
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 13 to 20
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 919 944.3 .678 .678
    r =5 21844 21743.9 .461 1.139
    r =6 77237 77311.8 .072 1.211
    p=1-exp(-SUM/2)= .45423
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 14 to 21
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 955 944.3 .121 .121
    r =5 21776 21743.9 .047 .169
    r =6 77269 77311.8 .024 .192
    p=1-exp(-SUM/2)= .09167
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 15 to 22
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 986 944.3 1.841 1.841
    r =5 21965 21743.9 2.248 4.090
    r =6 77049 77311.8 .893 4.983
    p=1-exp(-SUM/2)= .91721
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 16 to 23
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 1019 944.3 5.909 5.909
    r =5 21730 21743.9 .009 5.918
    r =6 77251 77311.8 .048 5.966
    p=1-exp(-SUM/2)= .94935
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 17 to 24
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 977 944.3 1.132 1.132
    r =5 21638 21743.9 .516 1.648
    r =6 77385 77311.8 .069 1.717
    p=1-exp(-SUM/2)= .57628
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 18 to 25
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 940 944.3 .020 .020
    r =5 21913 21743.9 1.315 1.335
    r =6 77147 77311.8 .351 1.686
    p=1-exp(-SUM/2)= .56958
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 19 to 26
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 971 944.3 .755 .755
    r =5 21859 21743.9 .609 1.364
    r =6 77170 77311.8 .260 1.624
    p=1-exp(-SUM/2)= .55608
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 20 to 27
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 903 944.3 1.806 1.806
    r =5 21700 21743.9 .089 1.895
    r =6 77397 77311.8 .094 1.989
    p=1-exp(-SUM/2)= .63008
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 21 to 28
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 881 944.3 4.243 4.243
    r =5 21672 21743.9 .238 4.481
    r =6 77447 77311.8 .236 4.718
    p=1-exp(-SUM/2)= .90547
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 22 to 29
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 930 944.3 .217 .217
    r =5 21733 21743.9 .005 .222
    r =6 77337 77311.8 .008 .230
    p=1-exp(-SUM/2)= .10875
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 23 to 30
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 889 944.3 3.239 3.239
    r =5 21414 21743.9 5.005 8.244
    r =6 77697 77311.8 1.919 10.163
    p=1-exp(-SUM/2)= .99379
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 24 to 31
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 889 944.3 3.239 3.239
    r =5 21838 21743.9 .407 3.646
    r =6 77273 77311.8 .019 3.665
    p=1-exp(-SUM/2)= .84001
    Rank of a 6x8 binary matrix,
    rows formed from eight bits of the RNG c.32
    b-rank test for bits 25 to 32
    OBSERVED EXPECTED (O-E)^2/E SUM
    r<=4 940 944.3 .020 .020
    r =5 21735 21743.9 .004 .023
    r =6 77325 77311.8 .002 .025
    p=1-exp(-SUM/2)= .01266
    TEST SUMMARY, 25 tests on 100,000 random 6x8 matrices
    These should be 25 uniform [0,1] random variables:
    .456819 .792842 .760422 .654686 .232141
    .693303 .877190 .402990 .705650 .021085
    .447816 .880356 .454228 .091673 .917211
    .949353 .576275 .569576 .556083 .630078
    .905465 .108752 .993790 .840013 .012663
    brank test summary for c.32
    The KS test for those 25 supposed UNI's yields
    KS p-value= .790200

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: THE BITSTREAM TEST ::
    :: The file under test is viewed as a stream of bits. Call them ::
    :: b1,b2,... . Consider an alphabet with two "letters", 0 and 1 ::
    :: and think of the stream of bits as a succession of 20-letter ::
    :: "words", overlapping. Thus the first word is b1b2...b20, the ::
    :: second is b2b3...b21, and so on. The bitstream test counts ::
    :: the number of missing 20-letter (20-bit) words in a string of ::
    :: 2^21 overlapping 20-letter words. There are 2^20 possible 20 ::
    :: letter words. For a truly random string of 2^21+19 bits, the ::
    :: number of missing words j should be (very close to) normally ::
    :: distributed with mean 141,909 and sigma 428. Thus ::
    :: (j-141909)/428 should be a standard normal variate (z score) ::
    :: that leads to a uniform [0,1) p value. The test is repeated ::
    :: twenty times. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    THE OVERLAPPING 20-tuples BITSTREAM TEST, 20 BITS PER WORD, N words
    This test uses N=2^21 and samples the bitstream 20 times.
    No. missing words should average 141909. with sigma=428.
    ---------------------------------------------------------
    tst no 1: 141736 missing words, -.40 sigmas from mean, p-value= .34275
    tst no 2: 142545 missing words, 1.49 sigmas from mean, p-value= .93126
    tst no 3: 141345 missing words, -1.32 sigmas from mean, p-value= .09366
    tst no 4: 142620 missing words, 1.66 sigmas from mean, p-value= .95159
    tst no 5: 142423 missing words, 1.20 sigmas from mean, p-value= .88496
    tst no 6: 142103 missing words, .45 sigmas from mean, p-value= .67455
    tst no 7: 141872 missing words, -.09 sigmas from mean, p-value= .46525
    tst no 8: 141763 missing words, -.34 sigmas from mean, p-value= .36622
    tst no 9: 141631 missing words, -.65 sigmas from mean, p-value= .25775
    tst no 10: 141555 missing words, -.83 sigmas from mean, p-value= .20387
    tst no 11: 141678 missing words, -.54 sigmas from mean, p-value= .29443
    tst no 12: 142300 missing words, .91 sigmas from mean, p-value= .81932
    tst no 13: 142486 missing words, 1.35 sigmas from mean, p-value= .91107
    tst no 14: 142147 missing words, .56 sigmas from mean, p-value= .71066
    tst no 15: 141558 missing words, -.82 sigmas from mean, p-value= .20586
    tst no 16: 141478 missing words, -1.01 sigmas from mean, p-value= .15678
    tst no 17: 141668 missing words, -.56 sigmas from mean, p-value= .28643
    tst no 18: 142606 missing words, 1.63 sigmas from mean, p-value= .94821
    tst no 19: 142645 missing words, 1.72 sigmas from mean, p-value= .95718
    tst no 20: 141870 missing words, -.09 sigmas from mean, p-value= .46339

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: The tests OPSO, OQSO and DNA ::
    :: OPSO means Overlapping-Pairs-Sparse-Occupancy ::
    :: The OPSO test considers 2-letter words from an alphabet of ::
    :: 1024 letters. Each letter is determined by a specified ten ::
    :: bits from a 32-bit integer in the sequence to be tested. OPSO ::
    :: generates 2^21 (overlapping) 2-letter words (from 2^21+1 ::
    :: "keystrokes") and counts the number of missing words---that ::
    :: is 2-letter words which do not appear in the entire sequence. ::
    :: That count should be very close to normally distributed with ::
    :: mean 141,909, sigma 290. Thus (missingwrds-141909)/290 should ::
    :: be a standard normal variable. The OPSO test takes 32 bits at ::
    :: a time from the test file and uses a designated set of ten ::
    :: consecutive bits. It then restarts the file for the next de- ::
    :: signated 10 bits, and so on. ::
    :: ::
    :: OQSO means Overlapping-Quadruples-Sparse-Occupancy ::
    :: The test OQSO is similar, except that it considers 4-letter ::
    :: words from an alphabet of 32 letters, each letter determined ::
    :: by a designated string of 5 consecutive bits from the test ::
    :: file, elements of which are assumed 32-bit random integers. ::
    :: The mean number of missing words in a sequence of 2^21 four- ::
    :: letter words, (2^21+3 "keystrokes"), is again 141909, with ::
    :: sigma = 295. The mean is based on theory; sigma comes from ::
    :: extensive simulation. ::
    :: ::
    :: The DNA test considers an alphabet of 4 letters:: C,G,A,T,::
    :: determined by two designated bits in the sequence of random ::
    :: integers being tested. It considers 10-letter words, so that ::
    :: as in OPSO and OQSO, there are 2^20 possible words, and the ::
    :: mean number of missing words from a string of 2^21 (over- ::
    :: lapping) 10-letter words (2^21+9 "keystrokes") is 141909. ::
    :: The standard deviation sigma=339 was determined as for OQSO ::
    :: by simulation. (Sigma for OPSO, 290, is the true value (to ::
    :: three places), not determined by simulation. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    OPSO test for generator c.32
    Output: No. missing words (mw), equiv normal variate (z), p-value (p)
    mw z p
    OPSO for c.32 using bits 23 to 32 142099 .654 .7435
    OPSO for c.32 using bits 22 to 31 141826 -.287 .3869
    OPSO for c.32 using bits 21 to 30 141996 .299 .6175
    OPSO for c.32 using bits 20 to 29 141269 -2.208 .0136
    OPSO for c.32 using bits 19 to 28 141851 -.201 .4203
    OPSO for c.32 using bits 18 to 27 142189 .964 .8326
    OPSO for c.32 using bits 17 to 26 141806 -.356 .3608
    OPSO for c.32 using bits 16 to 25 142096 .644 .7401
    OPSO for c.32 using bits 15 to 24 142205 1.020 .8460
    OPSO for c.32 using bits 14 to 23 141912 .009 .5037
    OPSO for c.32 using bits 13 to 22 142147 .820 .7938
    OPSO for c.32 using bits 12 to 21 142184 .947 .8282
    OPSO for c.32 using bits 11 to 20 141510 -1.377 .0843
    OPSO for c.32 using bits 10 to 19 142250 1.175 .8799
    OPSO for c.32 using bits 9 to 18 141851 -.201 .4203
    OPSO for c.32 using bits 8 to 17 141772 -.474 .3179
    OPSO for c.32 using bits 7 to 16 142371 1.592 .9443
    OPSO for c.32 using bits 6 to 15 141992 .285 .6122
    OPSO for c.32 using bits 5 to 14 142156 .851 .8025
    OPSO for c.32 using bits 4 to 13 142129 .757 .7756
    OPSO for c.32 using bits 3 to 12 142140 .795 .7868
    OPSO for c.32 using bits 2 to 11 142236 1.126 .8700
    OPSO for c.32 using bits 1 to 10 141826 -.287 .3869
    OQSO test for generator c.32
    Output: No. missing words (mw), equiv normal variate (z), p-value (p)
    mw z p
    OQSO for c.32 using bits 28 to 32 141881 -.096 .4617
    OQSO for c.32 using bits 27 to 31 141823 -.293 .3849
    OQSO for c.32 using bits 26 to 30 141890 -.066 .4739
    OQSO for c.32 using bits 25 to 29 142168 .877 .8097
    OQSO for c.32 using bits 24 to 28 142251 1.158 .8766
    OQSO for c.32 using bits 23 to 27 141990 .273 .6078
    OQSO for c.32 using bits 22 to 26 142110 .680 .7518
    OQSO for c.32 using bits 21 to 25 142098 .640 .7388
    OQSO for c.32 using bits 20 to 24 141948 .131 .5521
    OQSO for c.32 using bits 19 to 23 141637 -.923 .1780
    OQSO for c.32 using bits 18 to 22 141752 -.533 .2969
    OQSO for c.32 using bits 17 to 21 142057 .501 .6917
    OQSO for c.32 using bits 16 to 20 141748 -.547 .2922
    OQSO for c.32 using bits 15 to 19 142218 1.046 .8523
    OQSO for c.32 using bits 14 to 18 141738 -.581 .2807
    OQSO for c.32 using bits 13 to 17 141972 .212 .5841
    OQSO for c.32 using bits 12 to 16 141853 -.191 .4243
    OQSO for c.32 using bits 11 to 15 142054 .490 .6881
    OQSO for c.32 using bits 10 to 14 142184 .931 .8241
    OQSO for c.32 using bits 9 to 13 141931 .073 .5293
    OQSO for c.32 using bits 8 to 12 141688 -.750 .2265
    OQSO for c.32 using bits 7 to 11 142082 .585 .7208
    OQSO for c.32 using bits 6 to 10 142194 .965 .8327
    OQSO for c.32 using bits 5 to 9 141971 .209 .5828
    OQSO for c.32 using bits 4 to 8 142129 .745 .7718
    OQSO for c.32 using bits 3 to 7 141869 -.137 .4456
    OQSO for c.32 using bits 2 to 6 141801 -.367 .3567
    OQSO for c.32 using bits 1 to 5 141958 .165 .5655
    DNA test for generator c.32
    Output: No. missing words (mw), equiv normal variate (z), p-value (p)
    mw z p
    DNA for c.32 using bits 31 to 32 142426 1.524 .9363
    DNA for c.32 using bits 30 to 31 141768 -.417 .3384
    DNA for c.32 using bits 29 to 30 141574 -.989 .1613
    DNA for c.32 using bits 28 to 29 141495 -1.222 .1108
    DNA for c.32 using bits 27 to 28 141451 -1.352 .0882
    DNA for c.32 using bits 26 to 27 141648 -.771 .2204
    DNA for c.32 using bits 25 to 26 141641 -.792 .2143
    DNA for c.32 using bits 24 to 25 141922 .037 .5149
    DNA for c.32 using bits 23 to 24 142379 1.385 .9170
    DNA for c.32 using bits 22 to 23 141570 -1.001 .1584
    DNA for c.32 using bits 21 to 22 142071 .477 .6833
    DNA for c.32 using bits 20 to 21 141895 -.042 .4831
    DNA for c.32 using bits 19 to 20 141893 -.048 .4808
    DNA for c.32 using bits 18 to 19 141876 -.098 .4608
    DNA for c.32 using bits 17 to 18 141668 -.712 .2383
    DNA for c.32 using bits 16 to 17 142413 1.486 .9313
    DNA for c.32 using bits 15 to 16 141887 -.066 .4737
    DNA for c.32 using bits 14 to 15 141642 -.789 .2152
    DNA for c.32 using bits 13 to 14 142030 .356 .6391
    DNA for c.32 using bits 12 to 13 141865 -.131 .4480
    DNA for c.32 using bits 11 to 12 141562 -1.025 .1528
    DNA for c.32 using bits 10 to 11 142205 .872 .8084
    DNA for c.32 using bits 9 to 10 142530 1.831 .9664
    DNA for c.32 using bits 8 to 9 141565 -1.016 .1549
    DNA for c.32 using bits 7 to 8 142275 1.079 .8596
    DNA for c.32 using bits 6 to 7 142225 .931 .8241
    DNA for c.32 using bits 5 to 6 142406 1.465 .9286
    DNA for c.32 using bits 4 to 5 141986 .226 .5895
    DNA for c.32 using bits 3 to 4 142158 .734 .7684
    DNA for c.32 using bits 2 to 3 141749 -.473 .3181
    DNA for c.32 using bits 1 to 2 142046 .403 .6566

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: This is the COUNT-THE-1's TEST on a stream of bytes. ::
    :: Consider the file under test as a stream of bytes (four per ::
    :: 32 bit integer). Each byte can contain from 0 to 8 1's, ::
    :: with probabilities 1,8,28,56,70,56,28,8,1 over 256. Now let ::
    :: the stream of bytes provide a string of overlapping 5-letter ::
    :: words, each "letter" taking values A,B,C,D,E. The letters are ::
    :: determined by the number of 1's in a byte:: 0,1,or 2 yield A,::
    :: 3 yields B, 4 yields C, 5 yields D and 6,7 or 8 yield E. Thus ::
    :: we have a monkey at a typewriter hitting five keys with vari- ::
    :: ous probabilities (37,56,70,56,37 over 256). There are 5^5 ::
    :: possible 5-letter words, and from a string of 256,000 (over- ::
    :: lapping) 5-letter words, counts are made on the frequencies ::
    :: for each word. The quadratic form in the weak inverse of ::
    :: the covariance matrix of the cell counts provides a chisquare ::
    :: test:: Q5-Q4, the difference of the naive Pearson sums of ::
    :: (OBS-EXP)^2/EXP on counts for 5- and 4-letter cell counts. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    Test results for c.32
    Chi-square with 55-54=2500 d.of f. for sample size:2560000
    chisquare equiv normal p-value
    Results fo COUNT-THE-1's in successive bytes:
    byte stream for c.32 2508.77 .124 .549351
    byte stream for c.32 2523.70 .335 .631236

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: This is the COUNT-THE-1's TEST for specific bytes. ::
    :: Consider the file under test as a stream of 32-bit integers. ::
    :: From each integer, a specific byte is chosen , say the left- ::
    :: most:: bits 1 to 8. Each byte can contain from 0 to 8 1's, ::
    :: with probabilitie 1,8,28,56,70,56,28,8,1 over 256. Now let ::
    :: the specified bytes from successive integers provide a string ::
    :: of (overlapping) 5-letter words, each "letter" taking values ::
    :: A,B,C,D,E. The letters are determined by the number of 1's, ::
    :: in that byte:: 0,1,or 2 ---> A, 3 ---> B, 4 ---> C, 5 ---> D,::
    :: and 6,7 or 8 ---> E. Thus we have a monkey at a typewriter ::
    :: hitting five keys with with various probabilities:: 37,56,70,::
    :: 56,37 over 256. There are 5^5 possible 5-letter words, and ::
    :: from a string of 256,000 (overlapping) 5-letter words, counts ::
    :: are made on the frequencies for each word. The quadratic form ::
    :: in the weak inverse of the covariance matrix of the cell ::
    :: counts provides a chisquare test:: Q5-Q4, the difference of ::
    :: the naive Pearson sums of (OBS-EXP)^2/EXP on counts for 5- ::
    :: and 4-letter cell counts. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    Chi-square with 55-54=2500 d.of f. for sample size: 256000
    chisquare equiv normal p value
    Results for COUNT-THE-1's in specified bytes:
    bits 1 to 8 2581.47 1.152 .875380
    bits 2 to 9 2580.38 1.137 .872181
    bits 3 to 10 2572.75 1.029 .848228
    bits 4 to 11 2470.58 -.416 .338688
    bits 5 to 12 2457.84 -.596 .275505
    bits 6 to 13 2421.89 -1.105 .134664
    bits 7 to 14 2420.85 -1.119 .131482
    bits 8 to 15 2564.18 .908 .817949
    bits 9 to 16 2589.06 1.259 .896069
    bits 10 to 17 2515.05 .213 .584267
    bits 11 to 18 2508.17 .116 .546007
    bits 12 to 19 2505.66 .080 .531910
    bits 13 to 20 2573.65 1.042 .851180
    bits 14 to 21 2438.95 -.863 .193957
    bits 15 to 22 2581.73 1.156 .876122
    bits 16 to 23 2468.38 -.447 .327364
    bits 17 to 24 2454.58 -.642 .260350
    bits 18 to 25 2544.89 .635 .737243
    bits 19 to 26 2596.62 1.366 .914103
    bits 20 to 27 2493.62 -.090 .464039
    bits 21 to 28 2689.84 2.685 .996370
    bits 22 to 29 2473.96 -.368 .356319
    bits 23 to 30 2522.82 .323 .626564
    bits 24 to 31 2518.52 .262 .603320
    bits 25 to 32 2612.97 1.598 .944942

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: THIS IS A PARKING LOT TEST ::
    :: In a square of side 100, randomly "park" a car---a circle of ::
    :: radius 1. Then try to park a 2nd, a 3rd, and so on, each ::
    :: time parking "by ear". That is, if an attempt to park a car ::
    :: causes a crash with one already parked, try again at a new ::
    :: random location. (To avoid path problems, consider parking ::
    :: helicopters rather than cars.) Each attempt leads to either ::
    :: a crash or a success, the latter followed by an increment to ::
    :: the list of cars already parked. If we plot n: the number of ::
    :: attempts, versus k:: the number successfully parked, we get a::
    :: curve that should be similar to those provided by a perfect ::
    :: random number generator. Theory for the behavior of such a ::
    :: random curve seems beyond reach, and as graphics displays are ::
    :: not available for this battery of tests, a simple characteriz ::
    :: ation of the random experiment is used: k, the number of cars ::
    :: successfully parked after n=12,000 attempts. Simulation shows ::
    :: that k should average 3523 with sigma 21.9 and is very close ::
    :: to normally distributed. Thus (k-3523)/21.9 should be a st- ::
    :: andard normal variable, which, converted to a uniform varia- ::
    :: ble, provides input to a KSTEST based on a sample of 10. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    CDPARK: result of ten tests on file c.32
    Of 12,000 tries, the average no. of successes
    should be 3523 with sigma=21.9
    Successes: 3588 z-score: 2.968 p-value: .998501
    Successes: 3518 z-score: -.228 p-value: .409702
    Successes: 3533 z-score: .457 p-value: .676028
    Successes: 3519 z-score: -.183 p-value: .427537
    Successes: 3497 z-score: -1.187 p-value: .117571
    Successes: 3491 z-score: -1.461 p-value: .071982
    Successes: 3486 z-score: -1.689 p-value: .045562
    Successes: 3524 z-score: .046 p-value: .518210
    Successes: 3521 z-score: -.091 p-value: .463618
    Successes: 3561 z-score: 1.735 p-value: .958644

    square size avg. no. parked sample sigma
    100. 3523.800 29.799
    KSTEST for the above 10: p= .562656

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: THE MINIMUM DISTANCE TEST ::
    :: It does this 100 times:: choose n=8000 random points in a ::
    :: square of side 10000. Find d, the minimum distance between ::
    :: the (n^2-n)/2 pairs of points. If the points are truly inde- ::
    :: pendent uniform, then d^2, the square of the minimum distance ::
    :: should be (very close to) exponentially distributed with mean ::
    :: .995 . Thus 1-exp(-d^2/.995) should be uniform on [0,1) and ::
    :: a KSTEST on the resulting 100 values serves as a test of uni- ::
    :: formity for random points in the square. Test numbers=0 mod 5 ::
    :: are printed but the KSTEST is based on the full set of 100 ::
    :: random choices of 8000 points in the 10000x10000 square. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    This is the MINIMUM DISTANCE test
    for random integers in the file c.32
    Sample no. d^2 avg equiv uni
    5 .9076 .7767 .598357
    10 .2197 .8334 .198102
    15 2.4735 .8691 .916753
    20 .5738 .8191 .438246
    25 .7117 .8448 .510933
    30 1.9512 .8303 .859277
    35 1.7969 .9237 .835685
    40 3.2534 .9461 .961985
    45 2.4814 1.0306 .917409
    50 1.7080 1.0913 .820327
    55 .3498 1.0700 .296418
    60 .0876 1.0648 .084290
    65 .8642 1.0655 .580449
    70 .7705 1.0181 .539028
    75 .9252 .9983 .605389
    80 1.9128 1.0123 .853745
    85 2.0366 1.0179 .870858
    90 3.1117 1.0746 .956166
    95 .4765 1.0527 .380520
    100 .2584 1.0307 .228748
    MINIMUM DISTANCE TEST for c.32
    Result of KS test on 20 transformed mindist^2's:
    p-value= .293281

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: THE 3DSPHERES TEST ::
    :: Choose 4000 random points in a cube of edge 1000. At each ::
    :: point, center a sphere large enough to reach the next closest ::
    :: point. Then the volume of the smallest such sphere is (very ::
    :: close to) exponentially distributed with mean 120pi/3. Thus ::
    :: the radius cubed is exponential with mean 30. (The mean is ::
    :: obtained by extensive simulation). The 3DSPHERES test gener- ::
    :: ates 4000 such spheres 20 times. Each min radius cubed leads ::
    :: to a uniform variable by means of 1-exp(-r^3/30.), then a ::
    :: KSTEST is done on the 20 p-values. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    The 3DSPHERES test for file c.32
    sample no: 1 r^3= 13.073 p-value= .35323
    sample no: 2 r^3= 9.690 p-value= .27602
    sample no: 3 r^3= 18.474 p-value= .45979
    sample no: 4 r^3= 31.497 p-value= .65002
    sample no: 5 r^3= 3.695 p-value= .11587
    sample no: 6 r^3= 91.368 p-value= .95243
    sample no: 7 r^3= 33.229 p-value= .66966
    sample no: 8 r^3= 3.627 p-value= .11387
    sample no: 9 r^3= 24.570 p-value= .55912
    sample no: 10 r^3= 11.718 p-value= .32334
    sample no: 11 r^3= 19.329 p-value= .47497
    sample no: 12 r^3= 165.088 p-value= .99593
    sample no: 13 r^3= 19.323 p-value= .47486
    sample no: 14 r^3= 7.099 p-value= .21073
    sample no: 15 r^3= 35.158 p-value= .69023
    sample no: 16 r^3= 2.410 p-value= .07719
    sample no: 17 r^3= 6.384 p-value= .19168
    sample no: 18 r^3= 28.604 p-value= .61459
    sample no: 19 r^3= 55.092 p-value= .84061
    sample no: 20 r^3= 65.348 p-value= .88676
    A KS test is applied to those 20 p-values.
    ---------------------------------------------------------
    3DSPHERES test for file c.32 p-value= .031460

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$

    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    :: This is the SQEEZE test ::
    :: Random integers are floated to get uniforms on [0,1). Start- ::
    :: ing with k=2^31=2147483647, the test finds j, the number of ::
    :: iterations necessary to reduce k to 1, using the reduction ::
    :: k=ceiling(k*U), with U provided by floating integers from ::
    :: the file being tested. Such j's are found 100,000 times, ::
    :: then counts for the number of times j was <=6,7,...,47,>=48 ::
    :: are used to provide a chi-square test for cell frequencies. ::
    :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
    RESULTS OF SQUEEZE TEST FOR c.32
    Table of standardized frequency counts
    ( (obs-exp)/sqrt(exp) )^2
    for j taking values <=6,7,8,...,47,>=48:
    -.1 -1.2 .6 .0 -1.1 -.5
    -.2 -.5 .2 .6 -.2 .3
    -.4 -2.0 1.3 -.4 -.1 -.1
    .8 1.1 -1.2 .4 -.3 -1.7
    .7 2.6 -1.0 -.3 .2 -.7
    1.6 1.4 -.9 1.1 1.3 .8
    -1.4 -1.7 -.8 -.1 -1.3 -1.0
    -.1
    Chi-square with 42 degrees of freedom: 42.955
    z-score= .104 p-value= .569931
    ______________________________________________________________

    $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$


  • Stati schrieb:

    When a bit stream really FAILS BIG, you will get p's of 0 or 
    1 to six or more places. By all means, do not, as a 
    Statistician might, think that a p < .025 or p> .975 means 
    that the RNG has "failed the test at the .05 level". Such 
    p's happen among the hundreds that DIEHARD produces, even 
    with good RNG's. So keep in mind that " p happens".
    

    Das ist doch ok.
    Da schaust Du die p-Werte an und siehst, daß bei Deinen Sachen kein fetter Versager ist.

    Der Test sagt Dir nicht
    - Ist toll zufällig
    oder
    - Ist nicht toll zufällig
    , sondern ist nur geeignet, die Zufälligkeit verschiederner Zufallsquellen zu vergleichen, wenn dabei Quellen sind, die abkacken. So kackt zum Beispiel std::rand()%256 bei ein paar Test ab, während ein Multiply-With-Carry%256 bei keinem Test abkackt.

    Ok, ich habe mich wohl fasch erinnert, und es gab keine Zusammenfassung.



  • Naja, das sollte auch erstmal reichen. Mein algorithmus war auch eher als kleine Übung zu Bitwise-Operatoren für mich gedacht. Ich glaube die Ansprüche, die ich hier stellen, sind eh zu hoch 😃



  • Entropiker schrieb:

    Nennt sich das nicht Entropie?

    Wieso nicht! Allerdings wie willst Du die Entropy für eine bliebige Menge der möglicher Ausgabewerte bestimmen? 😕
    http://en.wikipedia.org/wiki/Information_entropy

    ;fricky schrieb:

    Prof84 schrieb:

    http://de.wikipedia.org/wiki/Statistische_Signifikanz
    http://de.wikipedia.org/wiki/F-Test

    thema verfehlt, setzen, 6!
    hier: http://en.wikipedia.org/wiki/Randomness_tests
    🙂

    Bestreite ich! Hast Du keine Signifikanz, hast Du einen positiven Ramdonness Test. Oder?! 😉



  • Entropie? Ich höre immer "Entropie". Die hat doch nichts mit Zufälligkeit zu tun. Aber auch gar nichts.

    Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
    Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.



  • volkard schrieb:

    Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
    Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.

    Das ist nett. Kannst du bitte einen Plot der Zufälligkeit aller 10-Stelligen binären Zahlen machen?



  • Prof84 schrieb:

    Bestreite ich! Hast Du keine Signifikanz, hast Du einen positiven Ramdonness Test. Oder?!

    das sind doch verschiedene dinge. bei dieser signifikanz geht's um echte daten, irgendwelche messwerte oder sowas, die ausreisser haben und die man rausfiltern will (steht z.b. in deinem link). ein zufallsgenerator soll einfach nur möglichst weisses rauschen abgeben. um das zu testen, musste jedes bit einbeziehen, daher sind alle werte gleich signifikant.
    🙂



  • nett3r schrieb:

    volkard schrieb:

    Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
    Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.

    Das ist nett. Kannst du bitte einen Plot der Zufälligkeit aller 10-Stelligen binären Zahlen machen?

    Es kommt natürlich auch auf die Reihenfolge an, nicht nur auf die Zahlen selbst.

    http://de.wikipedia.org/wiki/Kolmogorow-Komplexität



  • Jester schrieb:

    nett3r schrieb:

    volkard schrieb:

    Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
    Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.

    Das ist nett. Kannst du bitte einen Plot der Zufälligkeit aller 10-Stelligen binären Zahlen machen?

    Es kommt natürlich auch auf die Reihenfolge an, nicht nur auf die Zahlen selbst.

    http://de.wikipedia.org/wiki/Kolmogorow-Komplexität

    ja, die reihenfolge der bits in der 10-stelligen zahl 🙄



  • volkard schrieb:

    Entropie? Ich höre immer "Entropie". Die hat doch nichts mit Zufälligkeit zu tun. Aber auch gar nichts.

    Irgendwie habe ich hier ein starkes Dejavû-Gefühl:
    http://en.wikipedia.org/wiki/Differential_entropy
    Ich hatte vor Kurzem eine Wiki-Seite gefunden, die illustriert, dass die max. mögliche Entropie von -1.41 genau die der Standardnormalverteilung entspricht.
    Aber ich finde i.M. die Seite nicht wieder.

    volkard schrieb:

    Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
    Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.

    Die Informationstheologen schlagen wieder zu 🙄 :
    Welche willst Du überhaupt ansetzen? - einfache TM, Ndetermistische TM, Multiband TM oder DMTM.
    Wie soll der Septupel dazu aussehen, so dass Du dazu Induktionansatz und -schritt führen kannst?
    http://de.wikipedia.org/wiki/Turingmaschine => formale Definition

    Sollte "echte" Zufälligkeit nicht zeigen, dass es keine reflexive-transitiven Hüllen-Operatoren für die Transferfunktion δ(p, λ) gibt?
    http://de.wikipedia.org/wiki/Hüllenoperator
    http://de.wikipedia.org/wiki/Transitive_Hülle

    Wäre "echte" Zufälligkeit, nicht der Beweis einer Nichtexistenz dieser Turing-Maschine?

    Na, dann mache Deinen Prof mal Ehre und viel Glück! ... 😋

    ;fricky schrieb:

    Prof84 schrieb:

    Bestreite ich! Hast Du keine Signifikanz, hast Du einen positiven Ramdonness Test. Oder?!

    das sind doch verschiedene dinge. bei dieser signifikanz geht's um echte daten, irgendwelche messwerte oder sowas, die ausreisser haben und die man rausfiltern will (steht z.b. in deinem link). ein zufallsgenerator soll einfach nur möglichst weisses rauschen abgeben. um das zu testen, musste jedes bit einbeziehen, daher sind alle werte gleich signifikant.
    🙂

    Verstehe ich nicht. Ob zufallsgeneriert oder nicht, Messwert ist Messwert.



  • Prof84 schrieb:

    Die Informationstheologen schlagen wieder zu 🙄 :
    Welche willst Du überhaupt ansetzen? - einfache TM, Ndetermistische TM, Multiband TM oder DMTM.

    Nichtdeterministische wäre natürlich quatsch, da kann man jede Zahlenfolge sehr kurz erzeugen: Immer ne Zahl raten und die Ausgeben -- Nichtdeterminismus macht's möglich.

    Wäre "echte" Zufälligkeit, nicht der Beweis einer Nichtexistenz dieser Turing-Maschine?

    Es geht um endliche Zahlenfolgen. Diese lassen sich glücklicherweise immer durch eine TM erzeugen.



  • Prof84 schrieb:

    volkard schrieb:

    Entropie? Ich höre immer "Entropie". Die hat doch nichts mit Zufälligkeit zu tun. Aber auch gar nichts.

    Irgendwie habe ich hier ein starkes Dejavû-Gefühl:
    http://en.wikipedia.org/wiki/Differential_entropy
    Ich hatte vor Kurzem eine Wiki-Seite gefunden, die illustriert, dass die max. mögliche Entropie von -1.41 genau die der Standardnormalverteilung entspricht.
    Aber ich finde i.M. die Seite nicht wieder.

    Mach's einfacher. Welche Entropie hat Π?
    Was hat diese maximale Entropie mit der kaum vorhandenen Zufälligkeit dieser Ziffern zu tun?

    Prof84 schrieb:

    volkard schrieb:

    Definiere Zufälligkeit lieber einigermaßen sinnvoll, wie zum Beispiel:
    Die Zufälligkeit einer Zahlenfolge ist die Größe der kleinsten Turingmaschine, die diese Zahlenfolge produzieret.

    Die Informationstheologen schlagen wieder zu 🙄 :
    Welche willst Du überhaupt ansetzen? - einfache TM, Ndetermistische TM, Multiband TM oder DMTM.

    Ist doch egal. Nimm Java. Ein Programm, das eine Million Nachkommastellen von Π ausgibt, ist ein Bißchen größer, als ein Programm, das eine Million Nullen anzeigt.

    Prof84 schrieb:

    Wie soll der Septupel dazu aussehen, so dass Du dazu Induktionansatz und -schritt führen kannst?
    http://de.wikipedia.org/wiki/Turingmaschine => formale Definition

    Nimm Java.

    Prof84 schrieb:

    Sollte "echte" Zufälligkeit nicht zeigen, dass es keine reflexive-transitiven Hüllen-Operatoren für die Transferfunktion δ(p, λ) gibt?
    http://de.wikipedia.org/wiki/Hüllenoperator
    http://de.wikipedia.org/wiki/Transitive_Hülle

    Beachte: Ein Automat, der unendlich viele Primzahlen schreibt, terminiert auch nicht.

    Prof84 schrieb:

    Wäre "echte" Zufälligkeit, nicht der Beweis einer Nichtexistenz dieser Turing-Maschine?

    Für jede endliche Folge gibt's auch Automaten. Für unendliche Folgen haben wir das Halteproblem und können uns viel Mühe sparen, fürchte ich.



  • Jester schrieb:

    Nichtdeterministische wäre natürlich quatsch, da kann man jede Zahlenfolge sehr kurz erzeugen: Immer ne Zahl raten und die Ausgeben -- Nichtdeterminismus macht's möglich.

    Ich behaupte: Jede TM ist Quatsch für echte Zufallswerte! Jeder maschinengenerierter Zufallswert hat eine Signifikanz.

    Z.B.:
    http://www.c-plusplus.net/forum/viewtopic-var-t-is-172876.html
    Was in Wirklichkeit hier nur gemacht wurde ist eine Konkatenation von Zufallswerten, um nicht liniare Attraktoren zu simulieren.

    Und deshalb brauchen wir immer eine schöne heiße Tasse Tee damit der unendliche Unwahrscheinlichkeitsdrive funktioniert ... 🤡

    Jester schrieb:

    Es geht um endliche Zahlenfolgen. Diese lassen sich glücklicherweise immer durch eine TM erzeugen.

    Und was hat das mit den Thema Zufall zu tunen?! Es wurde sogar gezeigt, das die TM für Quantenomputering gilt. Deshalb haben wir aber immer noch keine Algobeschreibung für den Zufall.

    volkard schrieb:

    Mach's einfacher. Welche Entropie hat Π?
    Was hat diese maximale Entropie mit der kaum vorhandenen Zufälligkeit dieser Ziffern zu tun?

    Eine Niedrige?!
    http://de.wikipedia.org/wiki/Bailey-Borwein-Plouffe-Formel
    Besser , ich schiebe! ...

    volkard schrieb:

    Ist doch egal. Nimm Java. Ein Programm, das eine Million Nachkommastellen von Π ausgibt, ist ein Bißchen größer, als ein Programm, das eine Million Nullen anzeigt.

    Ägypten?!

    volkard schrieb:

    Nimm Java

    Rembrandt?!

    Prof84 schrieb:

    Beachte: Ein Automat, der unendlich viele Primzahlen schreibt, terminiert auch nicht.

    Ich diskutiere hier nicht die Berechbarkeit, sondern wie die Übergangsfunktionen formuliert werden könnten , um eine TM als echten Zufallsgenerator zu verkaufen!

    volkard schrieb:

    Für jede endliche Folge gibt's auch Automaten. Für unendliche Folgen haben wir das Halteproblem und können uns viel Mühe sparen, fürchte ich.

    Ja, logisch! Wenn Du die indiskrete Übergangsfunktion durch ein endloses Band ersetzt ...

    So, no TMs!
    QED.



  • Prof84 schrieb:

    Jester schrieb:

    Nichtdeterministische wäre natürlich quatsch, da kann man jede Zahlenfolge sehr kurz erzeugen: Immer ne Zahl raten und die Ausgeben -- Nichtdeterminismus macht's möglich.

    Ich behaupte: Jede TM ist Quatsch für echte Zufallswerte! Jeder maschinengenerierter Zufallswert hat eine Signifikanz.

    Darum geht es ja auch garnicht. Wir wollen die Turingmaschine nicht, damit sie uns die Zahlen erzeugt, wir wollen sie nur um zu schauen wie groß sie ist. Im Extremfall speichert man einfach die Zahlenfolge und gibt sie aus, bei echt zufälligen Folgen bleibt einem kaum was anderes übrig. Wenn also die TM ähnlich groß wird, wie die, die einfach die Liste speichert und ausgibt, dann sind die Daten recht zufällig, ist die TM dagegen kurz beschreibbar, dann liegt der Folge eine hohe Systematik zugrunde und sie ist eben nicht sehr zufällig.

    Jester schrieb:

    Es geht um endliche Zahlenfolgen. Diese lassen sich glücklicherweise immer durch eine TM erzeugen.

    Und was hat das mit den Thema Zufall zu tunen?! Es wurde sogar gezeigt, das die TM für Quantenomputering gilt. Deshalb haben wir aber immer noch keine Algobeschreibung für den Zufall.

    Ich weiß nicht wovon Du da redest. Was bedeutet "TM gilt für xyz"? Was bedeutet das im Speziellen für xyz=Quantencomput(er)ing? Wer möchte denn Zufall algorithmisch beschreiben? Keiner, oder?

    Mit dem Thema haben endliche Zahlenfolgen folgendes zu tun: Ausgangspunkt war, wir haben eine *endliche Zahlenfolge* und wollen wissen ob die Zahlenfolge zufällig ist.

    Wir behaupten doch nur, dass eine Folge von Zahlen zufälliger ist, wenn es schwieriger ist sie algorithmisch zu beschreiben. Wenn es quasi unmöglich ist sie algorithmisch zu beschreiben, dann ist die Folge eben zufällig.

    Prof84 schrieb:

    Ich diskutiere hier nicht die Berechbarkeit, sondern wie die Übergangsfunktionen formuliert werden könnten , um eine TM als echten Zufallsgenerator zu verkaufen!

    Das ist aber reines Marketing, jeder der Ahnung hat wird Dir sagen, dass eine deterministische TM keinen Zufall produzieren kann. Deswegen beschäftigen wir uns ja auch gerade mit einer ganz anderen Thematik. Aber Du findest bestimmt auch Leute, denen Du eine TM als echten Zufallsgenerator verkaufen kannst -- nur halt vielleicht nicht hier. 😉



  • @Jester:
    Sag mal, merkst Du überhaupt noch was? Lese mal den Thread von Vorne, bevor Du hier irgendwie einsteigst. 😉



  • Prof84 schrieb:

    @Jester:
    Sag mal, merkst Du überhaupt noch was? Lese mal den Thread von Vorne, bevor Du hier irgendwie einsteigst. 😉

    Er begründet seine Sachen, redet vernünftig, bemüht sich um Verständlichkeit. Ich lese Jesters Beiträge gerne.



  • Prof84 schrieb:

    @Jester:
    Sag mal, merkst Du überhaupt noch was? Lese mal den Thread von Vorne, bevor Du hier irgendwie einsteigst. 😉

    Sorry, das hilft mir nun auch nicht weiter. Meiner Meinung nach bin ich direkt am Thema dran. Wenn Du anderer Meinung bist, würde es helfen, wenn Du auch hinweist an welcher Stelle und warum das der Fall ist.


Anmelden zum Antworten