Gründe, aus denen Zufallsgrößen veerwendet werden



  • Für meine Seminararbeit muss ich mich unter anderem mit dem Thema Wahrscheinlichkeitsverteilungen auseinandersetzen. Obwohl ich schon in mehreren Büchern und auf Wikipedia nachgelesen habe, verstehe ich nicht, weshalb überall Zufallsgrößen verwendet werden, statt direkt ein Experiment zu definieren, das die passenden und erwünschten Werte liefert. Dieses Experiment muss ja nicht mit dem ursprünglichen übereinstimmen und kann dessen Werte ebenfalls als Ausgangspunkt nehmen.
    Ich habe hier nur ein Buch, in dem tatsächlich von den Ergebnissen des Urexperiments (mit seinem Wahrscheinlichkeitsraum) auf Ergebnisse des von der Zufallsgröße induzierten Wahrscheinlichkeitsraumes abgebildet wird (Überall Zufall von E. Behrends). Hingegen auf Wikipedia sowie in den Büchern von Karl Bosch (exemplarisch: *), Wahrscheinlichkeitstheorie von Georg Bol, dem Schulbuch und vielleicht auch in denen, die ich zurückgegeben habe, wird der Begriff immer nur als Abbildung von Ω nach ℝ definiert (teilweise in einen Maßraum).

    In der Einführung von Z-Gr in * von Bosch steht beispielsweise, durch sie könne man die Ausprägungen qualitativer Merkmale durch ein quantitatives beurteilen (fast wörtl. übernommen).
    Das stellt für mich noch keinen Verwendungsgrund dar, denn gemeint ist anscheinend (dem folgenden Text und den Beispielen nach), dass beispielsweise die Summe der Ergebnisse (die ja dafür sowieso schon Zahlen sein müssen) mehrerer Durchführungen des Experiments als Z-Gr definiert wird oder auch die Häufigkeit des Auftretens eines bestimmten Ergebnisses (das habe ich grad dort nicht gefunden, es stand vielleicht woanders), was zwar tatsächlich mit qualitativen Merkmalen funktionieren würde, wofür aber das Konzept der Z-Gr nicht gebraucht wird, schließlich könnte auch das Experiment umdefiniert werden.

    Dienen sie vielleicht hauptsächlich (in der Variante, dass sie nur reelle Zahlen liefern) dazu, sicherzustellen, dass, beispielsweise bei der Berechnung des Erwartungswertes, nur Zahlen verwendet werden?

    Wofür werden also Zufallsgrößen zwingend gebraucht und weshalb kann nicht einfach das Experiment so umdefiniert werden, dass die jeweilige Anforderung erfüllt wird?

    *Grosses Lehrbuch der Statistik

    Anm.: Entschuldigt bitte, dass der Text etwas verworren erscheint, ich hab mich beim Schreiben einige Male unterbrochen, andere Dinge getan, dann wieder was nachgeschaut, und jetzt auch keine Lust mehr, den vielleicht komplett neu zu strukturieren und neuzuschreiben. Solltet ihr ihn jedoch extrem schlecht finden, dann schreibt es und ich werde es doch tun. 😉



  • Versteh die Frage nicht.
    Zufall brauche ich für Simulationen.

    z.B. das Lottospiel, ich will wissen, wie groß die Wahrscheinlichkeit für mindestens drei richtige ist.

    Dein Weg: Alle 14 Milliaren Kombinationen erzeugen und auszählen, wieviele davon mindestens drei richtige haben.

    Mein Weg: 10000 zufällige Kombinationen erzeugen und auszählen.



  • zu verworren. Bitte restrukturieren.

    Aber mögliche Antworten:

    1. Experimente geben niemals exakte Werte zurück, sondern haben immer einen zufälligen Fehler. Diesen musst du natürlich in deinem Modell berücksichtigen.

    2. Selbst fehlerfreie Experimente sind nur Stichproben. Nimm mal das Beispiel, dass du versuchen willst Äpfel von Birnen automatisiert voneinander zu unterscheiden. Du wirst nimals alle möglichen Äpfel und Birnen zusammenkriegen, also musst du dein Ergebnis anhand einer kleinen Untermenge definieren müssen. Tust du dies nicht zufällig(und anhand der echten Verteilung aller Äpfel und Birnen) wirst du einen Bias im Modell haben, weil es annimmt, dass bestimmte Arten von Äpfeln öfter vorkommen als sie es in wirklichkeit tun. Du kannst nicht einfach in den Laden gehen und dir von jeder Apfelsorte die 2 interessantesten exemplare auswählen, weil "interessant" nicht der Normalfall ist.

    3. Effizienz. Selbst wenn es möglich wäre, alle möglichen Werte einer Variablen aufzuzählen heißt das noch lange nicht, dass das auch noch zu deinen Lebzeiten machbar ist. Manchmal macht es Sinn, eine Größe aus Zufallsgröße auszudrücken um ein approximatives Ergebnis zu erhalten das im Mittel mit dem echten Ergebnis übereinstimmt.

    4. Es gibt kein analytisches Ergebnis. Bestimmte Integrale sind nicht analytisch berechenbar, können aber über sogenannte Monte-Carlo-Simulationen angenähert werden.



  • Ich hab mir die Frage damals auch gestellt, aber die Antwort vergessen, falls ich eine hatte. 😉 Einen echt zwingenden Grund scheint es nicht zu geben, es ist halt erstens historisch so, dass man sich für Zufallsvariablen zuerst interessiert hat, und zweitens ist es bequemer.

    Mehr dazu bei Terry Tao: http://terrytao.wordpress.com/2010/01/01/254a-notes-0-a-review-of-probability-theory/

    edit: Ich glaube, deine Frage ist klar und eindeutig zu verstehen für jeden, der von den Grundlagen der Wahrscheinlichkeitstheorie, also Wahrscheinlichkeitsräumen und Zufallsvariablen, schonmal was gehört hat.


  • Mod

    otze schrieb:

    4. Es gibt kein analytisches Ergebnis. Bestimmte Integrale sind nicht analytisch berechenbar, können aber über sogenannte Monte-Carlo-Simulationen angenähert werden.

    Hier ist auch ein weiteres Beispiel für die Effizienz (von volkard schon angesprochen): Theoretisch könnte man diese Integrale numerisch auch durch andere Verfahren ohne Zufallszahlen lösen (in einfachster Ausführung so etwas wie Trapezregel). Bei denen braucht man jedoch eine mit der Dimension der Funktion exponentiell(!) wachsende Anzahl an Stützpunkten, um eine bestimmte Fehlergrenze zu erreichen. Bei einer MC-Methode ist jedoch die Anzahl der nötigen Stüzpunkte unabhängig von der Dimension des Integrals. Daher sind bei niedrigdimensionalen Integralen (so ungefähr 1D 😉 ) die direkten Methoden effizienter, in höheren Dimensionen kommt man mit MC ganz wesentlich schneller zu einem ausreichend genauen Ergebnis.

    Viele Integrale in der Naturwissenschaft haben eine Dimensionalität, die nur noch in Zehnerpotenzen vernünftig auszudrücken ist. Da würde es unvorstellbar lange dauern (wir reden hier von > geschätzte Lebenszeit des Universums), eine solche Funktion mit Trapezverfahren zu integrieren, wo MC nur ein paar Stunden braucht.



  • Die Frage klingt für mich etwa vie folgt:
    Warum berechnet man Dinge und schaut nicht einfach nach?

    Ganz unabhängig von Zufallsvariablen; das tolle an Modellierung und der daraus resultierenden Vorhersagen, ist ja gerade, dass ich keine Experimente durchführen muss. Experimente sind meist teuer, nicht zuverlässig oder gar unmöglich. Darum sitzen ja überhaupt weltweit trainierte Affen da und forschen.

    Zufallszahlen sind numal eine Wahl in der Modellierung von Dingen die man im Detail nicht kennt oder kennen kann oder kennen muss. Dabei sind Zufallszahlen garnich zufällig. Eine Zufallszahl ist eine Abbildung, die macht genau das was du möchtest, sie gibt dir das Ergebnis eines jeden einzelnen Durchlaufs deines Zufallsexperiments. Damit bewirkt sie genau das was man in der Realität oft nicht kann und was du eigentlich mit deinem Experimentieren forderst. Sprich, eine Zufallszahl ist dein Experiment auf dem Papier.



  • otze schrieb:

    zu verworren. Bitte restrukturieren.

    Aber mögliche Antworten:

    1. Experimente geben niemals exakte Werte zurück, sondern haben immer einen zufälligen Fehler. Diesen musst du natürlich in deinem Modell berücksichtigen.

    2. Selbst fehlerfreie Experimente sind nur Stichproben. Nimm mal das Beispiel, dass du versuchen willst Äpfel von Birnen automatisiert voneinander zu unterscheiden. Du wirst nimals alle möglichen Äpfel und Birnen zusammenkriegen, also musst du dein Ergebnis anhand einer kleinen Untermenge definieren müssen. Tust du dies nicht zufällig(und anhand der echten Verteilung aller Äpfel und Birnen) wirst du einen Bias im Modell haben, weil es annimmt, dass bestimmte Arten von Äpfeln öfter vorkommen als sie es in wirklichkeit tun. Du kannst nicht einfach in den Laden gehen und dir von jeder Apfelsorte die 2 interessantesten exemplare auswählen, weil "interessant" nicht der Normalfall ist.

    3. Effizienz. Selbst wenn es möglich wäre, alle möglichen Werte einer Variablen aufzuzählen heißt das noch lange nicht, dass das auch noch zu deinen Lebzeiten machbar ist. Manchmal macht es Sinn, eine Größe aus Zufallsgröße auszudrücken um ein approximatives Ergebnis zu erhalten das im Mittel mit dem echten Ergebnis übereinstimmt.

    4. Es gibt kein analytisches Ergebnis. Bestimmte Integrale sind nicht analytisch berechenbar, können aber über sogenannte Monte-Carlo-Simulationen angenähert werden.

    5. Vorhersagen über die Zukunft, um z.B. die Ausfallwahrscheinlichkeit von Systemen zu bestimmen. Konkretes Beispiel: Ich kenne das mittlere Fahrprofil von Autos über seine Lebenszeit. Mit diesem Wissen berechne ich Ausfallwahrscheinlichkeiten für die Teilsysteme einer Neukonstruktion und anschließend die Ausfallwahrscheinlichkeit des gesamten Autos.



  • 5. Vorhersagen über die Zukunft, um z.B. die Ausfallwahrscheinlichkeit von Systemen zu bestimmen. Konkretes Beispiel: Ich kenne das mittlere Fahrprofil von Autos über seine Lebenszeit. Mit diesem Wissen berechne ich Ausfallwahrscheinlichkeiten für die Teilsysteme einer Neukonstruktion und anschließend die Ausfallwahrscheinlichkeit des gesamten Autos.

    Failure Mode and Effects Analysis

    ---

    Ich nutze gerne Zufallsvariablen wenn ich Funktionen testen möchte. Bsp.: Ich möchte überprüfen ob meine Funktion zur Drehung einer 3D Koordinate um eine Achse fehlerfrei funktioniert. Idee: Ich drehe um die Koordinate 12 mal um 30° und schaue ob die gedrehte Koordinate der Ursprungskoordinate entspricht.

    Macht 4 Parameter, die Koordinate (x, y, z), sowie die (äquidistante) Schrittweite. Zu allen Parametern kann ich einen Wertebereich zuordnen. Ohne Zufallsgrößen wird es unschön, da man über alle Bereiche iterieren muss und einem die Komplexitätsklasse ein wenig um die Ohren fliegt. Da ist es schöner mit Zufallswerten zu arbeiten, da sie besser skalierbar und nicht äquidistant sind.

    ---

    Man sollte die randomisierte Algorithmen nicht vergessen. Ein randomisierter Quicksort führt dazu dass die Kompelixtät im Durchschnittsall bei n*log(n) bleibt.

    In der Kryptographie nutzt man probabilistischer Primzahltests für die Schlüsselerzeugung (Miller Rabin Test).



  • Ich würd mir ja wünschen, dass der OP sich nochmal meldet und klarstellt, dass er nicht gefragt hat, wozu man Zufall gebrauchen kann ...



  • Und ich würd mir wünschen, der OP meldet sich nochmal und stellt klar, was er überhaupt gefragt hat. Ich versteh die Frage nämlich überhaupt nicht. Und ich habe definitiv schonmal etwas von den "Grundlagen der Wahrscheinlichkeitstheorie, also Wahrscheinlichkeitsräumen und Zufallsvariablen" gehört.



  • Ich verstehe die Frage auch nicht. Bashar, magst Du's uns vielleicht versuchen zu erklären?



  • Wie ich die Frage verstehe, plus eine kleine Einführung in die Grundbegriffe:

    Ein Wahrscheinlichkeitsraum (Ω,A,P)(\Omega, \mathcal{A}, P) ist eine Menge von Elementarereignissen Ω\Omega, eine σ\sigma-Algebra A\mathcal{A} sowie ein Wahrscheinlichkeitsmaß PP. Damit kann man jedem Ereignis, d.h. jeder messbaren Teilmenge AΩA\subseteq\Omega (Messbarkeit: AAA\in\mathcal{A}), eine Wahrscheinlichkeit P(A)P(A) zuordnen. Was will man mehr?

    Eine Zufallsvariable ist eine messbare (d.h. das Urbild jeder messbaren Menge ist wieder messbar) Funktion X:(Ω,A,P)(Ω,A)X: (\Omega, \mathcal{A}, P) \to (\Omega', \mathcal{A}'). Jetzt kann man darüber auf dem Messraum (Ω,A)(\Omega', \mathcal{A}') ein Wahrscheinlichkeitsmaß PXP_X, das Bildmaß, definieren:
    PX(A):=P(X1(A))P_X(A') := P(X^{-1}(A')) für alle AAA'\in\mathcal{A}', man erhält somit einen zweiten Wahrscheinlichkeitsraum (Ω,A,PX)(\Omega', \mathcal{A}', P_X).

    Eigentlich hätte man den ja auch direkt definieren können. Man hätte auch die Zufallsvariable nach seiner Konstruktion vergessen können. Stattdessen basiert aber fast die gesamte Stochastik auf dem Begriff der Zufallsvariablen, der Wahrscheinlichkeitsraum spielt eindeutig die zweite Geige. Warum ist das so?

    Interpretieren kann man jetzt, warum genau der OP Zweifel am Sinn der Zufallsvariablen hat, OK. Aber dass es letztlich um diese geht, und nicht darum, ob Zufall irgendwie sinnvoll ist, ist eindeutig.

    BTW, wieso werden eigentlich smileys in tex-Tags interpretiert: :(😞?



  • Bashar schrieb:

    Eigentlich hätte man den ja auch direkt definieren können. Man hätte auch die Zufallsvariable nach seiner Konstruktion vergessen können. Stattdessen basiert aber fast die gesamte Stochastik auf dem Begriff der Zufallsvariablen, der Wahrscheinlichkeitsraum spielt eindeutig die zweite Geige. Warum ist das so?

    Verstehe die Frage immernoch nicht, welchen Wahrscheinlichkeitsraum meinst du?
    Ich antworte mal auf die Frage "Wieso betrachtet man den ersten Wahrscheinlichkeitsraum (Ω,A,P)(\Omega, \mathcal{A}, P) und definiert Zufallsvariablen X:(Ω,A,P)(Ω,A)X: (\Omega, \mathcal{A}, P) \to (\Omega', \mathcal{A}') statt nur den zweiten Wahrscheinlichkeitsraum (Ω,A,PX)(\Omega', \mathcal{A}', P_X) zu betrachten?".

    Für Ingenieure reicht der zweite / Bildraum aus und es stellt sich kaum jemand eine Zufallsvariable als Funktion vor.
    Wenn man mehrere Zufallsvariablen betrachten will, muss man sich dann aber schon den gemeinsamen Bildraum / Produkt anschauen.

    Wenn es unendlich viele Zufallsvariablen werden, wird's mit dem Bildraum schwierig.
    Da es in der Stochastik sehr oft um unendlich viele Zufallsvariablen geht (Konvergenzbegriffe oder z.B. http://de.wikipedia.org/wiki/Kolmogorowsches_Null-Eins-Gesetz)
    spielt die sich größtenteil im Ursprungsraum mit der Definition der Zufallsvariable als Funktion ab.



  • Ich denke auch, dass man das vor allem braucht um mehere Zufallsvariablen für dasselbe Experiment betrachten zu können. Sonst braucht man da irgendwelche aufwendigen Konstruktionen um die Bezüge überhaupt ausdrücken zu können.

    Eigentlich ist das doch fast überall so in der Mathematik, dass die Strukturen selbst hauptsächlich über die Abbildungen zwischen ihnen untersucht werden, was ggf. so weit gehen kann, dass die Strukturen sogar über diese Abbildungen und ihre Eigenschaften definiert werden.

    Übrigens vielen Dank für die Erklärung der Frage. 🙂


Anmelden zum Antworten