Genügt in einer Physikklausur ein Bruch als Ergebnis?


  • Mod

    volkard schrieb:

    SeppJ schrieb:

    Du wirst das Gespött der Leute, wenn du 0.3333 +- 0.05 schreibst, weil du offensichtlich nicht verstanden hast, was Toleranzen sind.

    Ich denke, Du kennst mich gut genug, um zu wissen, daß das nicht der Fall ist.

    Das bezog sich nicht auf dich persönlich, sondern auf den hypothetischen Fall, dass du dies so schreibst. Ich hätte wohl lieber "man" anstatt "du" schreiben sollen, denn das wollte ich eigentlich ausdrücken.



  • SeppJ schrieb:

    Fritzchen geht in 3.0 Sekunden 1.0 Meter, wie weit geht er in 1.0 Sekunden?), dann wäre 1/3 falsch(!)

    Aber hier haste zweifelsfrei Unrecht.

    Klar, macht man sich lächerlich, wenn man sagt "Ich wiege 83,35 kg", weil sich das von Minute zu Minute ändert. Sogar 83 kg ist schon Quatsch, aber geduldet.
    Aber eben nur lächerlich.
    Vielleicht war es das Jahresmittel aus 10000 Wägungen. Und nicht einmal lag es unter 79,55 kg und nicht einmal lag es über 85,25 kg, aber oft dicht dran.

    Das sind für mich 83,35 kg +- 1,9kg.

    Elekronenmasse.
    http://physics.nist.gov/cgi-bin/cuu/Value?meu


  • Mod

    Und das begründest du wie außer damit, dass du das so meinst? Ich habe dir Normen genannt (über die du sicherlich Wikipedia zu Messungenauigkeiten gefunden hast, weil das der erste Link ist) und Physikbücher und Physiklehrer und Verweis auf ein ganzes Physikstudium genannt. Jetzt bring du mal was ran, außer diese Quellen alle zu ignorieren.

    Dein Link zur Elektronenmasse bestätigt mich doch nur, sie geben schließlich nur so viele Stellen an, wie ihre Ungenauigkeit zulässt.



  • Reite dich nicht noch tiefer rein, volkard. SeppJ hat vollkommen recht, es ergibt keinen Sinn, mehr Stellen anzugeben, als es die Ungenauigkeit vorgibt. Das lernt jeder im ersten Semester Physik.



  • Ich glaube, das ist weniger eine Frage von Faktenwissen denn von Philosophie. Klar "ist" es nicht so, wie SeppJ es darstellt. Aber man hat sich halt drauf geeinigt und es macht objektiv Sinn.



  • Ich sehe das ganz genauso wie SeppJ. Stichwort signifikante Stellen.



  • > Philosophie

    Wo ist das bitte Philosophie? Erklärt mir jemand denn Sinn dahinter, bei z.B. einer Waage mit 0,5g Genauigkeit eine abgenommene Masse von 34,24g anzugeben? Die letzten Stellen sind mit allerhöchster Wahrscheinlichkeit falsch. Es ergibt keinen Sinn, sie anzugeben.



  • SeppJ schrieb:

    0.3 kann alles zwischen 0.25 und 0.35 sein.

    Ich hab das ja auch mal so gelernt, aber nie verstanden.

    Zurück zu deinem Fritz. Der geht in t=3s eine Strecke von s=1m. Was war seine Geschwindigkeit, ok, v=s/t ~= 0.3 m/s, ok. Suggeriert halt, wie Du schreibst, einen Toleranzbereich zw. 0.25 und 0.35 m/s. Und das ist ja Blödsinn, weil der wirkliche Toleranzbereich zw. v_min=0.5/3.5 m/s~= 0.1 m/s und v_max=1.5/2.5 m/s ≃ 0.6 m/s liegt ...

    Darum sehe ich das ja alles ein, mit den signifikaten Stellen und so. Das kommt halt letztlich daher, dass man ne lineare Fehlerrechnung macht. Aber immer diese Regel anwenden? Welcher Sinn steckt da dahinter, wenn man so tut, als hätte man sich sehr tiefsinnige Gedanken über ne Fehlerabschätzung gemacht, die man in Wirklichkeit nicht gemacht hat, sondern nur das Mantra des Lehrers auswendig gelernt hat? Mag mir das jemand erklären?



  • > Welcher Sinn steckt da dahinter, wenn man so tut, als hätte man sich sehr tiefsinnige Gedanken über ne Fehlerabschätzung gemacht, die man in Wirklichkeit nicht gemacht hat, sondern nur das Mantra des Lehrers auswendig gelernt hat?

    Keiner. In rein theoretischen Rechenaufgaben hat das logischerweise keinen praktischen Nutzen. Wenn du aber real Messreihen nimmst (von was auch immer), dann ist es sehr entscheidend, die Ungenauigkeiten aller Messgeräte (bis hin zu Quantenfluktuationen oder einfach nur einer Skalenparallaxe) zu beachten. In dem Moment, wenn du die Werte benutzt und andere Größen aus ihnen berechnest, musst du die Fehlerfortpflanzung (z.B. mit dem Gauß-Verfahren über partielle Ableitungen) konsequent anwenden. Auch irgendeine Mittelwertsbildung hat keinerlei Effekt auf den Fehler! Auch nach 1 Million Messungen mit einem Fehler von 0,5 ist der Mittelwert mit dem Fehler 0,5 belegt.

    Die Angabe keiner/zu weniger Stellen bei einer gewissen Ungenauigkeit ist nie falsch. Bei einer gegebenen Ungenauigkeit viel zu feine Werte anzugeben ist jedoch einfach nur unsinnig. Die letzten Stellen sind einfach nichts wert, weil das Messgerät ihre Richtigkeit nicht bestätigen kann.
    Das ist keine Glaubensfrage, sondern pure Vernunft.



  • Das ist mir ja alles soweit klar (ich habe hier auch irgendwo einen Zettel rumliegen, das mit Grundkenntnisse in Messtechnik und so attestiert). Ich wollte wissen, woher die Regel "immer so viele Stellen wie in der Angabe" kommt und welchen Sinn sie genau hat.



  • SeppJ schrieb:

    [...] (Beispiel: Fritzchen geht in 3.0 Sekunden 1.0 Meter, wie weit geht er in 1.0 Sekunden?), dann wäre 1/3 falsch(!) [...]

    Hier im Thread kollidiert einfach das Mathematiker-/Informatiker-/Programmierer-Hirn mit den Gegebenheiten in der Physik.
    Ich kann Deine Begründungen nachvollziehen, tue mir aber schwer damit sie zu verinnerlichen. Genauso, wie ich bei jeder physikalischen Herleitung aussteige, sobald z.B. sin(x) für hinreichend kleine Werte als x angenommen, und dann fröhlich damit weitergerechnet wird. Die Gründe sind mir bewusst (Pragmatisch: Einfachheit. Theoretisch: Erstes Glied beim Taylor), aber das Endergebnis ist immer unbefriedigend. Manche Hirne wollen einfach nichts von Toleranzen hören und werden dadurch nicht befriedigt.
    Dürfte einer der Gründe sein, warum ich trotz allem Interesse damals die Finger von einem Physik-Studium gelassen habe. Aber Hut ab, dass Du Dich in beiden Welten zu Hause fühlst, Sepp.

    @volkard
    Willkommen zurück. Freut mich, dass Du wieder dabei bist 👍

    [edit von Christoph: sdf aus diesem Thread entfernt]



  • µ schrieb:

    Hier im Thread kollidiert einfach das Mathematiker-/Informatiker-/Programmierer-Hirn mit den Gegebenheiten in der Physik.
    Ich kann Deine Begründungen nachvollziehen, tue mir aber schwer damit sie zu verinnerlichen.

    Entschuldige, das stimmt einfach nicht. Jeder schätzt tagtäglich Ungenauigkeiten ab. Beipiel: Kann ein Bus noch erreicht werden. Man schätzt Strecke, verbleibende Zeit / Busgeschwindigkeit, eigene Geschwindigkeit. Das ist fehlerbehaftet ohne Ende. Und ob gerannt wird oder nicht, hängt davon ab, ob der Bus mit einer gewissen Wahrscheinlichekit / innerhalb gewisser Fehlergrenzen erreicht werden kann. Das ist Experimentalphysik pur 😉



  • Ich sag mal nichts zu der Frage der signifikanten Stellen, aber etwas zu Näherungen, die hier ja auch in die Diskussion gekommen sind...

    µ schrieb:

    Hier im Thread kollidiert einfach das Mathematiker-/Informatiker-/Programmierer-Hirn mit den Gegebenheiten in der Physik.

    Manche Hirne wollen einfach nichts von Toleranzen hören und werden dadurch nicht befriedigt.

    Näherungen sind ein zentraler Aspekt von Modellbildungen. Für physikalische Problemstellungen sind die unglaublich wichtig, um das Problem handhabbar zu halten. In der Informatik muss man in erster Linie anders geartete Problemstellungen modellieren, die ganz andere Ursachen für die Komplexität der Aufgabenstellung haben. Hier hat man es oft mit sehr umfangreichen Zusammenhängen zu tun und man begegnet diesen Problemstellungen in der Regel mit einer Form von Hierarchiebildung. Beim Programmieren sieht man das ja ganz gut: Wenn man da ein längeres Stück Code in einer Methode hat, dann überlegt man sich, ob man die nicht weiter in Untermethoden zerlegen kann. Dadurch hat man in der eigentlichen Methode einen abstrakteren Zugang zu dem Problem und in den Untermethoden jeweils kleinere Problemstellungen.

    Aber: Auch als Informatiker muss man Zusammenhänge modellieren können, die physikalisch formuliert werden müssen. Selbstverständlich setzt man dann auch entsprechende Näherungslösungen ein. Vor allem in den unterschiedlichen Bereichen, in denen Signalverarbeitung auftritt, ist so eine Herangehensweise oft nötig.

    Auch in ganz anderen Informatikbereichen sind Näherungsverfahren relevant. Zum Beispiel ist das Gebiet der Approximationsalgorithmen sehr wichtig bei der Handhabung nicht effizient exakt lösbarer Optimierungsprobleme. Hier geht es jetzt also um Komplexitätstheorie.

    Was ich sagen will ist, dass Näherungen einem Informatiker nicht fremd sein sollten und ihm auch kein Unbehagen bereiten sollten. Sie sind ein sehr mächtiges Mittel bei der Modellierung bestimmter Zusammenhänge. Und der Einsatz von Näherungen impliziert natürlich auch immer die Akzeptanz gewisser Abweichungen von der Optimallösung. Man hat es also auch hier mit Toleranzen zu tun.


Anmelden zum Antworten