Warum hat Pi unendlich viele Stellen?



  • Genie schrieb:

    Verstehen würdest du meine Erklärungen sowiso nicht 😉

    Das kann allerdings sein. Insbesondere bei falschen Dingen fällt es mir oft sehr schwer sie zu verstehen.

    btw. es heißt unendlich (mit d).
    Der Link gefällt mir. Ist ein netter Effekt!



  • Geht wohl noch eleganter, aber:

    0,9999.. = a       | *10
    9,9999.. = 10*a    | -9
    0,9999.. = 10*a-9  | 0,9999.. ersetzen durch a
           a = 10*a-9
           9 = 10*a-a = a*(10-1) = a*9 => a=1
    

    Zu dem Zoomquilt gibt es auch einen Bildschirmschoner. Allerdings sehe ich keinen Zoom sondern einfach eine Bahnfahrt, die kreisfoermig ist mit so grossem Radius, dass es wie geradeaus erscheint. Oder gibt es einen optischen Unterschied zwischen reinzoomen und heranfahren?



  • Gunnar schrieb:

    Geht wohl noch eleganter, aber:

    0,9999.. = a       | *10
    9,9999.. = 10*a    | -9
    0,9999.. = 10*a-9  | 0,9999.. ersetzen durch a
           a = 10*a-9
           9 = 10*a-a = a*(10-1) = a*9 => a=1
    

    Das is mal ne gute Erklärung 👍



  • Gunnar schrieb:

    Geht wohl noch eleganter, aber:

    0,9999.. = a       | *10
    9,9999.. = 10*a    | -9
    0,9999.. = 10*a-9  | 0,9999.. ersetzen durch a
           a = 10*a-9
           9 = 10*a-a = a*(10-1) = a*9 => a=1
    

    finde die Erklärung auch gut.

    Oder gibt es einen optischen Unterschied zwischen reinzoomen und heranfahren?

    reinzommen == heranfahren.
    Der sichtbare Bereich wird (z.b. digital) vergrößert (gezoomt).
    Wenn du eine Kamera hast und die vorwärts bewegst, wird auch nur der sichtbare Bereich vergrößert, da das Objekt näher kommt. (heranfahren)
    Ist also m.E. nach ein und dasselbe nur unterschiedlich ausgedrückt.

    h.a.n.d. ballen



  • reinzommen == heranfahren.
    Der sichtbare Bereich wird (z.b. digital) vergrößert (gezoomt).
    Wenn du eine Kamera hast und die vorwärts bewegst, wird auch nur der sichtbare Bereich vergrößert, da das Objekt näher kommt. (heranfahren)
    Ist also m.E. nach ein und dasselbe nur unterschiedlich ausgedrückt.

    Das ist nicht dasselbe. Wenn ich ein 1-Euro-Stück aus 2m Entfernung fotografiere indem ich heranzoome sieht das Ergebnis anders aus als wenn ich die Kamera hinbewege.



  • Das kommt auf die Auflösung an

    Wenn ich eine 1 megaPix. Kamera habe und aus 1 meter fotografiere und dann heranzoome sieht es anders ( schlechter ) aus als wenn ich eine 8 MEga Pixel kamera verwende.

    Deswegen ist es besser bei 1 meter mit der kamera dichter ranzugehen als im Photoshop zu zoomen. wenn die auflösung nur gross genug ist, gibts da dann keinen unterschied.

    Also ist es bis jetzt nur abhängig von dem stand der technik, das mit der kamera herangehen besser ist als heranzoomen. soll man solche sachen aber wirklich von dem momentanen stand der technik abhänging machen?



  • newkid schrieb:

    Also ist es bis jetzt nur abhängig von dem stand der technik, das mit der kamera herangehen besser ist als heranzoomen.

    FALSCH, es liegt in der Systematik, nicht in der Technik. Die Technik erlaubt lediglich durch erhöhten Aufwand, wen Nachteil etwas wett zu machen. Aber herangehen ist immer besser als (das von dir gemeinte digitale) heranzoomen.



  • Ich denke Zoom hat was mit dem Einstellen der Brennweite zu tun. Das ist demnach schon was anderes.



  • naja

    wenn 0.99.... = 1 ist

    was ist dann eigentlich

    0.333.... = ?

    0.34?

    hmmm fragen über fragen

    @pfiffikus: was ist bei kameras die "unendlich" pixel hätten? oder wenn z.b. nicht 8 millionen pixel sondern 500 milliarden? dann könnte das das auge eh nicht mehr unterscheiden. wenn man zu nah rangeht dann sieht man auch unscharf. Da bringt digital zoom auf dem monitor doch mehr eventl.



  • 0.3333333 < 0.335 aber das ist immer noch <0.34
    Also sind die beiden verschieden. Die 9 ist also wichtig.



  • Wenn ich eine 1 megaPix. Kamera habe und aus 1 meter fotografiere und dann heranzoome sieht es anders ( schlechter ) aus als wenn ich eine 8 MEga Pixel kamera verwende.

    Deswegen ist es besser bei 1 meter mit der kamera dichter ranzugehen als im Photoshop zu zoomen. wenn die auflösung nur gross genug ist, gibts da dann keinen unterschied.

    Ich meinte natürlich den analogen Zoom. Es sieht dann trotzdem anders aus.



  • Jester schrieb:

    0.3333333 < 0.335 aber das ist immer noch <0.34
    Also sind die beiden verschieden. Die 9 ist also wichtig.

    aha, also nur bei der 9

    hmmm, ja ok

    da gabs doch mal so ne tolle site im netz, mit sachen die noch nicht bewiesen sind. kennst du die? oder kennst du einen "beweiss" der fehlt.





  • newkid schrieb:

    @pfiffikus: was ist bei kameras die "unendlich" pixel hätten? oder wenn z.b. nicht 8 millionen pixel sondern 500 milliarden? dann könnte das das auge eh nicht mehr unterscheiden. wenn man zu nah rangeht dann sieht man auch unscharf. Da bringt digital zoom auf dem monitor doch mehr eventl.

    Es kann keine Kameras mit unendlich Pixeln geben, das verhindert das Beugungsscheibchen. bei ca. 20 Mio. Pixel ist schluss. Macht ja auch nichts, weil das Auge eh nciht so hoch auflöst. Trotzdem ist Digitalzoom scheiße und verschlechtert IMMER die Bildqualität im vergleich zu einer Aufnahme mit optischen Zoom.



  • Pfiffikus schrieb:

    newkid schrieb:

    @pfiffikus: was ist bei kameras die "unendlich" pixel hätten? oder wenn z.b. nicht 8 millionen pixel sondern 500 milliarden? dann könnte das das auge eh nicht mehr unterscheiden. wenn man zu nah rangeht dann sieht man auch unscharf. Da bringt digital zoom auf dem monitor doch mehr eventl.

    Es kann keine Kameras mit unendlich Pixeln geben, das verhindert das Beugungsscheibchen. bei ca. 20 Mio. Pixel ist schluss. Macht ja auch nichts, weil das Auge eh nciht so hoch auflöst. Trotzdem ist Digitalzoom scheiße und verschlechtert IMMER die Bildqualität im vergleich zu einer Aufnahme mit optischen Zoom.

    woher hast du das her, das es bei 20mill schluss sein soll? auch in 100 jahren noch?

    du irrst

    das auge hat ca. ( pro auge, und ist von mensch zu mensch etwas verschieden )

    ca. 120-125 millionen sehrezeptoren auch sehzäpchen. davon sind dann nur wiederum 5 millionen fürs farb sehen verantwortlich. die restlichen für s/w.

    baoh lang ist her das ich mal ne medizin vorlesung hatte. aber daran erinnere ich mich noch.

    d.h. auflösung pro auge ca. 120 millionen 😉

    und der meiste irtum ist auch das das menschliche auge nur 25 bilder/sec warnehmen soll. nur weil das die PAL technik hergibt? bei ntsc ( fernseh ntsc != video ntsc ) sinds knapp 30

    soweit ich noch in errinnerung habe, sind es 45-55 bilder pro sec. ist von mensch zu mensch verschieden.

    testen kann man es leicht man nimmt z.b. anfangs 20 weissbilder und ein schwarzbild in der sec. wenn man es kurz flimmern sieht, dann erkennt man es noch. jetzt nimmt man immer mehr. damit kann man seine pers. fps zahl ermitteln.



  • Pfiffikus schrieb:

    Macht ja auch nichts, weil das Auge eh nciht so hoch auflöst.

    Trotzdem ist Digitalzoom scheiße und verschlechtert IMMER die Bildqualität im vergleich zu einer Aufnahme mit optischen Zoom.[/quote]

    Das ist auch noch sowas.

    1.

    Macht ja auch nichts, weil das Auge eh nciht so hoch auflöst.

    aber dann pauschalisieren

    2.

    Trotzdem ist Digitalzoom scheiße und verschlechtert IMMER die Bildqualität im vergleich zu einer Aufnahme mit optischen Zoom.

    Naja.
    Bist du ein Adler? Hast du das absolute Auge?
    Denn die MegaPixel Anzahl sagt nichts über die Qualität aus. Es ist das Material der Kamera ( objektiv ... ) was zählt.

    Nimm z.b. die C8080 ( digital kamera )
    und eine "normale"

    Dann stell dich auf nem berg oder grossen hügel und mach eine landschaftsaufnahme. fotografiere ein Dorf oder so

    Nimm bei der c8080 den einfachen digitalen zoom
    bei der anderen nimm den "einfachen" optischen zoom

    beidesmale ungefähr den gleichen bildausschnitt

    jetzt nimm beide male ein stativ und löse wenn möglich mit ner fernbedienung aus ( sodass der finger beim auslösen die kamera nicht verwackelt )

    jetzt lass beidemale 10*15 entwickeln. Und du willst mir jetzt weissmachen das du da einen unterschied siechst? der muss ja enorm fuer dich sein, da der digitalzoom ja "sch..." aussieht. und dass IMMER

    Du bist also der Mozart des Auges. so so

    Aber immer wieder interassant zu erfahren was aus einem Post werden kann der sich mit PI beschäftigt hat. Und was man daraus sonst noch so lernen kann



  • newkid schrieb:

    ca. 120-125 millionen sehrezeptoren auch sehzäpchen. davon sind dann nur wiederum 5 millionen fürs farb sehen verantwortlich. die restlichen für s/w.
    ...
    d.h. auflösung pro auge ca. 120 millionen 😉

    Es wird aber nicht jeder Rezeptor direkt ans Hirn weitergeleitet. Zwischen Rezeptoren und Sehnerv ist eine Neuronenschicht, die die Daten etwas kompakter machen (ausserdem ist diese Schicht fuer die Empfindung der 6 "Grundfarben" (inkl. Schwarz/Weiss) aus den (nur) 4 Rezeptortypen zustaendig - das ist wohl der Grund, warum man Gruen und Rot intuitiv nicht zu Gelb mischen kann, wie z.B. Blau und Rot zu Violet).

    Ich glaube der Datenumfang ist eher bei 1 Mio. "Bildpunkten" (= Nervenbahnen zum Hirn) pro Auge anzusiedeln, wobei sich die Aufloesung um den Fokuspunkt natuerlich hoeher ist. Den Rest erledigt das Gehirn, so dass die Randgebiete immer noch relativ scharf aussehen 🙂

    Die ganze Wahrnehmung haengt erstaunlich wenig vom Konzept "Pixel" ab.

    Achja, meine urspruengliche Frage war, ob sich die optische Verzerrung des Bilder beim Reinzoomen von der Verzerrung bei Reinlaufen unterscheidet, und zwar unabhaengig von Quantisierungen 🙂



  • Gunnar schrieb:

    die die Daten etwas kompakter machen (ausserdem ist diese Schicht fuer die Empfindung der 6 "Grundfarben" (inkl. Schwarz/Weiss) aus den (nur) 4 Rezeptortypen zustaendig - das ist wohl der Grund, warum man Gruen und Rot intuitiv nicht zu Gelb mischen kann, wie z.B. Blau und Rot zu Violet).

    nu ist mein wasserfarbkasten bald leer. also violott kriege ich in den schönsten schattierungen hin. aber aus grün und rot kriege ich kein gelb hin. kann es sein, daß dir ein systematischer fehler unterlaufen ist und unsere intuition doch ok ist?

    edit: es ist mir aber gelungen, aus gelb und blau ein grün zu mischen.



  • volkard schrieb:

    nu ist mein wasserfarbkasten bald leer. also violott kriege ich in den schönsten schattierungen hin. aber aus grün und rot kriege ich kein gelb hin. kann es sein, daß dir ein systematischer fehler unterlaufen ist und unsere intuition doch ok ist?

    Nein, ich meinte, dass in der Netzhaut das neuronale Netz so geschaltet ist, dass die die Anwesenheit von gruenen und roten Signalen (und blau abwesend) der Rezeptoren ein gelbes (Inter-)neuron aktiviert, was ja, wie ich sagte, unintuitiv fuers Farbempfinden ist (obwohl's bei RGB-Monitoren funktioniert). Aber ich will mich da jetzt nicht reinreiten - Halbwissen.

    Edit: Hast wohl recht, irgendwo ist da der Wurm drin..



  • Jep Gunnar

    hast schon recht, das es wenig kom "kozept" pixel abhängt wie gut man sieht.
    das ist ja auch recht egal, hauptsache man sieht "gut"

    es hängt in der tat vom gehirn ab, was es aus den informationen macht.

    was mich z.b. auch "wundert" ist das das gehirn ich glaub mit ca. 150-180 hz arbeitet. also im vergleich zum VOLKSPC recht langsam. aber eben durch 3D Schaltungen hervorragend dies ausgleichen kann.

    Was aber die kernaussage war. das der digitale zoom nicht "sch.. " ist
    ein freund von mir hat "zufälligerweise" die c8080 und die bilder sehen wirklich super gut aus. auch wenn ich den digitalzoom verwende. klar wenn man mega super unter photoshop ranzoomt siehts irgendwann mies aus. aber selbst da muss man gut ranzoomen ( bei guten vorlagen).
    bei der kamera selbst, unter verwendung des digitalzooms sieht das ergebnis eben sehr gut aus.
    ob ich jetzt den kameradigital zoom verwende ( bei 8 megapixeln ) oder nicht und dafür ein stück näher trete bei panoramaaufnahmen, bezweifle ich das man kurz mal auf bild schaut ( 10*15 ) und da grosse unterschiede feststellen kann, wenn überhaupt. Ich glaube die Begrenzung liegt auch bei 3X.

    Was der Gunnar sagt wegen den Farben. hmmm ja da war was, dass das Auge nicht mit RGB funktioniert sondern etwas anders.

    Ich glaube die Farb-Zäpfen waren:

    1. geld
    2. grün
    3. dunkelgrün/violett

    Ob wirlkich aus den 120-125 dann nur 1 wird bezweifle ich. ich weiss zwar das es KEINE 1 zu 1 Verschaltung ist, sondern 2-3 Rezeptoren zusammengeführt werden können. Stichwort Bipolare-Zellen. Es handelt sich um horizontale verschaltungen.

    Aber immer wieder interessant zu erfahren, wie gut sich "informatiker" auskennen 😉


Anmelden zum Antworten