Der Unterschied zwischen Fachinformatikern und Diplom-Informatikern
-
Xin schrieb:
FI werden darauf geschult, Handlanger zu werden.
Genau. Und deshalb hat man in der Abschlussprüfung ein Softwareprojekt auch selbsständig zu planen und zu implementieren. Es gibt genug Fachinformatiker die selbsständig als Auftragsentwickler arbeiten oder Führungspositionen einnehmen. Also träum' weiter von den Handlangern.
-
b. (Fachinformatiker) schrieb:
Xin schrieb:
FI werden darauf geschult, Handlanger zu werden.
Genau. Und deshalb hat man in der Abschlussprüfung ein Softwareprojekt auch selbsständig zu planen und zu implementieren. Es gibt genug Fachinformatiker die selbsständig als Auftragsentwickler arbeiten oder Führungspositionen einnehmen. Also träum' weiter von den Handlangern.
War das der Punkt, an dem Du aufgehört hast zu lesen?
-
Xin schrieb:
b. (Fachinformatiker) schrieb:
Xin schrieb:
FI werden darauf geschult, Handlanger zu werden.
Genau. Und deshalb hat man in der Abschlussprüfung ein Softwareprojekt auch selbsständig zu planen und zu implementieren. Es gibt genug Fachinformatiker die selbsständig als Auftragsentwickler arbeiten oder Führungspositionen einnehmen. Also träum' weiter von den Handlangern.
War das der Punkt, an dem Du aufgehört hast zu lesen?
Du erwartest doch nicht ernsthaft von nem FIler, dass er sich ein ganzes Posting durchliest und auch noch versteht. Dazu sind wir da, wir verstehen und übersetzen es den FIlern in kleine leicht verdauliche Portionen.
-
EDIT: Hatte mich bei Xin's Beitrag verzählt. ...wie peinlich.
-
Xin schrieb:
Derartige Überwachung kostet Zeit, entsprechend macht das kein Compiler freiwillig und entsprechend kann man Software schreiben, die ohne Statusprüfungen auskommt - und das ist ist ja auch der Regelfall.
Einen Compiler zu schreiben, der jeden Status zwischenspeichert und bereits einen bereits vorhandenen Status erkennt, ist (theoretisch) kein Problem. Praktisch sieht die Sache natürlich anders aus, da man davon ausgehen muss, dass der Computer ein begrenztes System ist, dass von einem System überwacht wird, dass alle Zustände des begrenzten Systems vergleichen kann.
lol! TI geschwänzt, oder was? das problem ist mindestens genauso komplex und nicht entscheidbar wie das halteproblem selbst! somit die einfache lösung für das gestellte problem: es gibt keine lösung!!
damit wollte ich unserem ExperteFürInformatik sagen, dass eben nicht jedes problem eine lösung hat, egal, wie viel leute und zeit man zur verfügung hat oder was auch immer für tolle rechner...
Xin schrieb:
Für Deine Aufgabe, ich zitiere "gegeben eine funktion f die als eingabe ein int bekommt und als ausgabe ein int zurückgibt" - also nicht "zurückgeben könnte", sondern wirklich "zurückgibt", wurdest Du soeben von einem 16jährigen "geownt".
Wenn schon Infomatiker, dann bitte auch mit der eines Informatikers würdigen Logik in der Sprache. ^^
schreibst du immer alles im konjunktiv? ich finde, das klingt so unschön. meine profs haben mir das zudem abgewöhnt
Xin schrieb:
Wir glauben doch als fast Dipl. Inf. nicht mehr an beliebig große Zahlen, oder?
natürlich glauben wir daran. schließlich können wir in programmiersprachen abstraktionen schaffen, die quasi beliebig große werte darstellen. oder überprüfst du bei _jeder_ string-konketenation, ob du noch genug speicher hast, oder bei der addition zweier "big-integer"? klar, bestimmt nur, wenn du nur annimmst, dass evtl. nicht ausreichend speicher zur verfügung steht, aber kannst du garantieren, dass du wirklich alle fälle bedacht hast?
jedoch hat das sowieso keinen einfluss auf die aufgabenstellung, unter der annahme, dass f nicht total ist. von mir aus können das auch ints sein.
Gruß mathik
-
Xin schrieb:
War das der Punkt, an dem Du aufgehört hast zu lesen?
Ich habe dein Posting bis zum Ende gelesen - und deine Meinung unterstütze ich teilweise. Und deshalb habe ich auch nur einen Satz von dir zitiert, der meiner Meinung nach eine falsche Aussage darstellt. Weitere Informationen findest du in den offiziellen Berufsbeschreibungen der Bundesagentur für Arbeit etc.
Mal abgesehen davon hatte der Rest deines Posts nichts mehr mit der Aussage, Fachinformatiker würden zum Handlanger ausgebildet werden, zu tun.@Dipl. Inf.:
Du erwartest doch nicht ernsthaft von nem FIler, dass er sich ein ganzes Posting durchliest und auch noch versteht. Dazu sind wir da, wir verstehen und übersetzen es den FIlern in kleine leicht verdauliche Portionen.
Und genau deshalb haben es meine bisherigen Firmen vermieden, dass einige Diplominformatiker Kontakt mit den Kunden erhielten. Wer will sich schon mit so einem arroganten (offiziell lieber milde ausgedrückt) Menschen unterhalten?
Ich beziehe das nicht auf die Allgemeinheit, aber bitte: Das hier spricht für sich selbst.
-
Korbinian schrieb:
Mathik, du bekommst n dicken Keks, weil du eine Anwendung vom Satz von Rice gefunden hast.
Aber andererseits: Who cares? Diese Situation wirst du im realen Arbeitsleben zu 0.001% antreffen. Ich meine: Theorie schoen und gut, sie hilft uns ne Menge. Aber sich in die Theoretische Informatik reinzufressen, [...] finde ich etwas bedauernswert und geht meines erachtens am Ziel des Informatik Studiums vorbei.
[...] Ich denke nicht, dass man die Qualitet eines Dipl.Inf an der Menge des Theoretischen-Informatik-Wissen messen kann, und entsprechend das nur ein geringer Vorteil gegenueber dem Fachinformatiker ist.
Den Theoriehype erlebe ich vorallem bei Leuten im Grundstudium. Ist ja schoen dass es denjenigen Spass macht, aber in der wirklichen Welt, in der Anwendung und Forschung kommen diese Sachen eigentlich nur im Forschungsgebiet Theoretische Informatik vor.Öhm... so will ich das dann auch mal nicht stehen lassen.
Vielleicht sollte man sich hier darauf besinnen, dass Informatik-Studium heißt, dass man ein Infor-ma-tik-Studium macht. Wissenschaft der automatischen Informationsverarbeitung. Die Idee dahinter ist, dass man auch Dinge lernt, die a) wissenschaftlich sind (z.B. theoretische Informatik) und b) in der Realität vorkommen können.
Es kann sehr von Vorteil sein, wenn man weiß, dass eine Funktion enden wird und der Videorekorder/das Händi/der Verstärker nicht in der Funktion immer bleibt, die man selbst geschrieben hat.Dass man in der Regel im Job nicht wissenschaftlich forschend arbeitet spielt dabei keine Rolle.
Auch wenn die Ausbildung scheinbar immer mehr an die Realität angepasst wird (Quick'n'Dirty), ist ein Informatik-Studium ein akademisches Ziel, keine Job-Garantie oder Berufsausbildung. Ich bin nicht - wie mich einer meiner Profs mal sagte - "Rohmaterial für die Industrie". Ich studierte nicht, damit ich das optimale Profil für einen Arbeitsplatz habe. Mit meinem Profil kann ich aber den einen oder anderen Job produktiv ausführen.Hier ist denke ich die große Unterscheidung FI und Dipl. Infomatiker. Der FIer lernt für den Job, der Dipl. Infomatiker für die Wissenschaft. Und der Bedarf an wissenschaftlich geschulten Informatikern ist ebenso vorhanden, wie für ausgebildete Informatiker. Neue Produkte werden allerdings häufiger Informatikern mit forschendem Hintergrund anvertraut.
Korbinian schrieb:
Ich verstehe (und erlebe) Informatik eher als Ingenieurskunst auf hoeherem Level, als Zusammenfuehrung von Programmierwissen/-koennen, Theoretischen Erkenntnissen (Mathematik, Statistik, Etechnik, ...) und effizienten Einbau (Algorithmik). Aber nicht als rumgefurze a la 'ah das ist sicher das Halteproblem'.
Das "Rumgefurze" gehört irgendwo dazu, weil ohne das "Rumgefurtze" ist es nicht Ingeneurskunst sondern Stammtischlogik. Auch wenn er nicht weiß, was eine Gödelnummer ist, so kennt er die Tatsache doch berücksichtigen, in dem er darauf achtet, dass kritische Funktionen garantiert zurückkehren.
Und dass man sich als Student noch mehr für die akademischen Fragen begeistert als für die Job-Alltäglichen ist doch normal. Ist doch positiv, wenn er derartiges in seinem Alltag hat. Nicht zu wenige angehende Ingeneure benutzen die Vorlesung als Überbrückung zum nächsten Party.
-
Korbinian schrieb:
Mathik, du bekommst n dicken Keks, weil du eine Anwendung vom Satz von Rice gefunden hast.
...Oh ja, danke für den keks!
Das ist schon richtig was du schreibst. ich wollte nur die fahne der Dipl-Infs hoch halten
außerdem hat mich die aussage von ExperteFürInformatik "alles geht, wenn man nur genug zeit hat" o.ä., dazu gebracht, diese provokante aufgabenstellung zu formulieren, bei der man nicht sofort sehen kann, dass es sich einfach auf das halteproblem zurückführen lässt. wird doch sicherlich einige überrascht haben, dass für eine solche einfache aufgabe keine lösung existiert...Gruß mathik
-
Bin ich jetzt eigentlich zum ExperteFürInformatik befördert oder degradiert worden?
Das nicht alles geht war mir auch klar.
Ich gratuliere dem Definierer zu seinem schönen Thread. Dafür bekommt er gleich DREI Kekse!
-
FachmannFürInformatik schrieb:
Das nicht alles geht war mir auch klar.
ich wusste, dass jetzt so eine antwort kommt! ist doch allen sofort klar, dass das nicht lösbar ist, bla, bla... bist ein toller hengst, wenn du das sofort siehst, ohne entsprechendes hintergrundwissen zu haben!
nur komisch, dass am anfang des letzten jahrhunderts noch viele großen mathematiker dachten, dass ähnliche probleme eigentlich lösbar sein müssten. und heute weiß man, dass es doch nicht so ist...
-
mathik schrieb:
Xin schrieb:
Einen Compiler zu schreiben, der jeden Status zwischenspeichert und bereits einen bereits vorhandenen Status erkennt, ist (theoretisch) kein Problem. Praktisch sieht die Sache natürlich anders aus, da man davon ausgehen muss, dass der Computer ein begrenztes System ist, dass von einem System überwacht wird, dass alle Zustände des begrenzten Systems vergleichen kann.
lol! TI geschwänzt, oder was? das problem ist mindestens genauso komplex und nicht entscheidbar wie das halteproblem selbst! somit die einfache lösung für das gestellte problem: es gibt keine lösung!!
Ein begrenzter Computer hat eine begrenzte Anzahl von Zuständen. Das können gerne ein paar Milliarden sein, es bleibt zählbar. Und damit kannst Du die Zustände speichern und vergleichen, ob Du da schonmal warst. In dem Fall bewegst Du Dich nämlich im Kreis und die Sache kehrt nicht zurück.
Praktisch ist das allerdings ein klein wenig zu aufwendig, weil auch 32 Milliarden Computer für einen Computer mit 4G RAM und ohne HDD zu lange Reaktionszeiten haben. Vom Anschaffungspreis mal abgesehen.
Aber das spielt keine Rolle... in einem Gedankenmodell sind die problemlos verfügbar und wenn Du in den Bereich der theoretischen Informatik gehst, dann darf ich doch mit 32 Mrd Computern folgen, oder?mathik schrieb:
damit wollte ich unserem ExperteFürInformatik sagen, dass eben nicht jedes problem eine lösung hat, egal, wie viel leute und zeit man zur verfügung hat oder was auch immer für tolle rechner...
Jedes begrenzte Problem hat eine Lösung. Die Frage ist, ob die wir in der Lage sind, diese Grenzen zu erreichen. Eine Turing-Maschine hat ein unendliches Band. Daraus schließen wir erstmal, dass es in diesem Universum keine Turing Maschine gibt. Die Tatsache, dass auch kleine Touringmaschinen uns vor ein ein bemerkenswertes Problem stellen, macht die Sache aber nicht unlösbar. Nur für unsere Möglichkeiten ist eine Lösung nicht sinnvoll machbar.
mathik schrieb:
Xin schrieb:
Wenn schon Infomatiker, dann bitte auch mit der eines Informatikers würdigen Logik in der Sprache. ^^
schreibst du immer alles im konjunktiv? ich finde, das klingt so unschön. meine profs haben mir das zudem abgewöhnt
Ich schreibe vieles im Konjunktiv. Einerseits bin ich Zyniker, andererseits Informatiker und kein Marketingfritze. Das wurde mir bei meiner Diplomarbeit auch böse angerechnet. Ich sollte allgemeine und umumstößliche Aussagen treffen. Ich habe mich entschlossen wahre Aussagen zu treffen. Aber das klingt halt nicht so schön.
Abgesehen davon klingt es immer unschön, wenn jemand anderer die eigene Meinung nicht vertritt. Dabei spielt es aber keine Rolle, ob derjenige im Konjunktiv schreibe oder im Imperativ.
mathik schrieb:
Xin schrieb:
Wir glauben doch als fast Dipl. Inf. nicht mehr an beliebig große Zahlen, oder?
natürlich glauben wir daran. schließlich können wir in programmiersprachen abstraktionen schaffen, die quasi beliebig große werte darstellen.
Dir ist schon klar, dass Du da grade 'quasi' geschrieben hast. Das ist 'quasi' ein Konjunktiv in einer Aussage, die klingt, als wäre sie in Fakt. Es ist zum einen die Wahrheit, dass man 'quasi' beliebig große Zahlen darstellen kann, aber bei einem 32 Bit Computer wird jede Zahl über 4GB Größe schwierig. Und wenn ich eine beliebige 5GB große Zahl, dann wünsche ich Dir viel Spaß. 'quasi beliebig' ist eben nicht 'beliebig'.
mathik schrieb:
oder überprüfst du bei _jeder_ string-konketenation, ob du noch genug speicher hast, oder bei der addition zweier "big-integer"? klar, bestimmt nur, wenn du nur annimmst, dass evtl. nicht ausreichend speicher zur verfügung steht, aber kannst du garantieren, dass du wirklich alle fälle bedacht hast?
Kannst Du garantieren, dass Du Informatiker wirst? Das ist nicht böse gemeint, eher in der Form, ob Du garantieren kannst, dass Du den Fall bedacht hast, dass wir überhaupt existieren? Theroretisch könnten wir eine Simulation in einem ziemlich großen Computer sein.
Ich kann das auch anders ausdrücken... Was hat das mit dem Halteproblem zu tun?Wir extrapolieren ein begrenztes System auf unbegrenztes, dass immer Speicher hat? Wenn das Deine Aussage ist, dann wiederhole ich meine Frage:
Kannst Du garantieren, dass Du Informatiker wirst?
mathik schrieb:
jedoch hat das sowieso keinen einfluss auf die aufgabenstellung, unter der annahme, dass f nicht total ist. von mir aus können das auch ints sein.
Nochmal zum Mitschreiben... was f ist, oder was für ein Argument f bekommt, spielt keine Rolle, solange es in einem begrenzten System stattfindet. Dann ist es entscheidbar (kein Konjunktiv) - vielleicht nicht praktikabel entscheidbar, aber theoretisch. Sobald wir wir uns ins theoretische wagen, wo Zahlen beliebig werden und Computer beliebig viel Speicher haben, ist es unentscheidbar - und wurde von mir nie in Zweifel gezogen.
-
Xin schrieb:
Vielleicht sollte man sich hier darauf besinnen, dass Informatik-Studium heißt, dass man ein Infor-ma-tik-Studium macht. Wissenschaft der automatischen Informationsverarbeitung. Die Idee dahinter ist, dass man auch Dinge lernt, die a) wissenschaftlich sind (z.B. theoretische Informatik) und b) in der Realität vorkommen können.
Es kann sehr von Vorteil sein, wenn man weiß, dass eine Funktion enden wird und der Videorekorder/das Händi/der Verstärker nicht in der Funktion immer bleibt, die man selbst geschrieben hat.Richtig. Kann von Vorteil sein. Ist auch gut zu wissen. Aber wie gesagt, besonders diese Ecke der Theoretischen Informatik ist einfach zu 99.95% anwendungsfremd. Bitte vergiss nicht, dass ich in der ganzen Diskussion durchaus ein Befuerworter der TI bin, nur gerade _dieses_ Gebiet (Touring, Halteproblem...) ordne ich fuer mich unter "interessant, gut mal gehoert zu haben, aber eigentlich unwichtig" ab. Auch P=NP ist fuer mich ziemlich schnurz: Ich nehme zur Kenntnis, dass er NP ist, also versuche ich einen zu bauen der besser als NP laeuft, um trotzdem ein Ergebnis in vernuenftiger Zeit zu bekommen.
Ich studierte nicht, damit ich das optimale Profil für einen Arbeitsplatz habe. Mit meinem Profil kann ich aber den einen oder anderen Job produktiv ausführen.
Ich studiere, weil es mir Spass macht und einen Weg in eine Arbeitswelt ermoeglicht, die mir weiterhin Spass macht. In welchem Arbeitsgebiet das sein wird, keine Ahnung. Vielleicht werd ich ja Systemkuechenarchitekt.
Das "Rumgefurze" gehört irgendwo dazu, weil ohne das "Rumgefurtze" ist es nicht Ingeneurskunst sondern Stammtischlogik. Auch wenn er nicht weiß, was eine Gödelnummer ist, so kennt er die Tatsache doch berücksichtigen, in dem er darauf achtet, dass kritische Funktionen garantiert zurückkehren.
Wie kommt es, dass Berechenbarkeit und die ganzen Touring Geschichten so gut wie in keiner Veroeffentlichung unserer Fakultaet auftaucht? => Keine Sau braucht es, ausser etwas am Rande
Und dass man sich als Student noch mehr für die akademischen Fragen begeistert als für die Job-Alltäglichen ist doch normal. Ist doch positiv, wenn er derartiges in seinem Alltag hat. Nicht zu wenige angehende Ingeneure benutzen die Vorlesung als Überbrückung zum nächsten Party.
Ich habe nicht gesagt, dass diese Begeisterung (der von mir angesprochene Hype) negativ ist. Sie ist nur im Hinblick auf das was kommt, sei es nun Forschung oder 'normale' Arbeitswelt, schlichtweg naiv. (manche Ersties halten sich nach einem Semester TI fuer neunmalklug...)
Das einzige worauf ich in dieser ganzen Diskussion hinweisen wollte ist folgendes: Nicht wenige Dipl.Informatiker halten sich fuer was besseres, weil sie glauben (!) aeusserst komplexe Teilgebiete der Informatik zu verstehen (wenn andere da etwas drueber lesen, verstehen sie nur Bahnhof). Das macht sie stolz, obwohl sies selber nicht wirklich kapiert haben. Dieses Pseudowissen wird dann als Argument benutzt, sich dem Fachinformatiker ueberlegen zu fuehlen.
Was meines erachtens der Dipl.Inf an der Uni lernt, und was ihn wirklich vom Fachinformatiker unterscheidet: Er lernt Abstraktion und gezieltes einsetzen des Verstandes. Ich weis von vielem nicht wie es genau geht, aber ich weis genau wo ich nachlesen muss. Ich erkenne Zusammenhaenge, wo es andere nicht sehen. Ich kann 3 Abstraktionsstufen nach oben gehn, und immer nochn den Ueberblick behalten. Warum haben viele Fachinformatiker genau das nicht? Das ist schlicht und einfach in der Ausbildung begruendet: Wo ein Fachinformatiker ein spezielles Gebiet macht, und i.d.R. immer an relativ niedriger Hierarchiestufe Software entwickelt, lernt der Dipl.Inf Grundlagen zu allen Systemen, Konzepten usw. Der Dipl.Inf ist gezwungen zu lernen, wie man ueber den Tellerrand schaut, und trotzdem nicht vom Tisch faellt.edit: @xin: nachdem du anscheinend nicht einsehen willst, dass das mit satz von rice gegessen ist, ein einfaches Beispiel: f(a) = rand()*1 Unter der Annahme dass rand() entweder 0 oder 1 gibt: Kannst du entscheiden, ob immer null oder eins bei f(?) rauskommt?
Glaubs einfach dem Herrn Rice
-
Xin schrieb:
Nochmal zum Mitschreiben... was f ist, oder was für ein Argument f bekommt, spielt keine Rolle, solange es in einem begrenzten System stattfindet. Dann ist es entscheidbar (kein Konjunktiv) - vielleicht nicht praktikabel entscheidbar, aber theoretisch.
Jaja und da wir auch nur konstante Speichergrößen haben können wir auch nur konstant große Probleme lösen und damit ist auch die Laufzeit aller Algorithmen konstant.
-
Korbinian schrieb:
edit: @xin: nachdem du anscheinend nicht einsehen willst, dass das mit satz von rice gegessen ist, ein einfaches Beispiel: f(a) = rand()*1 Unter der Annahme dass rand() entweder 0 oder 1 gibt: Kannst du entscheiden, ob immer null oder eins bei f(?) rauskommt?
Glaubs einfach dem Herrn RiceDu gewinnst, wenn Du mir sagst, wo der Zufall in einem begrenzten System herkommt. ^^
Wenn Du einen externen Zufallsgenerator, sowas wie eintreffende Photonen pro Zeiteinheit oder göttliche Schnittstelle dazupackst, ist es nicht mehr begrenzt, weil Du eine exterene Eingabe tätigst.
Benutzt Du eine Formel für rand(), so ist es entscheidbar.Beachte meine Aussage: Ich spreche ausschließlich von begrenzten Systemen. Nix theoretisch.
Ein User, der immer auf 'Beenden' klicht und bei 'Wirklich Beenden' 'Nein' antwortet.... das Programm wird auch niemals enden. Mir wäre aber neu, dass die Unentschlossenheit von Computerbenutzern als Teilbereich der TI aufgenommen wurde.
Jester schrieb:
Xin schrieb:
Nochmal zum Mitschreiben... was f ist, oder was für ein Argument f bekommt, spielt keine Rolle, solange es in einem begrenzten System stattfindet. Dann ist es entscheidbar (kein Konjunktiv) - vielleicht nicht praktikabel entscheidbar, aber theoretisch.
Jaja und da wir auch nur konstante Speichergrößen haben können wir auch nur konstant große Probleme lösen und damit ist auch die Laufzeit aller Algorithmen konstant.
Öhm... sind Computer nun doch nicht mehr begrenzt? Habe ich irgendwas verpasst?
Was im Speicher(HDD...) nicht (irgendwie) darstellbar ist, kann nicht (sinnvoll) verarbeitet werden.Spricht hier irgendwer über Laufzeiten von Algorithmen? Interessiert das bei einer Frage, ob es theoretisch möglich ist?!
-
Ja, ich tue das. Ich benutze Dein (imho bescheuertes) Argument um damit noch mehr Mist zu verzapfen.
Und was machste, wenn die Funktion einfach nicht terminiert?
-
Jester schrieb:
Ja, ich tue das. Ich benutze Dein (imho bescheuertes) Argument um damit noch mehr Mist zu verzapfen.
Und was machste, wenn die Funktion einfach nicht terminiert?
Ein System mit 4 Bit hat 16 Zustände. Ein System mit 32 GBit hat entsprechend mehr Zustände. Wiederholt sich ein Zustand befindet man sich in einer Endlosschleife. Ich weiß nicht, was daran so schwer zu verstehen ist.
Man kann das begrenzte System von außen beobachten. Im Falle der Funktion, die ich in meinem ersten Posting beschrieben habe, wiederholt sich nach etwas über 16 Millionen Zuständen ein Zustand, der bereits zuvor aufgetreten ist. Wir befinden uns in einer Endlosschleife - die Funktion terminiert nicht.
Um diese Funktion zu testen muss man also 16 Millionen mal alle relevanten Werte zwischenspeichern und gucken, ob sich der Zustand wiederholt. Mehr als 2^32GBit relevante Werte sind bei einem 32Bit System nicht drin.
Das ist zählbar. Unglaublich viel, aber zählbar und damit theoretisch überwachbar.In der Theorie spielt es keine Rolle, ob das binnen 1s oder binnen 2000 Jahren zu beweisen wäre. Es besteht die theoretische Möglichkeit es zu beweisen, solange das System begrenzt ist. Auch wenn Du das bescheuert findest.
-
FachmannFürInformatik schrieb:
Ich gratuliere dem Definierer zu seinem schönen Thread. Dafür bekommt er gleich DREI Kekse!
Aber hallo!
-
Xin schrieb:
Um diese Funktion zu testen muss man also 16 Millionen mal alle relevanten Werte zwischenspeichern und gucken, ob sich der Zustand wiederholt. Mehr als 2^32GBit relevante Werte sind bei einem 32Bit System nicht drin.
Das ist zählbar. Unglaublich viel, aber zählbar und damit theoretisch überwachbar.Naja, das wird da ja schon philosophisch. Es gibt im bekannten Universum wohl weniger Teilchen, als Du da Zustände beschreiben willst. Da kann man sich durchaus mal die Frage stellen, wie sinnvoll solche Gedankenspiele sind. Fakt ist: Du kannst das, was Du Dir da theoretisch überlegst, eben doch nicht machen. Du kannst bei 2^32.000.000.000 Zuständen nicht gucken, ob einer schonmal da war (zumindest nicht im Allgemeinen). ...und das wirst Du auch in 1000 Jahren und auch in 1.000.000 Jahren nicht können.
-
mathik schrieb:
FachmannFürInformatik schrieb:
Das nicht alles geht war mir auch klar.
ich wusste, dass jetzt so eine antwort kommt! ist doch allen sofort klar, dass das nicht lösbar ist, bla, bla... bist ein toller hengst, wenn du das sofort siehst, ohne entsprechendes hintergrundwissen zu haben!
nur komisch, dass am anfang des letzten jahrhunderts noch viele großen mathematiker dachten, dass ähnliche probleme eigentlich lösbar sein müssten. und heute weiß man, dass es doch nicht so ist...Als ich geschrieben hatte, dass alles geht, wusste ich auch, dass soetwas wie von dir kommen würde. Das es algorithmisch nicht möglich ist, die Funktion eines Algorithmus zu beweisen, hört man doch schon im Grundstudium.
Eigentlich ging es da auch um solche Aussagen:
Aber der Fluss geht ja auch in die andere Richtung.
Wenn die "Arbeiter" den "Köpfen" dann sagen, dass das was die "Köpfe" wollen, zwar theoretisch 1A Sahne ist - sich aber leider so nicht umsetzen lässt.Und sowas stimmt eigentlich so gut wie nie, es sei denn, die theoretische Arbeit kommt von einem Dipl. Inf. der sogar von ein 16-jähriger Hobbyprogger gepwned wird. SCNR.
-
Xin wie willst du den Zustand eines geschlossenen Systems ermitteln ohne dabei das System zu verändern?