Der Unterschied zwischen Fachinformatikern und Diplom-Informatikern
-
Korbinian schrieb:
Mathik, du bekommst n dicken Keks, weil du eine Anwendung vom Satz von Rice gefunden hast.
...Oh ja, danke für den keks!
Das ist schon richtig was du schreibst. ich wollte nur die fahne der Dipl-Infs hoch halten
außerdem hat mich die aussage von ExperteFürInformatik "alles geht, wenn man nur genug zeit hat" o.ä., dazu gebracht, diese provokante aufgabenstellung zu formulieren, bei der man nicht sofort sehen kann, dass es sich einfach auf das halteproblem zurückführen lässt. wird doch sicherlich einige überrascht haben, dass für eine solche einfache aufgabe keine lösung existiert...Gruß mathik
-
Bin ich jetzt eigentlich zum ExperteFürInformatik befördert oder degradiert worden?
Das nicht alles geht war mir auch klar.
Ich gratuliere dem Definierer zu seinem schönen Thread. Dafür bekommt er gleich DREI Kekse!
-
FachmannFürInformatik schrieb:
Das nicht alles geht war mir auch klar.
ich wusste, dass jetzt so eine antwort kommt! ist doch allen sofort klar, dass das nicht lösbar ist, bla, bla... bist ein toller hengst, wenn du das sofort siehst, ohne entsprechendes hintergrundwissen zu haben!
nur komisch, dass am anfang des letzten jahrhunderts noch viele großen mathematiker dachten, dass ähnliche probleme eigentlich lösbar sein müssten. und heute weiß man, dass es doch nicht so ist...
-
mathik schrieb:
Xin schrieb:
Einen Compiler zu schreiben, der jeden Status zwischenspeichert und bereits einen bereits vorhandenen Status erkennt, ist (theoretisch) kein Problem. Praktisch sieht die Sache natürlich anders aus, da man davon ausgehen muss, dass der Computer ein begrenztes System ist, dass von einem System überwacht wird, dass alle Zustände des begrenzten Systems vergleichen kann.
lol! TI geschwänzt, oder was? das problem ist mindestens genauso komplex und nicht entscheidbar wie das halteproblem selbst! somit die einfache lösung für das gestellte problem: es gibt keine lösung!!
Ein begrenzter Computer hat eine begrenzte Anzahl von Zuständen. Das können gerne ein paar Milliarden sein, es bleibt zählbar. Und damit kannst Du die Zustände speichern und vergleichen, ob Du da schonmal warst. In dem Fall bewegst Du Dich nämlich im Kreis und die Sache kehrt nicht zurück.
Praktisch ist das allerdings ein klein wenig zu aufwendig, weil auch 32 Milliarden Computer für einen Computer mit 4G RAM und ohne HDD zu lange Reaktionszeiten haben. Vom Anschaffungspreis mal abgesehen.
Aber das spielt keine Rolle... in einem Gedankenmodell sind die problemlos verfügbar und wenn Du in den Bereich der theoretischen Informatik gehst, dann darf ich doch mit 32 Mrd Computern folgen, oder?mathik schrieb:
damit wollte ich unserem ExperteFürInformatik sagen, dass eben nicht jedes problem eine lösung hat, egal, wie viel leute und zeit man zur verfügung hat oder was auch immer für tolle rechner...
Jedes begrenzte Problem hat eine Lösung. Die Frage ist, ob die wir in der Lage sind, diese Grenzen zu erreichen. Eine Turing-Maschine hat ein unendliches Band. Daraus schließen wir erstmal, dass es in diesem Universum keine Turing Maschine gibt. Die Tatsache, dass auch kleine Touringmaschinen uns vor ein ein bemerkenswertes Problem stellen, macht die Sache aber nicht unlösbar. Nur für unsere Möglichkeiten ist eine Lösung nicht sinnvoll machbar.
mathik schrieb:
Xin schrieb:
Wenn schon Infomatiker, dann bitte auch mit der eines Informatikers würdigen Logik in der Sprache. ^^
schreibst du immer alles im konjunktiv? ich finde, das klingt so unschön. meine profs haben mir das zudem abgewöhnt
Ich schreibe vieles im Konjunktiv. Einerseits bin ich Zyniker, andererseits Informatiker und kein Marketingfritze. Das wurde mir bei meiner Diplomarbeit auch böse angerechnet. Ich sollte allgemeine und umumstößliche Aussagen treffen. Ich habe mich entschlossen wahre Aussagen zu treffen. Aber das klingt halt nicht so schön.
Abgesehen davon klingt es immer unschön, wenn jemand anderer die eigene Meinung nicht vertritt. Dabei spielt es aber keine Rolle, ob derjenige im Konjunktiv schreibe oder im Imperativ.
mathik schrieb:
Xin schrieb:
Wir glauben doch als fast Dipl. Inf. nicht mehr an beliebig große Zahlen, oder?
natürlich glauben wir daran. schließlich können wir in programmiersprachen abstraktionen schaffen, die quasi beliebig große werte darstellen.
Dir ist schon klar, dass Du da grade 'quasi' geschrieben hast. Das ist 'quasi' ein Konjunktiv in einer Aussage, die klingt, als wäre sie in Fakt. Es ist zum einen die Wahrheit, dass man 'quasi' beliebig große Zahlen darstellen kann, aber bei einem 32 Bit Computer wird jede Zahl über 4GB Größe schwierig. Und wenn ich eine beliebige 5GB große Zahl, dann wünsche ich Dir viel Spaß. 'quasi beliebig' ist eben nicht 'beliebig'.
mathik schrieb:
oder überprüfst du bei _jeder_ string-konketenation, ob du noch genug speicher hast, oder bei der addition zweier "big-integer"? klar, bestimmt nur, wenn du nur annimmst, dass evtl. nicht ausreichend speicher zur verfügung steht, aber kannst du garantieren, dass du wirklich alle fälle bedacht hast?
Kannst Du garantieren, dass Du Informatiker wirst? Das ist nicht böse gemeint, eher in der Form, ob Du garantieren kannst, dass Du den Fall bedacht hast, dass wir überhaupt existieren? Theroretisch könnten wir eine Simulation in einem ziemlich großen Computer sein.
Ich kann das auch anders ausdrücken... Was hat das mit dem Halteproblem zu tun?Wir extrapolieren ein begrenztes System auf unbegrenztes, dass immer Speicher hat? Wenn das Deine Aussage ist, dann wiederhole ich meine Frage:
Kannst Du garantieren, dass Du Informatiker wirst?
mathik schrieb:
jedoch hat das sowieso keinen einfluss auf die aufgabenstellung, unter der annahme, dass f nicht total ist. von mir aus können das auch ints sein.
Nochmal zum Mitschreiben... was f ist, oder was für ein Argument f bekommt, spielt keine Rolle, solange es in einem begrenzten System stattfindet. Dann ist es entscheidbar (kein Konjunktiv) - vielleicht nicht praktikabel entscheidbar, aber theoretisch. Sobald wir wir uns ins theoretische wagen, wo Zahlen beliebig werden und Computer beliebig viel Speicher haben, ist es unentscheidbar - und wurde von mir nie in Zweifel gezogen.
-
Xin schrieb:
Vielleicht sollte man sich hier darauf besinnen, dass Informatik-Studium heißt, dass man ein Infor-ma-tik-Studium macht. Wissenschaft der automatischen Informationsverarbeitung. Die Idee dahinter ist, dass man auch Dinge lernt, die a) wissenschaftlich sind (z.B. theoretische Informatik) und b) in der Realität vorkommen können.
Es kann sehr von Vorteil sein, wenn man weiß, dass eine Funktion enden wird und der Videorekorder/das Händi/der Verstärker nicht in der Funktion immer bleibt, die man selbst geschrieben hat.Richtig. Kann von Vorteil sein. Ist auch gut zu wissen. Aber wie gesagt, besonders diese Ecke der Theoretischen Informatik ist einfach zu 99.95% anwendungsfremd. Bitte vergiss nicht, dass ich in der ganzen Diskussion durchaus ein Befuerworter der TI bin, nur gerade _dieses_ Gebiet (Touring, Halteproblem...) ordne ich fuer mich unter "interessant, gut mal gehoert zu haben, aber eigentlich unwichtig" ab. Auch P=NP ist fuer mich ziemlich schnurz: Ich nehme zur Kenntnis, dass er NP ist, also versuche ich einen zu bauen der besser als NP laeuft, um trotzdem ein Ergebnis in vernuenftiger Zeit zu bekommen.
Ich studierte nicht, damit ich das optimale Profil für einen Arbeitsplatz habe. Mit meinem Profil kann ich aber den einen oder anderen Job produktiv ausführen.
Ich studiere, weil es mir Spass macht und einen Weg in eine Arbeitswelt ermoeglicht, die mir weiterhin Spass macht. In welchem Arbeitsgebiet das sein wird, keine Ahnung. Vielleicht werd ich ja Systemkuechenarchitekt.
Das "Rumgefurze" gehört irgendwo dazu, weil ohne das "Rumgefurtze" ist es nicht Ingeneurskunst sondern Stammtischlogik. Auch wenn er nicht weiß, was eine Gödelnummer ist, so kennt er die Tatsache doch berücksichtigen, in dem er darauf achtet, dass kritische Funktionen garantiert zurückkehren.
Wie kommt es, dass Berechenbarkeit und die ganzen Touring Geschichten so gut wie in keiner Veroeffentlichung unserer Fakultaet auftaucht? => Keine Sau braucht es, ausser etwas am Rande
Und dass man sich als Student noch mehr für die akademischen Fragen begeistert als für die Job-Alltäglichen ist doch normal. Ist doch positiv, wenn er derartiges in seinem Alltag hat. Nicht zu wenige angehende Ingeneure benutzen die Vorlesung als Überbrückung zum nächsten Party.
Ich habe nicht gesagt, dass diese Begeisterung (der von mir angesprochene Hype) negativ ist. Sie ist nur im Hinblick auf das was kommt, sei es nun Forschung oder 'normale' Arbeitswelt, schlichtweg naiv. (manche Ersties halten sich nach einem Semester TI fuer neunmalklug...)
Das einzige worauf ich in dieser ganzen Diskussion hinweisen wollte ist folgendes: Nicht wenige Dipl.Informatiker halten sich fuer was besseres, weil sie glauben (!) aeusserst komplexe Teilgebiete der Informatik zu verstehen (wenn andere da etwas drueber lesen, verstehen sie nur Bahnhof). Das macht sie stolz, obwohl sies selber nicht wirklich kapiert haben. Dieses Pseudowissen wird dann als Argument benutzt, sich dem Fachinformatiker ueberlegen zu fuehlen.
Was meines erachtens der Dipl.Inf an der Uni lernt, und was ihn wirklich vom Fachinformatiker unterscheidet: Er lernt Abstraktion und gezieltes einsetzen des Verstandes. Ich weis von vielem nicht wie es genau geht, aber ich weis genau wo ich nachlesen muss. Ich erkenne Zusammenhaenge, wo es andere nicht sehen. Ich kann 3 Abstraktionsstufen nach oben gehn, und immer nochn den Ueberblick behalten. Warum haben viele Fachinformatiker genau das nicht? Das ist schlicht und einfach in der Ausbildung begruendet: Wo ein Fachinformatiker ein spezielles Gebiet macht, und i.d.R. immer an relativ niedriger Hierarchiestufe Software entwickelt, lernt der Dipl.Inf Grundlagen zu allen Systemen, Konzepten usw. Der Dipl.Inf ist gezwungen zu lernen, wie man ueber den Tellerrand schaut, und trotzdem nicht vom Tisch faellt.edit: @xin: nachdem du anscheinend nicht einsehen willst, dass das mit satz von rice gegessen ist, ein einfaches Beispiel: f(a) = rand()*1 Unter der Annahme dass rand() entweder 0 oder 1 gibt: Kannst du entscheiden, ob immer null oder eins bei f(?) rauskommt?
Glaubs einfach dem Herrn Rice
-
Xin schrieb:
Nochmal zum Mitschreiben... was f ist, oder was für ein Argument f bekommt, spielt keine Rolle, solange es in einem begrenzten System stattfindet. Dann ist es entscheidbar (kein Konjunktiv) - vielleicht nicht praktikabel entscheidbar, aber theoretisch.
Jaja und da wir auch nur konstante Speichergrößen haben können wir auch nur konstant große Probleme lösen und damit ist auch die Laufzeit aller Algorithmen konstant.
-
Korbinian schrieb:
edit: @xin: nachdem du anscheinend nicht einsehen willst, dass das mit satz von rice gegessen ist, ein einfaches Beispiel: f(a) = rand()*1 Unter der Annahme dass rand() entweder 0 oder 1 gibt: Kannst du entscheiden, ob immer null oder eins bei f(?) rauskommt?
Glaubs einfach dem Herrn RiceDu gewinnst, wenn Du mir sagst, wo der Zufall in einem begrenzten System herkommt. ^^
Wenn Du einen externen Zufallsgenerator, sowas wie eintreffende Photonen pro Zeiteinheit oder göttliche Schnittstelle dazupackst, ist es nicht mehr begrenzt, weil Du eine exterene Eingabe tätigst.
Benutzt Du eine Formel für rand(), so ist es entscheidbar.Beachte meine Aussage: Ich spreche ausschließlich von begrenzten Systemen. Nix theoretisch.
Ein User, der immer auf 'Beenden' klicht und bei 'Wirklich Beenden' 'Nein' antwortet.... das Programm wird auch niemals enden. Mir wäre aber neu, dass die Unentschlossenheit von Computerbenutzern als Teilbereich der TI aufgenommen wurde.
Jester schrieb:
Xin schrieb:
Nochmal zum Mitschreiben... was f ist, oder was für ein Argument f bekommt, spielt keine Rolle, solange es in einem begrenzten System stattfindet. Dann ist es entscheidbar (kein Konjunktiv) - vielleicht nicht praktikabel entscheidbar, aber theoretisch.
Jaja und da wir auch nur konstante Speichergrößen haben können wir auch nur konstant große Probleme lösen und damit ist auch die Laufzeit aller Algorithmen konstant.
Öhm... sind Computer nun doch nicht mehr begrenzt? Habe ich irgendwas verpasst?
Was im Speicher(HDD...) nicht (irgendwie) darstellbar ist, kann nicht (sinnvoll) verarbeitet werden.Spricht hier irgendwer über Laufzeiten von Algorithmen? Interessiert das bei einer Frage, ob es theoretisch möglich ist?!
-
Ja, ich tue das. Ich benutze Dein (imho bescheuertes) Argument um damit noch mehr Mist zu verzapfen.
Und was machste, wenn die Funktion einfach nicht terminiert?
-
Jester schrieb:
Ja, ich tue das. Ich benutze Dein (imho bescheuertes) Argument um damit noch mehr Mist zu verzapfen.
Und was machste, wenn die Funktion einfach nicht terminiert?
Ein System mit 4 Bit hat 16 Zustände. Ein System mit 32 GBit hat entsprechend mehr Zustände. Wiederholt sich ein Zustand befindet man sich in einer Endlosschleife. Ich weiß nicht, was daran so schwer zu verstehen ist.
Man kann das begrenzte System von außen beobachten. Im Falle der Funktion, die ich in meinem ersten Posting beschrieben habe, wiederholt sich nach etwas über 16 Millionen Zuständen ein Zustand, der bereits zuvor aufgetreten ist. Wir befinden uns in einer Endlosschleife - die Funktion terminiert nicht.
Um diese Funktion zu testen muss man also 16 Millionen mal alle relevanten Werte zwischenspeichern und gucken, ob sich der Zustand wiederholt. Mehr als 2^32GBit relevante Werte sind bei einem 32Bit System nicht drin.
Das ist zählbar. Unglaublich viel, aber zählbar und damit theoretisch überwachbar.In der Theorie spielt es keine Rolle, ob das binnen 1s oder binnen 2000 Jahren zu beweisen wäre. Es besteht die theoretische Möglichkeit es zu beweisen, solange das System begrenzt ist. Auch wenn Du das bescheuert findest.
-
FachmannFürInformatik schrieb:
Ich gratuliere dem Definierer zu seinem schönen Thread. Dafür bekommt er gleich DREI Kekse!
Aber hallo!
-
Xin schrieb:
Um diese Funktion zu testen muss man also 16 Millionen mal alle relevanten Werte zwischenspeichern und gucken, ob sich der Zustand wiederholt. Mehr als 2^32GBit relevante Werte sind bei einem 32Bit System nicht drin.
Das ist zählbar. Unglaublich viel, aber zählbar und damit theoretisch überwachbar.Naja, das wird da ja schon philosophisch. Es gibt im bekannten Universum wohl weniger Teilchen, als Du da Zustände beschreiben willst. Da kann man sich durchaus mal die Frage stellen, wie sinnvoll solche Gedankenspiele sind. Fakt ist: Du kannst das, was Du Dir da theoretisch überlegst, eben doch nicht machen. Du kannst bei 2^32.000.000.000 Zuständen nicht gucken, ob einer schonmal da war (zumindest nicht im Allgemeinen). ...und das wirst Du auch in 1000 Jahren und auch in 1.000.000 Jahren nicht können.
-
mathik schrieb:
FachmannFürInformatik schrieb:
Das nicht alles geht war mir auch klar.
ich wusste, dass jetzt so eine antwort kommt! ist doch allen sofort klar, dass das nicht lösbar ist, bla, bla... bist ein toller hengst, wenn du das sofort siehst, ohne entsprechendes hintergrundwissen zu haben!
nur komisch, dass am anfang des letzten jahrhunderts noch viele großen mathematiker dachten, dass ähnliche probleme eigentlich lösbar sein müssten. und heute weiß man, dass es doch nicht so ist...Als ich geschrieben hatte, dass alles geht, wusste ich auch, dass soetwas wie von dir kommen würde. Das es algorithmisch nicht möglich ist, die Funktion eines Algorithmus zu beweisen, hört man doch schon im Grundstudium.
Eigentlich ging es da auch um solche Aussagen:
Aber der Fluss geht ja auch in die andere Richtung.
Wenn die "Arbeiter" den "Köpfen" dann sagen, dass das was die "Köpfe" wollen, zwar theoretisch 1A Sahne ist - sich aber leider so nicht umsetzen lässt.Und sowas stimmt eigentlich so gut wie nie, es sei denn, die theoretische Arbeit kommt von einem Dipl. Inf. der sogar von ein 16-jähriger Hobbyprogger gepwned wird. SCNR.
-
Xin wie willst du den Zustand eines geschlossenen Systems ermitteln ohne dabei das System zu verändern?
-
Gregor schrieb:
Naja, das wird da ja schon philosophisch. Es gibt im bekannten Universum wohl weniger Teilchen, als Du da Zustände beschreiben willst. Da kann man sich durchaus mal die Frage stellen, wie sinnvoll solche Gedankenspiele sind.
Zweifelsohne... üblicherweise braucht man ja auch nicht soviele Zustände zu überwachen.
In der Realität werden i.d.R. wesentlich kleinere Zustandsysteme verwendet. Unter realistischen Bedingungen wäre auch testbar. Ob meine Floatingpoint-Aufgabe hält oder nicht ist bei einem Aufwand von etwa 70 MByte prüfbar. Dann kommt es zum eindeutigen Ergebnis "Funktion hält nicht", weil sich ein Zustand wiederholt.
So kann man die Bereiche in kleinsten Funktionseinheiten finden, die kritisch sind und braucht nur noch zu prüfen, ob die Funktion, die Funktionseinheit mit einem kritischen Startwert beginnt.
Was mathik behauptet ist ein Riesenproblem und extremst aufwendig. Aber in realistischen Bereichen teilweise sogar praktisch lösbar.
Aber darum geht es ja nicht. Es geht darum, dass mathik versucht hat, jemanden mit theoretischer Informatik in die Enge zu treiben und solange seine Aufgabe modifizierte, bis sie nun wirklich und endlich unlösbar wurde, sich also weit von jeglicher Realität entfernte. Beliebig große Zahlen sind in der Informatik nur eine Theorie - genauso wie es immer Theorie bleiben wird 2^32G Zustände zu prüfen.
Dipl. Inf. schrieb:
Xin wie willst du den Zustand eines geschlossenen Systems ermitteln ohne dabei das System zu verändern?
Wenn Du den Speicher ausliest, verändert sich dieser nicht. Wir befinden uns nicht in der Quantenphysik.
-
Beim Auslesen des Speichers wird doch der Speicher gelöscht (und anschließend neu beschrieben), d. h. du musst dazu Teile aus dem Testsystem verwenden zum Ermitteln des Zustandes, bleibt das ganze dann trotzdem noch ein geschlossenes System?
-
Korbinian schrieb:
Den Theoriehype ('oh ist das alles toll, ich weis endlich was NP ist, und ich kann alles aufs Halteproblem reduzieren') erlebe ich vorallem bei Leuten im Grundstudium. Ist ja schoen dass es denjenigen Spass macht (obwohl ich sicher bin, dass nur 2% von denen die Sachen 100% verstehen und auch selbst beweisen koennen), aber in der wirklichen Welt, in der Anwendung und Forschung kommen diese Sachen eigentlich nur im Forschungsgebiet Theoretische Informatik vor. Ich verstehe (und erlebe) Informatik eher als Ingenieurskunst auf hoeherem Level, als Zusammenfuehrung von Programmierwissen/-koennen, Theoretischen Erkenntnissen (Mathematik, Statistik, Etechnik, ...) und effizienten Einbau (Algorithmik). Aber nicht als rumgefurze a la 'ah das ist sicher das Halteproblem'.
Naja, die theoretische Informatik kann man letztendlich ähnlich wie die Mathematik sehen: Da werden abstrakte Strukturen erforscht. Ich halte das durchaus auch für die Praxis für relevant. ...und zwar immer dann wenn man sich mit nichttrivialen Dingen beschäftigen muss, die vielleicht auch neue Aspekte enthalten. Sobald man in der Praxis Strukturen entdeckt, die man in der Theorie untersucht hat, kann man gleich jede Menge Aussagen über die Praxis machen, man kann Dinge besser einschätzen usw..
Bei uns wird zum Beispiel auch die Systemtheorie zur theoretischen Informatik gezählt. Deren praktische Relevanz ist zum Beispiel enorm. Gerade als Bildverarbeiter, wie Du doch einer bist, sollte man das wohl sehen. ...naja, vielleicht fällt das bei euch nicht in die theoretische Informatik, weiß nicht. Aber auch in anderen Bereichen der künstlichen Intelligenz gibt es Bereiche der theoretischen Informatik, die für die Praxis äußerst relevant sind. Da kriegt man es dann plötzlich mit irgendwelchen regelbasierten Systemen zu tun, in denen gewisse Logiken eine Rolle spielen und und und. ...ich habe hier auch ein Bildverarbeitungsbuch, in dem es irgendwo plötzlich mit Grammatiken, formalen Sprachen und so weiter losgeht.
Sicher: Wenn man als Informatiker nur am Programmieren von irgendwelchen 08/15-Programmen ist, dann bringt einem das gar nichts. Die Theorie wird erst dann relevant, wenn man niveauvolle, schwierige, komplexe Aufgaben bewältigen muss.
Im Übrigen halte ich es nicht für wichtig, bestimmte Sätze aus der theoretischen Informatik beweisen zu können. Das ist letztendlich nur in der Lehre oder in der Forschung wichtig, wenn man bei anderen eine Akzeptanz für die jeweilige Aussage erreichen möchte. Wichtig ist, dass man die Struktur begreift, die jeweils beschrieben wird. Man muss die Aussagen der Sätze verstehen und wissen, wie sie mit anderen Dingen im Zusammenhang stehen.
-
@xin
ich definiere f wie folgt:int f(int a) { return h("int f(int a) { return h() 1 : 0; }") 1 : 0; }
du hast hier ein widerspruch! egal wie du dein super tolles beobachtungs-programm machst und egal wie viel speicher dein super computer hat!
Gruß mathik
-
mathik schrieb:
@xin
ich definiere f wie folgt:int f(int a) { return h("int f(int a) { return h() 1 : 0; }") 1 : 0; }
du hast hier ein widerspruch! egal wie du dein super tolles beobachtungs-programm machst und egal wie viel speicher dein super computer hat!
Gruß mathik
Geht man davon aus dass eine leere Funktion immer 0 zurueckliefert, liefert deine f-Funktion (die BTW Syntax- und Semantikfehler enthaelt) immer 1 zurueck.
Koennen wir jetzt endlich diesen ganzen Penislaengen-Vergleich lassen. Unter Kampfkuenstler gilt "es gibt keine besste Kampfkunst, im Ring stehen sich immer nur Kaempfer gegenueber, und nie 2 Kampfkuenste", koennen wir uns drauf einigen dass das auch bei Dipl.Infs VS Fach-Inf.s gilt und das rumgedoense lassen?
-
@Gregor: Wie schon mehrfach gesagt beziehe ich mich eigentlich ausschliesslich auf Komplexitaetstheorie und Berechenbarkeit. Von anderen theoretischen Erkenntnissen bin ich ja direkt betroffen
-
Korbinian schrieb:
@Gregor: Wie schon mehrfach gesagt beziehe ich mich eigentlich ausschliesslich auf Komplexitaetstheorie und Berechenbarkeit. Von anderen theoretischen Erkenntnissen bin ich ja direkt betroffen
Ach so, verdammt. ...das vergesse ich in diesem Thread immer wieder, wenn ich solche Äußerungen lese.