Theoretische Informatik?



  • namenlos schrieb:

    ok... ich bin wohl auch zu dumm um die innovationen auf der seite zu erkennen...

    Das Singularity ist aber ein wirklich interessantes Forschungsobjekt! Hier auch mal der Wikipedia-Link (wäre wahrscheinlich sinnvoller gewesen): http://de.wikipedia.org/wiki/Singularity



  • namenlos schrieb:

    die grundlagen der informatik sind von mathematiker vor teilweise über 60 jahren schon gelöst worden.

    das stimmt nicht. im bereich komplexitätstheorie gibt es noch jede menge offene fragen. und es gibt auch immer noch diverse algorithmen und datenstrukturen zu erfinden oder zu analysieren.

    die heutige informatik beschäftigt sich nicht mehr mit lapalien wie netzwerken, programmiersprachen, compiler, betriebssystemen und so.

    doch, das alles sind zentrale bereiche der informatik. gerade im bereich betriebssysteme ist man in der forschung sehr stark mit mikrokerneln beschäftigt. die praxis bewegt sich nur langsam in diese richtung, hat aber durchaus fahrt in diese richtung aufgenommen. auch in der code-optimierung hat sich in den letzten 20 Jahren einiges bewegt.
    Oder denk mal an algorithmen. Zum Beispiel der PageRank-Algorithmus von google. Sozusagen ein Algorithmus, der die Welt verändert hat. Auch die Entschlüsselung des menschlichen Genoms war eine der großen Informatik-Leistungen letzter Zeit: Ein Algorithmus, der ein riesiges kombinatorisches optimierungsproblem löst.

    die heutige informatik beschäftigt sich nur mehr damit, die probleme anderer wissenschaften am computer zu lösen. dh zb. für die lavinenforschungsgruppe ihr einen simulator zu bauen. oder auch für die meteorologen. dh. man ist fast am besten dran, wenn man informatik nicht allein studiert, sondern sich ein zweites fach sucht, in dem man die informatik dann anwenden kann. am besten was naturwissenschaftliches.

    hab ich das jetzt richtig kapiert?

    das ist sicherlich eine richtung, in der man informatik betreiben kann, aber es ist nicht zwingend die einzige möglichkeit. letztlich ist es ja auch nichts schlechtes sich an den realen problemen anderer zu messen. wenn alle probleme für etwa die lawinenforschung gelöst wären, dann würde sich kein informatiker dransetzen, sondern die würden sagen programmiert euern kram doch selber. offensichtlich ist man aber der meinung man könne da noch was dran lernen, also arbeitet man dran. zum beispiel könnte ein ziel ja sein die problematik solcher systeme besser zu verstehen, oder so eine art simulationsbaukasten zu entwickeln, so dass die das in zukunft besser selber können.



  • @Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?



  • Gregor schrieb:

    @Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?

    Ich lese eigentlich kaum komplette Zeitschriften. Meist finde ich die für mich relevanten Artikel via Recherche. Gelegentlich läuft mir auch durch kollegen mal was interessantes über den schreibtisch, zum Beispiel über ein Review. Sowas wie eine Zeitschrift, die den kompletten Informatik-Bereich abdeckt gibt es meines wissens nicht.
    In meinem Fall beschäftigen sich die Zeitschriften eben viel mit Graphentheorie, Geometrie und Algorithmen. Da sind die Standardzeitschriften sowas wie JGAA oder CGTA. Generell im Bereich Algorithmen oft noch Journal of Algorithms, Algorithmica oder ACM Transactions on Algorithms. Und eben jede Menge weitere, die ich vergessen habe. 😉 Letztere sind thematisch etwas weiter aufgefächert.



  • @Jester: Woran forschst du eigentlich? 😋



  • @Jester: Danke für die Auskunft. 😋



  • das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
    kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).



  • namenlos schrieb:

    das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
    kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).

    Tut mir Leid, aber das stimmt einfach nicht! Klar besteht Nutzen für Forschung in dem Bereich, sonst würden wir heute noch Windows 3.1 oder in 100 Jahren immer noch XP/Vista benutzen. In einem OS steckt nicht nur Aufwand, sondern teilweise richtig fiese Algorithmen, z.B. in Bereichen Prozess-Scheduling, Speichermanagement, oder sonstwas. Auch in Sachen Sicherheit muss immer weiter geforscht werden, da ist noch nichts perfekt.



  • Aber ohne Forschung wird "irgendwie" weitergefrickelt. Das geht zwar auch, aber man stößt auch irgendwann an konzeptionelle Grenzen. Ohne Forschung kann man keine wirkliche Weiterentwicklung betreiben, die Potential für echte Vorteile bietet.

    Z.B. hätte man ja auch einfach nach der Erfindung des Ottomotors mit der Forschung aufhören können. Dann hätten weltweit alle Kfz-Mechaniker noch 50 Jahre weitergewurschtelt, aber irgendwann wäre halt das Ende der Fahnenstange erreicht gewesen.



  • Abgesehen davon tun sich im Bereich OS-Entwicklung auch neue Forschungsbereiche auf. Was mir so einfällt, wäre z.B. ein OS, das Maschinenübergreifend läuft, oder aus einem Server-OS und vielen kleinen Client-OSs besteht. Oder die ganzen Kleingeräte, die ganzen OSs für Handys, PDAs und Videorekorder gab's vor 20 Jahren auch noch nicht (bitte mich nicht auf die 20 Jahre festnageln).



  • Durch mobile geräte rückt vor allem ein früher kaum betrachteter aspekt in den mittelpunkt: energieaufnahme. Inzwischen kann man vieles auch mobil. Die Frage ist nur: wie lange hält es? Wenn ich Sensoren irgendwo über nem Waldgebiet abwerfe um rauszufinden ob da ein waldbrand ist, wie krieg ich's hin, dass ich nicht alle 2 monate neue abwerfen muß, weil die batterien leer sind? Wie löse ich das routing, muß ja alles dezentral sein. Das sind Informatikprobleme an denen derzeit aktiv geforscht wird.



  • wir haben eindeutig eine andere ansicht davon, was wissenschaft und forschung ist. die os-sachen sind viel zu einfach, um wissenschaft zu sein. mal ehrlich: was genau würdest du jetzt zb an windows und linux verbessern?
    und wenn du sicherheit anführst: das ist keine sache des os, sondern zum einen der administration (kein open relay zb...), der benutzung (gute passwörter) und der programmierung (keine bugs). ein programm, das programmcode durchgeht und dann bewiesenermaßen ALLE programmierfehler findet, wäre ein wahrer fortschritt.

    welche sind zb. die konzeptionellen grenzen von linux oder windows?

    Jester schrieb:

    energieaufnahme.

    das ist wohl eindeutig eine frage der physik bzw. chemie. mit einem computerprogramm kann ich keine batterie aufladen und früher oder später wird die energie ausgehen. egal wie effizient die programme sind.

    und noch was: in pdas, videorecorder, router und wo sonst no laufen oft windows oder linux drin. also kann das design der beiden nicht so schlecht sein. man versucht probleme zu lösen, die nicht existieren.



  • namenlos schrieb:

    das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
    kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).

    Wow, du arbeitest wirklich konsequent an deinem Ruf.



  • namenlos schrieb:

    Jester schrieb:

    energieaufnahme.

    das ist wohl eindeutig eine frage der physik bzw. chemie. mit einem computerprogramm kann ich keine batterie aufladen und früher oder später wird die energie ausgehen. egal wie effizient die programme sind.

    soll ich jetzt einen physiker fragen wie ich mein routing machen muß, damit die knoten möglichst gleichmäßig ausgelastet werden nicht irgendwelche zentralen knoten nach ein paar wochen platt sind? -- Ne, das ist eindeutig ein Informatikproblem.



  • Theston schrieb:

    Wow, du arbeitest wirklich konsequent an deinem Ruf.

    wie meinst du das?



  • 1899 zu technischen Erfindungen:
    "Everything that can be invented has been invented."
    und empfahl das US-Patentamt zu schließen.
    CHARLES H. DUELL, U. S. commissioner of patents



  • Theston schrieb:

    1899 zu technischen Erfindungen:
    "Everything that can be invented has been invented."
    und empfahl das US-Patentamt zu schließen.
    CHARLES H. DUELL, U. S. commissioner of patents

    muss ich das jetzt echt kommentieren? wenn du meine beträge gelesen hättest, hättest du gesehen, dass ich das zu teilgebieten gesagt habe. nie zu allem. und vor allema uch nicht einmal ansatzweise zu wirklichen wissenschaften.



  • namenlos schrieb:

    Theston schrieb:

    1899 zu technischen Erfindungen:
    "Everything that can be invented has been invented."
    und empfahl das US-Patentamt zu schließen.
    CHARLES H. DUELL, U. S. commissioner of patents

    muss ich das jetzt echt kommentieren? wenn du meine beträge gelesen hättest, hättest du gesehen, dass ich das zu teilgebieten gesagt habe. nie zu allem. und vor allema uch nicht einmal ansatzweise zu wirklichen wissenschaften.

    Nimm z. B. mal Grid Computing her, das muesste dir aus Ibk ja sicher ein Begriff sein. Die ganze Vernetzung, Zusammenarbeit, Rechte- und Jobmanagement und so weiter und so weiter, da steckt eine Menge Planung, Ueberlegung, Erforschen und Ausprobieren verschiedener Moeglichkeiten dahinter. Und darin seh ich durchaus eine Ingeneurswissenschaftliche Arbeit.

    Oder Pervasive Computing - wie Grid Computing ein relativ neuer Bereich, in dem noch wahnsinnig viel Forschung steckt, die definitiv in den Informatikbereich faellt, und aus der zweifelsohne Technologien hervorgehen, die irgendwann genauso selbstverstaendlich sein werden wie heute das Internet.

    Oder nimm Software Engineering: Programmieren ist heutzutage noch Handarbeit, und es muss noch sehr viel getan werden, dass ein Software-Entwickler seine Programme und Systeme so am Reissbrett entwickeln kann wie der Maschinenbauer oder Elektrotechniker das dank CAD heute schon kann - UML-Diagramme sind noch lange nicht das Ende der Fahnenstange, Model Driven Architecture und automatische Codegenerierung stecken noch in den Kinderschuhen.

    ... das sind jetzt nur 3 Themenbereiche, die mir auf Anhieb einfallen, wo noch Forschung notwendig ist und wo echte Innovationen moeglich sind.



  • zu grid computing kann ich nichts sagen, da ich das heftig gemieden habe. ich hab nur eine übung namens parallele systeme gemacht. das konnte aber nicht grid computing sein, da das zu einfach und zu unwissenschaftlich war.



  • namenlos schrieb:

    mal ehrlich: was genau würdest du jetzt zb an windows und linux verbessern?

    Ich hätte da schon ein paar Ideen (Brainstorming):

    Sicherheit:
    - By default haben Anwendungen vieeel weniger Rechte.
    - Keiner und nix darf Systemdateien anrühren oder auch nur sehen.
    - Keylogger dürften nicht so einfach etablierbar sein oder müssen durch den Benutzer abgesegnet werden.

    Optik:
    - Der Windows-Explorer ist langsam out, ein neues Konzept muss her.

    Interna:
    - Die Programmierschnittstelle zum OS gehört vereinheitlicht und stark vereinfacht / neuen Sprachen angepasst.

    Sonstiges:
    - Das OS muss einen Service bereitstellen, der automatisch Anwendungen patcht.
    - Kein Benutzer sollte sich um Treiber kümmern müssen.
    - Erforderliche Kodierungen werden automatisch heruntergeladen.

    und und und.. Da gibt's noch ziemlich viel zu tun 🙂


Anmelden zum Antworten