Theoretische Informatik?
-
Benutzername: schrieb:
hört sich schon interessant an *g*
Aber wie siehts denn da mit jobs aus? Software Entwickler sind ja momentan am meisten gefragt, unter welche Kategorie fällt denn da die Forschung? Für wen forscht man da überhaupt und was gibts da zu forschen?
Is ja nich so, dass man die Informatik entdecken würde, is schließlich alles erfunden.Haha. Es gibt noch soviele offene Probleme. Das reicht noch für ein paar Generationen an Forschern. Viele große Firmen haben Forschungslabore wo auch Grundlagenforschung betrieben wird. IBM, google, Microsoft und Konsorten zum Beispiel. Andererseits gibt es auch viele kleine Firmen, die eine bestimmte Niesche ausfüllen, indem sie dort einfach einen entscheidenden Wissensvorsprung halten. Davon gibt's zum Beispiel viele im Bereich Logistik. Allerdings ist die Arbeit dort natürlich stärker Anwendungsbezogen. Eine kleine Firma kann es sich normalerweise nicht leisten viel Geld in Grundlagenforschung zu stecken.
Wenn man sowas wie "künstliche Intelligenz" (im weiteren Sinne) auch dazunehmen möchte, dann gibt's auch sehr viele Firmen, die sich damit beschäftigen. Zum Beispiel automatische Qualitätsprüfung in Pharmaunternehmen oder im Automobilbau. Auch da sind noch eine Menge Probleme zu lösen. Oder generell im Bereich Fahrerassistenz-Systeme ist im Moment sicher ne Menge zu holen.
-
also... ich hab in verscheidenen diskussionen jetzt kapiert, dass ich auch ein ganz falsches bild der informatik gehabt hab. ich hätte mir wie der threadersteller erwartet, dass es bei informatik um die dinge geht, die man so sich landläufig erwartet. bin aber hier (teilweise sehr aggressiv) eines besseren belehrt worden.
die grundlagen der informatik sind von mathematiker vor teilweise über 60 jahren schon gelöst worden. die heutige informatik beschäftigt sich nicht mehr mit lapalien wie netzwerken, programmiersprachen, compiler, betriebssystemen und so. diese dinge sind schon fertig erfunden. in den letzten 20 jahren gab es hier keine wirklichen änderungen mehr.
die heutige informatik beschäftigt sich nur mehr damit, die probleme anderer wissenschaften am computer zu lösen. dh zb. für die lavinenforschungsgruppe ihr einen simulator zu bauen. oder auch für die meteorologen. dh. man ist fast am besten dran, wenn man informatik nicht allein studiert, sondern sich ein zweites fach sucht, in dem man die informatik dann anwenden kann. am besten was naturwissenschaftliches.hab ich das jetzt richtig kapiert?
-
Auch in den von dir aufgezählten Disziplin wird noch weitergeforscht. Die OOP ist mit einigen Modifikationen wie Aspect Oriented Programming heutigen Problemstellungen gewachsen und das sich die OOP richtig anfühlt scheint dies auch der Weg zu sein wie Programmiersprachen aussehen sollten, daher wird sich hier die Änderung mehr auf das Detail (AOP z.B.) beschränken, als auf revolutionäre Änderungen wie von Prozedural zu Objektorientiert.
Aber auch hier kann man nicht sagen, dass es immer so bleiben wird (wann kann man das schon?).Bei Betriebssystemen ist die Forschung der Praxis weit vorraus, d. h. hier wird auf breiter Fläche noch mit völlig veralteten Systemen gearbeitet. Hier gibt es noch viel Potential das erst einmal in die (breite) Praxis umgesetzt werden muss.
Compiler sind heute ein sehr erforschtest und ausgereiftes Gebiet und beim "statischen Übersetzen" gibt es nicht mehr viel das man noch verbessern könnte, aber der Trend geht hier ja in Richtung Just-In-Time-Compiling, also die Erzeugung des Maschinencodes zur Laufzeit, da hier wesentlich mehr Informationen vorhanden sind um optimalen Code generieren zu können.
Die Gebiete entwickeln sich immernoch weiter, da man einfach beim Erreichen eines Ziels noch eine Möglichkeit entdeckt.
Der von dir beschriebene Einsatz der Informatik ist die Sparte "Angewandte Informatik" und da gibt es nahezu grenzenloses Potential in unserer digitalisierten Welt.
Man sagt zwar immer Informatik hat nichts mit der Praxis (also im Grund Computern - da heute eh alles digitalisiert abläuft) zu tun (wobei nichts hier übertrieben ist!), aber die Praxis ist schon ein sehr starkes Zugpferd zur Weiterentwicklung der Informatik.
Es wird die Theorie weiterentwickelt und in die Praxis umgesetzt (siehe Betriebssysteme - hier ist die Forschung der Praxis voraus) und umgekehrt (hm doof jetzt fällt mir grad nix ein, aber da müsste es mehr als genug geben).
-
ok... ich bin zu dumm, um "v******" zu verstehen... was hat die os forschung der praxis voraus, was tatsächliche vorteile bringt?
-
namenlos schrieb:
ok... ich bin zu dumm, um "v******" zu verstehen... was hat die os forschung der praxis voraus, was tatsächliche vorteile bringt?
-
ok... ich bin wohl auch zu dumm um die innovationen auf der seite zu erkennen...
-
Ah, ich muss was richtig stellen ,was scheinbar missverständlich war, ich hab keinesfalls gemeint, dass dass schon alles erfunden ist, ich hab das nur mit den Bereichen der Forschung nicht richtig verstanden, weil das ja schließlich nicht entdeckt sondern eben von Leuten erfunden wird, aber dass ja wohl nicht jeder ein neues Programmierkonzept wie OOP, AOP, FOP oder was es sonst noch so gibt, erfindet, aber ich glaube durch euch so langsam eine Idee zu haben...
-
namenlos schrieb:
die heutige informatik beschäftigt sich nur mehr damit, die probleme anderer wissenschaften am computer zu lösen. dh zb. für die lavinenforschungsgruppe ihr einen simulator zu bauen. oder auch für die meteorologen. dh. man ist fast am besten dran, wenn man informatik nicht allein studiert, sondern sich ein zweites fach sucht, in dem man die informatik dann anwenden kann. am besten was naturwissenschaftliches.
Die Informatik gilt für viele andere wissenschaftliche Disziplinen natürlich als eine Art Hilfswissenschaft. Daran besteht kein Zweifel. Ein großer Teil der Informatik wird im Zusammenhang mit anderen Disziplinen betrieben. Das ist ja auch der Grund, warum es so viele "Bindestrich-Informatiker" gibt. Also ich meine Jetzt solche Fächer wie Wirtschafts-Informatik, Bio-Informatik, Medizin-Informatik, Umwelt-Informatik, Informatik-Ingenieurwesen usw.. Auch entsprechende Spezialisierungen in anderen Disziplinen sind häufig anzutreffen: "Computational Physics", "Computational Chemistry" usw.. Zumindest ist die Schnittstelle zwischen der Informatik und anderen Bereichen ein sehr wichtiges Gebiet. Nicht nur in der Forschung, sondern auch in der praktischen Anwendung: Informatiksysteme sind meistens in einem Kontext mit anderen Systemen, als sogenannte eingebettete Systeme zu sehen: Wer die Software für den neuen Airbus schreibt, sollte vielleicht auch ein bischen was über das Gesamtsystem wissen. Selbst reine Softwaresysteme stehen oft im Zusammenhang mit anderen Bereichen. Es ist praktisch schon die Ausnahme, wenn man Programme schreibt, die nur mit Informatikthemen zu tun haben.
Andererseits gibt es natürlich auch Informatik-intern Fortschritte und Weiterentwicklungen. Die absolute Einschränkung der Informatik auf solche Schnittstellenbereiche würde ich als übertrieben ansehen. Die Informatik hat durchaus auch als eigenständige Wissenschaft ihre Daseinsberechtigung.
-
namenlos schrieb:
ok... ich bin wohl auch zu dumm um die innovationen auf der seite zu erkennen...
Das Singularity ist aber ein wirklich interessantes Forschungsobjekt! Hier auch mal der Wikipedia-Link (wäre wahrscheinlich sinnvoller gewesen): http://de.wikipedia.org/wiki/Singularity
-
namenlos schrieb:
die grundlagen der informatik sind von mathematiker vor teilweise über 60 jahren schon gelöst worden.
das stimmt nicht. im bereich komplexitätstheorie gibt es noch jede menge offene fragen. und es gibt auch immer noch diverse algorithmen und datenstrukturen zu erfinden oder zu analysieren.
die heutige informatik beschäftigt sich nicht mehr mit lapalien wie netzwerken, programmiersprachen, compiler, betriebssystemen und so.
doch, das alles sind zentrale bereiche der informatik. gerade im bereich betriebssysteme ist man in der forschung sehr stark mit mikrokerneln beschäftigt. die praxis bewegt sich nur langsam in diese richtung, hat aber durchaus fahrt in diese richtung aufgenommen. auch in der code-optimierung hat sich in den letzten 20 Jahren einiges bewegt.
Oder denk mal an algorithmen. Zum Beispiel der PageRank-Algorithmus von google. Sozusagen ein Algorithmus, der die Welt verändert hat. Auch die Entschlüsselung des menschlichen Genoms war eine der großen Informatik-Leistungen letzter Zeit: Ein Algorithmus, der ein riesiges kombinatorisches optimierungsproblem löst.die heutige informatik beschäftigt sich nur mehr damit, die probleme anderer wissenschaften am computer zu lösen. dh zb. für die lavinenforschungsgruppe ihr einen simulator zu bauen. oder auch für die meteorologen. dh. man ist fast am besten dran, wenn man informatik nicht allein studiert, sondern sich ein zweites fach sucht, in dem man die informatik dann anwenden kann. am besten was naturwissenschaftliches.
hab ich das jetzt richtig kapiert?
das ist sicherlich eine richtung, in der man informatik betreiben kann, aber es ist nicht zwingend die einzige möglichkeit. letztlich ist es ja auch nichts schlechtes sich an den realen problemen anderer zu messen. wenn alle probleme für etwa die lawinenforschung gelöst wären, dann würde sich kein informatiker dransetzen, sondern die würden sagen programmiert euern kram doch selber. offensichtlich ist man aber der meinung man könne da noch was dran lernen, also arbeitet man dran. zum beispiel könnte ein ziel ja sein die problematik solcher systeme besser zu verstehen, oder so eine art simulationsbaukasten zu entwickeln, so dass die das in zukunft besser selber können.
-
@Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?
-
Gregor schrieb:
@Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?
Ich lese eigentlich kaum komplette Zeitschriften. Meist finde ich die für mich relevanten Artikel via Recherche. Gelegentlich läuft mir auch durch kollegen mal was interessantes über den schreibtisch, zum Beispiel über ein Review. Sowas wie eine Zeitschrift, die den kompletten Informatik-Bereich abdeckt gibt es meines wissens nicht.
In meinem Fall beschäftigen sich die Zeitschriften eben viel mit Graphentheorie, Geometrie und Algorithmen. Da sind die Standardzeitschriften sowas wie JGAA oder CGTA. Generell im Bereich Algorithmen oft noch Journal of Algorithms, Algorithmica oder ACM Transactions on Algorithms. Und eben jede Menge weitere, die ich vergessen habe. Letztere sind thematisch etwas weiter aufgefächert.
-
@Jester: Woran forschst du eigentlich?
-
@Jester: Danke für die Auskunft.
-
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).
-
namenlos schrieb:
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).Tut mir Leid, aber das stimmt einfach nicht! Klar besteht Nutzen für Forschung in dem Bereich, sonst würden wir heute noch Windows 3.1 oder in 100 Jahren immer noch XP/Vista benutzen. In einem OS steckt nicht nur Aufwand, sondern teilweise richtig fiese Algorithmen, z.B. in Bereichen Prozess-Scheduling, Speichermanagement, oder sonstwas. Auch in Sachen Sicherheit muss immer weiter geforscht werden, da ist noch nichts perfekt.
-
Aber ohne Forschung wird "irgendwie" weitergefrickelt. Das geht zwar auch, aber man stößt auch irgendwann an konzeptionelle Grenzen. Ohne Forschung kann man keine wirkliche Weiterentwicklung betreiben, die Potential für echte Vorteile bietet.
Z.B. hätte man ja auch einfach nach der Erfindung des Ottomotors mit der Forschung aufhören können. Dann hätten weltweit alle Kfz-Mechaniker noch 50 Jahre weitergewurschtelt, aber irgendwann wäre halt das Ende der Fahnenstange erreicht gewesen.
-
Abgesehen davon tun sich im Bereich OS-Entwicklung auch neue Forschungsbereiche auf. Was mir so einfällt, wäre z.B. ein OS, das Maschinenübergreifend läuft, oder aus einem Server-OS und vielen kleinen Client-OSs besteht. Oder die ganzen Kleingeräte, die ganzen OSs für Handys, PDAs und Videorekorder gab's vor 20 Jahren auch noch nicht (bitte mich nicht auf die 20 Jahre festnageln).
-
Durch mobile geräte rückt vor allem ein früher kaum betrachteter aspekt in den mittelpunkt: energieaufnahme. Inzwischen kann man vieles auch mobil. Die Frage ist nur: wie lange hält es? Wenn ich Sensoren irgendwo über nem Waldgebiet abwerfe um rauszufinden ob da ein waldbrand ist, wie krieg ich's hin, dass ich nicht alle 2 monate neue abwerfen muß, weil die batterien leer sind? Wie löse ich das routing, muß ja alles dezentral sein. Das sind Informatikprobleme an denen derzeit aktiv geforscht wird.
-
wir haben eindeutig eine andere ansicht davon, was wissenschaft und forschung ist. die os-sachen sind viel zu einfach, um wissenschaft zu sein. mal ehrlich: was genau würdest du jetzt zb an windows und linux verbessern?
und wenn du sicherheit anführst: das ist keine sache des os, sondern zum einen der administration (kein open relay zb...), der benutzung (gute passwörter) und der programmierung (keine bugs). ein programm, das programmcode durchgeht und dann bewiesenermaßen ALLE programmierfehler findet, wäre ein wahrer fortschritt.welche sind zb. die konzeptionellen grenzen von linux oder windows?
Jester schrieb:
energieaufnahme.
das ist wohl eindeutig eine frage der physik bzw. chemie. mit einem computerprogramm kann ich keine batterie aufladen und früher oder später wird die energie ausgehen. egal wie effizient die programme sind.
und noch was: in pdas, videorecorder, router und wo sonst no laufen oft windows oder linux drin. also kann das design der beiden nicht so schlecht sein. man versucht probleme zu lösen, die nicht existieren.