Theoretische Informatik?
-
ok... ich bin wohl auch zu dumm um die innovationen auf der seite zu erkennen...
-
Ah, ich muss was richtig stellen ,was scheinbar missverständlich war, ich hab keinesfalls gemeint, dass dass schon alles erfunden ist, ich hab das nur mit den Bereichen der Forschung nicht richtig verstanden, weil das ja schließlich nicht entdeckt sondern eben von Leuten erfunden wird, aber dass ja wohl nicht jeder ein neues Programmierkonzept wie OOP, AOP, FOP oder was es sonst noch so gibt, erfindet, aber ich glaube durch euch so langsam eine Idee zu haben...
-
namenlos schrieb:
die heutige informatik beschäftigt sich nur mehr damit, die probleme anderer wissenschaften am computer zu lösen. dh zb. für die lavinenforschungsgruppe ihr einen simulator zu bauen. oder auch für die meteorologen. dh. man ist fast am besten dran, wenn man informatik nicht allein studiert, sondern sich ein zweites fach sucht, in dem man die informatik dann anwenden kann. am besten was naturwissenschaftliches.
Die Informatik gilt für viele andere wissenschaftliche Disziplinen natürlich als eine Art Hilfswissenschaft. Daran besteht kein Zweifel. Ein großer Teil der Informatik wird im Zusammenhang mit anderen Disziplinen betrieben. Das ist ja auch der Grund, warum es so viele "Bindestrich-Informatiker" gibt. Also ich meine Jetzt solche Fächer wie Wirtschafts-Informatik, Bio-Informatik, Medizin-Informatik, Umwelt-Informatik, Informatik-Ingenieurwesen usw.. Auch entsprechende Spezialisierungen in anderen Disziplinen sind häufig anzutreffen: "Computational Physics", "Computational Chemistry" usw.. Zumindest ist die Schnittstelle zwischen der Informatik und anderen Bereichen ein sehr wichtiges Gebiet. Nicht nur in der Forschung, sondern auch in der praktischen Anwendung: Informatiksysteme sind meistens in einem Kontext mit anderen Systemen, als sogenannte eingebettete Systeme zu sehen: Wer die Software für den neuen Airbus schreibt, sollte vielleicht auch ein bischen was über das Gesamtsystem wissen. Selbst reine Softwaresysteme stehen oft im Zusammenhang mit anderen Bereichen. Es ist praktisch schon die Ausnahme, wenn man Programme schreibt, die nur mit Informatikthemen zu tun haben.
Andererseits gibt es natürlich auch Informatik-intern Fortschritte und Weiterentwicklungen. Die absolute Einschränkung der Informatik auf solche Schnittstellenbereiche würde ich als übertrieben ansehen. Die Informatik hat durchaus auch als eigenständige Wissenschaft ihre Daseinsberechtigung.
-
namenlos schrieb:
ok... ich bin wohl auch zu dumm um die innovationen auf der seite zu erkennen...
Das Singularity ist aber ein wirklich interessantes Forschungsobjekt! Hier auch mal der Wikipedia-Link (wäre wahrscheinlich sinnvoller gewesen): http://de.wikipedia.org/wiki/Singularity
-
namenlos schrieb:
die grundlagen der informatik sind von mathematiker vor teilweise über 60 jahren schon gelöst worden.
das stimmt nicht. im bereich komplexitätstheorie gibt es noch jede menge offene fragen. und es gibt auch immer noch diverse algorithmen und datenstrukturen zu erfinden oder zu analysieren.
die heutige informatik beschäftigt sich nicht mehr mit lapalien wie netzwerken, programmiersprachen, compiler, betriebssystemen und so.
doch, das alles sind zentrale bereiche der informatik. gerade im bereich betriebssysteme ist man in der forschung sehr stark mit mikrokerneln beschäftigt. die praxis bewegt sich nur langsam in diese richtung, hat aber durchaus fahrt in diese richtung aufgenommen. auch in der code-optimierung hat sich in den letzten 20 Jahren einiges bewegt.
Oder denk mal an algorithmen. Zum Beispiel der PageRank-Algorithmus von google. Sozusagen ein Algorithmus, der die Welt verändert hat. Auch die Entschlüsselung des menschlichen Genoms war eine der großen Informatik-Leistungen letzter Zeit: Ein Algorithmus, der ein riesiges kombinatorisches optimierungsproblem löst.die heutige informatik beschäftigt sich nur mehr damit, die probleme anderer wissenschaften am computer zu lösen. dh zb. für die lavinenforschungsgruppe ihr einen simulator zu bauen. oder auch für die meteorologen. dh. man ist fast am besten dran, wenn man informatik nicht allein studiert, sondern sich ein zweites fach sucht, in dem man die informatik dann anwenden kann. am besten was naturwissenschaftliches.
hab ich das jetzt richtig kapiert?
das ist sicherlich eine richtung, in der man informatik betreiben kann, aber es ist nicht zwingend die einzige möglichkeit. letztlich ist es ja auch nichts schlechtes sich an den realen problemen anderer zu messen. wenn alle probleme für etwa die lawinenforschung gelöst wären, dann würde sich kein informatiker dransetzen, sondern die würden sagen programmiert euern kram doch selber. offensichtlich ist man aber der meinung man könne da noch was dran lernen, also arbeitet man dran. zum beispiel könnte ein ziel ja sein die problematik solcher systeme besser zu verstehen, oder so eine art simulationsbaukasten zu entwickeln, so dass die das in zukunft besser selber können.
-
@Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?
-
Gregor schrieb:
@Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?
Ich lese eigentlich kaum komplette Zeitschriften. Meist finde ich die für mich relevanten Artikel via Recherche. Gelegentlich läuft mir auch durch kollegen mal was interessantes über den schreibtisch, zum Beispiel über ein Review. Sowas wie eine Zeitschrift, die den kompletten Informatik-Bereich abdeckt gibt es meines wissens nicht.
In meinem Fall beschäftigen sich die Zeitschriften eben viel mit Graphentheorie, Geometrie und Algorithmen. Da sind die Standardzeitschriften sowas wie JGAA oder CGTA. Generell im Bereich Algorithmen oft noch Journal of Algorithms, Algorithmica oder ACM Transactions on Algorithms. Und eben jede Menge weitere, die ich vergessen habe. Letztere sind thematisch etwas weiter aufgefächert.
-
@Jester: Woran forschst du eigentlich?
-
@Jester: Danke für die Auskunft.
-
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).
-
namenlos schrieb:
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).Tut mir Leid, aber das stimmt einfach nicht! Klar besteht Nutzen für Forschung in dem Bereich, sonst würden wir heute noch Windows 3.1 oder in 100 Jahren immer noch XP/Vista benutzen. In einem OS steckt nicht nur Aufwand, sondern teilweise richtig fiese Algorithmen, z.B. in Bereichen Prozess-Scheduling, Speichermanagement, oder sonstwas. Auch in Sachen Sicherheit muss immer weiter geforscht werden, da ist noch nichts perfekt.
-
Aber ohne Forschung wird "irgendwie" weitergefrickelt. Das geht zwar auch, aber man stößt auch irgendwann an konzeptionelle Grenzen. Ohne Forschung kann man keine wirkliche Weiterentwicklung betreiben, die Potential für echte Vorteile bietet.
Z.B. hätte man ja auch einfach nach der Erfindung des Ottomotors mit der Forschung aufhören können. Dann hätten weltweit alle Kfz-Mechaniker noch 50 Jahre weitergewurschtelt, aber irgendwann wäre halt das Ende der Fahnenstange erreicht gewesen.
-
Abgesehen davon tun sich im Bereich OS-Entwicklung auch neue Forschungsbereiche auf. Was mir so einfällt, wäre z.B. ein OS, das Maschinenübergreifend läuft, oder aus einem Server-OS und vielen kleinen Client-OSs besteht. Oder die ganzen Kleingeräte, die ganzen OSs für Handys, PDAs und Videorekorder gab's vor 20 Jahren auch noch nicht (bitte mich nicht auf die 20 Jahre festnageln).
-
Durch mobile geräte rückt vor allem ein früher kaum betrachteter aspekt in den mittelpunkt: energieaufnahme. Inzwischen kann man vieles auch mobil. Die Frage ist nur: wie lange hält es? Wenn ich Sensoren irgendwo über nem Waldgebiet abwerfe um rauszufinden ob da ein waldbrand ist, wie krieg ich's hin, dass ich nicht alle 2 monate neue abwerfen muß, weil die batterien leer sind? Wie löse ich das routing, muß ja alles dezentral sein. Das sind Informatikprobleme an denen derzeit aktiv geforscht wird.
-
wir haben eindeutig eine andere ansicht davon, was wissenschaft und forschung ist. die os-sachen sind viel zu einfach, um wissenschaft zu sein. mal ehrlich: was genau würdest du jetzt zb an windows und linux verbessern?
und wenn du sicherheit anführst: das ist keine sache des os, sondern zum einen der administration (kein open relay zb...), der benutzung (gute passwörter) und der programmierung (keine bugs). ein programm, das programmcode durchgeht und dann bewiesenermaßen ALLE programmierfehler findet, wäre ein wahrer fortschritt.welche sind zb. die konzeptionellen grenzen von linux oder windows?
Jester schrieb:
energieaufnahme.
das ist wohl eindeutig eine frage der physik bzw. chemie. mit einem computerprogramm kann ich keine batterie aufladen und früher oder später wird die energie ausgehen. egal wie effizient die programme sind.
und noch was: in pdas, videorecorder, router und wo sonst no laufen oft windows oder linux drin. also kann das design der beiden nicht so schlecht sein. man versucht probleme zu lösen, die nicht existieren.
-
namenlos schrieb:
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).Wow, du arbeitest wirklich konsequent an deinem Ruf.
-
namenlos schrieb:
Jester schrieb:
energieaufnahme.
das ist wohl eindeutig eine frage der physik bzw. chemie. mit einem computerprogramm kann ich keine batterie aufladen und früher oder später wird die energie ausgehen. egal wie effizient die programme sind.
soll ich jetzt einen physiker fragen wie ich mein routing machen muß, damit die knoten möglichst gleichmäßig ausgelastet werden nicht irgendwelche zentralen knoten nach ein paar wochen platt sind? -- Ne, das ist eindeutig ein Informatikproblem.
-
Theston schrieb:
Wow, du arbeitest wirklich konsequent an deinem Ruf.
wie meinst du das?
-
1899 zu technischen Erfindungen:
"Everything that can be invented has been invented."
und empfahl das US-Patentamt zu schließen.
CHARLES H. DUELL, U. S. commissioner of patents
-
Theston schrieb:
1899 zu technischen Erfindungen:
"Everything that can be invented has been invented."
und empfahl das US-Patentamt zu schließen.
CHARLES H. DUELL, U. S. commissioner of patentsmuss ich das jetzt echt kommentieren? wenn du meine beträge gelesen hättest, hättest du gesehen, dass ich das zu teilgebieten gesagt habe. nie zu allem. und vor allema uch nicht einmal ansatzweise zu wirklichen wissenschaften.