Theoretische Informatik?
-
@Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?
-
Gregor schrieb:
@Jester: BTW: Du beschäftigst Dich doch auf wissenschaftlicher Ebene mit der Informatik, oder? Kannst Du mir mal sagen, was Du in dem Bereich so für wissenschaftliche Zeitschriften liest und welche Themen da grob gesehen jeweils behandelt werden? Und welche Relevanz die jeweiligen Zeitschriften haben?
Ich lese eigentlich kaum komplette Zeitschriften. Meist finde ich die für mich relevanten Artikel via Recherche. Gelegentlich läuft mir auch durch kollegen mal was interessantes über den schreibtisch, zum Beispiel über ein Review. Sowas wie eine Zeitschrift, die den kompletten Informatik-Bereich abdeckt gibt es meines wissens nicht.
In meinem Fall beschäftigen sich die Zeitschriften eben viel mit Graphentheorie, Geometrie und Algorithmen. Da sind die Standardzeitschriften sowas wie JGAA oder CGTA. Generell im Bereich Algorithmen oft noch Journal of Algorithms, Algorithmica oder ACM Transactions on Algorithms. Und eben jede Menge weitere, die ich vergessen habe. Letztere sind thematisch etwas weiter aufgefächert.
-
@Jester: Woran forschst du eigentlich?
-
@Jester: Danke für die Auskunft.
-
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).
-
namenlos schrieb:
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).Tut mir Leid, aber das stimmt einfach nicht! Klar besteht Nutzen für Forschung in dem Bereich, sonst würden wir heute noch Windows 3.1 oder in 100 Jahren immer noch XP/Vista benutzen. In einem OS steckt nicht nur Aufwand, sondern teilweise richtig fiese Algorithmen, z.B. in Bereichen Prozess-Scheduling, Speichermanagement, oder sonstwas. Auch in Sachen Sicherheit muss immer weiter geforscht werden, da ist noch nichts perfekt.
-
Aber ohne Forschung wird "irgendwie" weitergefrickelt. Das geht zwar auch, aber man stößt auch irgendwann an konzeptionelle Grenzen. Ohne Forschung kann man keine wirkliche Weiterentwicklung betreiben, die Potential für echte Vorteile bietet.
Z.B. hätte man ja auch einfach nach der Erfindung des Ottomotors mit der Forschung aufhören können. Dann hätten weltweit alle Kfz-Mechaniker noch 50 Jahre weitergewurschtelt, aber irgendwann wäre halt das Ende der Fahnenstange erreicht gewesen.
-
Abgesehen davon tun sich im Bereich OS-Entwicklung auch neue Forschungsbereiche auf. Was mir so einfällt, wäre z.B. ein OS, das Maschinenübergreifend läuft, oder aus einem Server-OS und vielen kleinen Client-OSs besteht. Oder die ganzen Kleingeräte, die ganzen OSs für Handys, PDAs und Videorekorder gab's vor 20 Jahren auch noch nicht (bitte mich nicht auf die 20 Jahre festnageln).
-
Durch mobile geräte rückt vor allem ein früher kaum betrachteter aspekt in den mittelpunkt: energieaufnahme. Inzwischen kann man vieles auch mobil. Die Frage ist nur: wie lange hält es? Wenn ich Sensoren irgendwo über nem Waldgebiet abwerfe um rauszufinden ob da ein waldbrand ist, wie krieg ich's hin, dass ich nicht alle 2 monate neue abwerfen muß, weil die batterien leer sind? Wie löse ich das routing, muß ja alles dezentral sein. Das sind Informatikprobleme an denen derzeit aktiv geforscht wird.
-
wir haben eindeutig eine andere ansicht davon, was wissenschaft und forschung ist. die os-sachen sind viel zu einfach, um wissenschaft zu sein. mal ehrlich: was genau würdest du jetzt zb an windows und linux verbessern?
und wenn du sicherheit anführst: das ist keine sache des os, sondern zum einen der administration (kein open relay zb...), der benutzung (gute passwörter) und der programmierung (keine bugs). ein programm, das programmcode durchgeht und dann bewiesenermaßen ALLE programmierfehler findet, wäre ein wahrer fortschritt.welche sind zb. die konzeptionellen grenzen von linux oder windows?
Jester schrieb:
energieaufnahme.
das ist wohl eindeutig eine frage der physik bzw. chemie. mit einem computerprogramm kann ich keine batterie aufladen und früher oder später wird die energie ausgehen. egal wie effizient die programme sind.
und noch was: in pdas, videorecorder, router und wo sonst no laufen oft windows oder linux drin. also kann das design der beiden nicht so schlecht sein. man versucht probleme zu lösen, die nicht existieren.
-
namenlos schrieb:
das problem is halt, dass kein nutzen für so zeug besteht. das internet funktioniert. betriebssysteme funktionieren auch.
kein derzeit verwendetes os hat wirklich probleme. ein os zu schreiben ist so einfach, dass es heute tausende os gibt. es is einfach nur viel arbeit, aber intelligenz oder sogar forschung braucht es dafür echt nicht mehr (wenn es das überhaupt je gebraucht hätte...).Wow, du arbeitest wirklich konsequent an deinem Ruf.
-
namenlos schrieb:
Jester schrieb:
energieaufnahme.
das ist wohl eindeutig eine frage der physik bzw. chemie. mit einem computerprogramm kann ich keine batterie aufladen und früher oder später wird die energie ausgehen. egal wie effizient die programme sind.
soll ich jetzt einen physiker fragen wie ich mein routing machen muß, damit die knoten möglichst gleichmäßig ausgelastet werden nicht irgendwelche zentralen knoten nach ein paar wochen platt sind? -- Ne, das ist eindeutig ein Informatikproblem.
-
Theston schrieb:
Wow, du arbeitest wirklich konsequent an deinem Ruf.
wie meinst du das?
-
1899 zu technischen Erfindungen:
"Everything that can be invented has been invented."
und empfahl das US-Patentamt zu schließen.
CHARLES H. DUELL, U. S. commissioner of patents
-
Theston schrieb:
1899 zu technischen Erfindungen:
"Everything that can be invented has been invented."
und empfahl das US-Patentamt zu schließen.
CHARLES H. DUELL, U. S. commissioner of patentsmuss ich das jetzt echt kommentieren? wenn du meine beträge gelesen hättest, hättest du gesehen, dass ich das zu teilgebieten gesagt habe. nie zu allem. und vor allema uch nicht einmal ansatzweise zu wirklichen wissenschaften.
-
namenlos schrieb:
Theston schrieb:
1899 zu technischen Erfindungen:
"Everything that can be invented has been invented."
und empfahl das US-Patentamt zu schließen.
CHARLES H. DUELL, U. S. commissioner of patentsmuss ich das jetzt echt kommentieren? wenn du meine beträge gelesen hättest, hättest du gesehen, dass ich das zu teilgebieten gesagt habe. nie zu allem. und vor allema uch nicht einmal ansatzweise zu wirklichen wissenschaften.
Nimm z. B. mal Grid Computing her, das muesste dir aus Ibk ja sicher ein Begriff sein. Die ganze Vernetzung, Zusammenarbeit, Rechte- und Jobmanagement und so weiter und so weiter, da steckt eine Menge Planung, Ueberlegung, Erforschen und Ausprobieren verschiedener Moeglichkeiten dahinter. Und darin seh ich durchaus eine Ingeneurswissenschaftliche Arbeit.
Oder Pervasive Computing - wie Grid Computing ein relativ neuer Bereich, in dem noch wahnsinnig viel Forschung steckt, die definitiv in den Informatikbereich faellt, und aus der zweifelsohne Technologien hervorgehen, die irgendwann genauso selbstverstaendlich sein werden wie heute das Internet.
Oder nimm Software Engineering: Programmieren ist heutzutage noch Handarbeit, und es muss noch sehr viel getan werden, dass ein Software-Entwickler seine Programme und Systeme so am Reissbrett entwickeln kann wie der Maschinenbauer oder Elektrotechniker das dank CAD heute schon kann - UML-Diagramme sind noch lange nicht das Ende der Fahnenstange, Model Driven Architecture und automatische Codegenerierung stecken noch in den Kinderschuhen.
... das sind jetzt nur 3 Themenbereiche, die mir auf Anhieb einfallen, wo noch Forschung notwendig ist und wo echte Innovationen moeglich sind.
-
zu grid computing kann ich nichts sagen, da ich das heftig gemieden habe. ich hab nur eine übung namens parallele systeme gemacht. das konnte aber nicht grid computing sein, da das zu einfach und zu unwissenschaftlich war.
-
namenlos schrieb:
mal ehrlich: was genau würdest du jetzt zb an windows und linux verbessern?
Ich hätte da schon ein paar Ideen (Brainstorming):
Sicherheit:
- By default haben Anwendungen vieeel weniger Rechte.
- Keiner und nix darf Systemdateien anrühren oder auch nur sehen.
- Keylogger dürften nicht so einfach etablierbar sein oder müssen durch den Benutzer abgesegnet werden.Optik:
- Der Windows-Explorer ist langsam out, ein neues Konzept muss her.Interna:
- Die Programmierschnittstelle zum OS gehört vereinheitlicht und stark vereinfacht / neuen Sprachen angepasst.Sonstiges:
- Das OS muss einen Service bereitstellen, der automatisch Anwendungen patcht.
- Kein Benutzer sollte sich um Treiber kümmern müssen.
- Erforderliche Kodierungen werden automatisch heruntergeladen.und und und.. Da gibt's noch ziemlich viel zu tun
-
Badestrand schrieb:
namenlos schrieb:
mal ehrlich: was genau würdest du jetzt zb an windows und linux verbessern?
Ich hätte da schon ein paar Ideen (Brainstorming):
Sicherheit:
- By default haben Anwendungen vieeel weniger Rechte.
- Keiner und nix darf Systemdateien anrühren oder auch nur sehen.
- Keylogger dürften nicht so einfach etablierbar sein oder müssen durch den Benutzer abgesegnet werden.Optik:
- Der Windows-Explorer ist langsam out, ein neues Konzept muss her.Interna:
- Die Programmierschnittstelle zum OS gehört vereinheitlicht und stark vereinfacht / neuen Sprachen angepasst.Sonstiges:
- Das OS muss einen Service bereitstellen, der automatisch Anwendungen patcht.
- Kein Benutzer sollte sich um Treiber kümmern müssen.
- Erforderliche Kodierungen werden automatisch heruntergeladen.und und und.. Da gibt's noch ziemlich viel zu tun
ok mal ehrlich... DAS ist jetzt wirklich keine wissenschaft. ich denke, sogar jester wird mir hier zustimmen. nichts für ungut Badestrand.
-
namenlos schrieb:
ok mal ehrlich... DAS ist jetzt wirklich keine wissenschaft. ich denke, sogar jester wird mir hier zustimmen. nichts für ungut Badestrand.
Kein Ding, hast ja Recht, klingt nicht besonders wissenschaftlich. Aber Mehrkernunterstützung klingt auch nicht soooo wissenschaftlich und es steckt eine Menge dahinter.
Was ich eigentlich mit dem Post sagen wollte: Es gibt noch eine Menge Verbesserungsbedarf und dabei wird auch eine Menge zu forschen sein (siehe z.B. Link von oben, Singularity).Aber hast wirklich Recht, das meiste was ich aufgezählt hab, war Kleinkrams