Warum Windows?



  • Artchi schrieb:

    ;fricky schrieb:

    ^^ ohne programmieren zu können, konntest du mit den dingern herzlich wenig anfangen, ausser sie als spielekonsole zu benutzen. amiga-basic (übrigens von m$ *fg*), musste man schon beherrschen, damit man spass hatte.

    Tja, ich kann aus deiner ignoranten Äußerung nur schließen, das du nie eines dieser Systeme in deinem eigenen Besitz hattest, um beurteilen zu können, welche Anwendungen dort verfügbar waren, um mit diesen Systemen ernsthaft arbeiten zu können. Du hast wahrscheinlich diese Systeme nie gesehen.

    ok, du hast ja recht. ich hatte vor langer zeit mal für'n paar monate 'nen atari-ST, hab' mich aber gleich auf die assembler-programmierung gestürzt. ich kannte nur leute, die das ding (und den amiga) zum spielen oder zum programmieren benutzt haben. aber wenn ich so drüber nachdenke, fällt mir auch ein bekannter ein, der grafische intros, animationen und so, für fernsehsender auf dem amiga gemacht hat. schande über mich, dass ich das alles vergessen habe *schluchz*
    🙂



  • @Artchi:
    Warum ist die Technik in den 80ern stehen geblieben? Wo wären wir heute deiner Meinung nach, wenn Hardware Komponenten nicht teilweise standardisiert wären?

    Bzgl. 3D Grafikkarten: Niemand zwingt Dich, sowas zu verbauen. In Anbetracht der aktuellen Entwicklung bei 3D Shadern würde ich mir das aber überlegen.

    Bzgl. ARM Prozessoren: Sind doch immernoch aktuell und werden in Netbooks als Alternative zum Intel Atom verbaut.



  • Tim schrieb:

    Artchi schrieb:

    Heute brauche ich wegen dem ganzen Standard (wovon die Hersteller nicht weg kommen, weil ist ja Standard) ein Extra-Netzteil für die schnelle 3D-Grafikkarte.

    Warte mal. Welcher Standard zwingt die Hersteller solche Grafikkarten zu bauen?

    Open GL und DirectX machen seit ewig Vorgaben, wie letztendlich die Chip-Architektur aussehen soll.

    Neuartige Chip-Designs, wie die von PowerVR, haben deshalb nie richtig funktioniert, weil der Grafikaufbau auf Tilebase zum Standard inkompatibel war, und Grafikfehler verursachte. Deshalb werden PowerVRs dort eingesetzt, wo kein Standard nötig ist: in Spielekonsolen und Arcadeautomaten von SEGA. Wo halt die Hardware und Software speziell ist. Und natürlich im iPhone ist ein PowerVR drin, das auch ein eigenes Öko-System hat.

    Auch wenn die Hersteller sich bei 3D-GraKa was einfallen lassen, müssen sie sich immer an den ollen Standard halten. Ist der gleiche Mist wie mit der Kompatibilitt der x86-CPUs zum Steinzeit-XT-Prozi.



  • Artchi schrieb:

    Komisch das ein ARM mit 1 GHz keinen Kühlkörper benötigt. Im Gegensatz zu dem Standard-PC.

    stell dir mal vor, dein iPhone als taschenwärmer und mindestens so dick wie eine zigarrenkiste *fg*, ne im ernst, klar haben die ARMs die überlegenere technik, heute wie damals. aber auch wenn dieses x86-gelumpe den 68000'er gemeuchelt hat, gegen ARMs kann es nicht anstinken *freu*

    Artchi schrieb:

    Und natürlich waren damals die Customchips (z.B. die hardware beschleunigte 2D-Grafik) des Amigas auch reine Zeitverschwendung. Wie konnten damals die Amiga-Entwickler nur gegen die Konkurrenzsysteme besser sein wollen?

    der SID des C64 hat mich am meisten fasziniert: http://sid.kubarth.com/
    🙂



  • asc schrieb:

    Wenn ich mich an die Probleme erinnere wie man zwischen mehreren Systemen Daten austauscht, spezielle Hardware pro System benötigt (selbst wenn es sich nur um eine Maus etc. handelt), vermisse ich nicht die Vergangenheit. Innovationen können auch mit Standards erfolgen, doch sollte man bei Zeiten auch neue schaffen (die dann aber wieder für eine gewisse Zeit gelten).

    Ich wünsche mir die alten Zeiten zurück, natürlich weiter entwickelt! Ich wünsche mir eine Konkurrenzkampf zwischen Systemen! Wo Ingenieure noch was entwickeln können, und ihr Know How entfalten können. Wie die Ingenieure damals von Amiga und Acorn.

    Bei meinem Archimedes und seinem Nachfolger RiscPC habe ich Expansion-Cards eingesteckt, und sie liefen. Warum? Weil die Treiber in den ROMs der Expansion-Card steckten. Das RISC OS hat sie von der Card reingeladen, als Software-Modul, weil Microkernel-OS. So einfach, ohne Treiber auf Disk. Das war echtes Plug & Play.

    Und was die Formate anging: der Amiga, Atari ST und RISC OS konnten problemlos DOS-Disketten lesen und schreiben. Ich tausche heute noch Daten zwischen PC und meinem Archimedes aus, in dem ich einfach eine 3,5 Zoll DOS-formatierte Diskette benutze. Der Archimedes kann sogar noch Atari-Disketten verarbeiten.

    Und einen standardisierten Drucker- und RS232-Port hatten die Geräte damals alle gehabt. Meine ersten Online-Erfahrungen habe ich sogar auf meinem Archimedes gemacht: bei ESCOM ein 14.400 Baud Modem gekauft und es lief an meinem exotischen Archimedes.

    Ich habe auch einen Amiga 12000 HD im Keller: der konnte problemlos JPEG und TIFF 1992 verarbeiten. Auch wenn der Amiga sein eigens Gafikformat hatte, und man als Amiga-User zum Arbeiten natürlich dieses lieber benutze, weil es auf die Hardware abgestimmt war.



  • Artchi schrieb:

    Ich wünsche mir die alten Zeiten zurück, natürlich weiter entwickelt!

    Dann dürftest du zu einer eher kleinen Gruppe zählen. Es geht mir nicht darum das Standards in Stein gehauen sind, aber das man als Entwickler und Anwender nicht ständig umlernen muss, um verschiedene Systeme bedienen zu können. Standards sind sinnvoll, sollten aber auch überarbeitet werden.

    Artchi schrieb:

    Bei meinem Archimedes und seinem Nachfolger RiscPC habe ich Expansion-Cards eingesteckt, und sie liefen.

    Und jede Plattform benötigte eigene Erweiterungskarten/-chips usw.

    Artchi schrieb:

    Und was die Formate anging: der Amiga, Atari ST und RISC OS konnten problemlos DOS-Disketten lesen und schreiben.

    Zumindest unter dem Atari konntest du aber nicht (zumindest TOS 1.0) Disketten als DOS-Disketten formatieren. Man musste erst den DOS-Anwender bitten eine Diskette zu formatieren. Und davon abgesehen geht es nicht nur um Diskettenformate sonder auch Dateiformate etc.

    Artchi schrieb:

    Und einen standardisierten Drucker- und RS232-Port hatten die Geräte damals alle gehabt.

    Aber das waren eher ausnahmen als die Regel. Alleine schon bei Monitorausgängen usw.



  • ;fricky schrieb:

    Artchi schrieb:

    Komisch das ein ARM mit 1 GHz keinen Kühlkörper benötigt. Im Gegensatz zu dem Standard-PC.

    stell dir mal vor, dein iPhone als taschenwärmer und mindestens so dick wie eine zigarrenkiste *fg*, ne im ernst, klar haben die ARMs die überlegenere technik, heute wie damals. aber auch wenn dieses x86-gelumpe den 68000'er gemeuchelt hat, gegen ARMs kann es nicht anstinken *freu*

    Ja, und das ist ja der Witz an der Sache! ARM ist aus der Not entstanden: Amiga, Mac und Atari ST hatten MC68000 CPUs eingebaut, die sind ja alle so 1985 und 1986 auf dem Markt gekommen. Einheitsbrei bzgl. CPU.

    Und Acorn hatte noch seine 8-Bit Rechner, als alle anderen auf 16-Bit umgestiegen sind. Und Acorn mußte kontern. Der damalige 286-Prozi war Acorn beim Interrupt und Taskswitch zu langsam. Und mit dem 68000 Prozi hätte man keinen Leistungsvorteil ggü. Amiga & Co.

    Also hat Hermann Hauser (Chef von Acorn) seine zwei Ingenieure beauftragt, eine eigene CPU zu entwickeln, mit einem sehr begrenzen Budget. Der erste kommerzielle RISC-Prozi wurde 1987 geboren: ARM2. Und dieser wurde im schnellsten Desktop-Rechner, dem hauseigenen neuen Archimedes, verbaut. Viermal schneller als der 68000 bei gleichem Takt.

    Das war Konkurrenzgedanke! Echter Wettbewerb! Und wir können heute Acorn (R.I.P.) danken, das sie so dachten. Dagegen stinken Intel und AMD einfach nur ab, die sich nur die Patente hin und her schieben. Heute benutzt fast jeder unwissend täglich ARM-CPUs.

    ;fricky schrieb:

    Artchi schrieb:

    Und natürlich waren damals die Customchips (z.B. die hardware beschleunigte 2D-Grafik) des Amigas auch reine Zeitverschwendung. Wie konnten damals die Amiga-Entwickler nur gegen die Konkurrenzsysteme besser sein wollen?

    der SID des C64 hat mich am meisten fasziniert: http://sid.kubarth.com/
    🙂

    Ja, der SID des C64 war erstaunlich. Der C64 steht nicht bei mir im Keller, sondern in meiner Wohnung. Der SID war der letzte echte Soundgenerator-Chip, mit echt genialen Sound! Alle späteren Soundchips haben nur noch Samples abgespielt. :p



  • asc schrieb:

    Zumindest unter dem Atari konntest du aber nicht (zumindest TOS 1.0) Disketten als DOS-Disketten formatieren. Man musste erst den DOS-Anwender bitten eine Diskette zu formatieren. Und davon abgesehen geht es nicht nur um Diskettenformate sonder auch Dateiformate etc.

    Kann sein das man auf Atari nicht formatieren konnte. Mein RISC OS Rechner hatte ein Menü, wo so an die 12 Disketten-Formate zum Formatieren zur Auswahl standen.

    Und bzgl. Dateiformate muß ich dir sagen, sind dies das kleinste Problem bei den Rechnern gewesen ist. Im 64'er Magazin (lange ist es her), gab es ein Programm des Monats namens Godot. Das konnte JPEGs verarbeiten, auf dem C64!

    Hier alle möglichen Formate, die Godot auf dem C64 versteht:
    http://www.c64-wiki.de/index.php/GoDot#Konvertieren_von_einem_Speicherformat_in_ein_anderes (auch etwas runter scrollen)

    Wie hat der Datenaustausch statt gefunden? Mit der CBM 1581 Floppy (3,5 zoll) oder halt mit Modem oder Null-Modem-Kabel. Wir reden hier über ein 8 Bit System! 😃

    Die meisten wissen garnicht, was software-mäßig auf den alten Kisten alles geht. Vorallem ab 16- und 32-Bit. Die Hardware kann man nicht ändern, Software schon.



  • @fricky: hast du jemals ein Ubuntu installiert? Was du da ständig redest, ist einfach Unsinn. Ich hasse Ubuntu, aber eins ist Ubuntu mit Sicherheit: Benutzerfreundlich, genauso wie Windows.

    Wenn du einen kompletten DAU, der keinen Plan von Computern hat, eine Windows CD und LFS/Gentoo CD gibst, dann wird er 100% besser mit Windows klarkommen. Da gebe ich dir 100% Recht.

    Gibst du ihm aber eine Ubuntu CD, dann wird der DAU gar keinen Unterschied merken und Ubuntu wird sogar schneller installiert sein als Windows, und von Haus aus Mail Programme, Internet Browser, office, Netzwerk Programme, Graphic & Multimedia Programme, usw. haben. Das wird er mit Windows 100% nicht haben, bevor er entweder aus dem Netz zieht (wegen der DAUheit ausgeschlossen), weitere CDs eingibt und nachinstalliert. Auf Ubuntu geht er auf Paket-Verwaltung und bekommt eine rießige Liste mit zusätzlichen Software, davon kann man in Windows nur träumen. Mit welchem System kann man also schneller arbeiten?

    Das einzige, was in seinen Augen unterschiedlich sein wird, sind die Farben, weil beide bunt sind. In ubuntu musst du auch niergends irgendwelchen Befehl in die konsole eingeben, weder beim Installieren noch danach. Windows hat unten links den Start Knopf, Ubutu oben links. uuuuuu was für ein Unterschied. Der DAU der nicht weiß, was überhaupt ein Start-Knopf ist, wird somit mit beiden System gleich gut bzw. schlecht klarkommen.

    Manchmal habe ich das Gefühl, dass du Sachen urteilst, ohne dass du sie überhaupt kennst. Und wenn du sagst "vor 5 jahren habe ich mich mit debian versucht" und seitdem nie wieder eine aktuelle Distribution versucht hast, dann hast du eben keine Ahnung.



  • supertux schrieb:

    Manchmal habe ich das Gefühl, dass du Sachen urteilst, ohne dass du sie überhaupt kennst. Und wenn du sagst "vor 5 jahren habe ich mich mit debian versucht" und seitdem nie wieder eine aktuelle Distribution versucht hast, dann hast du eben keine Ahnung.

    Hat er in einem anderen Thread geschrieben, dass er irgend ein uralt Debian irgend wo benutzt und auch nie updatet und seit dem kein Linux mehr angefasst hat. Mit ;fricky zu reden ist übrigens leider selten sinnvoll, da er lieber den ganzen Tag Blödsinn über Themen redet, von denen er offenbar wenig Ahnung hat.



  • supertux schrieb:

    @fricky: hast du jemals ein Ubuntu installiert? Was du da ständig redest, ist einfach Unsinn.

    hab' ich eben gemacht, ubuntu 9.10 in vmware installiert. die installation lief durch ohne zu zicken, wie bei windoofs. nach dem starten noch youtube aufgerufen und das flash-plugin installiert, die videos laufen völlig ruckelfrei (trotzdem alles unter vmware läuft). und das tollste: weit und breit ist keine konsole zu sehen. ich bin begeistert und nehme alles zurück.

    supertux schrieb:

    Ich hasse Ubuntu...

    warum? ist doch toll.
    🙂


  • Mod

    ;fricky schrieb:

    ich bin begeistert und nehme alles zurück.

    😕 Entweder klaut hier jemand ;frickys Identität oder ich versteh die Welt nicht mehr. 😕



  • ;fricky schrieb:

    supertux schrieb:

    Ich hasse Ubuntu...

    warum? ist doch toll.
    🙂

    wiel ich Debian und ihre Nachfahren nie mochte und weil ich ein System will, welches tut, was ich sage und nicht umgekehrt. Ich bin kein DAU User, ich brauche keine "intuitive" sonder funktionale Programme (ich bin deshalb vim User). Das erste Programm, was ich starte, wenn ich mich in X einlogge, ist ein xterm. Mir geht auf den Geist, wenn das System versucht schlauer zu sein als ich und Sachen automatisch ausführt (automount und so ein Zeug), die ich nicht will. Ich hasse ein System, das denkt, es weiß besser (als ich), wo die Sachen landen sollten oder wie ich das System konfigurieren sollte, denn da muss ich mich dem System anpassen, aber ich will das System *mir* anpassen.



  • Artchi schrieb:

    Und warum setzt sich nicht dieser neue BIOS-Standard durch? Wir krepeln immer noch mit dem 1978 BIOS von IBM rum, auf das IBM immer noch Lizenzgebühren erhebt. Weil wir immer noch diesen ollen Standard haben.

    Also ich hab ein EFI drin 😉 .



  • supertux schrieb:

    wiel ich Debian und ihre Nachfahren nie mochte und weil ich ein System will, welches tut, was ich sage und nicht umgekehrt. Ich bin kein DAU User, ich brauche keine "intuitive" sonder funktionale Programme (ich bin deshalb vim User). Das erste Programm, was ich starte, wenn ich mich in X einlogge, ist ein xterm. Mir geht auf den Geist, wenn das System versucht schlauer zu sein als ich und Sachen automatisch ausführt (automount und so ein Zeug), die ich nicht will. Ich hasse ein System, das denkt, es weiß besser (als ich), wo die Sachen landen sollten oder wie ich das System konfigurieren sollte, denn da muss ich mich dem System anpassen, aber ich will das System *mir* anpassen.

    Bin zwar Dipl. Inform., Systemanalytiker und Software Entwickler, aber konnte sowas ehrlich gesagt noch nie was abgewinnen. Betriebssysteme sind mir sowas von egal. Ich möchte sie nicht konfigurierern und ich möchte sie vor allem nicht administrieren. Ein Betriebssystem muss für mich einfach nur funktionieren und so selten wie möglich rumnerven. Mein volles Interesse gilt viel mehr den Anwendungen, die ich ich (i) benutze und (ii) implementiere.



  • tjo byto nur irgendwer muss auch die betriebssysteme, die du für selbstverständlich erachtest, "implementieren", sonst könntest du dir deine progrämmchen auch in die haare schmieren. und das ist eben der job von uns kernel hack0rn.



  • byto schrieb:

    Bin zwar Dipl. Inform., Systemanalytiker und Software Entwickler, aber konnte sowas ehrlich gesagt noch nie was abgewinnen. Betriebssysteme sind mir sowas von egal. Ich möchte sie nicht konfigurierern und ich möchte sie vor allem nicht administrieren. Ein Betriebssystem muss für mich einfach nur funktionieren und so selten wie möglich rumnerven. Mein volles Interesse gilt viel mehr den Anwendungen, die ich ich (i) benutze und (ii) implementiere.

    was du bist, hat mit deinen Ansichten nichts zu tun. Ich bin in manchen technischen Sachen eben ein Freak, der volle Kontrolle zu bekommen mag. Ich wollte schon immer wissen, wie die Dinger laufen. Das führte dazu, dass ich während meiner Dip.Arbeit einen echtzeitfähigen Mikrokernel geschrieben habe, was mir neben viel Frust vor allem viel Spaß gegeben hat. Mir macht es aber Spaß, wenn ich mich mit meinem System auseinander setze. Klar hätte ich manchmal vor Wut die Kiste aus dem Fenster geschmießen, aber i.A. macht mir Spaß mein System "von innen" zu sehen. Mir ist wichtig bei einer Anwendung, dass sie meinem Arbeitsstyl anpassen kann. Geht das nicht, dann ab in die Tonne damit 🙂



  • Ich bin auch in manchen technischen Sachen wahrscheinlich ein Freak, aber muss zugeben, dass Linux nicht "idiotensicher" ist (ja... mein Lieblingswort). Vielleicht habe ich nur Pech gehabt:
    - Es gibt Linux-Distribution, die bereits zweistellige Versionsnummern erreicht haben. Möchte man den Rechner herunterfahren und klickt auch auf "Herunterfahren" - passiert nichts. Man muss erstmal "su" und dann "shutdown -h now" eingeben. In der Shell. Damit geht der Rechner natürlich aus.
    - Hat man eine Audio-CD eingesteckt und drückt man die Auswerfen-Taste am CDROM-Laufwerk - passiert nichts. Man kriegt die CD nicht wieder raus. Wieder mal "su" und "eject /dev/cdrom"...
    - Packetverwaltung gewöffnet und möchte ein Programm suchen. Es gibt ein Eingabefeld für die Suche. Klicke in das Feld rein, um dort den Cursor zu setzen - Packetverwaltung hängt, kann nichts eingeben.
    - Habe ein Monitor mit 1440:900 Auflösung und möchte deshalb die Leiste nicht horizontal, sondern vertikal platzieren. (Geht auch unter Windows, nur wird man von Windows-Nutzern schief angeguckt, "He, warum ist bei dir der Start-Knopf nicht links unten in der Ecke"... Windows Nutzer sind ja rigide). Öffne nun einige Programme. Habe etwa 6-7 geöffnet und sie sind ja auf der Leiste als Knöpfe dargestellt. Nun möchte dort ich klicken, um zwischen Programmen umzuschalten. Geht nicht. Die Designer haben sich ja ausgetobt und die Knöpfe passen nun automatisch ihre Größe an, je nach dem, wieviele sie da sind. Klickt man nun auf einen, "oszilliert" das Ganze, mal werden sie klein, mal wieder groß... Und ich habe das aktuellste Desktop-System installiert.

    Alles simpelste Anwendungsfälle...



  • SeppJ schrieb:

    ;fricky schrieb:

    ich bin begeistert und nehme alles zurück.

    Entweder klaut hier jemand ;frickys Identität oder ich versteh die Welt nicht mehr.

    naja, die behauptung, dass eine linux-installation für DAUs schwierig ist, kann ich nach dem versuch nicht mehr aufrecht erhalten. warum soll ich lügen? bin ja kein mitarbeiter von m$ *fg* ubuntu gibt sich alle mühe, ein DAU-verträgliches linux zu sein, die installation lief wirklich wie geschmiert. ausser bei der frage nach der sprache, hab ich die wenigen dialogboxen, die da kamen, alle einfach weitergeklickt, ohne mir das durchzulesen und -schwupps- war ubuntu installiert. auch diese unterstellung aus dem anderen thread, dass flash-videos ruckelig laufen, konnte ich widerlegen (zumindest für firefox unter einem ubuntu auf einer vmware-maschine). ich kann nichts darüber sagen, in welche fallen noobs später noch tapsen können, aber der erste eindruck war für mich jedenfalls überraschend positiv.
    🙂



  • @;fricky
    installer mal alle aktuellen online updates, und guck, ob das system es überlebt 🙂


Anmelden zum Antworten