Wie habt ihr angefangen zu programmieren? Einstiegssprache?



  • Ja, die einzelnen Sachen stimmen schon so, aber für sich zusammengenommen heißt es immer noch nicht, dass die einzelnen Bitplanes nicht maximal 1920*1200*31 Bit auseinanderliegen müssen (oder etwas mehrfaches davon, meine präferierte Auflösung). Das Amiga-Design wäre bei 32 Bit bei heutigen Auflösungen einfach nicht mehr tragbar gewesen. Das war damals gut, um Speicher zu sparen, der sündhaft teuer war und dabei das maximale an Farben herauszuholen (was aber eben nur ein paar Bit waren).
    Viel sinnvoller wäre es, eben eine Packed-Darstellung zu nehmen, die die Bits beieinander hält. Das ließe sich auch in einen kleinen EA auf der CPU packen, um schnell zu packen für den Bus, die GPU kann das ja meinetwegen nativ unterstützen.

    Wenn ich auf Wikipedia schaue steht da unter Bitplanes auch, dass der Amiga aus diesem Grund gegen Ende bei vielen Farben und hohen Auflösungen ausgebremst wurde, weil der Speicher-Bus dicht wurde mit den vielen nötigen unzusammenhängenden Reads und Writes.



  • Xin schrieb:

    Das ist ein ziemlich großer Teil, der da inzwischen funktioniert und der UAE baut in den PC nicht die Coprozessoren ein und macht aus der x86 CPU einen Motorola. Der UAE ist was komplett anderes, nämlich eine Emulation. Die Emulation des Amigas auf dem PC sagt nichts über die Qualität von Amiga-Hardware aus. Deine Vergleiche sind einfach vollkommen absurd.

    Das der UAE ein EMulator ist das ist mir klar.
    Es geht um den Punkt der Abwärtskompatibiltät.
    Neue Amiga HW kriegst du ja nicht mehr, also mußt du deine alte Amiga Software logischerweise auf dem PC im Emulator laufen lassen und das läuft schlechter als jedes DOS Spiel in der DOSBox.

    Was soll ich mir da durchlesen, Junge, ich habe einen Amiga mit FlickerFixer und Grafikkarte zu Hause stehen und kann Dir aus erster Hand und eigener Erfahrung sagen, es unterscheidet sich nicht von einer modernen Grafikkarte.
    Es gibt einen VGA Ausgang, da schließt Du den Monitor an und wenn Du den Computer einschaltest, dann kommt auf dem Monitor das Bild. Keine Ahnung, was das für ein Klimmzug sein soll, ich für meinen Teil fühlte mich durch dieses Vorgehen nicht überfordert.

    Du hast einen Amiga 3000 mit AGA Karte, ich sprach vom Amiga 500 den du an einen Monitor anschließen sollst.
    Und das war schon damals ein Klimmzug. Der Amiga 500 brauchte deswegen nen Spezialmonitor und der war immer noch schlechter als das Bild auf einem VGA PC Monitor.

    Lies hier:
    http://de.wikipedia.org/wiki/Amiga#Nicht_b.C3.BCrotaugliche_Bildschirmdarstellung

    [QUTEO]

    Bala Gi schrieb:

    Und die Art und Weise, wie der Amiga einen Pixel darstellte, erwies sich als Sackgasse.

    ?

    Öhm... naja, man nehme drei Grundfarben, mische die Komponenten... und setze einen Pixel auf dem Bildschirm auf diese Farbe. Tada...!?

    Das ist wirklich eine Sackgasse, denn die Technik hat sich seitdem nicht weiterentwickelt, das machen wir heute nämlich immernoch so.
    [/QUOTE]
    Der Punkt ist, dass beim Amiga der Pixel so umständlich verpackt wurden.

    Siehe:

    Insgesamt waren die Verbesserungen aber nicht ausreichend, um mit den damaligen erweiterten VGA-kompatiblen Grafikkarten mithalten zu können. Insbesondere ein echter, unbeschränkter 24-Bit-TrueColor-Modus wurde schmerzlich vermisst, der erwähnte 8-Bit-HAM-Modus war kein vollwertiger Ersatz. Außerdem waren die erreichbaren Auflösungen und Bildfrequenzen nicht mehr konkurrenzfähig. Auch war die Speicherorganisation über Bitplanes bei höheren Farbtiefen für viele Anwendungsgebiete kompliziert und langsam.

    Quelle: http://de.wikipedia.org/wiki/Advanced_Graphics_Architecture

    und:
    http://de.wikipedia.org/wiki/Hold-And-Modify-Modus

    VGA war der Amiga Grafik überlegen.

    Bala Gi schrieb:

    (das mit dem Pixelzeugs steht jetzt nicht im obigen WP Artikel, aber habe ich irgendwo anders mal gelesen)

    Jow und offensichtlich nichts verstanden.

    So etwas kannst du dir sparen, denn offensichtlich weiß ich mehr als du.
    Siehe oben.
    Und wenn ich das früher mal gelesen habe und jetzt nicht eindeutig wiedergebe, dann heißt das nicht, dass ich nichts verstanden habe, sondern das ich es inzwischen wieder die Details vergessen habe. So ein Wissen braucht man heute ja auch nicht mehr, es genügt wenn man ungefähr weiß, was da genau war, den Rest der Arbeit hast du zu erledigen, denn du willst genau wissen, was genau das war, ich habe dir den Hinweis gegeben, wo du suchen darfst.

    Der Amiga benutze Bitplanes für die interne Repräsentation von Grafikdaten.
    Ein durchaus geniales Konzept, zumal man damit sehr schön tricksen konnte, denn nicht alles was Bitplane ist muss auch als Pixel enden.

    Langsam und umständlich zu programmieren.

    Das war nur damals, als RAM teuer war, sinnvoll. Danach hat es eher die Entwicklung gehindert und die Preise abwärtskompatibler Produkte nach oben getrieben.

    VGA war dagegen einfach und entschlackt. Man brauchte für höhere Auflösungen und Farbtiefen nur noch mehr RAM, sowie nen schnelleren RAMDAC und höhere Betriebsmodi für die höheren Auflösungen. Aber Programmiertechnisch war das alles sehr einfach zu handhaben.
    Auf Pixelebene gab's keine großen Hürden.

    FYI & für den Rest: Auf dem Amiga waren Auflösungen mit 3 Bit Farbtiefe (8 Farben) kein Problem, was auf einem PC ein bisschen blöd war, weil man 3 Bit ja schlecht ohne Leerbits in ein Byte (8Bit) bekommt, also nimmt man gleich 4 Bit, also 16 Farben.

    Was auch sinnvoll ist, denn 2*4 Bit packen perfekt in 1 Byte. Programmiertechnisch ist das sehr einfach anzusteuern.
    Warum also kompliziert machen, nur um etwas RAM einzusparen?

    Beim PC hat man halt einfach mit mehr RAM geklotzt, dann war's kein Problem mehr und fertig.

    Beim Amiga konnte man auch 32 oder 64 oder 128 Farben nehmen, beim PC war die nächste Stufe gleich 256 Farben, dazwischen gab es nichts, man hätte für 5, 6 oder 7 Bit ja sowieso immer 8 Bit belegen müssen, was genauso langsam war wie gleich 8 Bit zu nehmen.

    Wie ich schon sagte, rückblickend ist das kein Fehler, sondern ein Vorteil.
    Was meinst du, wie kompliziert und umständlich die heutige HW und SW immer noch sein müßte, nur um solche seltsamen Ansteuerungsmodi zu unterstützen?
    VGA kann heute noch EGA und CGA darstellen, gerade weil es so einfach gehalten wurde.

    Für Spiele hat man beim Amiga übrigens nur die <= 64 Farbenmodi genutzt, weil alles andere zu langsam war.

    VGA mit seinen 256 Farben pro Byte war da hier dagegen recht schnell und effizient.

    Und 8 Bit-Auflösung war auf Computern von anno dazumal wirklich lahm. Mit 8 Farben konnte man aber schon ansehnliche GUIs produzieren und mit 32 Farben war man noch erträglich unterwegs und hatte auch ein farblich ansprechendes Hintergrundbild.

    Kann ich nicht bestätigen.

    Der PC machte all das mit CPU Rohleistung weg, und Windows 3.0 hat's dann nicht lange gedauert und es gab integrierte 2d Beschleunigerfunktionen die das Zeichnen von Linien, Rechtecken usw. sehr schnell machten.

    Mit Bitplanes könnten wir auch 27, 30, 33, 36, 39, 42 und 45 Bit Grafiken haben.

    Und das wäre langsam und umständlich.

    Blöderweise ist beim PC die nächste Stufe 48 Bit Grafik, Zwischenlösungen sind nicht sinnvoll möglich.

    Moderne GPUs haben inzwischen 1-2 GB Video RAM, das ist definitiv kein Problem.
    Auch nicht bei 4K und 8K Auflösung.

    Kannst es gerne nachrechnen.
    Es ist sogar Platz für Doublebuffering und Triplebuffering.

    Wie ich schon sagte, beim PC wird geklotzt, den Rest erledigt die fortwährende schnelle Entwicklung.

    Müßtest du noch so exoktische Farbtiefen unterstützen, wie du vorschlägst, dann würde es den Fortschritt nur ausbremsen.

    Zumal 30 oder 36 Bit oftmals für qualitativere Texturen reichen würden, aber weniger Platz im Texturspeicher einer Graka benötigen und natürlich müsste man auch nicht die Leistung der Graka verdoppeln, um einen Fortschritt zu erzielen.

    Du könntest auch 24 Bit Texturen innerhalb eines 48 Bit Farbtiefenmodi verwenden und somit Platz sparen.
    Das Auge wird das kaum bemerken und die GPU rechnet das schnell on the fly um.

    Meine DigiCam fotographiert mit 14 Bit je Farbe, also 42 Bit-Rohdaten. Für Nachbearbeitung gut, aber 42% der Daten gehen verloren, wenn ich mir das Foto am PC angucke.

    Grafikprogramme rechnen intern schon @ 48 Bit Farbtiefe.
    Das Problem liegt hier auch weniger am Grafikstandard, sondern an den Monitore.
    Der Farbraum war hier viele Jahre stark begrenzt. Lediglich durch neue Techniken wie LED Hintergrundbeleuchtung ist etwas mehr möglich.
    Die Farbtiefe könnte man heute schnell erhöhen, wenn man wollte.



  • Bala Gi schrieb:

    Du hast einen Amiga 3000 mit AGA Karte
    ...
    Der Punkt ist, dass beim Amiga der Pixel so umständlich verpackt wurden.
    ...
    So etwas kannst du dir sparen, denn offensichtlich weiß ich mehr als du.
    ...
    Das Problem liegt hier auch weniger am Grafikstandard, sondern an den Monitore.
    Der Farbraum war hier viele Jahre stark begrenzt. Lediglich durch neue Techniken wie LED Hintergrundbeleuchtung ist etwas mehr möglich.

    wtf...!?

    Schönes Leben noch...



  • WTF sind das für elend lange Posts die keiner lesen mag? Könnt ihr das nicht per pm oder im Sandkasten ausmachen?



  • Xin schrieb:

    Bala Gi schrieb:

    Du hast einen Amiga 3000 mit AGA Karte
    ...
    Der Punkt ist, dass beim Amiga der Pixel so umständlich verpackt wurden.
    ...
    So etwas kannst du dir sparen, denn offensichtlich weiß ich mehr als du.
    ...
    Das Problem liegt hier auch weniger am Grafikstandard, sondern an den Monitore.
    Der Farbraum war hier viele Jahre stark begrenzt. Lediglich durch neue Techniken wie LED Hintergrundbeleuchtung ist etwas mehr möglich.

    wtf...!?

    Schönes Leben noch...

    Das muss heißen:

    live long and prosper.



  • Haha, da musste auf jeden Fall noch was kommen. War klar 😉 Du dürftest meinem Geschmack nach aber ein bisschen an den Leerzeilen zwischen den Zitaten sparen!



  • Jockelx schrieb:

    Ich kann mir nicht vorstellen, dass ein 12-14 Jähriger was anderes als Spiele programmieren will.

    Ich habe in meiner Jugend (scheiße ist das lange her 😃 ) nicht ein einziges Spiel progammiert. 😉

    Das könnte mitunter daran liegen, dass es natürlich weitaus weniger Spiele gab und man damals durchaus auch noch öfter draußen gespielt hat, im Schlamm, im Sand, bei Regen und bei Schnee...

    ja ich bin ein Dorfkind und damals in der DDR waren insbesondere die dörflichen Nebenstraßen immmer aus Schlamm gebaut 😃



  • It0101 schrieb:

    Jockelx schrieb:

    Ich kann mir nicht vorstellen, dass ein 12-14 Jähriger was anderes als Spiele programmieren will.

    Hab den Originalbeitrag nicht gesehen, deswegen zitiere ich It0101 😉 Ich hab auch noch nie ein Spiel programmiert und das hat mich auch noch nie interessiert. Als 12-18 jähriger habe ich mich vor allem für Vektorgrafik und Datenverwaltung interessiert.



  • den amiga 500 hatte ich auch, nettes Maschinchen, mit Kommandozeile, Multitasking, GUI und 4096 Farben

    nur die Assemblerprgrammierung auf dem 68k fand ich etwas fad, weil diese CPU so viele Register und mächtige Befehle hatte, daß mir die Assemblerprogrammierung fast schon wie eine höhere Sprache vorkam, so bequem war das. In dieser Hinsicht gefiel mir die Z80 besser.



  • Den Thread gab's schon zig Mal, bitte Suchfunktion benutzen



  • Ihr habt einen wichtigen Aspekt vergessen.

    Ganz früher und inzwischen auch wieder heute, waren Computer richtig leise.
    Man konnte sich auf dsa Programmieren konzentrieren und man hatte richtige Ruhe.

    Das war eine Zeit lang nicht so.
    Wer von ca. 1997 ab Pentium 200 MHz bis ca. 2005/6 dem Atlhon64 oder Core2Duo einen Computer benutze, der auch zum Spielen etwas taugte, der hatte zwangsläufig sofern er mit Lüftern gekühlt wurde eine höllen Lärmmaschine in seinem Arbeitszimmer.
    Das sind 8-9 Jahre unkonzentriertes programmiren unter einer Lärmquelle die auch Stress hervorrufen kann.

    So etwas hatten die C64er User von damals nicht und heute hat das der Nachwuchs auch nicht mehr, denn inzwischen sind alle Rechner wieder superleise bzw. kann man sie mit geringem Aufwand super leise bekommen.

    Mein neuer Haswell ist im Gegensatz zu meinem Core2Duo, der selbst schon recht leise war, sogar unhörbar. So etwas hatte ich das letzte mal bei meinem 486er und der hatte ein Netzteil, das lauter war, als das meines Haswells.
    Mein neuer Rechner hört sich an, als wären da gar keine Lüfter verbaut. Einfach traumhaft.

    Und die Stromverbrauchswerte erst. Nur 29 W im Idle, auch das schaffte ich das letzte mal nur mit meinem 486.
    Mein Core2Duo brauchte schon 60-70 W und alles was ich dazwischen hatte, brauchte standardmäßig 130 W im IDLE. Das erreicht nichtmal mein Haswell mehr unter Last.
    Und natürlich mußten diese 130 W im IDLE alle weggekühlt werden, bei den damals üblichen 80 mm Lüftern @ > 2300 rpm und kleinen Kühlkörpern war das schon ein riesen Krach.

    Und heute? Absolute Ruhe. Traumhaft!



  • 29 Watt im Idle? Mein Arbeitsgerät zieht 35Watt unter Volllast und das inklusive Monitor.



  • Ich habe mit Spielinternen Programmiersprachen angefangen (Fallout 3, Operation Flashpoint, Arma usw.). Habe mir einige Mods von anderen angeschaut und Teile davon in meine Projekte integriert und somit komplett neue Mods geschaffen.

    In meiner Ausbildung zum techn. Assistenten für Informatik habe ich dann C++, ein wenig Java Script, Assembler und Visual Basic Script + Batch Dateien schreiben gelernt. Daheim habe ich mir noch in meiner Freizeit AutoIt, Visual Basic und Phython beigebracht, wobei ich natürlich noch keine der aufgezählten Sprachen perfekt beherrsche, habe auch erst max. 2 Jahre Erfahrung.



  • 35WVolllast schrieb:

    29 Watt im Idle? Mein Arbeitsgerät zieht 35Watt unter Volllast und das inklusive Monitor.

    Das ist eine CPU mit x86 Architektur, da sind 29 W im IDLE sehr gute Werte.
    Ich schätze mal du verwendest ein Notebook, das ist eine ganz andere Geräteklasse und daher absolut nicht vergleichbar.

    Mit nur einem Kern braucht er inkl. iGPU unter LAST übrigens maximal 63.2 W.
    Bei allen 4 Kernen + iGPU sind es dann maximal 117,7 W.
    Das sind traumwerte, denn mehr als 117,7 W haben schon meine alten Systeme im IDLE benötigt.

    Insofern bin ich sehr zufrieden mit der neuen Hardware.





  • Ja klar, nutze ich ein Notebook und immer mehr nur noch ein Tablet was noch weniger Energie verbraucht. Mit wenig Energie arbeiten zu können, finde ich toll. Allein die Umstellung hier im Haushalt auf kleine LCD-Fernseher, anstelle Röhren und von LED-Lampen und dazu noch die Entsorgung der alten Desktop-PCs spart eine unheimliche Menge an Energie, ohne dabei große Einschnitte hinnehmen zu müssen.



  • 35WVolllast schrieb:

    Ja klar, nutze ich ein Notebook und immer mehr nur noch ein Tablet was noch weniger Energie verbraucht. Mit wenig Energie arbeiten zu können, finde ich toll. Allein die Umstellung hier im Haushalt auf kleine LCD-Fernseher, anstelle Röhren und von LED-Lampen und dazu noch die Entsorgung der alten Desktop-PCs spart eine unheimliche Menge an Energie, ohne dabei große Einschnitte hinnehmen zu müssen.

    Im Normalfall kostet ein neuer Rechnerkauf mehr als man an Energie einsparen könnte und Notebooks sind nicht upgradefähig, allein dadurch gehen alle deine Einsparungen verloren, weil du für mehr Leistung gleich wieder einen neuen Rechner kaufen mußt.
    Ich muss nur ein neues MB + RAM + CPU kaufen und schon läuft er schneller, manchmal reicht auch nur eine neue GPU oder auch CPU.
    Und dann iat die Leistung deines NBs immer geringer, als die eines gleich aktuellen Desktoprechners, das ist ein verlorenes Rennen.
    Ich kann meinen Monitor auch noch nach einem Rechnerupdate weiterverwenden und habe dafür das bessere größer und ergonomischere Display.

    Ein NB nutze ich nur, wenn ich mobil sein will und das ist so selten, dass ich immer noch mein erstes Notebook verwende, das momentan noch für alle außwertigen Einsatzszenarien genügt.



  • gehen alle deine Einsparungen verloren

    Vielleicht ist das nicht die Triebfeder, sondern eine erhoehtes Umweltbewusstsein. Nein, ich Weiss nicht, wie viel Energie fuer die Herstellung einer LED im Vergleich aufgebracht werden muss.



  • Heute steigen viele mit Java ein, da es meist auch der Lernsprache an der Uni ist.



  • 35WVolllast schrieb:

    Ja klar, nutze ich ein Notebook und immer mehr nur noch ein Tablet was noch weniger Energie verbraucht. Mit wenig Energie arbeiten zu können, finde ich toll. Allein die Umstellung hier im Haushalt auf kleine LCD-Fernseher, anstelle Röhren und von LED-Lampen und dazu noch die Entsorgung der alten Desktop-PCs spart eine unheimliche Menge an Energie, ohne dabei große Einschnitte hinnehmen zu müssen.

    Mein alter Röhrenfernseher verbraucht 25W. Mein LCD-Fernseher 150W. Der LCD ist 40" also größer als der alte mit geschätzt 27". Mein 19" Röhrenmonitor leistete sich zwischen 50 und 120W. Mein Alter 24" um die 100, der aktuelle ist mit 150W angegeben.

    Auf LED bin ich umgestiegen, weil die Energiesparlampen mir zugefährlich wurden, nachdem ich vom darin enthaltendem Quecksilber erfahren habe. Eine gute LED-"Birne" kostet etwa 10 Euro oder umgerechnet 40kWh und braucht 5W.
    Für den Preis könnte ich eine 60W Glühbirne 667 Stunden brennen lassen. Für den Euro, den die LED Lampe in der Zeit verbraucht, könnte ich die Glühbirne kaufen.

    Nun geht die Glühbirne häufiger kaputt, dafür ist sie problemlos zu entsorgen. Im Gegensatz zur Energiesparlampe ist die LED Lampe nicht hochgradig giftig, dafür wird mehr Metall benötigt (Kühlkörper!) und etwas Elektronik, die wieder nicht so einfach zu entsorgen ist. Die LED leuchtet in den Müllgebühren also stärker nach, als die Glühbirne.

    Ich schalte meine Desktops ab, wenn ich sie nicht nutze. Das ganze Zeug, Computer, Monitore, Drucker... hat 80W Standby-Strom. Klack: Null.

    Dann mache ich mir Nudeln und bekomme nicht rechtzeitig mit, dass das Wasser kocht. In der Zeit verballere ich 1000W, um kochendes Wasser zu erhitzen. Und die ganze gesparte Energie verfliegt spätestens dann wieder, weil ich beim Duschen zuerst auf heiß gestellt habe (25000W) und das siedend heiße Wasser ungenutzt in Abfluss jage, weil ich mich nicht verbrennen möchte. Dann steige ich ins Auto und erzeuge 100000W Leistung, um noch schnell Batterien kaufen zu können. Die brauche ich noch für'n Urlaub. Fernreise. Wer weiß, ob die da die gleichen Batterien haben. Und hoffentlich vergesse ich nicht wieder das Licht im Bad auszumachen 😉

    Energie sparen ist absolut 👍 .
    Aber oftmals ist es besser, bei den energieintensiven Sachen ein bisschen zu sparen, als bei Kleinkram den großen Aufwand bei Kleinkram zu machen.

    Nebenher lohnt es sich auch nicht ein neues Auto wegen des Spritverbrauchs zu holen. Das neue Auto ist teurer als der zusätzliche Sprit und die zusätzlichen Reparaturen und der Energiebedarf um das neue Auto zu bauen und das alte zu verschrotten übersteigt den zusätzliches Spritverbrauch des alten um ein Vielfahres. Darum war die "Umweltprämie" in Wirklichkeit auch alles andere als für die Umwelt gedacht...

    Energiesparen ist gar nicht so einfach, wenn man wirklich Energie sparen möchte...


Anmelden zum Antworten