Wie habt ihr angefangen zu programmieren? Einstiegssprache?



  • Bala Gi schrieb:

    Xin schrieb:

    Schön, dass Du einen Vater hattest, der Dich mehr unterstützt hat, aber wenn Du Dich heute noch mit Deinen Mitschülern auf diese Art vergleichen musst, dann hat Dir Dein Vater einen ziemlichen Bärendienst erwiesen.

    Okay, ich sehe schon, jetzt bist du eingeschnappt.

    Das siehst Du falsch. Ich verzweifle nur etwas an einer Argumentation wie

    Bala Gi schrieb:

    Die Spiele von 1989 laufen auf meinem PC noch, sofern kein Floppy Kopierschutz im Wege steht.
    Also "Battle of Britain - Their Finest hour" von LucasArts (Vorgänger von SWOTL) läuft noch, ich kann sogar noch DOS booten und es direkt starten.
    Es läuft dann zwar etwas schnell aber es läuft.
    Wenn es spielbar laufen soll, es also nicht zu schnell laufen soll, dafür habe ich die DOSBox. Damit geht es auch wunderbar.

    Das Spiel läuft, aber nicht spielbar. Ja, was nun?

    Was machst Du mit der DOS-Box anders, als jemand, der früher mit dem Amiga sich ein Kickstart 1.2 bootete, wenn er alte Spiele spielen wollte und wie kommst Du auf die Idee, dass es besser wäre, wenn man sowas auf dem PC macht!?

    Bala Gi schrieb:

    Beim Amiga sieht das mit dem UAE Emulator definitiv nicht so gut aus.
    Mit der DOSBox kriegt man fast jedes Spiel noch zum Laufen, beim UAE ist es nur ein kleiner Teil der Amiga Spiele.

    Das ist ein ziemlich großer Teil, der da inzwischen funktioniert und der UAE baut in den PC nicht die Coprozessoren ein und macht aus der x86 CPU einen Motorola. Der UAE ist was komplett anderes, nämlich eine Emulation. Die Emulation des Amigas auf dem PC sagt nichts über die Qualität von Amiga-Hardware aus. Deine Vergleiche sind einfach vollkommen absurd.

    Bala Gi schrieb:

    Dann lies dir mal durch was für Klimmzug das war, wenn man einen Monitor an den Amiga anschließen wollte:

    http://de.wikipedia.org/wiki/Amiga#Grafikerweiterungen

    Was soll ich mir da durchlesen, Junge, ich habe einen Amiga mit FlickerFixer und Grafikkarte zu Hause stehen und kann Dir aus erster Hand und eigener Erfahrung sagen, es unterscheidet sich nicht von einer modernen Grafikkarte.
    Es gibt einen VGA Ausgang, da schließt Du den Monitor an und wenn Du den Computer einschaltest, dann kommt auf dem Monitor das Bild. Keine Ahnung, was das für ein Klimmzug sein soll, ich für meinen Teil fühlte mich durch dieses Vorgehen nicht überfordert.

    Bala Gi schrieb:

    Und die Art und Weise, wie der Amiga einen Pixel darstellte, erwies sich als Sackgasse.

    ?

    Öhm... naja, man nehme drei Grundfarben, mische die Komponenten... und setze einen Pixel auf dem Bildschirm auf diese Farbe. Tada...!?

    Das ist wirklich eine Sackgasse, denn die Technik hat sich seitdem nicht weiterentwickelt, das machen wir heute nämlich immernoch so.

    Bala Gi schrieb:

    (das mit dem Pixelzeugs steht jetzt nicht im obigen WP Artikel, aber habe ich irgendwo anders mal gelesen)

    Jow und offensichtlich nichts verstanden.

    Der Amiga benutze Bitplanes für die interne Repräsentation von Grafikdaten.
    Ein durchaus geniales Konzept, zumal man damit sehr schön tricksen konnte, denn nicht alles was Bitplane ist muss auch als Pixel enden.

    FYI & für den Rest: Auf dem Amiga waren Auflösungen mit 3 Bit Farbtiefe (8 Farben) kein Problem, was auf einem PC ein bisschen blöd war, weil man 3 Bit ja schlecht ohne Leerbits in ein Byte (8Bit) bekommt, also nimmt man gleich 4 Bit, also 16 Farben. Beim Amiga konnte man auch 32 oder 64 oder 128 Farben nehmen, beim PC war die nächste Stufe gleich 256 Farben, dazwischen gab es nichts, man hätte für 5, 6 oder 7 Bit ja sowieso immer 8 Bit belegen müssen, was genauso langsam war wie gleich 8 Bit zu nehmen. Und 8 Bit-Auflösung war auf Computern von anno dazumal wirklich lahm. Mit 8 Farben konnte man aber schon ansehnliche GUIs produzieren und mit 32 Farben war man noch erträglich unterwegs und hatte auch ein farblich ansprechendes Hintergrundbild.

    Auf dem PC legt man die Farbbits pro Pixel hintereinander weg, auf dem Amiga bediente man sich einer Anzahl Bitplanes entsprechend der Farbtiefe. Für 3 Bit Farbtiefe nahm man also 3 Bitplanes. Möchte man die Farbe des ersten Pixels haben, nimmt man sich aus allen Bitplanes das erste Bit und so hat man die Bits, die die Farbe, bzw. den Farbindex repräsentieren. Die Grafikausgabe war darauf optimiert. "Denise" war ein eigener Coprozessor, der diese arbeiten ohne zutun der CPU erledigte.
    Genial daran war, dass man die Bitplanes auch einzeln austauschen konnte. Statt also die Grafik komplett neu zu zeichnen, konnte man Objekte oder Farbverläufe durch den Austausch einzelner Bitplanes steuern.

    Dazu hatte ich dieses Jahr noch ein nettes Bewerbungsgespräch, wo genau das gemacht wurde, wenn auch nicht für Grafikdaten, sondern für eine der schönen Tricksereien. Für Dich eine Sackgasse, anderswo ist das High-End.

    Nur weil Du nicht verstehst, wenn jemand etwas anders macht als der Standard-PC heißt das nicht, dass es sich um eine Sackgasse handelt. Ein Standard entwickelt sich nicht zwangsläufig um das beste Produkt, sondern ein Vielbenutzes, ein politisch gewolltes oder rein willkürlich. Bitplanes sind lediglich eine andere Anordnung der Datenmatrix. Beide Repräsentationen sind aber gleich mächtig.
    Ähnlich wie BigEndian und LittleEndian. (Hier bietet die Intel-Repräsentation aber zugegebenermaßen der Motorola-Repräsentation aus technischen Gründen Vorteile.)

    Und zur damaligen Zeit war das Konzept der PC-Grafikkarten eher Unsinn. Heute haben wir 24Bit Grafik, weil es je 1 Byte für Rot, Grün und Blau ist. Es kommt nicht daher, weil irgendwer sagt, dass 24 Bit Grafiken so toll aussehen, dass es nichts besseres geben könnte.

    Mit Bitplanes könnten wir auch 27, 30, 33, 36, 39, 42 und 45 Bit Grafiken haben. Das Bitplanes Konzept ist da ja gar nicht so statisch. Moderne Monitore stellen 30 oder 36 Bit dar, benutzt wird die höhere Auflösung aber nur intern durch Farbkorrekturfunktionen. Der PC kann ja nur 24 Bit Grafiken.
    Blöderweise ist beim PC die nächste Stufe 48 Bit Grafik, Zwischenlösungen sind nicht sinnvoll möglich. Zumal 30 oder 36 Bit oftmals für qualitativere Texturen reichen würden, aber weniger Platz im Texturspeicher einer Graka benötigen und natürlich müsste man auch nicht die Leistung der Graka verdoppeln, um einen Fortschritt zu erzielen.
    Meine DigiCam fotographiert mit 14 Bit je Farbe, also 42 Bit-Rohdaten. Für Nachbearbeitung gut, aber 42% der Daten gehen verloren, wenn ich mir das Foto am PC angucke.

    Damit käme ein moderner Amiga klar, mein PC muss das auf erstmal auf 48 Bit hochkonvertieren, nur um es dann doch nicht darstellen zu können, weil er pro Farbe ein Byte überspringen müsste.

    Man könnte auch sagen, das PC-Konzept ist zwar heute Standard, aber blöderweise immernoch Unsinn.

    Und so kann man auch durch AmigaOS gehen und sich regelmäßig fragen, wieso - über 20 Jahre später - AmigaOS weiterhin positive Alleinstellungsmerkmale gegenüber Linux, Mac und Windows besitzt.



  • Müssen dann die einzelnen Bitplanes nicht auf unterschiedlichen Speicherbausteinen liegen, damit man nicht immer durch den ganzen Speicher hüpfen muss für ein Pixel? Speicher lässt sich ja nun besser darauf optimieren, zusammenhängende Bestandteile zu lesen und schreiben (Stichwort Burst). Also ich stell mir das hardwaretechnisch mit den Bitplanes irgendwie anspruchsvoller umzusetzen vor, wenn wir von einer wirklich großen Anzahl von Bitplanes sprechen.



  • Vor allem, route mal 39 Highspeed Drams die parallel an der GPU hängen müssen auf das exakte Timing (Meinetwegen 39*32Bit Breite) und erzähl mir dann, was das PCB kostet O.o



  • decimad schrieb:

    Müssen dann die einzelnen Bitplanes nicht auf unterschiedlichen Speicherbausteinen liegen, damit man nicht immer durch den ganzen Speicher hüpfen muss für ein Pixel? Speicher lässt sich ja nun besser darauf optimieren, zusammenhängende Bestandteile zu lesen und schreiben (Stichwort Burst). Also ich stell mir das hardwaretechnisch mit den Bitplanes irgendwie anspruchsvoller umzusetzen vor, wenn wir von einer wirklich großen Anzahl von Bitplanes sprechen.

    Oftmals wird (Grafik-)Speicher eher in Stücken kopiert als beschrieben, da spielt es häufig keine Rolle ob das nebenliegende Bit zu diesem oder zum nächsten Pixel gehört.

    Der Amiga hatte "Fast-RAM" und "Chip-RAM", was beides normaler Arbeitsspeicher war. Darin befanden sich die Grafikinformationen und wurden vom Grafikprozessor ausgelesen. Der war darauf optimiert, die Daten genauso zu erhalten.
    Chip-RAM wurde von allen CPUs benutzt, Fast-RAM nur von der CPU, darum war der eben für die CPU durchgehend verfügbar, beim Chip-RAM musste die CPU warten, falls da gerade ein Chip drin wühlte. Im Prinzip das gleiche, wie heute der RAM auf der Grafikkarte.

    Motorola hat damals den Fehler gemacht, die Zahlendarstellung der CPU dem Verständnis vom Menschen anzupassen, da war Intel schlauer: Wenn man sich eine Zahl auf einer IntelCPU als Hexadezimalzahl ansieht, dann ist die Zahl 0x87654321 (BigEndian) auf der IntelCPU als 0x21436587 (LittleEndian) abgelegt. Trotzdem rechnen IntelCPUs (meistens ;-)) richtig, obwohl hier ein paar Leitungen anders verstrickt sind. Was ich damit sagen möchte ist, dass die Bit-Darstellung von Daten nicht zwangsläufig die Geschwindigkeit einschränken. Eine 32 Bit-CPU (4 Byte) kann man entsprechend 4 Streams mit je 8 Bit Puffer auffassen. Eine 64 Bit CPU hat 8 Streams mit je 8 Bit.

    Eine aktuelle 24 Bit Grafikkarte hätte 24 Streams mit je 1 Bit. Das ist ein anderes Hardwaredesign als heute, wo 24 Bit aus einem Stream am Stück reinkommen und dann quasi zerlegt werden. Aber ich sehe da jetzt nicht, dass es ein Problem mit der Hardware geben müsste.
    Der Speicherbus einer Graka liegt derzeit bei 128 Bit? Gib jedem Stream einen Cache von 1kb, dann ziehst Du 8 zusammenhängende Wörter aus jedem Stream und während die CPU die abarbeitet, fühlst Du gleichzeitig die Caches nach. Ich sehe da technisch kein großes Problem!? Mit etwas Sachverstand findet man sicher auch bessere Cache-Größen, das ist heute ja auch kein Thema mehr. Eine breit serialisierbare Aufgabe, die man bei Bedarf mit einer MMU und bis zu 24 Speichercontrollern pushen kann, so dass sich am Ende keiner mehr im Weg steht.

    Ich bin aber kein Hardwaredesigner und zugegebenermaßen ist das für mich als Software-Entwickler auch zweitrangig.
    Beim Amiga ging es, es ging flott, also wird Jay Miner wohl einen brauchbaren Weg gefunden haben. Legt man mehrere Puffer anlegt und diese Bitweise in der GPU ausliest, ist man nicht mehr auf das willkürliche Byteformat angewiesen, sondern kann sich wie ein Webstuhl aus unterschieden Datenstreams füttern lassen. Ich sehe hier nichts, was die Leistung einer uralt GPU überfordern würde. Es ist halt ein anderes Hardware-Design.

    Man muss nur aus dem üblichen Standard-Denken rauskommen und das ist vermutlich auch der Grund, warum mir Jay Miner ohne Nachschlagen im Gedächtnis bleibt, aber ich absolut keine Ahnung habe, wer damals den IBM-Standard-PC zusammengeflickt hat.



  • Ja, die einzelnen Sachen stimmen schon so, aber für sich zusammengenommen heißt es immer noch nicht, dass die einzelnen Bitplanes nicht maximal 1920*1200*31 Bit auseinanderliegen müssen (oder etwas mehrfaches davon, meine präferierte Auflösung). Das Amiga-Design wäre bei 32 Bit bei heutigen Auflösungen einfach nicht mehr tragbar gewesen. Das war damals gut, um Speicher zu sparen, der sündhaft teuer war und dabei das maximale an Farben herauszuholen (was aber eben nur ein paar Bit waren).
    Viel sinnvoller wäre es, eben eine Packed-Darstellung zu nehmen, die die Bits beieinander hält. Das ließe sich auch in einen kleinen EA auf der CPU packen, um schnell zu packen für den Bus, die GPU kann das ja meinetwegen nativ unterstützen.

    Wenn ich auf Wikipedia schaue steht da unter Bitplanes auch, dass der Amiga aus diesem Grund gegen Ende bei vielen Farben und hohen Auflösungen ausgebremst wurde, weil der Speicher-Bus dicht wurde mit den vielen nötigen unzusammenhängenden Reads und Writes.



  • Xin schrieb:

    Das ist ein ziemlich großer Teil, der da inzwischen funktioniert und der UAE baut in den PC nicht die Coprozessoren ein und macht aus der x86 CPU einen Motorola. Der UAE ist was komplett anderes, nämlich eine Emulation. Die Emulation des Amigas auf dem PC sagt nichts über die Qualität von Amiga-Hardware aus. Deine Vergleiche sind einfach vollkommen absurd.

    Das der UAE ein EMulator ist das ist mir klar.
    Es geht um den Punkt der Abwärtskompatibiltät.
    Neue Amiga HW kriegst du ja nicht mehr, also mußt du deine alte Amiga Software logischerweise auf dem PC im Emulator laufen lassen und das läuft schlechter als jedes DOS Spiel in der DOSBox.

    Was soll ich mir da durchlesen, Junge, ich habe einen Amiga mit FlickerFixer und Grafikkarte zu Hause stehen und kann Dir aus erster Hand und eigener Erfahrung sagen, es unterscheidet sich nicht von einer modernen Grafikkarte.
    Es gibt einen VGA Ausgang, da schließt Du den Monitor an und wenn Du den Computer einschaltest, dann kommt auf dem Monitor das Bild. Keine Ahnung, was das für ein Klimmzug sein soll, ich für meinen Teil fühlte mich durch dieses Vorgehen nicht überfordert.

    Du hast einen Amiga 3000 mit AGA Karte, ich sprach vom Amiga 500 den du an einen Monitor anschließen sollst.
    Und das war schon damals ein Klimmzug. Der Amiga 500 brauchte deswegen nen Spezialmonitor und der war immer noch schlechter als das Bild auf einem VGA PC Monitor.

    Lies hier:
    http://de.wikipedia.org/wiki/Amiga#Nicht_b.C3.BCrotaugliche_Bildschirmdarstellung

    [QUTEO]

    Bala Gi schrieb:

    Und die Art und Weise, wie der Amiga einen Pixel darstellte, erwies sich als Sackgasse.

    ?

    Öhm... naja, man nehme drei Grundfarben, mische die Komponenten... und setze einen Pixel auf dem Bildschirm auf diese Farbe. Tada...!?

    Das ist wirklich eine Sackgasse, denn die Technik hat sich seitdem nicht weiterentwickelt, das machen wir heute nämlich immernoch so.
    [/QUOTE]
    Der Punkt ist, dass beim Amiga der Pixel so umständlich verpackt wurden.

    Siehe:

    Insgesamt waren die Verbesserungen aber nicht ausreichend, um mit den damaligen erweiterten VGA-kompatiblen Grafikkarten mithalten zu können. Insbesondere ein echter, unbeschränkter 24-Bit-TrueColor-Modus wurde schmerzlich vermisst, der erwähnte 8-Bit-HAM-Modus war kein vollwertiger Ersatz. Außerdem waren die erreichbaren Auflösungen und Bildfrequenzen nicht mehr konkurrenzfähig. Auch war die Speicherorganisation über Bitplanes bei höheren Farbtiefen für viele Anwendungsgebiete kompliziert und langsam.

    Quelle: http://de.wikipedia.org/wiki/Advanced_Graphics_Architecture

    und:
    http://de.wikipedia.org/wiki/Hold-And-Modify-Modus

    VGA war der Amiga Grafik überlegen.

    Bala Gi schrieb:

    (das mit dem Pixelzeugs steht jetzt nicht im obigen WP Artikel, aber habe ich irgendwo anders mal gelesen)

    Jow und offensichtlich nichts verstanden.

    So etwas kannst du dir sparen, denn offensichtlich weiß ich mehr als du.
    Siehe oben.
    Und wenn ich das früher mal gelesen habe und jetzt nicht eindeutig wiedergebe, dann heißt das nicht, dass ich nichts verstanden habe, sondern das ich es inzwischen wieder die Details vergessen habe. So ein Wissen braucht man heute ja auch nicht mehr, es genügt wenn man ungefähr weiß, was da genau war, den Rest der Arbeit hast du zu erledigen, denn du willst genau wissen, was genau das war, ich habe dir den Hinweis gegeben, wo du suchen darfst.

    Der Amiga benutze Bitplanes für die interne Repräsentation von Grafikdaten.
    Ein durchaus geniales Konzept, zumal man damit sehr schön tricksen konnte, denn nicht alles was Bitplane ist muss auch als Pixel enden.

    Langsam und umständlich zu programmieren.

    Das war nur damals, als RAM teuer war, sinnvoll. Danach hat es eher die Entwicklung gehindert und die Preise abwärtskompatibler Produkte nach oben getrieben.

    VGA war dagegen einfach und entschlackt. Man brauchte für höhere Auflösungen und Farbtiefen nur noch mehr RAM, sowie nen schnelleren RAMDAC und höhere Betriebsmodi für die höheren Auflösungen. Aber Programmiertechnisch war das alles sehr einfach zu handhaben.
    Auf Pixelebene gab's keine großen Hürden.

    FYI & für den Rest: Auf dem Amiga waren Auflösungen mit 3 Bit Farbtiefe (8 Farben) kein Problem, was auf einem PC ein bisschen blöd war, weil man 3 Bit ja schlecht ohne Leerbits in ein Byte (8Bit) bekommt, also nimmt man gleich 4 Bit, also 16 Farben.

    Was auch sinnvoll ist, denn 2*4 Bit packen perfekt in 1 Byte. Programmiertechnisch ist das sehr einfach anzusteuern.
    Warum also kompliziert machen, nur um etwas RAM einzusparen?

    Beim PC hat man halt einfach mit mehr RAM geklotzt, dann war's kein Problem mehr und fertig.

    Beim Amiga konnte man auch 32 oder 64 oder 128 Farben nehmen, beim PC war die nächste Stufe gleich 256 Farben, dazwischen gab es nichts, man hätte für 5, 6 oder 7 Bit ja sowieso immer 8 Bit belegen müssen, was genauso langsam war wie gleich 8 Bit zu nehmen.

    Wie ich schon sagte, rückblickend ist das kein Fehler, sondern ein Vorteil.
    Was meinst du, wie kompliziert und umständlich die heutige HW und SW immer noch sein müßte, nur um solche seltsamen Ansteuerungsmodi zu unterstützen?
    VGA kann heute noch EGA und CGA darstellen, gerade weil es so einfach gehalten wurde.

    Für Spiele hat man beim Amiga übrigens nur die <= 64 Farbenmodi genutzt, weil alles andere zu langsam war.

    VGA mit seinen 256 Farben pro Byte war da hier dagegen recht schnell und effizient.

    Und 8 Bit-Auflösung war auf Computern von anno dazumal wirklich lahm. Mit 8 Farben konnte man aber schon ansehnliche GUIs produzieren und mit 32 Farben war man noch erträglich unterwegs und hatte auch ein farblich ansprechendes Hintergrundbild.

    Kann ich nicht bestätigen.

    Der PC machte all das mit CPU Rohleistung weg, und Windows 3.0 hat's dann nicht lange gedauert und es gab integrierte 2d Beschleunigerfunktionen die das Zeichnen von Linien, Rechtecken usw. sehr schnell machten.

    Mit Bitplanes könnten wir auch 27, 30, 33, 36, 39, 42 und 45 Bit Grafiken haben.

    Und das wäre langsam und umständlich.

    Blöderweise ist beim PC die nächste Stufe 48 Bit Grafik, Zwischenlösungen sind nicht sinnvoll möglich.

    Moderne GPUs haben inzwischen 1-2 GB Video RAM, das ist definitiv kein Problem.
    Auch nicht bei 4K und 8K Auflösung.

    Kannst es gerne nachrechnen.
    Es ist sogar Platz für Doublebuffering und Triplebuffering.

    Wie ich schon sagte, beim PC wird geklotzt, den Rest erledigt die fortwährende schnelle Entwicklung.

    Müßtest du noch so exoktische Farbtiefen unterstützen, wie du vorschlägst, dann würde es den Fortschritt nur ausbremsen.

    Zumal 30 oder 36 Bit oftmals für qualitativere Texturen reichen würden, aber weniger Platz im Texturspeicher einer Graka benötigen und natürlich müsste man auch nicht die Leistung der Graka verdoppeln, um einen Fortschritt zu erzielen.

    Du könntest auch 24 Bit Texturen innerhalb eines 48 Bit Farbtiefenmodi verwenden und somit Platz sparen.
    Das Auge wird das kaum bemerken und die GPU rechnet das schnell on the fly um.

    Meine DigiCam fotographiert mit 14 Bit je Farbe, also 42 Bit-Rohdaten. Für Nachbearbeitung gut, aber 42% der Daten gehen verloren, wenn ich mir das Foto am PC angucke.

    Grafikprogramme rechnen intern schon @ 48 Bit Farbtiefe.
    Das Problem liegt hier auch weniger am Grafikstandard, sondern an den Monitore.
    Der Farbraum war hier viele Jahre stark begrenzt. Lediglich durch neue Techniken wie LED Hintergrundbeleuchtung ist etwas mehr möglich.
    Die Farbtiefe könnte man heute schnell erhöhen, wenn man wollte.



  • Bala Gi schrieb:

    Du hast einen Amiga 3000 mit AGA Karte
    ...
    Der Punkt ist, dass beim Amiga der Pixel so umständlich verpackt wurden.
    ...
    So etwas kannst du dir sparen, denn offensichtlich weiß ich mehr als du.
    ...
    Das Problem liegt hier auch weniger am Grafikstandard, sondern an den Monitore.
    Der Farbraum war hier viele Jahre stark begrenzt. Lediglich durch neue Techniken wie LED Hintergrundbeleuchtung ist etwas mehr möglich.

    wtf...!?

    Schönes Leben noch...



  • WTF sind das für elend lange Posts die keiner lesen mag? Könnt ihr das nicht per pm oder im Sandkasten ausmachen?



  • Xin schrieb:

    Bala Gi schrieb:

    Du hast einen Amiga 3000 mit AGA Karte
    ...
    Der Punkt ist, dass beim Amiga der Pixel so umständlich verpackt wurden.
    ...
    So etwas kannst du dir sparen, denn offensichtlich weiß ich mehr als du.
    ...
    Das Problem liegt hier auch weniger am Grafikstandard, sondern an den Monitore.
    Der Farbraum war hier viele Jahre stark begrenzt. Lediglich durch neue Techniken wie LED Hintergrundbeleuchtung ist etwas mehr möglich.

    wtf...!?

    Schönes Leben noch...

    Das muss heißen:

    live long and prosper.



  • Haha, da musste auf jeden Fall noch was kommen. War klar 😉 Du dürftest meinem Geschmack nach aber ein bisschen an den Leerzeilen zwischen den Zitaten sparen!



  • Jockelx schrieb:

    Ich kann mir nicht vorstellen, dass ein 12-14 Jähriger was anderes als Spiele programmieren will.

    Ich habe in meiner Jugend (scheiße ist das lange her 😃 ) nicht ein einziges Spiel progammiert. 😉

    Das könnte mitunter daran liegen, dass es natürlich weitaus weniger Spiele gab und man damals durchaus auch noch öfter draußen gespielt hat, im Schlamm, im Sand, bei Regen und bei Schnee...

    ja ich bin ein Dorfkind und damals in der DDR waren insbesondere die dörflichen Nebenstraßen immmer aus Schlamm gebaut 😃



  • It0101 schrieb:

    Jockelx schrieb:

    Ich kann mir nicht vorstellen, dass ein 12-14 Jähriger was anderes als Spiele programmieren will.

    Hab den Originalbeitrag nicht gesehen, deswegen zitiere ich It0101 😉 Ich hab auch noch nie ein Spiel programmiert und das hat mich auch noch nie interessiert. Als 12-18 jähriger habe ich mich vor allem für Vektorgrafik und Datenverwaltung interessiert.



  • den amiga 500 hatte ich auch, nettes Maschinchen, mit Kommandozeile, Multitasking, GUI und 4096 Farben

    nur die Assemblerprgrammierung auf dem 68k fand ich etwas fad, weil diese CPU so viele Register und mächtige Befehle hatte, daß mir die Assemblerprogrammierung fast schon wie eine höhere Sprache vorkam, so bequem war das. In dieser Hinsicht gefiel mir die Z80 besser.



  • Den Thread gab's schon zig Mal, bitte Suchfunktion benutzen



  • Ihr habt einen wichtigen Aspekt vergessen.

    Ganz früher und inzwischen auch wieder heute, waren Computer richtig leise.
    Man konnte sich auf dsa Programmieren konzentrieren und man hatte richtige Ruhe.

    Das war eine Zeit lang nicht so.
    Wer von ca. 1997 ab Pentium 200 MHz bis ca. 2005/6 dem Atlhon64 oder Core2Duo einen Computer benutze, der auch zum Spielen etwas taugte, der hatte zwangsläufig sofern er mit Lüftern gekühlt wurde eine höllen Lärmmaschine in seinem Arbeitszimmer.
    Das sind 8-9 Jahre unkonzentriertes programmiren unter einer Lärmquelle die auch Stress hervorrufen kann.

    So etwas hatten die C64er User von damals nicht und heute hat das der Nachwuchs auch nicht mehr, denn inzwischen sind alle Rechner wieder superleise bzw. kann man sie mit geringem Aufwand super leise bekommen.

    Mein neuer Haswell ist im Gegensatz zu meinem Core2Duo, der selbst schon recht leise war, sogar unhörbar. So etwas hatte ich das letzte mal bei meinem 486er und der hatte ein Netzteil, das lauter war, als das meines Haswells.
    Mein neuer Rechner hört sich an, als wären da gar keine Lüfter verbaut. Einfach traumhaft.

    Und die Stromverbrauchswerte erst. Nur 29 W im Idle, auch das schaffte ich das letzte mal nur mit meinem 486.
    Mein Core2Duo brauchte schon 60-70 W und alles was ich dazwischen hatte, brauchte standardmäßig 130 W im IDLE. Das erreicht nichtmal mein Haswell mehr unter Last.
    Und natürlich mußten diese 130 W im IDLE alle weggekühlt werden, bei den damals üblichen 80 mm Lüftern @ > 2300 rpm und kleinen Kühlkörpern war das schon ein riesen Krach.

    Und heute? Absolute Ruhe. Traumhaft!



  • 29 Watt im Idle? Mein Arbeitsgerät zieht 35Watt unter Volllast und das inklusive Monitor.



  • Ich habe mit Spielinternen Programmiersprachen angefangen (Fallout 3, Operation Flashpoint, Arma usw.). Habe mir einige Mods von anderen angeschaut und Teile davon in meine Projekte integriert und somit komplett neue Mods geschaffen.

    In meiner Ausbildung zum techn. Assistenten für Informatik habe ich dann C++, ein wenig Java Script, Assembler und Visual Basic Script + Batch Dateien schreiben gelernt. Daheim habe ich mir noch in meiner Freizeit AutoIt, Visual Basic und Phython beigebracht, wobei ich natürlich noch keine der aufgezählten Sprachen perfekt beherrsche, habe auch erst max. 2 Jahre Erfahrung.



  • 35WVolllast schrieb:

    29 Watt im Idle? Mein Arbeitsgerät zieht 35Watt unter Volllast und das inklusive Monitor.

    Das ist eine CPU mit x86 Architektur, da sind 29 W im IDLE sehr gute Werte.
    Ich schätze mal du verwendest ein Notebook, das ist eine ganz andere Geräteklasse und daher absolut nicht vergleichbar.

    Mit nur einem Kern braucht er inkl. iGPU unter LAST übrigens maximal 63.2 W.
    Bei allen 4 Kernen + iGPU sind es dann maximal 117,7 W.
    Das sind traumwerte, denn mehr als 117,7 W haben schon meine alten Systeme im IDLE benötigt.

    Insofern bin ich sehr zufrieden mit der neuen Hardware.





  • Ja klar, nutze ich ein Notebook und immer mehr nur noch ein Tablet was noch weniger Energie verbraucht. Mit wenig Energie arbeiten zu können, finde ich toll. Allein die Umstellung hier im Haushalt auf kleine LCD-Fernseher, anstelle Röhren und von LED-Lampen und dazu noch die Entsorgung der alten Desktop-PCs spart eine unheimliche Menge an Energie, ohne dabei große Einschnitte hinnehmen zu müssen.


Anmelden zum Antworten