Warum gelten AMD-Prozessoren als schlecht?



  • otze schrieb:

    wie sieht denn der Markt aus? Gäbe es Firmen, die das "Machtvakuum" nach einem potentiellen Totalversagen von AMD füllen könnten und nicht Intel heissen?

    Nur IBM und VIA besitzen die Rechte x86 CPUs herzustellen und ob das für die neusten Techniken von SSE bis AMD64 gilt, ist noch ziemlich fraglich.

    Mehr Firmen kommen also gar nicht in die engere Auswahl.

    Aber selbst wenn man diese Auswahl betrachtet, so hat IBM gar kein Interesse, denn die verdienen sehr gut in ihren anderen Sparten und haben es daher gar nicht nötig, in die x86 Welt zu gehen und VIA hat dafür gar kein Geld und ist im großen und ganzen eigentlich schon ausgestiegen, von den absolut Low End Lösungen mal abgesehen.

    Es gibt zu Intel im x86 Bereich also keine Konkurrenz außer AMD.

    Gefüllt werden kann das Machtvakuum also nur dann, wenn man mit Computer Computer meint und nicht nur x86 Architektur Computer.
    Die ARM CPUs haben hier am ehsten Chancen, ich denke da insbesondere an NVidia die mit ihrer Tegra Serie ja schon angefangen haben.

    Warte also einfach mal auf den ARM Cortex A50 und CPUs die für den High End Betrieb gepimpt wurden, also nicht nur für Handys, sondern auch für normale Computer.
    ARM nähert sich diesem Bereich ja immer mehr an, ist momentan aber noch weit davon entfernt.

    Wie dem auch sei, sollte aber ARM in die Domäne der Intel CPUs vordringen und Windows unter ARM erfolgreich sein, dann würde Intel mittelfristig schnell an Marktmacht verlieren, bis irgendwann die x86 Welt aufgrund des Überangebots und Preisdrucks durch dutzende ARM CPU Hersteller als Markt gefährdet wäre.
    Dann könnte ich mir vorstellen, das Intel die x86 Architektur öffnen könnte, so wie es ARM Holdings gemacht hat, um wieder stärker am Markt mitmischen zu können.
    Bis dahin vergehen aber mit Sicherheit noch 20 Jahre.



  • Erinnerer schrieb:

    Ich tippe darauf, das du AMD mangels Erfahrung in 3 Monaten an die Wand fahren würdest.

    Sowas ist immer wahrscheinlich, gerade in diesem Geschäft. In diesem Fall käme ich aber zu spät, denn das haben schon andere getan.

    Erinnerer schrieb:

    Ein Notebook für 800 Euro mit gutem Bildschirm, auf dem man mit 30 Watt performant Skyrim (mit vielen Plugins) oder BF3 spielen kann, das müsste drin sein
    [/QUOTE
    Klar, nur kriegst du für 800 € auch schon die neuen Ultrathin NBs von INtel mit ulta low voltage CoreiX Prozessor.

    Wer will da bitteschön dein lahmes AMD Gerät kaufen?

    Über diesen Satz würde ich lieber nochmal etwas genauer nachdenken.



  • nachtfeuer schrieb:

    Erinnerer schrieb:

    Ich tippe darauf, das du AMD mangels Erfahrung in 3 Monaten an die Wand fahren würdest.

    Sowas ist immer wahrscheinlich, gerade in diesem Geschäft. In diesem Fall käme ich aber zu spät, denn das haben schon andere getan.

    Erinnerer schrieb:

    Ein Notebook für 800 Euro mit gutem Bildschirm, auf dem man mit 30 Watt performant Skyrim (mit vielen Plugins) oder BF3 spielen kann, das müsste drin sein
    [/QUOTE
    Klar, nur kriegst du für 800 € auch schon die neuen Ultrathin NBs von INtel mit ulta low voltage CoreiX Prozessor.

    Wer will da bitteschön dein lahmes AMD Gerät kaufen?

    Über diesen Satz würde ich lieber nochmal etwas genauer nachdenken.

    Nö, der satz ist vllöig okya.
    WO ist dein Problem?



  • SeppJ schrieb:

    Kellerautomat schrieb:

    Auf dieser Liste ist der von mir genannte Prozessor aber relativ weit oben. Von Intel gibts nichts um den Preis in der Gegend.

    Dir ist aber schon klar, dass die da die Gesamtleistung aller Kerne gleichzeitig gemessen haben? Wenn du 8 Kerne voll auslasten kannst: Greif zu! Super Angebot! Falls nicht: Tja, dann hättest du eine ziemlich bescheidene Single-Core Leistung.
    Allgemein ist das Ding natürlich eine Heizmaschine, braucht mehr Watt/Stunde, mehr Watt/Idle, mehr Watt/Rechnung, mehr Watt/Last, mehr Watt/Core, mehr Watt/CPU, usw. als die (meist etwas teureren) Intels.

    tldr: Videobearbeitung: Hui! Spiele: Pfui!

    Ebenso parallel compilieren: Hui. 👍


  • Mod

    Compilator schrieb:

    Ebenso parallel compilieren: Hui. 👍

    Juhu! Der optimale Prozessor für Gentoo!



  • SeppJ schrieb:

    Compilator schrieb:

    Ebenso parallel compilieren: Hui. 👍

    Juhu! Der optimale Prozessor für Gentoo!

    Welchen meinst du davon eigentlich SeppJ?

    Beim 3930 müsste man 12 Pinguine beim Booten sehen, beim neuen AMD nur 8. Rein paralleltechisch wären mir aber 21 Pinguine (Achtung, Insider) zum ähnlichen Einkaufspreis viel lieber gewesen 😉
    (Aber die haben nätürlich auch keine Zusatzparallelisiererbombe wie z.B.
    http://www.amazon.de/ASUS-HD7970-DC2-3GD5-3072MB-384bit-4xDisplayPort/dp/B0072FAZPQ/ an Board 😉 )

    Recht günstige Multicorepower bekäme man neuerdings als Raspberry Pi Multipack, von den Kosten her pro Rechenkern ganz ähnlich. (ungefähr 21/2 * 100)
    (Allerdings ist der Stromverbrauch niedriger, so 21 * 4 -> um die 80 Watt bzw. natürlich mehr, je nach Hardwarezusätzen oder eben weniger, je nach Zusammenstellung)

    Die Rechenleistung im Vergleich dürfte ganz ähhnlich sein, wobei beim ARMs, wie auch in der Vergangenheit beim Cell noch viele Performance-pro-Watt-Steigerungen möglich sein sollten, und außerdem spielen Verschaltalgos auch immer noch eine Rolle.

    Fehlt eigentlich nur noch ein passendes Betriebsystem und gute Hardwareschnittstellen zum Verschalten der integrierten Schaltkreise, um sie beliebig zu kombinieren, und das neue Zeitalter der Rechentechnik (siehe z.B.
    http://raspberrycenter.de/artikel/99-supercomputer-raspberry-pi-format ) kann beginnen.



  • nachtfeuer schrieb:

    Recht günstige Multicorepower bekäme man neuerdings als Raspberry Pi Multipack, von den Kosten her pro Rechenkern ganz ähnlich. (ungefähr 21/2 * 100)
    (Allerdings ist der Stromverbrauch niedriger, so 21 * 4 -> um die 80 Watt bzw. natürlich mehr, je nach Hardwarezusätzen oder eben weniger, je nach Zusammenstellung)

    Die Rechenleistung im Vergleich dürfte ganz ähhnlich sein, wobei beim ARMs, wie auch in der Vergangenheit beim Cell noch viele Performance-pro-Watt-Steigerungen möglich sein sollten, und außerdem spielen Verschaltalgos auch immer noch eine Rolle.

    Das kann schon sein, aktuell ist die Performance pro Watt unter Last aber häufig eher bescheiden. Was bringt es mir, wenn ein Pi unter 10W zieht, wenn er unter Last tagelang an Aufgaben rechnet, die meine i7-Workstation in einer halben Stunde erledigt hat?

    Klar, die Leistungsaufnahme ist in dieser halben Stunde deutlich höher, aber unterm Strich braucht die Workstation zwar vielleicht 10x soviel Leistung, das dafür aber nur für weniger als ein Zehntel der Zeit.

    Versteh mich nicht falsch, der Raspberry Pi ist toll (habe selbst einen – zusätzlich zu meinem Sheevaplug) und ARM im Rechenzentrum finde ich auch spannend und hat sicher Zukunft. Aber aktuell ist es einfach so, dass wenn du wirklich Rechenleistung brauchst, der Pi gegen einen halbwegs brauchbaren 0815-x86 einfach ziemlich abstinkt. Vielleicht gibt es irgendwelche sehr speziellen Workloads, bei denen der Pi auch unter Last halbwegs mithalten kann, aber als General Purpose Rechner ist aktuell unter Last fast jeder Bürorechner effizienter.

    http://bryanquigley.com/uncategorized/rasberry-pi-vs-old-dell-p4



  • nman schrieb:

    Was bringt es mir, wenn ein Pi unter 10W zieht, wenn er unter Last tagelang an Aufgaben rechnet, die meine i7-Workstation in einer halben Stunde erledigt hat?

    Naja, ist schon klar, das ist ja eigentlich auch das alte Argument gegen stromsparende AMDs.

    Was es aber tatsächlich bringen könnte, das ist höhere Parallelperformance durch mehr Erfahrung damit. Gerade MIT Wettbewerbschielerei auf (aktuelle z.B. 16core)I7 Workstations mit MultiGPU-Rucksack. Wenn es aber um Berechnungen geht, die parallelisierbar sind, dann kann ein I7 überhaupt nicht gegen eine GPU "anstinken". Und warum nicht?

    ->Parallelperformance
    ->HPC und Green List: Parallelperformance
    ->Brain: Parallelperformance
    ->Eigenständiges Autofahren: viele Sinnes (Sensor-)leistungen integrieren und ökönomisieren
    ->Mustererkennung und Kompletierung, Sprachsynthese
    ->KI: KI in Spielen: Deep Blue -> Cell
    ->leistungsstarke Roboter durch (u.a.)(sparsame!) Parallelperformance
    ->mehr Sicherheit durch bzw. über funktionale Sprachkonzepte
    ->bessere Software für massiv parallel-Computing
    ->besseres Desktopcomputing (mit Java huaha...)(->mit Parallelbetriebsystem und optimierter (Standard) Hardware, weg von der alten Intelfessel)
    ->alt und bewährt: zuerst der Algo, dann die Hardware (Assembler)(geht nicht immer, ist auch klar)

    Kurz:
    Innovation und Performanceschub durch Parallel (und Spiel)! Erfahrungen damit und optimierte Software: Gesucht.
    KI in Spielen: Gesucht.
    (Desktopcomputing ohne Steckdose (und Lüfterkrach): Gesucht)
    Mehr Freiheit und Kosteneinsparung: Gesucht


  • Mod

    Du kannst nicht immer alles perfekt und in unendliche Teile parallelisieren. Wenn ein i7 die Aufgabe in einer halben Stunde seriell (oder mit wenigen parallelen Kernen) berechnen kann, sind dafür weit mehr Stromsparprozessoren als (i7-Rechenleisuntg/Stromsparechenleistung) erforderlich, es ist sogar gut möglich, dass es gar nicht möglich ist, mit den Stromsparprozessoren auf 30 Minuten zu kommen.

    Da hilft dir keine höhere Erfahrung, das ist einfach prinzipbedingt. Wenn man nicht bloß Bildchen rendern oder Passwörter brute forcen möchte, dann braucht man auch irgendwann ordentlich Rechenleistung auf jedem Kern. Diese ganze GPU-Parallelisierung ist in den letzten Jahren ziemlich gehyped worden. Aber so langsam ist es auch schon wieder out, weil man gemerkt hat, dass es für eine bestimmte Klasse Probleme (neben der Hauptrolle zum Rendern von Bildchen) sehr, sehr gut ist, aber sonst herzlich wenig bringt, außer viel Entwicklungszeit. Bei den sehr, sehr gut parallelisierbaren Aufgaben ist es daher zum Standard geworden, die GPU (oder wenn sie noch trivialer parallelisieren eine Cloud) zur Implementierung zu benutzen, aber wie du vielleicht bemerkt hast, sind das (neben Spielen) nur wenige Programme auf deinem Rechner.

    Kurz: Parallelisierung ist kein Zaubertrick, durch den magisch alles schneller wird und demnächst nur noch GPU-Rechner verkauft werden.



  • SeppJ schrieb:

    Kurz: Parallelisierung ist kein Zaubertrick, durch den magisch alles schneller wird und demnächst nur noch GPU-Rechner verkauft werden.

    Das ist schon klar, und das kennen auch die meisten aus praktischer Erfahrung. Wenn man z.B. ein Programmierteam vergrößert, dann wird das Zielprogramm nicht automatisch schneller fertig. Oder siehe auch in den Artikel von Marc++us "der Dreisatz lügt". Auch bei Spielen gilt noch dass starke Dualcores mehr bringen als Mehrkerner (außer die Takten schneller und haben größere Caches).

    Nichtsdestotrotz steckt die Erfahrung mit Parallelisierbarkeit (auch wenn es schon eine lange Parallel-Cpu Forschung gibt) noch in den Kinderschuhen?
    Man könnte sagen, weil es noch viel Try + Error braucht.
    (Das hat letztlich auch die "Evolution" in etwa so gemacht und hat starke, ökonomische Techniken entwickelt)
    (und wenn man sich CPUs unter der Haube anguckt, kann man nur staunen über die wunderlichen Techniken, welche die CPU funktionsfähig und leistungsfähiger machen. Auch hier spielt Parallelisiergedöns eine wichtige Rolle, schon allein die Anzahl der Anschlüsse könnte man beschränken, wenn es wirklich mal so richtig seriell sein soll...;) :xmas1:



  • Naja, für den Preis von ca. nur 40 € ist AMD ja gar nicht so schlecht:

    http://www.youtube.com/watch?v=tuhlReQzJNY

    Wenn man also nen Office+Surfrechner braucht oder nen Drittrechner für die Werkstatt im Keller etc., kann man da nicht viel falsch machen.


Anmelden zum Antworten