Warum gelten AMD-Prozessoren als schlecht?



  • Die AMD Prozessoren sind als solche so schlecht nicht. Ziemlicher Quatsch.
    (Außer vielleicht die standardmäßige schlechteste Fließkomma-Performance. Das sollte irgendwann mal ein Ende haben, aber ne...)

    Was aber AMD von Intel deutlich unterscheidet, ist Werbung und Service bzw. Drumherumgedöns.
    Nur ein paar Beispiele:

    Früher gab es ja noch sehr gute Stromsparprozessoren von AMD, aber die waren kaum zu bekommen. Lieferengpässe bei den wichtigsen Produkten? -> Management Faux pas.

    Früher war es auch schwierig, einigermaßen brauchbare Mainboards zu bekommen (und passende Chipsätze). Das ist heute auch noch so, aber nicht mehr so schlimm wie zur Jahrtausendwende. (Dank Nvidia!)
    Hier hat das Management abgekackt.

    Die ab Werk beigepackten Lüfter bei AMD sind Schrott. -> Management Faul pas

    Nvidia trägt ziemlich dick auf mit Cuda. Was macht AMD ??

    Normalerweise müsste AMD technisch den Intels ein Stück voraus sein, um überhaupt Sinn zu machen. Das ist aber im Moment überhaupt nicht der Fall, und die schlechte Managementleistung aus den Vorjahren (das drumherum vernachlässigen) sorgt für viele Arbeitslose.
    (In Planspielen ist eher ein gutes Schuldenmanagement hilfreich, aber hier kommt ja AMD noch viel schlimmer rüber)

    Die 68000 waren auch viel besser als die Intels damals, aber Intel hat mit Kompatibilität und Service am Kunden gepunktet und verdient.

    Und auch professionelle Softwareentwickler http://www.steinberg.net/de/products/cubase/neue_features.html müssen sich ja mal auf irgendwas verlassen können. Dieses nicht im Blick zu haben -> Management Faux pas

    (und auch technische Details unverschämt zu beschönigen, kann man nicht symphatisch nennen

    Ach, und a propos Management:
    http://www.youtube.com/watch?v=CfxTc7_1UVE

    (und wenn ich jetzt so 1,6 Milliarden übrig hätte, ich würde den ganzen Laden aufkaufen, und zusehen, technisch ein wenig nach vorne zu kommen. Zum Beispiel kann man auf eimen gestrigen Notebook für 800 Euro Oblivion performant bei voller Detailauflösung spielen(mit sehr gutem Bildschirm)(und so bei um die 30 Watt Verbrauch)(Aber Linux auf Akku nixgut).
    Ein Notebook für 800 Euro mit gutem Bildschirm, auf dem man mit 30 Watt performant Skyrim (mit vielen Plugins) oder BF3 spielen kann, das müsste drin sein - und auch Linux-Notebooks mit verläßlicher AMD-Technik. AMD hat die Technik, das zu ermöglichen. Nvidia hätte die Technik auch, aber die haben noch keinen eigenen (intelkompatiblen) Prozessor...;)


  • Mod

    nachtfeuer schrieb:

    (und wenn ich jetzt so 1,6 Milliarden übrig hätte, ich würde den ganzen Laden aufkaufen, und zusehen, technisch ein wenig nach vorne zu kommen.

    AMDs Problem ist auch, dass sie sich das selber nicht mehr wirklich leisten können. Sie haben zwar anteilsmäßig am Umsatz ein großes Entwicklungsbudget, aber gegenüber Intel ist das in absoluten Zahlen deutlich weniger als 20% des Budgets. Selbst gegenüber anderen, nennen wir sie mal allgemein "Chiphersteller", reicht das vielleicht gerade mal für einen Platz irgendwo am Ende der weltweiten Top 10.

    Wenn die neue Low-End-Strategie schon wieder ein "Management Faux pas" werden sollte, dann wird es das in ein paar Jahren mit AMD gewesen sein. 😕



  • wie sieht denn der Markt aus? Gäbe es Firmen, die das "Machtvakuum" nach einem potentiellen Totalversagen von AMD füllen könnten und nicht Intel heissen?



  • nachtfeuer schrieb:

    Früher gab es ja noch sehr gute Stromsparprozessoren von AMD, aber die waren kaum zu bekommen. Lieferengpässe bei den wichtigsen Produkten? -> Management Faux pas.

    Ultra Low Voltage CPUs von Intel kriegst du auch kaum, denn die gehen in die Notebooksparte und das war früher, als es noch keine separaten CPUs für NBs gab, erst recht so.

    Früher war es auch schwierig, einigermaßen brauchbare Mainboards zu bekommen (und passende Chipsätze). Das ist heute auch noch so, aber nicht mehr so schlimm wie zur Jahrtausendwende. (Dank Nvidia!)
    Hier hat das Management abgekackt.

    Da irrst du dich in deinen Erinnerungen.

    Früher, zur Jahrtausendwende war es gang und gäbe, dass Mainboardchipsätze von Drittherstellern wie Via, Sis & Co angeboten werden, AMD hatte dafür schlichtweg nicht die Manpower und das Geld dazu.
    Desweiteren war es 2 Jahre vorher, auch noch gar nicht notwendig, denn da paßte eine AMD CPU noch in einen Intel Sockel.
    Eigene Chipsätze anzubieten wurde erst mit dem Pentium 2 notwendig, der bekam von Intel nämlich nen propritären Slot verpaßt und AMD mußte sich selbst was ausdenken, inkl. der Chipsätz, aber da es Via und Co gab, die diese Rolle übernahmen, hat sich AMD auf diese verlassen und die haben es am Anfang halt vergeigt.

    Ein weiterer Grund war, das die Mainboardhersteller günstigerer Konditionen bei Intel bekamen, deswegen gab'S die Intel Mainboards in bunten Packungen und die Mainboards für den AMD K-7 nur in schlichten braunen Kartons ohne nennenswerten Aufdruck.
    Das hat sich dann erst etwas später durch die Nachfrage der Kunden geändert.

    [QUOTE}
    Die ab Werk beigepackten Lüfter bei AMD sind Schrott. -> Management Faul pas
    [/QUOTE]
    Die bei Intel sind das auch.

    Ich kaufe zu meinen Intel Boxed CPUs grundsätzlich immer noch einen weiteren Kühler eines Drittherstellers.

    Nvidia trägt ziemlich dick auf mit Cuda. Was macht AMD ??

    ATI war darin nie gut und bei AMD war ATI auch nur eine eingekaufte Abteilung mit den alten Leuten.

    Hier kann man sogar sagen, dass sich die Situation bei ATI durch AMD sogar geringfügig gebessert hat, aber für mehr war wohl nie das Geld da.

    Das ist aber im Moment überhaupt nicht der Fall, und die schlechte Managementleistung aus den Vorjahren (das drumherum vernachlässigen) sorgt für viele Arbeitslose.

    Das Management von AMD war gut, das Problem lag eher an notorischer Geldknappheit und den notwendigen Drang sich durch den Bau von mehr FABs breiter aufstellen zu können.
    Als AMD nämlich führend war, gab's kein Mangementmentproblem, sondern AMD konnte die Nachfrage nicht bedienen.
    Es mußten also mehr FABs gebaut werden, für weitere Scherze wie Werbung war kein Geld da.

    Guck dir mal das Bar- und Firmenvermögen an, Intel ist 100 mal so mächtig wie AMD und das war es auch in den besten Zeiten von AMD.
    Wofür AMD hart arbeiten mußte, das konnte Intel einfach aus der Hand schütteln und dabei sogar mehrfach verbrennen.

    Außerdem, selbst wenn AMD für mehr Werbung und besseres Marketing sorgen hätte können, hätten sie am aktuellen Problem, dass die Pentium M Nachfolgerreihe einfach besser, effizienter und performanter ist, auch nichts ändern können.
    AMD würde also genauso dastehen wie heute, wenn nicht sogar noch schlimmer.
    Denn wer das Geld in die Werbung steckt, dem fehlt es natürlich in der Entwicklung.

    (und wenn ich jetzt so 1,6 Milliarden übrig hätte, ich würde den ganzen Laden aufkaufen, und zusehen, technisch ein wenig nach vorne zu kommen.

    LOL, mit dem Sümmchen kannst du vielleicht AMD gerademal kaufen, um aber irgendetwas entwickeln zu können, brauchst du in der Firma noch Geld.
    Ich tippe darauf, das du AMD mangels Erfahrung in 3 Monaten an die Wand fahren würdest.

    [QUOTE]
    Ein Notebook für 800 Euro mit gutem Bildschirm, auf dem man mit 30 Watt performant Skyrim (mit vielen Plugins) oder BF3 spielen kann, das müsste drin sein
    [/QUOTE
    Klar, nur kriegst du für 800 € auch schon die neuen Ultrathin NBs von INtel mit ulta low voltage CoreiX Prozessor.

    Wer will da bitteschön dein lahmes AMD Gerät kaufen?

    - und auch Linux-Notebooks mit verläßlicher AMD-Technik.

    Nischenmarkt.

    Klar wärs nett, würde mich als Linuxuser auch darüber freuen, aber
    damit gewinnst du kaum nennenswerte Marktanteile.
    Und das dir das Geld für Entwickler fehlt, habe ich ja schon geklärt.



  • otze schrieb:

    wie sieht denn der Markt aus? Gäbe es Firmen, die das "Machtvakuum" nach einem potentiellen Totalversagen von AMD füllen könnten und nicht Intel heissen?

    Nur IBM und VIA besitzen die Rechte x86 CPUs herzustellen und ob das für die neusten Techniken von SSE bis AMD64 gilt, ist noch ziemlich fraglich.

    Mehr Firmen kommen also gar nicht in die engere Auswahl.

    Aber selbst wenn man diese Auswahl betrachtet, so hat IBM gar kein Interesse, denn die verdienen sehr gut in ihren anderen Sparten und haben es daher gar nicht nötig, in die x86 Welt zu gehen und VIA hat dafür gar kein Geld und ist im großen und ganzen eigentlich schon ausgestiegen, von den absolut Low End Lösungen mal abgesehen.

    Es gibt zu Intel im x86 Bereich also keine Konkurrenz außer AMD.

    Gefüllt werden kann das Machtvakuum also nur dann, wenn man mit Computer Computer meint und nicht nur x86 Architektur Computer.
    Die ARM CPUs haben hier am ehsten Chancen, ich denke da insbesondere an NVidia die mit ihrer Tegra Serie ja schon angefangen haben.

    Warte also einfach mal auf den ARM Cortex A50 und CPUs die für den High End Betrieb gepimpt wurden, also nicht nur für Handys, sondern auch für normale Computer.
    ARM nähert sich diesem Bereich ja immer mehr an, ist momentan aber noch weit davon entfernt.

    Wie dem auch sei, sollte aber ARM in die Domäne der Intel CPUs vordringen und Windows unter ARM erfolgreich sein, dann würde Intel mittelfristig schnell an Marktmacht verlieren, bis irgendwann die x86 Welt aufgrund des Überangebots und Preisdrucks durch dutzende ARM CPU Hersteller als Markt gefährdet wäre.
    Dann könnte ich mir vorstellen, das Intel die x86 Architektur öffnen könnte, so wie es ARM Holdings gemacht hat, um wieder stärker am Markt mitmischen zu können.
    Bis dahin vergehen aber mit Sicherheit noch 20 Jahre.



  • Erinnerer schrieb:

    Ich tippe darauf, das du AMD mangels Erfahrung in 3 Monaten an die Wand fahren würdest.

    Sowas ist immer wahrscheinlich, gerade in diesem Geschäft. In diesem Fall käme ich aber zu spät, denn das haben schon andere getan.

    Erinnerer schrieb:

    Ein Notebook für 800 Euro mit gutem Bildschirm, auf dem man mit 30 Watt performant Skyrim (mit vielen Plugins) oder BF3 spielen kann, das müsste drin sein
    [/QUOTE
    Klar, nur kriegst du für 800 € auch schon die neuen Ultrathin NBs von INtel mit ulta low voltage CoreiX Prozessor.

    Wer will da bitteschön dein lahmes AMD Gerät kaufen?

    Über diesen Satz würde ich lieber nochmal etwas genauer nachdenken.



  • nachtfeuer schrieb:

    Erinnerer schrieb:

    Ich tippe darauf, das du AMD mangels Erfahrung in 3 Monaten an die Wand fahren würdest.

    Sowas ist immer wahrscheinlich, gerade in diesem Geschäft. In diesem Fall käme ich aber zu spät, denn das haben schon andere getan.

    Erinnerer schrieb:

    Ein Notebook für 800 Euro mit gutem Bildschirm, auf dem man mit 30 Watt performant Skyrim (mit vielen Plugins) oder BF3 spielen kann, das müsste drin sein
    [/QUOTE
    Klar, nur kriegst du für 800 € auch schon die neuen Ultrathin NBs von INtel mit ulta low voltage CoreiX Prozessor.

    Wer will da bitteschön dein lahmes AMD Gerät kaufen?

    Über diesen Satz würde ich lieber nochmal etwas genauer nachdenken.

    Nö, der satz ist vllöig okya.
    WO ist dein Problem?



  • SeppJ schrieb:

    Kellerautomat schrieb:

    Auf dieser Liste ist der von mir genannte Prozessor aber relativ weit oben. Von Intel gibts nichts um den Preis in der Gegend.

    Dir ist aber schon klar, dass die da die Gesamtleistung aller Kerne gleichzeitig gemessen haben? Wenn du 8 Kerne voll auslasten kannst: Greif zu! Super Angebot! Falls nicht: Tja, dann hättest du eine ziemlich bescheidene Single-Core Leistung.
    Allgemein ist das Ding natürlich eine Heizmaschine, braucht mehr Watt/Stunde, mehr Watt/Idle, mehr Watt/Rechnung, mehr Watt/Last, mehr Watt/Core, mehr Watt/CPU, usw. als die (meist etwas teureren) Intels.

    tldr: Videobearbeitung: Hui! Spiele: Pfui!

    Ebenso parallel compilieren: Hui. 👍


  • Mod

    Compilator schrieb:

    Ebenso parallel compilieren: Hui. 👍

    Juhu! Der optimale Prozessor für Gentoo!



  • SeppJ schrieb:

    Compilator schrieb:

    Ebenso parallel compilieren: Hui. 👍

    Juhu! Der optimale Prozessor für Gentoo!

    Welchen meinst du davon eigentlich SeppJ?

    Beim 3930 müsste man 12 Pinguine beim Booten sehen, beim neuen AMD nur 8. Rein paralleltechisch wären mir aber 21 Pinguine (Achtung, Insider) zum ähnlichen Einkaufspreis viel lieber gewesen 😉
    (Aber die haben nätürlich auch keine Zusatzparallelisiererbombe wie z.B.
    http://www.amazon.de/ASUS-HD7970-DC2-3GD5-3072MB-384bit-4xDisplayPort/dp/B0072FAZPQ/ an Board 😉 )

    Recht günstige Multicorepower bekäme man neuerdings als Raspberry Pi Multipack, von den Kosten her pro Rechenkern ganz ähnlich. (ungefähr 21/2 * 100)
    (Allerdings ist der Stromverbrauch niedriger, so 21 * 4 -> um die 80 Watt bzw. natürlich mehr, je nach Hardwarezusätzen oder eben weniger, je nach Zusammenstellung)

    Die Rechenleistung im Vergleich dürfte ganz ähhnlich sein, wobei beim ARMs, wie auch in der Vergangenheit beim Cell noch viele Performance-pro-Watt-Steigerungen möglich sein sollten, und außerdem spielen Verschaltalgos auch immer noch eine Rolle.

    Fehlt eigentlich nur noch ein passendes Betriebsystem und gute Hardwareschnittstellen zum Verschalten der integrierten Schaltkreise, um sie beliebig zu kombinieren, und das neue Zeitalter der Rechentechnik (siehe z.B.
    http://raspberrycenter.de/artikel/99-supercomputer-raspberry-pi-format ) kann beginnen.



  • nachtfeuer schrieb:

    Recht günstige Multicorepower bekäme man neuerdings als Raspberry Pi Multipack, von den Kosten her pro Rechenkern ganz ähnlich. (ungefähr 21/2 * 100)
    (Allerdings ist der Stromverbrauch niedriger, so 21 * 4 -> um die 80 Watt bzw. natürlich mehr, je nach Hardwarezusätzen oder eben weniger, je nach Zusammenstellung)

    Die Rechenleistung im Vergleich dürfte ganz ähhnlich sein, wobei beim ARMs, wie auch in der Vergangenheit beim Cell noch viele Performance-pro-Watt-Steigerungen möglich sein sollten, und außerdem spielen Verschaltalgos auch immer noch eine Rolle.

    Das kann schon sein, aktuell ist die Performance pro Watt unter Last aber häufig eher bescheiden. Was bringt es mir, wenn ein Pi unter 10W zieht, wenn er unter Last tagelang an Aufgaben rechnet, die meine i7-Workstation in einer halben Stunde erledigt hat?

    Klar, die Leistungsaufnahme ist in dieser halben Stunde deutlich höher, aber unterm Strich braucht die Workstation zwar vielleicht 10x soviel Leistung, das dafür aber nur für weniger als ein Zehntel der Zeit.

    Versteh mich nicht falsch, der Raspberry Pi ist toll (habe selbst einen – zusätzlich zu meinem Sheevaplug) und ARM im Rechenzentrum finde ich auch spannend und hat sicher Zukunft. Aber aktuell ist es einfach so, dass wenn du wirklich Rechenleistung brauchst, der Pi gegen einen halbwegs brauchbaren 0815-x86 einfach ziemlich abstinkt. Vielleicht gibt es irgendwelche sehr speziellen Workloads, bei denen der Pi auch unter Last halbwegs mithalten kann, aber als General Purpose Rechner ist aktuell unter Last fast jeder Bürorechner effizienter.

    http://bryanquigley.com/uncategorized/rasberry-pi-vs-old-dell-p4



  • nman schrieb:

    Was bringt es mir, wenn ein Pi unter 10W zieht, wenn er unter Last tagelang an Aufgaben rechnet, die meine i7-Workstation in einer halben Stunde erledigt hat?

    Naja, ist schon klar, das ist ja eigentlich auch das alte Argument gegen stromsparende AMDs.

    Was es aber tatsächlich bringen könnte, das ist höhere Parallelperformance durch mehr Erfahrung damit. Gerade MIT Wettbewerbschielerei auf (aktuelle z.B. 16core)I7 Workstations mit MultiGPU-Rucksack. Wenn es aber um Berechnungen geht, die parallelisierbar sind, dann kann ein I7 überhaupt nicht gegen eine GPU "anstinken". Und warum nicht?

    ->Parallelperformance
    ->HPC und Green List: Parallelperformance
    ->Brain: Parallelperformance
    ->Eigenständiges Autofahren: viele Sinnes (Sensor-)leistungen integrieren und ökönomisieren
    ->Mustererkennung und Kompletierung, Sprachsynthese
    ->KI: KI in Spielen: Deep Blue -> Cell
    ->leistungsstarke Roboter durch (u.a.)(sparsame!) Parallelperformance
    ->mehr Sicherheit durch bzw. über funktionale Sprachkonzepte
    ->bessere Software für massiv parallel-Computing
    ->besseres Desktopcomputing (mit Java huaha...)(->mit Parallelbetriebsystem und optimierter (Standard) Hardware, weg von der alten Intelfessel)
    ->alt und bewährt: zuerst der Algo, dann die Hardware (Assembler)(geht nicht immer, ist auch klar)

    Kurz:
    Innovation und Performanceschub durch Parallel (und Spiel)! Erfahrungen damit und optimierte Software: Gesucht.
    KI in Spielen: Gesucht.
    (Desktopcomputing ohne Steckdose (und Lüfterkrach): Gesucht)
    Mehr Freiheit und Kosteneinsparung: Gesucht


  • Mod

    Du kannst nicht immer alles perfekt und in unendliche Teile parallelisieren. Wenn ein i7 die Aufgabe in einer halben Stunde seriell (oder mit wenigen parallelen Kernen) berechnen kann, sind dafür weit mehr Stromsparprozessoren als (i7-Rechenleisuntg/Stromsparechenleistung) erforderlich, es ist sogar gut möglich, dass es gar nicht möglich ist, mit den Stromsparprozessoren auf 30 Minuten zu kommen.

    Da hilft dir keine höhere Erfahrung, das ist einfach prinzipbedingt. Wenn man nicht bloß Bildchen rendern oder Passwörter brute forcen möchte, dann braucht man auch irgendwann ordentlich Rechenleistung auf jedem Kern. Diese ganze GPU-Parallelisierung ist in den letzten Jahren ziemlich gehyped worden. Aber so langsam ist es auch schon wieder out, weil man gemerkt hat, dass es für eine bestimmte Klasse Probleme (neben der Hauptrolle zum Rendern von Bildchen) sehr, sehr gut ist, aber sonst herzlich wenig bringt, außer viel Entwicklungszeit. Bei den sehr, sehr gut parallelisierbaren Aufgaben ist es daher zum Standard geworden, die GPU (oder wenn sie noch trivialer parallelisieren eine Cloud) zur Implementierung zu benutzen, aber wie du vielleicht bemerkt hast, sind das (neben Spielen) nur wenige Programme auf deinem Rechner.

    Kurz: Parallelisierung ist kein Zaubertrick, durch den magisch alles schneller wird und demnächst nur noch GPU-Rechner verkauft werden.



  • SeppJ schrieb:

    Kurz: Parallelisierung ist kein Zaubertrick, durch den magisch alles schneller wird und demnächst nur noch GPU-Rechner verkauft werden.

    Das ist schon klar, und das kennen auch die meisten aus praktischer Erfahrung. Wenn man z.B. ein Programmierteam vergrößert, dann wird das Zielprogramm nicht automatisch schneller fertig. Oder siehe auch in den Artikel von Marc++us "der Dreisatz lügt". Auch bei Spielen gilt noch dass starke Dualcores mehr bringen als Mehrkerner (außer die Takten schneller und haben größere Caches).

    Nichtsdestotrotz steckt die Erfahrung mit Parallelisierbarkeit (auch wenn es schon eine lange Parallel-Cpu Forschung gibt) noch in den Kinderschuhen?
    Man könnte sagen, weil es noch viel Try + Error braucht.
    (Das hat letztlich auch die "Evolution" in etwa so gemacht und hat starke, ökonomische Techniken entwickelt)
    (und wenn man sich CPUs unter der Haube anguckt, kann man nur staunen über die wunderlichen Techniken, welche die CPU funktionsfähig und leistungsfähiger machen. Auch hier spielt Parallelisiergedöns eine wichtige Rolle, schon allein die Anzahl der Anschlüsse könnte man beschränken, wenn es wirklich mal so richtig seriell sein soll...;) :xmas1:



  • Naja, für den Preis von ca. nur 40 € ist AMD ja gar nicht so schlecht:

    http://www.youtube.com/watch?v=tuhlReQzJNY

    Wenn man also nen Office+Surfrechner braucht oder nen Drittrechner für die Werkstatt im Keller etc., kann man da nicht viel falsch machen.


Anmelden zum Antworten