SATA RAID-Verbund nach Mainboardwechsel noch erhalten?



  • Software RAID und gut ist.
    Unter linux LVM, unter windows LDM, schon hat sichs. Linux erkennt auch die LDM partitionen. Einfach unter datenträgerverwaltung in dynamisches volume konvertieren, und dann neues stripesetvolume...



  • hustbaer schrieb:

    Software RAID hat den Vorteil dass es auch bei MoBo-/Controller-Wechsel noch funktioniert.

    Und wozu wäre das jetzt gut?

    hustbaer schrieb:

    Einen "echten" RAID Controller kaufen zahlt sich IMO nur aus wenn der einen eigenen Cache hat, und man auch eine BBU draufsteckt (BBU=Battery Backup Unit). Dann kann man den Cache nämlich relativ gefahrlos im "Write Back" Modus betreiben, und das bringt einiges an Geschwindigkeit. Speziell bei Operationen die viele kleine Files schreiben/modifizieren. Also z.B. Compilieren.

    Ich verstehe den Anwendernutzen nicht. Wozu willst Du RAM Aufgaben in den HDD Bereich schieben? Hier kaufe ich RAM statt Controller.

    hustbaer schrieb:

    Was hier z.T. DMA geschrieben wurde verstehe ich jetzt nicht. DMA spielt nur eine Rolle beim Transfer der Daten vom Controller ins RAM. Auch bei Fake-RAID (bzw. BIOS-/Treiber-/Software-RAID oder wie man es auch immer nennen will) werden die Daten normalerweise per DMA ins RAM transferiert. Bei RAID 0 war's das dann auch schon, Daten da, Operation abgeschlossen. Bei RAID 1/5/... kommt noch dazu dass sich dann die CPU darum kümmert die Daten zu vergleichen bzw. das XOR für RAID 5 durchzuführen. Allerdings ist die Geschwindigkeit die so ein RAID Verbund bringt im Vergleich dazu was eine moderne CPU an Vergleichen/XOR schafft so gering, dass dies kaum einen Unterschied macht. Wenn einem natürlich die geschätzten 5-15% die man an CPU Auslastung für das RAID "verbrät" (bei RAID 5 -- bei RAID 1 isses vermutlich noch viel weniger) sehr weh tun OK; aber meist spielt das echt keine Rolle.

    Ich habe bereits geschrieben, dass der Begriff vielleicht nicht richtig ist.
    Was allerdings definitiv nicht stimmt ist, das die CPU im RAID 5 nennenswert belastet wird. Den Paritätsvergleich übernimmt der Controller und nicht die CPU, was wieder zum Thema Qualität führt. Du hast zwar auch Verlust durch durch Chunk R/W, aber nicht 5-15%. Jedenfalls nicht, wenn wir von modernen CPUs (2-3 GHz) reden.



  • Prof84 schrieb:

    Meine Message ist eigentlich: RAID 0 (was eigentlich kein RAID ist) gibt heute überhaupt keinen Sinn mehr!

    Das stimmt so nicht.

    Du bekommst heute TB Festplatten mit 16-32 MB Cache DataBurst nachgeschmissen, die schneller als jedes RAID 0 sind.

    Wenn ich eine TB-Festplatte bekomme, die "schneller als jedes RAID0" ist, dann kann ich aus zwei solchen Festplatten immer noch ein RAID0 machen, das schneller als diese Festplatte alleine ist.

    SW gesteuerts RAIDs (über Bus) verlieren Ihre Existenzberechtigung am Cache. Die Striping-Granularität so zu führen, dass Sie den Cache mit 133 MHz Bus schlagen kann und das für einen Privatanwender, halte ich unwahrscheinlich.

    Würdest Du diesen Absatz bitte erklären? Danke.
    (Für mich klingt das nämlich verdächtig danach, als würden diese Aussagen überhaupt keinen Sinn ergeben.)

    Nur mal so in den Raum geworfen: Auf halbwegs aktuellen Rechnern ist im Normalfall Striping per Software sogar performanter als das, was gute RAID-Controller machen. Ich messe das immer wieder ganz gerne aus und bis jetzt habe ich die Standard-Chunksize noch nie geändert, kann daher auch Deine Aussage bzgl. Striping-Granularität nicht ganz nachvollziehen.

    Da ist es nicht leicht mit Steinen zu werfen. Was nutz Dir ein RAID 0 wenn 5.400'er Festplatten ohne mit kleinen Cache drin hast. Was nutzen Dir zwei 10.000'er, wenn das Chunk Sizing schlecht ist. Und zur Gruppierung der Chunks will auch noch das OS mitmischen. Was nutzen dir 133 Mhz Festplatten wenn der Controller-Bus 66 Mhz ist und umgekehrt. Und wie groß ist der Cache des Controllers selbst?

    Klar, es gibt viele Faktoren, die die Performance beeinflussen. Aber ein ganz ordinäres Software-RAID0 mit zwei ganz ordinären 1.5TB-Barracudas ist deswegen nicht langsam und verdammt billig zu haben.

    Dieses Produkt hätte ich preislich bei der DotCom-Krise gewählt:
    http://www.heise.de/preisvergleich/a173277.html
    Euch zu teuer?

    Finde ich persönlich nicht so prickelnd. Die Pufferbatterie ist bei den Dingern optional und sonst beeindrucken sie mich auch nicht wahnsinnig. 3Ware hat viele nette Controller, was ich da besonders gerne mag ist, dass man auf die Geräte im RAID immer noch als einzelne Blockdevices zugreifen kann.

    Aber für RAID0 sehe ich wie bereits gesagt keinen Sinn in sowas.

    Ich musste vor 11 Jahre eine Menge RAID Rechner zusammenbauen. Aus dieser Zeit habe ich mein gesamtes HW-Wissen.

    Seit damals hat sich ein bisschen was getan.

    seit Neustem ein 64-bit Linux RAID 5 mit 4 x 320 MB

    Kann Dein Controller etwa kein RAID6? 🙂



  • Prof84 schrieb:

    hustbaer schrieb:

    Software RAID hat den Vorteil dass es auch bei MoBo-/Controller-Wechsel noch funktioniert.

    Und wozu wäre das jetzt gut?

    Uh, ich weiß schon, dass wir mittlerweile schon sehr weit weg vom Ursprungsthema sind, aber genau danach hat Cpp_Junky gefragt.

    Er wechselt jetzt sein Mainboard und kann daher sein RAID0 nicht übernehmen, was er mit einem Software-RAID könnte.



  • Prof84 schrieb:

    hustbaer schrieb:

    Software RAID hat den Vorteil dass es auch bei MoBo-/Controller-Wechsel noch funktioniert.

    Und wozu wäre das jetzt gut?

    Siehe nman's Antwort.

    hustbaer schrieb:

    Einen "echten" RAID Controller kaufen zahlt sich IMO nur aus wenn der einen eigenen Cache hat, und man auch eine BBU draufsteckt (BBU=Battery Backup Unit). Dann kann man den Cache nämlich relativ gefahrlos im "Write Back" Modus betreiben, und das bringt einiges an Geschwindigkeit. Speziell bei Operationen die viele kleine Files schreiben/modifizieren. Also z.B. Compilieren.

    Ich verstehe den Anwendernutzen nicht. Wozu willst Du RAM Aufgaben in den HDD Bereich schieben? Hier kaufe ich RAM statt Controller.

    Lösch mal unter Windows ein Verzeichnis mit 50.000 Dateien drinnen. Mit soviel GB RAM wie du magst. Mach das 1x mit RAID Controller im "Write Back" Modus, und 1x mit RAID Controller im "Write Through" Modus. Du wirst den Unterschied deutlich merken. (Mit "Write Back" Modus meine ich das was Adaptec "Write Back" nennt, nämlich "Commit to Cache". Ohne BBU ist "Commit to Cache" äusserst gefährlich, was Adaptec leider nicht davon abhält es auch ohne BBU zu empfehlen, was aber wieder eine andere Geschichte ist)

    hustbaer schrieb:

    Was hier z.T. DMA geschrieben wurde verstehe ich jetzt nicht. DMA spielt nur eine Rolle beim Transfer der Daten vom Controller ins RAM. Auch bei Fake-RAID (bzw. BIOS-/Treiber-/Software-RAID oder wie man es auch immer nennen will) werden die Daten normalerweise per DMA ins RAM transferiert. Bei RAID 0 war's das dann auch schon, Daten da, Operation abgeschlossen. Bei RAID 1/5/... kommt noch dazu dass sich dann die CPU darum kümmert die Daten zu vergleichen bzw. das XOR für RAID 5 durchzuführen. Allerdings ist die Geschwindigkeit die so ein RAID Verbund bringt im Vergleich dazu was eine moderne CPU an Vergleichen/XOR schafft so gering, dass dies kaum einen Unterschied macht. Wenn einem natürlich die geschätzten 5-15% die man an CPU Auslastung für das RAID "verbrät" (bei RAID 5 -- bei RAID 1 isses vermutlich noch viel weniger) sehr weh tun OK; aber meist spielt das echt keine Rolle.

    Ich habe bereits geschrieben, dass der Begriff vielleicht nicht richtig ist.
    Was allerdings definitiv nicht stimmt ist, das die CPU im RAID 5 nennenswert belastet wird. Den Paritätsvergleich übernimmt der Controller und nicht die CPU, was wieder zum Thema Qualität führt. Du hast zwar auch Verlust durch durch Chunk R/W, aber nicht 5-15%. Jedenfalls nicht, wenn wir von modernen CPUs (2-3 GHz) reden.

    [/quote]
    Ich habe von Software-RAID Systemen gesprochen. Hier gehen bei einem schnellen RAID 5 schnall mal 5-15% der CPU Leistung für's XOR drauf. Denn wie du wissen solltest haben stinknormale SATA Controller die über Treiber oder das BIOS zu "Fake-RAID" Controllern gemacht werden keine XOR Einheit. Und wenn man OS-RAID (Windows, Linux, ...) verwendet muss es auch die CPU machen.

    Es ging mir nur darum klarzustellen dass "DMA" kein Argument für Hardware-RAID Controller ist, da auch Software-/BISO-/Fake-RAID mit DMA Datentransfers arbeitet.

    Im weiteren schreibe ich dann noch dass die 5-15% die man an CPU Leistung verliert i.A. egal sind.

    Was hast du daran nun auszusetzen?



  • nman schrieb:

    Prof84 schrieb:

    Meine Message ist eigentlich: RAID 0 (was eigentlich kein RAID ist) gibt heute überhaupt keinen Sinn mehr!

    Das stimmt so nicht.

    Du bekommst heute TB Festplatten mit 16-32 MB Cache DataBurst nachgeschmissen, die schneller als jedes RAID 0 sind.

    Wenn ich eine TB-Festplatte bekomme, die "schneller als jedes RAID0" ist, dann kann ich aus zwei solchen Festplatten immer noch ein RAID0 machen, das schneller als diese Festplatte alleine ist.

    SW gesteuerts RAIDs (über Bus) verlieren Ihre Existenzberechtigung am Cache. Die Striping-Granularität so zu führen, dass Sie den Cache mit 133 MHz Bus schlagen kann und das für einen Privatanwender, halte ich unwahrscheinlich.

    Würdest Du diesen Absatz bitte erklären? Danke.
    (Für mich klingt das nämlich verdächtig danach, als würden diese Aussagen überhaupt keinen Sinn ergeben.)

    Doch!, Nein! und Gerne!

    RAID 0 bietet gesteigerte Transferraten, indem die beteiligten Festplatten in zusammenhängende Blöcke gleicher Größe aufgeteilt werden, wobei diese Blöcke quasi im Reißverschlussverfahren zu einer großen Festplatte angeordnet werden. Somit können Zugriffe auf allen Platten parallel durchgeführt werden (engl. striping, was „in Streifen zerlegen“ bedeutet, abgeleitet von stripe, der „Streifen“). Die Datendurchsatz-Steigerung (bei sequentiellen Zugriffen, aber besonders auch bei hinreichend hoher Nebenläufigkeit) beruht darauf, dass die notwendigen Festplatten-Zugriffe in höherem Maße parallel abgewickelt werden können. Die Größe der Datenblöcke wird als Striping-Granularität (auch chunk size oder interlace size) bezeichnet. Meistens wird bei Raid 0 eine chunk size von 64 KB gewählt.

    http://de.wikipedia.org/wiki/RAID

    Die Nebenläufigkeit durch Striping und damit effektive Steigerung der Geschwindigkeit wird durch den HDD Cache komplett verarbeitet (ersetzt) und zwar schneller als jedes R/W auf der Festplatte im Direktzugriff! Das das n-fache Chunk Sizing > 32 MB ist ist bei einer der Serialisierung extrem unwahrscheinlich!
    http://de.wikipedia.org/wiki/Festplattencache

    Beispiel:
    A) RAID 0 System - Lesen: HDD A mit chunk A, HDD B mit Chunk B lesen gleichzeitig => über 133 MHz Bus => RAID Controller Cache => 133 MHz Bus => RAM/CPU/FIFO
    😎 RAID 0 System - Schreiben: 133 MHz Bus RAM/CPU/FIFO => RAID Controller Cash
    => über 133 MHz Bus => RAID Controler Cash => HDD A mit chunk A, HDD B mit Chunk schreiben gleichzeitig
    C) 32 MB Cache mit Bus - Lesen: relativ zeitunabhängig Lesen der HDD von Segment mit Chunk A und B in Cache (sweap) => Zeitrelevanter Zugriff Daten von chunk a & b => 133 MHz Bus => RAM/CPU/FIFO
    d) 32 MB Cache mit Bus - Schreiben: RAM/CPU/FIFO => 133 MHz Bus => relativ zeitunabhängig Schreiben der HDD von Segment mit Chunk A und B in Cache (sweap)

    Das RAID System wäre schneller, wenn
    + der Lesezugriff außerhalb des sweap fields erfolgt, weil dann zwei Leseköpfe schneller sind als Einer.
    + der direkt Zugriff über Controller Cache schneller ist, als über HDD Cache, was er nie ist.
    + wenn der Lesezugriff über die Cache Dimension (z.B. 32 MB) geht.
    + Wenn große Mengen geschrieben werden müssen auf Geschwindigkeit. (Wie soll diese Anwendung aussehen für einen Privatnutzer?)

    Begrenzt ist ein RAID 0 System auf dem 133 MHz Bus wären wir bei 3 GB/s bzw. 300 MB/s.
    http://de.wikipedia.org/wiki/Serial_ATA

    Und das können heute die modernsten SATA 2.0:

    Die Firma A-DATA hat nun Offiziell die neuen 2.5 Zoll SATA-II SSD 300 Plus Festplatten vorgestellt , welche mit dem neusten Controller Design aus dem Hause A-DATA ausgestattet sind und somit bis zu 40 % schneller lesen und 60 % schneller schreiben können.

    Die neuen SSD 300 Plus Festplatten besitzen eine maximale Schreibgeschwindigkeit von 160 MB pro Sekunde und eine maximale Lesegeschwindigkeit von 250 MB pro Sekunde. Hinzu gibt es 64 MB mobilen SDRam , welcher als Cache verwendet wird und die neuen Festplatten werden in kürze in den größen 32GB , 64GB , 128GB und 256 GB in den Handel kommen.

    http://www.weltdergadgets.de/a-data-sata-ii-ssd-300-plus-festplatten
    zum Vergleich 2004:
    http://de.wikipedia.org/wiki/Festplatte

    Fazit: Der verbleibende Vorteil von RAID 0 ist ohne Wert, weil die Bussysteme nicht mehr mit der Übertragung nachkommen. Braucht man schon SATA 3.0 - 600 MB/s und das kauft sich zzgl. Controller kein normaler Anwender mehr und es reicht immer noch nicht für zwei Top-Festplatten. Kommt auch erst Mitte des Jahres heraus.

    Kann Dein Controller etwa kein RAID6? 🙂

    Nein! RAID 5 und habe außerdem kein Platz mehr für Festplatten! 😉



  • Prof84, ... äh, WTF?

    Nimm dir einen PCIe 4x SATA 2 Controller.
    Jeder einzelne Link von dem kann 300 MB/Sec zur/von der Platte übertragen.

    Häng 4 Platten an, jede Platte schafft 80-100 MB/Sec, macht zusammen 320-400 MB/Sec. Das geht über den 4-fach PCIe Link auch noch ohne Probleme drüber.

    Selbst ein Onboard SATA Controller ist üblicherweise schneller angebungen als 150 MB/Sec, d.h. sogar mit Software RAID 0 schafft man mehr als das.

    Was du mit deinen 133 MHz hast weiss ich nicht, bist du bei PCI-X hängengeblieben oder was?

    Und was das Zitat über SSD angeht: wer kann sich bzw. will ich schon eine schnelle SSD leisten? Mal ganz davon abgesehen dass aktuell erhältliche SSDs bis auf wenige Ausnahmen (die dann noch mehr kosten) beim Schreiben (Random Access) ziemlich langsam sind. Ein RAID 0 mit zwei 7200er Platten kostet dagegen nichtmehr die Welt, und ist nunmal merklich schneller als eine einzelne 7200er Platte. Eine einzelne 15000er Platte ist wiederum schneller, nur hier wieder: der Preis ist einfach nicht interessant.

    p.S.: du scheinst irgendwie davon auszugehen dass der HDD Cache bei RAID 0 inaktiv wäre. Dem ist nicht so. Selbst wenn er im Write-Through Mode betrieben wird ist er nicht inaktiv, sondern wird für Reads immer noch verwendet.



  • hustbaer schrieb:

    Prof84, ... äh, WTF?

    Nimm dir einen PCIe 4x SATA 2 Controller.
    Jeder einzelne Link von dem kann 300 MB/Sec zur/von der Platte übertragen.

    Häng 4 Platten an, jede Platte schafft 80-100 MB/Sec, macht zusammen 320-400 MB/Sec. Das geht über den 4-fach PCIe Link auch noch ohne Probleme drüber.

    Selbst ein Onboard SATA Controller ist üblicherweise schneller angebungen als 150 MB/Sec, d.h. sogar mit Software RAID 0 schafft man mehr als das.

    Was du mit deinen 133 MHz hast weiss ich nicht, bist du bei PCI-X hängengeblieben oder was?

    Ist durchaus möglich! Ist sagte ja 1999!

    http://de.wikipedia.org/wiki/PCI-Express
    Meine Grafikkarte ist eine PCIe x 16.

    Soweit ich weiß sind es bei mir die normalen PCIe x1 (weiße Slots).
    Kann sein, dass es auch die normalen Boards als PCIe x 4 gibt. - Keine Ahnung.

    Aha:
    http://www.tecchannel.de/forum/komponenten/5015-welches-core2duo-board-pci-express-x4-slot.html

    Aber dennoch guter Hinweis! 🙂

    Der rest ein andermal, keine Zeit!



  • Prof84 schrieb:

    hustbaer schrieb:

    Was du mit deinen 133 MHz hast weiss ich nicht, bist du bei PCI-X hängengeblieben oder was?

    Ist durchaus möglich! Ist sagte ja 1999!

    Aber Hauptsache so tun, als sei das eigene Wissen immer noch aktuell. 🙂

    Soweit ich weiß sind es bei mir die normalen PCIe x1 (weiße Slots).
    Kann sein, dass es auch die normalen Boards als PCIe x 4 gibt. - Keine Ahnung.

    Hu? Wie gesagt, Onboard-SATA-Controller sind ohnehin schneller angebunden, die meisten Mainboards haben zumindest 16x-PCIe und/oder 8x-PCIe und SATA-RAID-Controller ebenfalls.

    Aha:
    http://www.tecchannel.de/forum/komponenten/5015-welches-core2duo-board-pci-express-x4-slot.html

    Aha? Klärst Du uns auf? 2006 gab es also für Tecchannel-Poster Schwierigkeiten, sich aus dem Consumerbereich gute PCIe4x-Boards zu kaufen? Was sagt uns das?

    Warum kannst Du nicht einfach zugeben, dass Dein Wissen mittlerweile völlig veraltet ist? Ist das so schlimm? Ist eben nicht Dein Fachgebiet, so what...



  • nman schrieb:

    Aber Hauptsache so tun, als sei das eigene Wissen immer noch aktuell. 🙂

    Soweit ich weiß sind es bei mir die normalen PCIe x1 (weiße Slots).
    Kann sein, dass es auch die normalen Boards als PCIe x 4 gibt. - Keine Ahnung.

    Hu? Wie gesagt, Onboard-SATA-Controller sind ohnehin schneller angebunden, die meisten Mainboards haben zumindest 16x-PCIe und/oder 8x-PCIe und SATA-RAID-Controller ebenfalls.

    Wie alle anderen 30.000 hier auch. Wo ist denn das Problem, mein Wahrnehmungskonzept ist gekippt, weil ich Features PCIe-x und Onboard PCIe-x Controller nicht kannte. Für solche Überraschungen bin ich auch hier. Damit ist das Hindernis 'Fehlende Busbandbreite' in der Konfiguration nicht mehr gegeben und ich verliere wichtige Argumente.

    nman schrieb:

    Was sagt uns das?

    Das es überhaupt solche Boards gibt.

    nman schrieb:

    Warum kannst Du nicht einfach zugeben, dass Dein Wissen mittlerweile völlig veraltet ist? Ist das so schlimm? Ist eben nicht Dein Fachgebiet, so what...

    Habe ich das nicht getan? Mein Wissen ist nicht vollständig veraltet. Mein Wissen über bestimmte Features ist veraltet oder fehlt, so dass die Fitnesswerte meines Konzeptes nach meinem/euren Beurteilungskonzept nicht mehr stimmen. Als Systemarchitekt muss ich auch leider u.a. HW und SW in einen gemeinsamen Nenner ziehen. Zwar nicht auf Rechnerebene, aber immerhin. Und wenn Dich sowas aufregt, dann tausche mal mit mir die Schuhe als Consultant. Die Entscheidungsträger meiden Dich wie dann die Pest und fahren die Firma lieber vor der Wand, als einen Fehler einzugestehen. Gehe mal davon aus, dass die Finanzkrise ein Resultat davon ist.

    Trotzdem ist das Thema noch nicht durch. Die Obstacles:

    Das RAID System wäre schneller, wenn
    + der Lesezugriff außerhalb des sweap fields erfolgt, weil dann zwei Leseköpfe schneller sind als Einer.
    + der direkt Zugriff über Controller Cache schneller ist, als über HDD Cache, was er nie ist.
    + wenn der Lesezugriff über die Cache Dimension (z.B. 32 MB) geht.
    + Wenn große Mengen geschrieben werden müssen auf Geschwindigkeit. (Wie soll diese Anwendung aussehen für einen Privatnutzer?)

    Schränken Use Cases für den Nutzer ein, wann RAID 0 was bringt. Es sei den ihr könnt sie auch entkräften.



  • hustbaer schrieb:

    p.S.: du scheinst irgendwie davon auszugehen dass der HDD Cache bei RAID 0 inaktiv wäre. Dem ist nicht so. Selbst wenn er im Write-Through Mode betrieben wird ist er nicht inaktiv, sondern wird für Reads immer noch verwendet.

    Kannst Du mir dazu einen Link geben?



  • Prof84 schrieb:

    hustbaer schrieb:

    p.S.: du scheinst irgendwie davon auszugehen dass der HDD Cache bei RAID 0 inaktiv wäre. Dem ist nicht so. Selbst wenn er im Write-Through Mode betrieben wird ist er nicht inaktiv, sondern wird für Reads immer noch verwendet.

    Kannst Du mir dazu einen Link geben?

    Nö, leider.
    Aber ein starkes Indiz ist, dass nahezu überall wo man Einstellungen diesbezüglich machen kann man entweder...
    * nur die Option "disable write cache" hat oder
    * den Cache zwischen "write through" und "write back" umzuschalten
    Beides ist dasselbe, "disable write cache" bedeutet dabei einfach "write through".

    Und dass der Cache bei "write through" noch aktiv ist und für Reads verwendet wird sollte klar sein, liegt in der Natur der Sache (=Definition des Begriffs "write through caching").

    p.S.: und "disable write cache" heisst eben nicht "disable read cache" 🙂



  • Und wenn Dich sowas aufregt, dann tausche mal mit mir die Schuhe als Consultant. Die Entscheidungsträger meiden Dich wie dann die Pest und fahren die Firma lieber vor der Wand, als einen Fehler einzugestehen.

    Eigentlich regt mich das nicht im geringsten auf. 🙂

    Ich finde es nur unterhaltsam. Insbesondere, da wir keine Kunden sind, denen Du irgendwas verkaufen musst, sondern technisch interessierte Forenteilnehmer, die es zu schätzen wissen, wenn jemand einfach Fehler eingesteht und nicht darauf pocht, dass der Gesprächspartner unrecht haben muss.

    Schränken Use Cases für den Nutzer ein, wann RAID0 was bringt. Es sei den ihr könnt sie auch entkräften.

    Probier doch einfach mal ein ganz simples Billigst-RAID0-Setup. Für Aufgaben wie zB. Videoschnitt, Bildbearbeitung, 3D-Modeling, Kompilieren großer Anwendungen und jede andere Aufgabe, wo man schnell viele Daten schreiben möchte. Ein RAID0 aus zwei aktuellen HDDs ist einfach deutlich schneller als eine einzelne aktuelle HDD.

    RAID0-User sind ja typischerweise nicht Leute, die nur Word, Excel und Outlook verwenden, insofern verstehe ich die Frage nach dem Use-Case überhaupt nicht. Klar, wenn ich Mails lesen und Internet-browsen möchte, brauche ich kein RAID0, wenn ich hingegen Videomaterial schneiden und enkodieren möchte oä, ist es verdammt praktisch.


Anmelden zum Antworten