Umstieg IDE auf SSD - Neuinstallation des BS notwendig?



  • Also lächerlich ist das ganz und gar nicht. Die Hersteller mussten schon einiges tun damit ihre SSDs Geschwindigkeiten von 100.000 IOPS bzw. 500 MB/s schaffen. 10x schneller schafft im Moment keine einzige SSD.

    Und wenn es so lächerlich ist, was soll dann bitte die Alternative sein? Doch bei HDD bleiben? lol



  • Wie gesagt, nicht die SSDs sind lächerlich, sondern der Port an dem sie heute angeschlossen werden (SATA). Am PCIe sollen sie ja noch schneller sein.



  • Die 100.000 IOPS und 500 MB/s schaffen die SSDs an nem SATA Port.
    Weiss nicht was daran lächerlich sein soll.



  • hustbaer schrieb:

    Die 100.000 IOPS und 500 MB/s schaffen die SSDs an nem SATA Port.
    Weiss nicht was daran lächerlich sein soll.

    Zumal ausgerechnet jetzt, wo kein Rechner mehr unter 8G hat und man nur 2-3 G braucht (so für browsen und compilieren und genug Plattencache für alle Projekte und Anwendungen, die man so die Woche über anfasst), die Plattengeschwindigkeit irrelevant geworden ist.



  • Naja, manchmal muss man seinen Rechner auch rebooten. Da finde ich es dann schon gut dass nicht alles erstmal ewig dauert, bis die wichtigsten Sachen wieder im Cache stehen.
    Die 8 GB die mein PC in der Arbeit hat werden auch schon hin und wieder knapp.
    Und wenns ans Bauen von grossen Projekten geht, bin ich auch sehr froh dass ich ne schnelle SSD habe.

    Ich würde auf jeden Fall nicht zurück zu HDDs wollen, ganz egal wie viel RAM der PC hat und was ich damit mache.



  • hustbaer schrieb:

    @Trim einschalten
    Du hast offensichtlich Wear-Leveling bzw. allgemein wie SSDs arbeiten nicht verstanden.

    Eine SSD teilt den Speicher nicht in "normal" und "für Wear-Leveling reserviert" ein, und verwendet dann nur die 5% (die übrigens in Wirklichkeit 7% sind) für Wear-Leveling wenn man die SSD vollschreibt.
    Es wird immer der gesamte Speicher verwendet, weil es eine solche Unterteilung eben nicht gibt.

    Du hast gar nicht verstanden was ich geschrieben habe.

    Es gibt diesen extra Platz, ich habe aber nicht gesagt, dass nur dieser extra Platz genutzt wird, sondern ich sagte, wenn alle Pages aller normal verfügbaren Blöcke vollgeschrieben sind nur noch dieser Restplatz übrig bleibt und so funktioniert Wear Leveling.

    Wear Leveling rührt nämlich keine Blöcke an in der alle Pages bereits vollgeschrieben sind, das ergibt nämlich keinen Sinn, die gleiche Datenmenge zu löschen und dann wieder zu beschreiben.
    Es werden also nur Blöcke angerührt, in der auch leere Pages vorhanden sind.

    Dabei (Wear-Leveling) werden auch z.b. Daten von Files die nur 1x geschrieben wurden, und danach nie mehr geändert, umgelagert, damit die Flash-Blöcke gleichmässig abgenutzt werden.

    Eine SSD arbeitet und denkt aber nicht in Files, sondern in Blöcke.
    Wenn der Block randvoll ist, also alle Pages vollgeschrieben sind, dann wird dieser Block nicht angerührt, auch dann nicht, wenn er nur einmal benutzt wurde.

    Das kannst du dir ganz einfach erklären, denn was würde denn passieren, wenn dieser Block umgeschichtet werden würde? Es würde natürlich ein anderer Block mit den Daten vollgeschrieben werden, aber da die Daten so fett sind, das sie gleich einen ganzen Block füllen, hätte die Umschichterrei gar nichts gebracht, außer eben unnötige Schreibzyklen zu verheizen.



  • Artchi schrieb:

    Wie gesagt, nicht die SSDs sind lächerlich, sondern der Port an dem sie heute angeschlossen werden (SATA). Am PCIe sollen sie ja noch schneller sein.

    SATA wurde für HDs und optische Datenträger entwickelt, damit bringt es für SSDs einen unnötigen Protokolloverhead mit, den SSDs emulieren müssen, damit sie in einer SATA Umgebung wie gewünscht funktionieren.

    Es wird nicht mehr lange dauern, und SATA wird von neuen Standards für SSDs abgelöst, die dann direkt an den PCIx Bus angebunden werden.
    http://www.golem.de/news/pcie-ssd-sata-express-und-ngff-sind-das-ende-von-sata-1209-94578.html

    Vorraussichtlich wird man die ersten MB mit diesen neuen Standards ab dem Broadwell Nachfolger kaufen können.



  • Trim einschalten schrieb:

    Du hast gar nicht verstanden was ich geschrieben habe.

    (...)

    Wear Leveling rührt nämlich keine Blöcke an in der alle Pages bereits vollgeschrieben sind, das ergibt nämlich keinen Sinn, die gleiche Datenmenge zu löschen und dann wieder zu beschreiben.
    Es werden also nur Blöcke angerührt, in der auch leere Pages vorhanden sind.

    Nein, du hast nichts verstanden.

    Natürlich werden Blöcke "angerührt" wo alle Pages belegt sind, denn natürlich macht es Sinn.
    Man liest sie an einer Stelle, und schreibt sie dann wo anders hin.
    Der Sinn davon ist Blöcke frei zu machen die noch nicht oft geschrieben wurden.

    Hast du dir das selbst zusammengereimt oder wo hast du diesen Unsinn her?

    Das kannst du dir ganz einfach erklären, denn was würde denn passieren, wenn dieser Block umgeschichtet werden würde? Es würde natürlich ein anderer Block mit den Daten vollgeschrieben werden, aber da die Daten so fett sind, das sie gleich einen ganzen Block füllen, hätte die Umschichterrei gar nichts gebracht, außer eben unnötige Schreibzyklen zu verheizen.

    Schon wieder dieser Unsinn. Mach dich bitte ein wenig Schlau bevor du hier Unsinn verzapfst, obwohl es dir schon korrekt gesagt wurde.
    http://en.wikipedia.org/wiki/Wear_leveling#Static_wear_leveling



  • hustbaer schrieb:

    Die Sache ist mMn. relativ einfach: wenn man so wenig Speicher hat, dass man merkt dass es durch Paging langsamer wird, dann sollte man mehr Speicher reinstecken.
    Wenn man genug Speicher hat, so dass man auch trotz deaktiviertem Pagefile nie eine "es wird jetzt knapp" Meldung vom OS bekommt, dann kann man es natürlich deaktiviert lassen.

    Wenn man allerdings in dem Bereich dazwischen ist, wo es nie wirklich schlimm langsam wird, aber man bei deaktiviertem Paging doch noch hin und wieder ne Meldung vom OS bekommen würde, dann lässt man es einfach an. Weil es lange nich so schlimm für die SSD ist wie oft gerne behauptet wird. Natürlich kann man sich statt dessen auch mehr RAM kaufen - ist sicher auch keiner Fehler.
    Das Pagefile abzudrehen, und dann immer Programme schliessen zu müssen wenn's mal wieder knapp wird, ist mMn. aber ziemlich sinnfrei.

    Mehr RAM ist gerade in Notebooks nicht immer eine Option. Ansonsten verweise ich hier mal auf Russinovich:

    So how do you know how much commit charge your workloads require? You might have noticed in the screenshots that Windows tracks that number and Process Explorer shows it: Peak Commit Charge. To optimally size your paging file you should start all the applications you run at the same time, load typical data sets, and then note the commit charge peak (or look at this value after a period of time where you know maximum load was attained). Set the paging file minimum to be that value minus the amount of RAM in your system (if the value is negative, pick a minimum size to permit the kind of crash dump you are configured for). If you want to have some breathing room for potentially large commit demands, set the maximum to double that number.

    Some feel having no paging file results in better performance, but in general, having a paging file means Windows can write pages on the modified list (which represent pages that aren’t being accessed actively but have not been saved to disk) out to the paging file, thus making that memory available for more useful purposes (processes or file cache). So while there may be some workloads that perform better with no paging file, in general having one will mean more usable memory being available to the system (never mind that Windows won’t be able to write kernel crash dumps without a paging file sized large enough to hold them).

    Quelle: http://blogs.technet.com/b/markrussinovich/archive/2008/11/17/3155406.aspx



  • @audacia
    Das ist mir schon klar.
    Letzteres ist aber bei Verwendung von ner SSD nicht SO wichtig - weil das erneute Laden von der SSD schnell genug geht, so dass der durch das nicht-vorhandene Pagefile verkleinerte Disk-Cache nicht SO sehr schmerzt.

    Und der "processes" Teil von

    thus making that memory available for more useful purposes (processes or file cache)

    ist kaum irgendwo relevant. Weil es kaum Prozesse gibt die abhängig vom verfügbaren Speicher entscheiden wie viel Speicher sie verwenden wollen. Mir fällt da gerade mal der SQL Server ein der das macht. Und auch nicht sonderlich gut macht wie ich vielleicht hinzufügen sollte, da er, wenn man die Default-Einstellungen lässt, sich oft mal so viel Speicher nimmt dass die Maschine damit gar nicht mehr gut klar kommt (exzessives Paging).

    ----

    BTW: Ich hab' gerade mal auf dem PC in der Arbeit nachgesehen. Da hab' ich 8 GB RAM drin und 2 GB Pagefile eingestellt, und es wird auch manchmal knapp (hab' gerade erst auf 4 GB Pagefile vergrössert).

    Power on hours = 5326 = ca. 222 Tage
    Total bytes written = 3.28 TB

    Auf dem PC laufen öfter mal heftige Builds wo gleich mal an die 5 GB Daten rumkopiert werden und es wird allgemein viel compiliert wobei u.A. schön grosse PDB Files entstehen. Weiters wird manchmal bis zu 10x pro Tag ein Vorgang getestet der in der Grössenordnung 50~100MB in einer Datenbank ändert. Soll heissen: bei "normaler" Verwendung wäre der Wert "total bytes written" vermutlich viel niedriger.

    Wenn wir annehmen dass die SSD nur 100 TB aushält dann wäre das 1/30 der Lebenszeit.
    D.h. die SSD sollte 222 * 30 Tage = mehr als 18 Jahre halten wenn sie so weiter verwendet wird.
    Und in 18 Jahren hab' ich garantiert nen neuen PC mit nem neuen Massenspeicher.



  • [quote="hustbaer"]

    Trim einschalten schrieb:

    http://en.wikipedia.org/wiki/Wear_leveling#Static_wear_leveling

    Sag das doch gleich, ich bezog mich auf Dynamic Wear Leveling und da ist es so, wie ich beschrieben habe:
    http://en.wikipedia.org/wiki/Wear_leveling#Dynamic_wear_leveling



  • Sag doch gleich dass du es nicht besser wusstest.

    Ich kann mir nicht vorstellen dass eine der aktuellen SSDs noch ausschliesslich dynamic wear leveling verwendet. Die machen alle beides. Weil sie sonst in kürzester Zeit hin wären.

    Von daher ist jede Diskussion von (ausschliesslich) dynamic wear leveling im Zusammenhang mit SSDs total bekloppt. Und alle auf der Annahme dass SSDs nur dynamic wear leveling machen ausgehenden Schlüsse auf die zu erwartende Lebensdauer ebenfalls total bekloppt (EDIT: bzw. genauer gesagt wertlos, da sie eben auf einer realitätsfremden Annahme beruhen).

    Kannst dir jetzt also aussuchen ob du Behauptungen über Dinge angestellt hast wo du dich nicht ausreichend auskennst (kann ja mal vorkommen), oder total bekloppte Beiträge schreibst (🙄).

    Jetzt ehrlich, als ob mir das (Behauptungen über Dinge aufstellen von denen ich im Nachhinein betrachtet doch zu wenig wusste) nicht schon selbst passiert wäre. Oft genug, Asche auf mein Haupt. Aber dann zu behaupten man hätte doch eigentlich was anderes gemeint, noch dazu wenn offensichtlich ist dass das keinen Sinn macht... naja, weiss nicht.



  • hustbaer schrieb:

    Kannst dir jetzt also aussuchen ob du Behauptungen über Dinge angestellt hast wo du dich nicht ausreichend auskennst (kann ja mal vorkommen), oder total bekloppte Beiträge schreibst (🙄).

    Dann wähle ich letzteres um wenigstens als bester Troll in die Annalen der Geschichte einzugehen.



  • Trim einschalten schrieb:

    um wenigstens als bester Troll in die Annalen der Geschichte einzugehen.

    Da haste aber noch was nachzulegen.
    http://www.c-plusplus.net/forum/41456-full



  • Trim einschalten schrieb:

    Dann wähle ich letzteres um wenigstens als bester Troll in die Annalen der Geschichte einzugehen.

    Dafür musst du auch noch ein wenig üben.
    sdf, blurry33 oder Prof84 sind dir da um Längen voraus.



  • volkard schrieb:

    Trim einschalten schrieb:

    um wenigstens als bester Troll in die Annalen der Geschichte einzugehen.

    Da haste aber noch was nachzulegen.
    http://www.c-plusplus.net/forum/41456-full

    2001? Das ist aber schon ziemlich lange her, da müsste ich sehr viel nachholen.

    hustbaer schrieb:

    Trim einschalten schrieb:

    Dann wähle ich letzteres um wenigstens als bester Troll in die Annalen der Geschichte einzugehen.

    Dafür musst du auch noch ein wenig üben.
    sdf, blurry33 oder Prof84 sind dir da um Längen voraus.

    Ihr führt ernsthaft eine Rangliste?


  • Mod

    Trim einschalten schrieb:

    Ihr führt ernsthaft eine Rangliste?

    Nein, aber wenn man die Forengeschichte kennt, dann weiß man, dass die* mindestens in den Top 10 sind, möglicherweise sogar in den Top 5. Einfach, weil man ein paar von ihren Threads gesehen hat und sofort die Qualität des Trollens erkennt. Die haben eine deutlich höhere Qualität als deine Leistung in diesem Thread. Da ist noch viel Potenzial nach oben. Siehe doch den Effekt dieses Threads: Du hast hier einen Nutzer, hustbaer, leicht irritiert. Leute wie blurry und sdf haben Threads, die hunderte Seiten hitziger Diskussion füllen. Sowohl von ihnen selbst initiiert, als auch von aufgebrachten Nutzern, die über sie diskutieren.

    *: Prof84 würde ich gar nicht so hoch ansetzen. volkard hat da einen fast persönlichen Groll. Prof84 ist eben einer der Urtrolle und wenn man ihn frühzeitig bekämpft hätte, dann sähe NadrW heute sicher anders aus. Aber an sich ist er relativ harmlos. Gut für Bullshitbingo, aber nicht so, dass es einen in den Fingern juckt, ihm Kontra zu geben. Top 20.



  • Ja, Prof84 erzeugt wesentlich weniger Fallout als blurry33 oder gar sdf.

    Aber was Bullshitbingo angeht ist er schwer zu schlagen.
    Vor allem immer so schön grenzwertig dass man nie sicher sein kann ob er es nicht doch selbst glaubt/ernst meint.


  • Mod

    hustbaer schrieb:

    Vor allem immer so schön grenzwertig dass man nie sicher sein kann ob er es nicht doch selbst glaubt/ernst meint.

    Gerade dies macht einen guten Troll aus. Viele sind ja immer noch der Meinung, blurry wäre echt. Und vielleicht sogar ein paar Leute bei sdf. Zumindest diesen Teil hat der TE durchaus ganz gut hin bekommen. Das beste Kompliment an einen guten Troll ist schließlich "Not sure if trolling or just stupid." (Insofern war es schon taktisch geschickt vom TE, sich als Troll zu outen, wenn man die Alternative bedenkt)



  • Also der TE hier ist sicher echt, und blurry ist vermutlich auch echt. Was sie aber nicht als Trolle disqualifiziert.
    Troll ist wer trollig tut, ganz egal wie es gemeint ist 😉

    Nur ist es halt ganz besonders verwirrend wenn man nicht weiss ob jemand absichtlich nur trollt, oder ob er die Sachen auch ernst meint.


Anmelden zum Antworten