Powerloss SSD vs. HDD in Jahr 2020

A

askling

Gast
Es ist irgendwie ein Aluhut-Thema was mich nicht loslässt.

Enterprise-SSDs haben Kondensatoren für PLP. Consumer SSDs haben meist eine Firmware-Lösung, die nur zum Teil hilft.

Bei der MX500 z.B.
Micron's partial power loss protection feature for data at rest is preserved, but implemented in a different fashion; they're now also branding it as "power loss immunity". The impact is still the same: you don't get the full protection that is standard for enterprise SSDs, but data that has already been written to the flash will not be corrupted if the drive loses power while writing a second pass of more data to the same cells.

https://www.anandtech.com/show/12165/the-crucial-mx500-1tb-ssd-review

Bei Samsungs Evo 860 Evo habe ich bisher nichts dazu gefunden, ich vermute aber stark das es dort was ähnliches wie bei der MX500 gibt, denn die Samsungs waren da ja nie auffällig (im Gegensatz zu anderen SSDs). Wer Infos dazu hat gerne posten!


Ich Frage mich jetzt, ob HDDs, wie z.B. die WD Red, in diesem Punkt (Powerloss) überhaupt robuster als gute aktuelle consumer SSDs wie die mx500 oder 860 EVO sind?

Oder gab es diese Gefahren schon immer bei consumer Storage, waren aber nicht so im Fokus wie jetzt bei SSDs.
 
  • Gefällt mir
Reaktionen: Christian1297 und R4Z3R
Welcher Aspekt von Powerloss treibt dich denn um? Geht es z.B. um Datenverlust der noch nicht in den NAND geschriebenen Daten die noch im DRAM sitzen oder um andere Aspekte wie z.B. Datensicherheit bei langen power down Zeiten etc.
Ich denke da gibt es ja durchaus Unterschiedliche Anforderungen zwischen Enterprise/Server und Consumer Anwendungen.
 
Meine Erfahrungen zeigen bei HDDs bisher keine Anfälligkeiten gegenüber Datenverlust beim plötzlichen Stromausfall. Wie es bei einem aktiven schreibvorgang aussieht kann ich nicht beurteilen, diesen Fall hatte ich noch nicht. Ebenso was mit den Daten passiert die noch im Cache lagen. SSDs arbeiten ja völlig anders als HDDs und hier wirken sich prinzipiell Ausfälle kritischer aus. Wenn da kritische Stellen korrumpiert werden sind schnell mal alle Daten weg. Partitionstabellen zum Beispiel, oder registereinträge, welche fehlerhaft werden.

Aber grundsätzlich hatte ich damit noch nie Probleme. Bei den bisher 3 Ausfällen im Betrieb waren ja nicht nur HDDs sondern auch SSDs betroffen und nie gab es Probleme
 
  • Gefällt mir
Reaktionen: askling
SpartanerTom schrieb:
Welcher Aspekt von Powerloss treibt dich denn um?

Es geht mehr darum, wie sich Solid State Drives mit MLC, TLC und QLC Nand verhalten. Das Zitat von Crucial sagt ja ungefähr aus, dass Gefahr von Datenverlust bei powerloss besteht wenn eine Speicherzelle gerade weitere Ladung aufnimmt.

SLC Speicher sollte damit ja dann keine Probleme haben🤔
 
Ich weiß auch nicht ganz, worauf man hier hinaus will.

Bei einem plötzlichen Stromausfall sind sowohl SSD als auch HDD schlecht.

Daten, die noch im RAM oder Cache sind, sind dann eh weg. Auch wenn bei einem Schreibvorgang in den eigentlichen Speicher plötzlich der Saft weg ist, kommt es u.U. dort zu einem Fehler bzw. Verlust.
Es gibt jedoch Sicherheits-Mechanismen, sodass zumindest kein wirklicher Schaden entsteht, sondern eine Operation einfach nicht durchgeführt wird.

https://de.m.wikipedia.org/wiki/Journaling-Dateisystem

Sollte hier die reine Aufbewahrungszeit ohne Strom gemeint sein, sind HDDs klar im Vorteil. Sogar erheblich.
 
Zuletzt bearbeitet:
Die Samsung waren nie empfindlich wenn es um unerwartete Spannungsabfälle ging, die Crucial C300 und m4 aber so sehr, dass Crucial den Nachfolgern mit Marvell Controllern Stützkondensatoren spendiert hat, wenn auch nur die kleine Client Lösung offenbar zu knapp dimensioniert, denn es gab immer wieder mal Fälle wo sie dann mit der m4 Power Cycle Wiederbelebungsmethode reanimiert werden konnten, was ein klarer Hinweis ist, dass die Mappingtabelle korrupt geworden war und die SSD sich deshalb nicht gemeldet hat. Dies ist die größte Gefahr, die SSD reagieren meist gar nicht mehr, wenn die Mappingtabelle korrupt ist und nur dies kann man eben über die Firmware mehr oder weniger gut verhindern, vielleicht noch die Low-Page Corruption, indem man die Low- und High Pages direkt hintereinander schreibt.

Unerwartete Spannungsabfälle während Schreib- und Löschvorgängen sind für SSDs aber trotzdem Gift und können dazu führen, dass der NAND Block unbrauchbar wird.

HDDs müssen bei unerwarteten Spannungsabfällen die Köpfe notparken, wenn sie nicht sowieso geparkt waren, was mehr Verschleiß als beim normalen Parken bedeutet und wenn gerade geschrieben wurde, kann es zu einem Lesefehler und damit schwebenden Sektor führen, wenn nicht die ganzen Daten und die ECC dahinter geschrieben wurden.

Egal ob SSD oder HDD und welche davon, die Daten im RAM des Rechners und damit dem Schreibcache den das Betriebssystem selbst hat, sind immer verloren und das Filesystem muss selbst dafür sorgen, dass es nicht korrupt wird, wenn die Metadaten nicht komplett geschrieben wurden. NTFS bekommt dies recht gut hin, aber die Datei die gerade geschrieben wurden, dürfte trotzdem meisten korrupt oder ganz weg sein.
 
  • Gefällt mir
Reaktionen: SpartanerTom, askling und Christian1297
Banned schrieb:
Ich weiß auch nicht ganz, worauf man hier hinaus will.

Bei einem plötzlichen Stromausfall sind sowohl SSD als auch HDD schlecht.

Daten, die noch im RAM oder Cache sind, sind dann eh weg. Auch wenn bei einem Schreibvorgang in den eigentlichen Speicher plötzlich der Saft weg ist, kommt es u.U. dort zu einem Fehler bzw. Verlust.
Es gibt jedoch Sicherheits-Mechanismen, sodass zumindest kein wirklicher Schaden entsteht, sondern eine Operation einfach nicht durchgeführt wird.

https://de.m.wikipedia.org/wiki/Journaling-Dateisystem

Sollte hier die reine Aufbewahrungszeit ohne Strom gemeint sein, sind HDDs klar im Vorteil. Sogar erheblich.

Ich will darauf hinaus, dass es theoretisch möglich ist (Holt nannte ja schon fälle wie bei der c4) wo durch ein Powerloss das Dateisystem o.ä. schaden nimmt. Sprich das auch 'data at rest' einen schaden nehmen. Die aktuell geschrieben Daten sind weg, klar.

Ganz konkret, ich habe eine Datenplatte laufen (von der es natürlich Backups gibt). Wenn es jetzt die 1-2 Fälle pro Jahr gibt wo man mal die Sicherung raus fliegt oder die Steckerleiste ausersehen gezogen wird, möchte ich vermeiden das sich irgendwie 'silent' Fehler einschleichen die ich nicht bemerkte. Auch da, klar ohne ECC Ram kann das auch so im Betrieb beim Kopieren passieren oder so. Weiß ich.

Es geht mir aber einfach darum die Wahrscheinlichkeiten einzuschätzen oder zu reduzieren und da ist bei mir trotz des viel Lesens immer noch ein Fragezeichen, ob sich das Powerloss-Szenario gegenüber eine HDD verschlimmert hat was Wahrscheinlichkeit des Auftretens und den möglichen Schaden angeht.

Sprich, ob es wirklich sinnvoll ist sich für die Datenplatte deswegen eine Enterprise HDD zu kaufen mit Kondensatoren, oder ob das wirklich nur für hoch kritische Datenbank-Server o.ä. notwendig ist.
 
askling schrieb:
ob sich das Powerloss-Szenario gegenüber eine HDD verschlimmert hat
Wie kann bei allen NAND Typen mit mehr als einem Bit pro Zelle die Low-Page-Corruption auftreten und dann hängt es davon ab wie der Controller die Daten organisiert hat, ob die Low-Page Daten die ebenfalls gerade geschrieben wurden und damit wahrscheinlich zur gleichen Datei gehören oder ob diese schon vor längerer Zeit geschrieben wurden und damit eher zu einer anderen Datei gehören und man deren Korruption erst beim Lesen dieser Datei bemerkt. Es hat schon seine Gründe warum echte Enterprise SSDs eine Full-Power-Loss Protection mit fetten Stützkondensatoren haben.
 
  • Gefällt mir
Reaktionen: askling
@Banned: Danke, im Prinzip guter Hinweis, aber da kauf ich mir lieber eine Enterprise SSD. :-)

Auch ein USV hilft nicht gegen Stecker gezogen. Oder Hardreset nach einem fiesen Crash.

Ich weiß nicht, vielleicht täuscht es mich, aber ich habe das Gefühl es ist im Vergleich zu früher immer schwieriger hier im Forum über Technik "ab zu nerden". Es geht mir doch nicht um die aller pragmatische und schnellste Lösung in 3 Posts sondern um Dinge besser zu verstehen und einzuschätzen. Daher auch der 'Alu-Hut' hinweiß in Post 1 von mir.
 
  • Gefällt mir
Reaktionen: Christian1297
Ah ja, ok.

Du wolltest also anderen die Gelegenheit geben "ab zu nerden". ;)
Ergänzung ()

Holt schrieb:
NTFS bekommt dies recht gut hin, aber die Datei die gerade geschrieben wurden, dürfte trotzdem meisten korrupt oder ganz weg sein.

Was heißt, dass jede Datei, die etwas größer ist und gerade geschrieben wird, beschädigt sein wird, ob Kondensatoren oder nicht.

Hast du also Schreibvorgänge, die ohne dein direktes Zutun bzw. deine Anwesenheit stattfinden (etwa in Datenbanken, die auch von anderen Clients gespeist werden oder anderweitig automatisiert sind) und nicht Teil des Dateisystems oder Betriebssystes sind bzw. aus diesem rekonstruiert werden können?

Falls ja, macht eine Enterprise-SSD Sinn.
Sonst nicht IMHO.
 
Zuletzt bearbeitet:
askling schrieb:
vielleicht täuscht es mich, aber ich habe das Gefühl es ist im Vergleich zu früher immer schwieriger hier im Forum über Technik "ab zu nerden".
Schon weil die Hersteller bzgl. der Angaben immer stärker mauern und teils bewusst täuschende Angaben machen, wie eben bei Micron's partial power loss protection feature, welches doch nur eine eine FW Auslegung ist und nichts mit einer echten power loss protection mit Stützkondensatoren zu tun hat.

Das andere ist, dass immer mehr Leute schreiben, die keine Ahnung haben, wie hier der Banned, der auf meiner Ignoreliste steht und dessen Beiträge ich mir jetzt nur anschaue, weil Du ihn erwähnt hast. Der kennt und versteht die Zusammenhänge offenbar nicht, zwar verlinkt er weiter oben selbst das Thema Journaling-Dateisystem, weiß aber offenbar nicht was dies ist, wie es funktioniert und was NTFS an Journaling hat:
NTFS hat nur ein Journaling für die Metadaten, wird die Datei ganz oder teilweise überschrieben, wird sie korrupt sein, da es ja die eigentlichen Daten kein Journaling gibt, die Metadaten aber nicht angefasst werden müssen, wenn nur die gleiche Anzahl an Clustern benötigt wird, da Windows Dateien auf ihren alten Clustern direkt überschreibt. Natürlich nur, wenn der Spannungsabfall während des Schreibvorgangs (also bei einer mit Full-Power-Loss Protection noch bevor Windows alle Daten an die SSD geschickt hat, bei einer ohne auch wenn diese die Daten noch nicht alle ins NAND geschrieben hat) passiert. Wird eine neue Datei geschrieben, ist diese weg, wenn das Journal noch nicht aktualisiert wurde. Dann wird einfach der Eintrag mit der nicht beendeten Änderung im Journal wieder entfernt und die Metadaten sind wieder wie vor dem Beginn des Schreibvorgangs. Dann stehen zwar die schon geschriebenen Daten der Datei auf den Clustern die für sie gedacht waren, diese werden danach aber wieder als frei markiert sein, so wie vor dem Schreibvorgang.

Die Full-Power-Loss Protection macht eben den Unterschied beim Zeitraum, mit der Full-Power-Loss Protection werden die Userdaten aus dem Schreibcache der SSD (der lässt sich bei denen übrigens in aller Regel nicht deaktivieren, die ignorieren entsprechende Befehle und faken auch sync Befehle, tun also so als wären die Daten schon ins NAND geschrieben auch wenn sie noch im Schreibcache stehen) auf jeden Fall auch bei einem Spannungsabfall noch in NAND geschrieben, außerdem werden dadurch eben Low-Page Corruption und eine korrupte Mappingtabelle verhindert. Mit der Full-Power-Loss Protection besteht Gefahr bis zu dem Zeitpunkt wo der Host alle Daten übertragen hat, ohne auch noch so lange bis die SSD alle Daten ins NAND geschrieben und auch ihre Mappingtabelle aktualisiert hat.

Bis der Host alle Daten (also die eigentlichen Daten der Datei und auch Metadaten) geschrieben hat, ist er selbst verantwortlich wie er damit umgeht wenn dabei ein unerwarteter Spannungsausfall passiert und dadurch der Vorgang unterbrochen wird, was Windows bei NTFS eben mit dem Journaling der Metadaten löst. In Enterprise Umgebungen verwendet man daher eben neben Enterprise SSDs mit Full-Power-Loss Protection auch USV die den Rechner automatisch runterfahren bevor ihr Akku leer ist, redundante Netzteile und auch tauscht die Hardware nach dem Ende der vom Hersteller geplanten Nutzungsdauer (i.d.R. 5 Jahre) routinemäßig aus und macht natürlich Backups. Je mehr Sicherheit man möchte, es gibt sowieso keine 100%ige Sicherheit, umso höher werden Aufwand und damit auch die Kosten. Für Heimanwender ist so ein Aufwand zu hoch, aber Backups sollte man aber wenigstens haben und für den Rest muss jeder selbst entscheiden welchen Aufwand er treiben möchte.
 
  • Gefällt mir
Reaktionen: plami, askling und Christian1297
Holt schrieb:
Das andere ist, dass immer mehr Leute schreiben, die keine Ahnung haben, wie hier der Banned, der auf meiner Ignoreliste steht und dessen Beiträge ich mir jetzt nur anschaue, weil Du ihn erwähnt hast.


Man muss dazu sagen, dass sehr, sehr viele Leute auf Holts Igno sind :D, da er nicht in der Lage ist, eine normale Diskussion zu führen und sich leicht wie ein kleines beleidigtes Kind benimmt, was er bei seinem Fachwissen eigentlich gar nicht nötig hat.

Mich ignoriert er, soweit ich mich erinnere, weil ich vor dem Release von Zen 2 prognostiziert habe, dass dort 12 und evtl. sogar 16 Kerne kommen werden (da laut offiziellem Foto von AMD deutlich der Platz für eine zweite Die auf dem Chip zu sehen war). Das war dem Intel-Fanboy in mehr oder weniger Kognito Holt dann zu viel "Spekulation".

Am Ende ist es so gekommen, wie viele andere und ich prognostiziert haben. Und Holt sieht man seither nicht mehr in den CPU-Foren. Er schmollt wohl immer noch.

Ich persönlich schätze nichtsdestotrotz seine fachliche Kompetenz, die ich zugegebenermaßen bei Weitem nicht habe.

Aber seine Arroganz und Ignoranz kann er gerne behalten.

Dadurch, dass er nun aufgrund seiner Ignoranz meinen folgenden Beitrag nicht lesen konnte, ist es gar nicht möglich, eine fachliche Diskussion zu führen. Stattdessen kommt dann einfach wieder die wall of text.

Ich habe auch nie geschrieben, dass das Journaling etwas für die Dateien außerhalb des Dateisystems selbst bringen würde. Aber Integrität des Dateisystems ist nun einmal idR erste Priorität, damit nicht alles ruiniert wird.
Zu sonstigen Fällen/Dateien habe ich mich in Beitrag #11 geäußert.

Ist halt blöd, wenn er versucht, auf etwas Bezug zunehmen, das er nicht vollständig gelesen hat, sondern nur teilweise einem Sekundärzitat entnimmt.
 
Zuletzt bearbeitet:
Danke Holt, wie immer sehr interessant zu lesen. Danke für das Teilen deines Wissens.

Ich merke gerade, dass mir im Detail gar nicht klar ist was als ein "Powerloss" für eine SSD ist. Vielleicht sollte man diesen Begriff nochmal klären.

  • Stecker vom PC ziehen: Ja, klar.
  • Hard-Reset über den Reset-Button am PCs-Gehäuse? Möglich, bin mir aber nicht sicher.
  • PC per Power-Button am PC ausschalten (lange auf den Power-Button drücken)? Möglich, bin mir aber nicht sicher.
  • Ziehen des Netzteils einer USB-HDD/SSD nachdem sie abgemeldet wurde? Nicht sicher, wäre aber schlimm wenn ja.
Das man aus Versehen den Stecker zieht oder die Sicherung raus fliegt ist sehr selten.

Was aber schon vorkommt ist, dass man mit Utiliy-Programmen den PC Bootet (memtest, Diskimage, etc) und dort nicht sauber raus kommt. Oder aber das es keine Möglichkeit gibt den PC aus diesen Programmen herunterzufahren.

Ein weiterer Fall wäre z.B. wenn man kein gültiges System zu Booten hat und den PC irgendwie aus bekommen muss oder neustarten will. Da geht nur Power aus per langes Drücken auf den Power-Button oder ein Hard-Reset.

Oder aber ein Blue-Screen oder Freeze durch einen Treiber, wo man den PC nicht mehr sauber rausfahren kann. Da hilft auch nur Hard-Reset oder Power-Button lange drücken.

Last but not least, eine externe USB-Platte muss man auch irgendwie aus bekommen und letztlich das Netzteil ziehen bzw. bei 2,5" den USB-Stecker mit der Stromversorgung.

Es wäre daher interessant zu wissen, wie oft und wann man überhaupt den Fall eines "Powerloss" aus Storage-Sicht tatsächlich hat.
 
Zuletzt bearbeitet von einem Moderator:
askling schrieb:
Ich merke gerade, dass mir im Detail gar nicht klar ist was als ein "Powerloss" für eine SSD ist. Vielleicht sollte man diesen Begriff nochmal klären.

  • Stecker vom PC ziehen: Ja, klar.
  • Hard-Reset über den Reset-Button am PCs-Gehäuse? Möglich, bin mir aber nicht sicher.
  • PC per Power-Button am PC ausschalten (lange auf den Power-Button drücken)? Möglich, bin mir aber nicht sicher.
  • Ziehen des Netzteils einer USB-HDD/SSD nachdem sie abgemeldet wurde? Nicht sicher, wäre aber schlimm wenn ja.
Unerwartet und damit potentiell gefährlich wenn keine Full-Power-Loss Protection vorhanden ist, sind Unterbrechungen der Spannungsversorgung immer dann, wenn SSD nicht zuvor über den entsprechenden Befehl (bei SATA ist es der ATA_SBI "STANDBY IMMEDIATE" Befehl) darauf hingewiesen wurde.

"Hard-Reset über den Reset-Button am PCs-Gehäuse?" Hängt vom Mainboard ab, meines schaltet das Netzteil aus, wenn man einen Reboot macht und dürfte dies auch tun, wenn man Reset drückt, aber das habe ich lange nicht gemacht und probiere es jetzt auch nicht aus.

"PC per Power-Button am PC ausschalten (lange auf den Power-Button drücken)?" Ja, denn dann wird Windows darüber ja nicht informiert. Nur wenn man kurz drückt wird ja in aller Regel der Event an Windows geleitet, dass es runterfahren soll und nur wenn Windows selbst runterfährt, dann kann es den entsprechenden Befehl schicken.

"Ziehen des Netzteils einer USB-HDD/SSD nachdem sie abgemeldet wurde?" Nachdem sie richtig bei Windows unter "Hardware sicher entfernen" abgemeldet wurde und die Meldung kommt, man könne sie entfernen: Nein! Andernfalls ja. Wobei Ziehen des Netzteils bei denen die über USB mit Spannung versorgt werden, also die meisten 2.5" USB Laufwerke, dann gleichbedeutend mit dem Abziehen des USB Steckers ist.
askling schrieb:
Was aber schon vorkommt ist, dass man mit Utiliy-Programmen den PC Bootet (memtest, Diskimage, etc) und dort nicht sauber raus kommt. Oder aber das es keine Möglichkeit gibt den PC aus diesen Programmen herunterzufahren.
Auch dann kann es zu einem unerwarteten Spannungsabfall kommen, wenn es dann auch keinen Standby Befehl für die Platten gibt, wobei ich mich auch nicht darauf verlassen würde, dass jedes BIOS diese Befehle schickt, wenn man es verlässt und so mancher schaltet den Rechner ja auch einfach aus, wenn er gerade im BIOS ist, dabei können diese Befehle dann natürlich auch nicht geschickt werden.
askling schrieb:
Es wäre daher interessant zu wissen, wie oft und wann man überhaupt den Fall eines "Powerloss" aus Storage-Sicht tatsächlich hat.
Wie gesagt: Immer wenn die Spannungsversorgung unterbrochen wird, ohne das dies per entsprechendem Befehl angekündigt und die Antwort des Platte auf diesen Befehl gegeben wurde. Bei HDDs ist es aber durchaus üblich, dass sie es nicht als unerwarteten Spannungsverlust bewerten, wenn die Köpfe sowieso geparkt waren, die Platte also im Unload Zustand war.
 
  • Gefällt mir
Reaktionen: askling
HDD:
Holt schrieb:
HDDs müssen bei unerwarteten Spannungsabfällen die Köpfe notparken, wenn sie nicht sowieso geparkt waren, was mehr Verschleiß als beim normalen Parken bedeutet und wenn gerade geschrieben wurde, kann es zu einem Lesefehler und damit schwebenden Sektor führen, wenn nicht die ganzen Daten und die ECC dahinter geschrieben wurden.

Da ein schwebender Sektor auch nicht mehr lesbar ist, könnten bei HDDs also bei einem Powerloss ähnliche Probleme wie bei SSDs auftreten. Ich denke jetzt daran, dass ein Sektor kaputt geht in dem Informationen über die Mapping-Tabelle oder ähnliches stehen. Bitte korrigiere mich falls ich das falsch verstehe!


SSD:
Ich verstehe das doch auch richtig, dass die SSD Probleme (Low-Page Corruption und eine korrupte Mappingtabelle) beim Powerloss nur auftreten können wenn gerade geschrieben wird, oder?

D.h. folgenden Fälle dürften dann mit einer SSD doch trotz Powerloss unkritisch sein, richtig?
  • Wenn ich beim Booten ohne OS auf dem typischen "no OS found" Screen stehe und eine SSD angeschlossen ist wird ja nicht geschrieben. Daher dürfte auch keine Gefahr drohen wenn ich den PC hart resette?
  • Oder wenn ich nach dem Memtest durchlauf (wo ja ein DOS oder so gebootet wird, wo es kein Herunterfahren gibt, schätze hier wird kein 'STANDBY IMMEDIATE' gesendet?) den PC hart ausschalten oder rebooten muss. Auch dort wird (hoffentlich) nicht mehr geschrieben und es kann daher bei der SSD eigentlich nicht zu den Powerloss-Problemen kommen?

Im Gegensatz dazu könnte in diesen beiden Fällen bei einer HDD durch die Möglichkeit des Auftretens von schwebende Sektoren beim Powerloss theoretisch ein Problem auftreten. Die schwebenden Sektoren können ja auch ohne schreiben entstehen, einfach nur dadurch das die Köpfe nicht geparkt sind. Oder sehe ich das falsch?


@Holt: Mal nebenbei gefragt, setz du SSDs mit Full-Powerloss-Protection bei deinem PC ein oder normale Konsumer-Modelle?
 
askling schrieb:
Da ein schwebender Sektor auch nicht mehr lesbar ist, könnten bei HDDs also bei einem Powerloss ähnliche Probleme wie bei SSDs auftreten.
Schwebende Sektoren sind aber nicht wirklich schlimm, auch wenn mancher gleich ein P im Gesicht hat wenn er einen sieht. Schwebende Sektoren aufgrund von unerwarteten Spannungsabfällen während Schreibvorgängen verschwinden beim Überschrieben auch sofort wieder, die Oberfläche ist ja deswegen dort nicht defekt.
askling schrieb:
Ich verstehe das doch auch richtig, dass die SSD Probleme (Low-Page Corruption und eine korrupte Mappingtabelle) beim Powerloss nur auftreten können wenn gerade geschrieben wird, oder?
Richtig, aber geschrieben wird auch wenn der Controller seine Idle-GC ausführt und nicht nur wenn der Host auf die SSD schreibt. Daher kann es auch in den von Dir genannten Fällen kritisch sein, wobei die Idle-GC bei lang laufenden Dingern wie einem Memtest natürlich meistens schon lange vorher beendet sein dürfte.
askling schrieb:
Im Gegensatz dazu könnte in diesen beiden Fällen bei einer HDD durch die Möglichkeit des Auftretens von schwebende Sektoren beim Powerloss theoretisch ein Problem auftreten. Die schwebenden Sektoren können ja auch ohne schreiben entstehen, einfach nur dadurch das die Köpfe nicht geparkt sind. Oder sehe ich das falsch?
Nein Du siehst das falsch. Schwebenede Sektoren sind ja Sektoren bei denen die Daten nicht zur ECC dahinter passen und diese treten entweder auf, weil die Oberfläche dort wirklich kaputt ist, der Kopf einen Schaden hat, dann sind es wirklich defekte Sektoren, oder eben durch Spannungsabfälle während der Sektor geschrieben wurde oder durch Vibrationen während des Schreibvorgangs durch die die Köpfe aus der Spur kommen und Daten auf der Nachbarspur überschreiben. Da in den beschriebenen Situationen aber keine Schreibvorgänge erfolgen, können HDDs dabei auch keine schwebenden Sektoren bekommen. Wenn hinterher trotzdem einen auftritt, so lang die Ursache dafür vorher schon vor, denn die Schwebenden Sektoren fallen ja erst auf, wenn man den betroffenen Sektor wieder liest, die können also lange unerkannt bleiben.

Im Desktop habe ich normale Consumer SSDs, im Server Modelle mit Full-Power-Loss Protection bzw. in Heimserver als Systemlaufwerk eine Optane Memory, die Optane kommen ja ohne Stützkondensatoren aus, da die keinen DRAM Cache haben und alles direkt ins 3D XPoint schreiben.
 
  • Gefällt mir
Reaktionen: askling
Sorry, dass ich das alte Thema ausgrabe, aber ich mache mir gerade Gedanken zu SSD als Storage.

Das Problem mit SSDs ist meines Erachtens, dass Flash-Speicher aus Pages und Blöcken bestehen. Eine Page hat in der Regel 4 KiB, ein Block z.B. 512 KiB. Um eine Page zu beschreiben, muss sie leer sein. Um eine Page zu löschen, muss der gesamte Block gelöscht werden.
Beim normalen Schreibvorgang schreibt der SSD-Controller die Daten einfach in leere Blöcke. Wenn Ruhe einkehrt, führt er eine Garbage Collection aus. Das heißt AFAIK, dass er Blöcke komplett mit Daten aufüllt, um andere Blöcke wieder komplett zu leeren.
Und genau hier liegt der Hund begraben: Passiert dabei zwischendurch ein Power-Loss, kann eben mal ein kompletter Block an beliebigen Daten hinüber sein -> GAU.
Betriebt man die SSD in einem Array, kann man Glück haben und die verloren Daten wiederherstellen oder großes Pech haben und das ganze Array ist hinüber.

Die Beschreibung der MX500 deutet darauf hin, dieses Problem über die Firmware zu minimieren oder vielleicht auch mit minimalem Kondensatoreinsatz ganz zu vermeiden. Die Daten in einem RAM-Cache sind aber in jedem Fall verloren.

Falls die SSD dem Betriebssystem ein sync zurückmeldet, obwohl die Daten noch im RAM stehen, dann wird es eh richtig finster.
 
Ich sehe das nicht problematisch bzw. würde sehr stark davon ausgehen, dass aus einem eventuellen Stromverlust kein Problem entstehen würde. Wenn der Controller nicht komplett bescheuert ist, löscht er die Zellen natürlich erst, wenn diese an anderer Stelle erfolgreich geschrieben und gemappt wurden. Es wird sicherlich ganz einfach ein Journal geführt, wie dies auch bei jedem modernen Dateisystem der Fall ist. Auf Persistenz ausgelegte Speicherlösungen dürften eigentlich schon sehr lange keine Probleme mehr mit solchen Szenarien haben.
 
Pearl_Jam schrieb:
Eine Page hat in der Regel 4 KiB, ein Block z.B. 512 KiB.
inzwischen wahrscheinlich mehr

Pearl_Jam schrieb:
Und genau hier liegt der Hund begraben: Passiert dabei zwischendurch ein Power-Loss, kann eben mal ein kompletter Block an beliebigen Daten hinüber sein -> GAU.
es ist in allen Dingen die mit Storage zu tun haben. Auch beim Design von RAID Lösungen, oder Dateisystemen und Datenbanken, oder Verschlüsselung. Es ist immer Teil des Designs so gut es geht mit plötzlichen Stromausfällen zu rechnen

alte Daten Strukturen können erst weg geräumt werden wenn die neuen sicher stehen, ist es nicht so dann ist dieses schlicht weg ein BUG
 
Zurück
Oben