PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie geht es mit Flashspeicher weiter?


=Floi=
2011-03-31, 18:56:27
Hallo
die intel G2 hatte noch 5000 schreibzyklen und die G3 hat nur noch 3000 schreibzyklen und deren die chips werden in 22nm gefertigt. wie soll es da noch mit der lebensdauer weitergehen? hällt man nur mit der größe der platten dagegen? mit der kontrollertechnologie wird man ja auch bald anstehen und dann sind hierdurch keine höheren lebenserwartungen der SSDs mehr zu erwarten. Auf was wird man in zukunft setzen?

Jonny1983
2011-03-31, 22:10:45
die chips werden in 22nm gefertigt

Es sind 25nm.
Die SSDs halten genug aus, um selbst bei starker Nutzung 10 Jahre durchzuhalten.
Meistens wird eh nur gelesen.

Ich besitze selbst keine Festplatte die älter als 3 Jahre ist, du etwa?

neustadt
2011-03-31, 22:27:33
trozdem bleibt es eine interessante frage. Bei 4x nm waren es doch noch 10.000 Zyklen wenn ich mich nicht irre. Das entspricht quasi einem linearen Verlauf. In 3-4 Jahren also im übernächsten Schritt nach 2x nm wären das dann nur noch 750 Zyklen was schon extrem wenig ist. Also gentoo würd ich dann sicher nicht mehr auf so einer Platte laufen lassen wollen.
Falls die Zyklen weiterhin so drastisch fallen sollten sehe ich nur den Ausweg durch mehr Pufferspeicher. Das bedeutet dann aber das SSDs auf lange Sicht nicht günstiger werden, da pro Shrink das doppelte an Puffer eingebaut werden muss.
Wearleaving & Co wird man nicht unendlich verbessern können.

Ich frage mich ob dies genau der Grund ist, wieso alle bisherigen 2x nm SSDs nicht günstiger geworden sind. Hat jemand dazu was in den letzten Reviews gelesen? ich hab die letzten immernur nach random 4k-QD3 IOPS überfolgen.

basti333
2011-03-31, 22:32:58
Ist es denn ein Gott gegebenes Naturgesetz das sich die anzahl der möglich Schreibzyklen mit jedem shrink ungefähr halbiert? Oder mangelt es an passenden optimierungsprozessen?

Ich denke so oder so, wird das maximal den Siegeszug der SSDs etwas verzögern, die Industrie wird schon passende technik entwickeln. Ist halt nur Schade wenn man auf zügig sinkende Preise gesetzt hat.

neustadt
2011-03-31, 22:43:51
achso slc ist natürlich auch noch eine option. bietet ja ca. 10x mehr löschzyklen. vllt ist 1gb slc in 4 jahren auch billiger als 4gb mlc.

Coda
2011-03-31, 23:13:52
vllt ist 1gb slc in 4 jahren auch billiger als 4gb mlc.
Das ergibt keinen Sinn. SLC braucht immer viel mehr Die-Space für die gleiche Kapazität.

Ich mache mir ehrlich gesagt nicht so viele Sorgen um das Thema. Man kann sehr viel mehr durch gute Codierung ausgleichen als du denkst. Man verliert dadurch halt immer etwas der gewonnen Kapazität durch den Die-Shrink, aber sicher nicht so viel, dass er völlig unnütz wird.

joe kongo
2011-04-01, 01:01:48
Ich denke so oder so, wird das maximal den Siegeszug der SSDs etwas verzögern, die Industrie wird schon passende technik entwickeln. Ist halt nur Schade wenn man auf zügig sinkende Preise gesetzt hat.

Meine 200GB SSD (32nm) im Notebook ist keine 4 Monate alt und kostet
jetzt schon 1/4 weniger. Das ist eher affenzähnig als zügig :D.

FlashBFE
2011-04-01, 13:21:08
Meistens wird eh nur gelesen.

Wo hast du denn die Weisheit her? Der Zähler meiner Vertex (mit Win7) weist eine höhere geschriebene als gelesene Datenmenge aus.

neustadt
2011-04-01, 13:46:30
Das ergibt keinen Sinn. SLC braucht immer viel mehr Die-Space für die gleiche Kapazität.

Ich mache mir ehrlich gesagt nicht so viele Sorgen um das Thema. Man kann sehr viel mehr durch gute Codierung ausgleichen als du denkst. Man verliert dadurch halt immer etwas der gewonnen Kapazität durch den Die-Shrink, aber sicher nicht so viel, dass er völlig unnütz wird.

Mein Gedankengang war, dass es pro Zelle X Löschzyklen gibt. Will man die doppelte Lebensdauer, braucht man die doppelte Menge an Zellen, was doppeltem Die-Space entspricht. SLC bietet 10x mehr Löschzyklen, was 10x mehr Die-Space bei MLC entsprechen würde.

Zur Kodierung: Ich weiß nicht wie gut aktuelle WL-Verfahren arbeiten, aber besser als alle Löschvorgänge auf maximal viele Zellen zu verteilen wirds nicht werden. Rein spekulativ habe ich angenommen, dass man sich vllt auf einem niveau von 70-80% des optimums bewegt. der optimierungsaufwand von solchen problemen verläuft ja idr umgekehrt proportinal und ssds gibts ja jetzt schon ein paar jahre.

Habe aber unterschlagen, dass man evt. die größe eines Löschblocks verkleinern kann. (Kann man das?) Dadurch würde man wohl um einiges effizienter mit der Lebensdauer der Zellen umgehen können.

N0Thing
2011-04-01, 16:02:00
Habe aber unterschlagen, dass man evt. die größe eines Löschblocks verkleinern kann. (Kann man das?) Dadurch würde man wohl um einiges effizienter mit der Lebensdauer der Zellen umgehen können.

Wurde die Größe der Blöcke nicht gerade mit der aktuellen Generation vergrößert? Sprich in einem Block befinden sich nun mehr Flash-Zellen?

Danzig1788
2011-04-01, 17:25:47
Wo hast du denn die Weisheit her? Der Zähler meiner Vertex (mit Win7) weist eine höhere geschriebene als gelesene Datenmenge aus.

Man kann u.U. eine extrem hohe Schreiblast generieren. Bei durchschnittlichem Consumer-Nutzungsverhalten (Surfen, TV/Audio, Office, Chaten, Spielen) wäre m.E. aber ein Anteil von 40% Schreibzugriffen schon als extrem hoch einzustufen. Für mich habe ich mal anhand der Windows Performance Analysis Tools die IOPS über mehrere Tage verfolgt, der Anteil der Schreibopreationen lag bei ca. 5%.

FlashBFE
2011-04-01, 19:22:44
Man kann u.U. eine extrem hohe Schreiblast generieren. Bei durchschnittlichem Consumer-Nutzungsverhalten (Surfen, TV/Audio, Office, Chaten, Spielen) wäre m.E. aber ein Anteil von 40% Schreibzugriffen schon als extrem hoch einzustufen. Für mich habe ich mal anhand der Windows Performance Analysis Tools die IOPS über mehrere Tage verfolgt, der Anteil der Schreibopreationen lag bei ca. 5%.
Ok mehrere Tage sind schön und gut, meine läuft schon seit deutlich über einem Jahr und das sind natürlich auch einige Programminstallationen /-updates und einiges an Dateiverkehr dabei, was nun nicht jeden Tag auftritt. Ich hab jetzt noch mal die aktuellen Werte ausgelesen: Zur Zeit sind die Lesewerte wieder etwas vorne. Laut der durchschnittlichen Zellenabnutzung wäre meine SSD schon tot, wenn da 25nm Flash drin wäre. :eek:

Jonny1983
2011-04-02, 00:26:58
Zur Zeit sind die Lesewerte wieder etwas vorne. Laut der durchschnittlichen Zellenabnutzung wäre meine SSD schon tot, wenn da 25nm Flash drin wäre. :eek:

Falsche Nutzung der SSD würde ich mal sagen.
Lässt du Windows im großen Stil auslagern? Mit genügend Ram ist dies ein Fehler.
Entpackst du oft etwas auf der SSD? Das sollte man aucn nicht tun. Entpacken sollte man von SSD auf HDD.
Wo werden Downloads gespeichert? Direkt auf SSD? Unnötig, da es keinen Speed erfordert.
Irgendwas machst du aber falsch.

Und nein, mit dieser Zellenabnutzung würde eine 25nm SSD noch lange nicht den Geist aufgeben. 2.000GB ist nichts. Die 25nm Intel 320 SSD hält bis zu 60.000GB (60TB) durch.
Das heißt, dass du eine aktuelle 25nm SSD bei deinem Nutzungsprofil >30 Jahre nutzen könntest.

Die Intel Enterprise SSD hält mit eMLC gar 1,4 PB durch -> 1.400 TB -> 1.400.000 GB
http://www.hardwareboard.eu/content/487-Erste-Specs-zur-neuen-25nm-Intel-SSD-Generation

lumines
2011-04-02, 00:52:45
Hm, also meine "SSD" im EEE 901 hat schon diverse Distributionen (Lenny, Squeeze, Ubuntu von 8.10 bis 10.04, Arch, Fedora etc. inklusive laufenden Updates) überlebt und das trotz ext3/4 + Swap, der aber eher selten anspringt. Das Ding hat nur 8 + 4 GB Speicher und soll wohl nur ein sehr simples Wear Leveling besitzen. Es läuft nach wie vor einwandfrei.

Einen USB-Stick habe ich mir allerdings schon an einem kleinen Debian Server gegrillt. Lag wohl am fehlenden Wear Leveling, obwohl er mit ext2 (noatime) formatiert war und wirklich fast null Schreibzugriffe hatte ... höchstens ein paar Updates.

Ein Netbook unterscheidet sich hinsichtlich der Nutzung zwar schon sehr stark von einem Desktop, aber allzu große Sorgen würde ich mir da nicht machen. Ein ausgereiftes Wear Leveling scheint schon ziemlich hilfreich zu sein. Das sind jedenfalls meine Erfahrungen.

Danzig1788
2011-04-02, 12:45:23
Ok mehrere Tage sind schön und gut, meine läuft schon seit deutlich über einem Jahr und das sind natürlich auch einige Programminstallationen /-updates und einiges an Dateiverkehr dabei, was nun nicht jeden Tag auftritt. Ich hab jetzt noch mal die aktuellen Werte ausgelesen: Zur Zeit sind die Lesewerte wieder etwas vorne. Laut der durchschnittlichen Zellenabnutzung wäre meine SSD schon tot, wenn da 25nm Flash drin wäre. :eek:

Du hast ein SSD mit Indilinx-Controller. Dieser Controller hat leider eine rel. hohe Write Amplifikation. Man vermutet ca. 10- bis 100-mal mehr Schreibzugriffe (http://www.ocztechnologyforum.com/forum/showthread.php?65922-write-amplification-factor) als bei aktuellen SSD von Sandforce, Intel oder diverseren Marvell-Derivaten (C300, C400, P3, i510, etc. ), insofern wundert der gemessene Verschleiss deines SSD nicht.

FlashBFE
2011-04-02, 19:46:51
Du hast ein SSD mit Indilinx-Controller. Dieser Controller hat leider eine rel. hohe Write Amplifikation. Man vermutet ca. 10- bis 100-mal mehr Schreibzugriffe (http://www.ocztechnologyforum.com/forum/showthread.php?65922-write-amplification-factor) als bei aktuellen SSD von Sandforce, Intel oder diverseren Marvell-Derivaten (C300, C400, P3, i510, etc. ), insofern wundert der gemessene Verschleiss deines SSD nicht.
Stimmt, wenn man es nachrechnet:
2100GB geschrieben durch 60GB Kapazität ergibt, dass die SSD bis jetzt 35mal komplett beschrieben sein müsste. Bei 3800 durchschnittlichen Zyklen sind es ca. 100fach soviele tasächliche Beschreibungen wie im Optimalfall nötig wären. Das ist wirklich ziemlich schlecht.


Falsche Nutzung der SSD würde ich mal sagen.
Lässt du Windows im großen Stil auslagern? Mit genügend Ram ist dies ein Fehler.
Entpackst du oft etwas auf der SSD? Das sollte man aucn nicht tun. Entpacken sollte man von SSD auf HDD.
Wo werden Downloads gespeichert? Direkt auf SSD? Unnötig, da es keinen Speed erfordert.
Irgendwas machst du aber falsch.
Ich benutze meine SSD einfach. Dafür habe ich sie gekauft und nicht, damit ich das meiste dann doch auf den lahmen Festplatten mache.

=Floi=
2011-04-02, 19:57:56
[QUOTE=FlashBFE;8663424]Stimmt, wenn man es nachrechnet:
2100GB geschrieben durch 60GB Kapazität ergibt, dass die SSD bis jetzt 35mal komplett beschrieben sein müsste. Bei 3800 durchschnittlichen Zyklen sind es ca. 100fach soviele tasächliche Beschreibungen wie im Optimalfall nötig wären. Das ist wirklich ziemlich schlecht.


was erwartet ihr den von den billigen controllern? qualität kostet nunmal auch geld.

nomadhunter
2011-04-02, 20:07:14
was erwartet ihr den von den billigen controllern? qualität kostet nunmal auch geld.
Im Nachhinein sagt sich das leicht. Damals wusste aber noch keiner, dass die Indilinx-Controller den Flash-Speicher kaputtschreiben. Außerdem waren Indilinx zu der Zeit keine Billig-Controller, sondern Mittelklasse. In etwa so wie heute SandForce. Billig-Controller waren damals JMicron. Also bitte nicht so überheblich werden.

stefcz
2011-04-02, 21:19:56
hmmmm also auf einen vorherigen beitrag zurückzukommen…ich hab noch hdds aus meinem ersten pc eine 8gb seagate. möcht auch ne ssd hertun aber momentan sind die einfach noch zu teuer…obwohls schon irritierend ist dass ein macbook air um einiges schneller ist bei gewissen sachen als mein pro. und ich zock ja nicht andauernd oder brauch cpu leistung…aber immer eine externe hdd mitrumschleppen ist eben auch nix. ich hoffe die preise fallen bald mal wirklich, so das eine 500gb ssd leistbar wird..habe einige im bekanntenkreis deren ssd entweder gestorben ist oder ewig lahm wurde….möcht mir keine gedanken und schreibzyklen, auslagerungsdateien auf der ssd ja oder nein und um sowas gedanken machen müssen. hdds hab ich auch einfach so verbaut, da war das nie ein thema.

für mich ist der spass noch zu teuer und zu unausgereift.

Spasstiger
2011-04-02, 21:29:27
Stimmt, wenn man es nachrechnet:
2100GB geschrieben durch 60GB Kapazität ergibt, dass die SSD bis jetzt 35mal komplett beschrieben sein müsste. Bei 3800 durchschnittlichen Zyklen sind es ca. 100fach soviele tasächliche Beschreibungen wie im Optimalfall nötig wären. Das ist wirklich ziemlich schlecht.
Ich behaupte sogar, dass das unmöglich ist. Denn größer als das Verhältnis aus transferierter Datenmenge zu Kapazität kann die durchschnittliche Anzahl an Zyklen aller Zellen gar nicht sein. Sieht nach einem Anzeigefehler aus. Bzw. die Write Amplification taucht nicht in der Datentransfermenge auf.
/EDIT: Mit einer Write Amplification größer 100 könnte man die Werte erklären, das meintest du wahrscheinlich auch.

FlashBFE
2011-04-02, 23:22:44
was erwartet ihr den von den billigen controllern? qualität kostet nunmal auch geld.

Na du bist lustig. Meine (erste, die jetztige ist ein Austauschgerät) Vertex habe ich gekauft, als Barefoot und Intel G1 brandneu waren und das beste, was man an MLC-SSDs bekommen konnte. Damals waren das 250€ für 60GB. Dass Indilinx den Barefoot kaum verändert bis heute verkauft und dieser in die Billigschiene gerutscht ist, kann eigentlich nur ein Zeichen sein, dass der Controller insgesamt ein gut laufendes Erfolgsprodukt war (und ist). Oder lästerst du auch über Core2-Rechner, weil es mittlerweile viel schnellere Prozessoren gibt?

=Floi=
2011-04-03, 03:35:39
den barefoot würde ich eher mit nem athlon 2 vergleichen. Es zeigt sich hald doch einfach wieder, dass bestimmte firmen einfach höhere ansprüche an die qualität haben und hier anders arbeiten.


ich bin gespannt, wie weit man noch mit der lebensdauer runtergehen wird und wann und vor allem auf welche nachfolgetechnologie man setzen wird. so kann es wohl nicht weitergehen. mit müh und not vielleicht noch 6-8 jahre, aber dann muß man etwas anderes finden. zu dem thema ist es auch relativ still...