PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Anbindung von SSD in Zukunft.


Avalox
2011-04-22, 09:48:08
Wenn man so die aktuelle c't liesst stellt man fest, dass heutige SATA SSD schon den theoretischen(!) Transferlimits von SATA 6G bedenklich nahe kommen.

SSDs entfernen sich von der alten Festplatte immer weiter, sowohl in Sachen der Performance, wie aber auch in Sachen der prinzipbedingten Zugriffsverhaltensweisen.

Es scheint an der Zeit die Anbindung der SSD ans das System komplett zu überdenken und von traditionellen Festplatten zu trennen.

Nun gibt es einiges an leistungsfähigen SSDs welche direkt in einen PCIe Slot gesteckt werden. Aber einen richtigen Standard scheint es dort nicht zu geben und die Nachteile liegen auf einer Hand.

Der SSD Markt wird immer unübersichtlicher, welches aus einem immer größeren Spektrum von SSD Controller herrührt, welche allesamt mit eigenen Strategien auf die Altagsherausforderungen reagieren und somit für unterschiedlichste Verhaltensweisen in verschiedenen Situationen der Geräte sorgen. Dort wird sich ein Markt irgendwann mit zukünftigen Controllern konsolidieren müssen.

Wann kommt der Standard SSD Infrastrukturanschluss in das System?

PatkIllA
2011-04-22, 09:54:21
Braucht es den für den Desktop denn überhaupt?
Mit PCIe und AHCI hat man doch eigentlich alles. Das kann man ja auch geschickter machen, als einen SATA Controller mit RAID und mehrere normale SATA SSDs auf eine Platine zu löten.

Ich sehe da eher Bedarf für Laptops und dann auch mehr die Bauform.

Botcruscher
2011-04-22, 10:29:43
Bei Burst lesen und übertragen von großen Dateien am Stück. Bei 4K random ist an bei fluffigen 20 bis 30MB/s. Die eigentliche Wahrheit liegt dan irgendwo zwischen diesen beiden extremen, wobei es vermutlich deutlich näher zu den 4K tendieren sollte.
PS: Karten für den PCIe Slot gibt es doch. Hauptproblem bei SSD ist der Preis. 25nm Flash läuft einfach Scheiße und die Entwicklung des letzten Jahres ist für den Arsch.

Avalox
2011-04-22, 10:36:23
Ich sehe da eher Bedarf für Laptops und dann auch mehr die Bauform.

Na wenn man sagt, die SSD gehört in einen PCIe Slot, dann kann die Laptop Bauform ja nur die mPCIe Karte sein. Diese hat bei SSD ja auch eine recht große Verbreitung unter den kleinen Geräten, obwohl es ja auch einen SATA Anschluss mit dem mPCIe Stecker gibt(mSATA) und durch blankes draufsehen ja nicht so recht zu unterscheiden ist. Habe da aber nicht den Überblick.

Bei der PCIe Idee gefällt mir nicht so richtig, dass der Massenspeicher auf einmal Treiberabhängig wird. Dass Tools ohne Standard sicherlich Probleme bekommen, dass eine Interoperabilität aufgegeben wird. Dinge welche nicht zwangsläufig mit der SSD einhergehen müssen. Das aber SATA Kombi HD/SSD irgendwo endlich ist, sollte schon absehbar sein.


Bei Burst lesen und übertragen von großen Dateien am Stück.

Burst ist schon das Maß der Dinge. Zumal im Umfeld die Burstraten immer wichtiger werden. Nehme nur mal den Systemstart aus STD. Oder die zunehmende Benutzung von virtuellen Maschinen, welche ebenfalls ganze Abbilder sich in den Speicher schaufeln, anstatt einzelne Bibliotheken einzulesen.
Windows 8 hat ja dort einiges in Aussicht gestellt. Die CPU langweilt sich eben, um die Startgeschwindigkeiten zu steigern und die Systemmöglichkeiten besser zu nutzen sind andere Strategien nötig und dieser werden ja nach Ankündigung auch kommen.

PatkIllA
2011-04-22, 10:38:48
Bei der PCIe Idee gefällt mir nicht so richtig, dass der Massenspeicher auf einmal Treiberabhängig wird. Dass Tools ohne Standard sicherlich Probleme bekommen, dass eine Interoperabilität aufgegeben wird.Müssen sie doch gar nicht. Wenn der Controller AHCI kompatibel ist gibt es da aus Sicht des OS/Programms keine Unterschiede zu einer SATA-Festplatte/HDD.

Dinge welche nicht zwangsläufig mit der SSD einhergehen müssen. Das aber SATA Kombi HD/SSD irgendwo endlich ist, sollte schon absehbar sein.Den Teil verstehe ich nicht.

Morpog
2011-04-22, 10:41:43
Gibt doch schon einen neuen Standard: NVMHCI
http://www.intel.com/standards/nvmhci/index.htm

Avalox
2011-04-22, 10:50:46
Müssen sie doch gar nicht. Wenn der Controller AHCI kompatibel ist gibt es da aus Sicht des OS/Programms keine Unterschiede zu einer SATA-Festplatte/HDD.

Mit AHCI kräpelt man ja schon wieder im SATA Umfeld rum. Ich dachte dein Vorschlag geht in die Richtung, dass der Hersteller eben dort bei PCIe mehr Freiheit der Anbindung erhält.

Teil verstehe ich nicht.

Standard vs. individueller Lösung.


Gibt doch schon einen neuen Standard: NVMHCI
http://www.intel.com/standards/nvmhci/index.htm

Ah, vielen Dank. Kannte ich gar nicht.

Edit:
Bei Wikipedia ist auch schon davon zu lesen.

http://en.wikipedia.org/wiki/NVM_Express

PatkIllA
2011-04-22, 10:53:36
Mit AHCI kräpelt man ja schon wieder im SATA Umfeld rum. Ich dachte dein Vorschlag geht in die Richtung, dass der Hersteller eben dort bei PCIe mehr Freiheit der Anbindung erhält.Ich hab AHCI so verstanden, dass es zwar an SATA angelehnt ist, aber im Endeffekt doch eine Abstraktion bleibt, die es erlaubt auch eine SSD mit PCIe 16x Anbindung zu bauen, die sich nach außen wie ein SATA-Controller verhält, aber trotzdem die volle PCIe Bandbreite nutzen könnte.

Avalox
2011-04-22, 11:22:10
Ich hab AHCI so verstanden, dass es zwar an SATA angelehnt ist, aber im Endeffekt doch eine Abstraktion bleibt, die es erlaubt auch eine SSD mit PCIe 16x Anbindung zu bauen, die sich nach außen wie ein SATA-Controller verhält, aber trotzdem die volle PCIe Bandbreite nutzen könnte.

AHCI gibt doch aber den funktionellen Rahmen vor und begrenzt damit SSD doch erheblich. AHCI stammt wie SATA ja noch aus einer mechanischen Festplatten Zeit. SSD sind doch sehr speziell in ihren Anforderungen und die Art und Weise, wie man die Zugriffe des Systems gestaltet sind doch entscheidend, ob man die Vorteile der SSD auch tatsächlich umsetzen kann. Selbst ein NCQ ist ja für mechanische Festplatten erdacht worden.


Werde mir mal das NVM Express durchlesen. Sieht aber sehr interessant aus. Ich denke, wenn man allein den Unterstützerkreis sich betrachtet steht schon ziemlich fest, dass die SSD der Zukunft einheitlich in den PCIe Slot landen wird. Mal sehen wie dieses Auswirkungen auf die Mainboards der Zukunft nehmen wird.

PatkIllA
2011-04-22, 11:24:55
AHCI gibt doch aber den funktionellen Rahmen vor und begrenzt damit SSD doch erheblich. AHCI stammt wie SATA ja noch aus einer mechanischen Festplatten Zeit. SSD sind doch sehr speziell in ihren Anforderungen und die Art und Weise, wie man die Zugriffe des Systems gestaltet sind doch entscheidend, ob man die Vorteile der SSD auch tatsächlich umsetzen kann. Selbst ein NCQ ist ja für mechanische Festplatten erdacht worden.Werde doch mal ein wenig konkreter, was an AHCI so schlimm ist und SSDs erheblich begrenzt.

Das NVM Express sieht anscheinend vor allem mehr und größe Queues für mehr IOPS bei sehr vielen verteilten Zugriffen inkl. besser verteilter Interrupts auf Multicore-rechnern. Das klingt eigentlich vor allem für extrem IO hungrige Serveranwendungen interessant.

Eggcake
2011-04-22, 11:25:00
Nun, NCQ gibt's auf SSDs ja auch, nur wird's dort anders umgesetzt.

StarGoose
2011-04-22, 12:08:00
ich denke es wird schlicht ssds geben die man in den speicherslot steckt
dazu müssen nur die controller in den cpus mal angepasst werden

welches protokoll die dann für deren anbindung hernehmen oder ob es dann einen dedizierten ssd slot auf den boards gibt ist zweitrangig

außerdem vergisst du die hersteller in deiner rechnung ;) denen ist sicherlich ganz lieb ssds für pci-e, sata, mSata und mPci-e und vielleicht noch usb 3.0 herzustellen.. denn spezialanwendungen bedingen auch immer spezialpreise ;)

irgendwann wird der hauptspeicher der rechner nichtmehr flüchtig sein dann hat sich das mit dem andauernden nachgelade eh erledigt.. da wird der ram ausgebaut bis zum anschlag und gut ist
vielleicht wird auch mal ein os zu intelligent zu erkennen bzw. vom anwender entscheiden zu lassen welche proggys ihm wichtig sind für schnellen zugriff und welche nicht...
im büro halt das office und zuhause die games.. und auf dem htpc halt der ganze multimediakram
je nachdem werden die anwendungen dann halt immer im speicher belassen und nur im notfall rausgeworfen und fertig

Avalox
2011-04-22, 12:49:44
Nun, NCQ gibt's auf SSDs ja auch, nur wird's dort anders umgesetzt.


NCQ entstammt ja auch der Festplatten Zeit. Welche eh sich immer auf den Kopf zurück führen lies.
Mehrere Queues z.B. hätten gar keinen Sinn ergeben. Bei der SSD sieht es aber anders aus und unterliegt nur dem Erfindungsreichtum des Herstellers.

Eggcake
2011-04-22, 12:58:08
Ja eben. Genau dies funktioniert aber nur mit aktiviertem NCQ.
Eine hohe Queuedepth macht bei HDDs (sowie SSDs) darüber hinaus durchaus Sinn.

Avalox
2011-04-22, 13:11:35
Ja eben. Genau dies funktioniert aber nur mit aktiviertem NCQ.

NCQ bietet aber nur eine Queue. Eine Queue wegen eines Kopfes der Festplatte. Das ist ja ein Aspekt welcher durch NVM Express verbessert werden soll.

PatkIllA
2011-04-22, 13:12:46
NCQ bietet aber nur eine Queue. Eine Queue wegen eines Kopfes der Festplatte.Dafür bietet es aber Prioritäten.

Avalox
2011-04-22, 13:15:38
Dafür bietet es aber Prioritäten.

So wie ich dieses verstanden habe, ist dort nicht die Auswertung der Queue im Controller, sondern die Kommunikation der einzelnen Threads mit der Queue im Fokus der Verbesserung.

PacmanX100
2011-04-22, 13:20:50
Im Desktop sehe ich da überhaupt keinen Bedarf, es dauert noch eine ganze Weile bis die Limits im Dauerzustand ausgeschöpft werden. Kurzfristige Limits sind wenig relevant, denn die werden im HomePC viel zu selten 24/7 ausgeschöpft. Bei Großprojekten spielt es ohnehin keine Rolle, da Geld vorhanden ist und Eigenlösungen genutzt werden.
Selbst wenn die SSD 900MB/s liefern könnte, das heißt nicht zwangsläufig, das sie im Alltag auch nur das Limit der Schnittstelle ausschöpfen wird.
Ein neuer Standard wäre ich sogar dagegen, es ist einfach sinnvoll, einheitlich zu arbeiten, da man so die größte Nutzerbasis hat. Ohnehin kommt irgendwann sowieso ein Nachfolger, der die Limits nach oben verschiebt.

HOT
2011-04-22, 13:27:33
Man könnte einen Speichercontroller für Flash-Speicher direkt in die CPU integrieren und einfach einen Anschlussstandard für eine Art Flash-SIM-Module schaffen, so wie für RAM. Dann könnte man auch die Größe des benötigten Festspeichers selbst zusammenstellen und man hätte eine direkte 64-Bit-Breite Verbindung mit extrem niedriger Latenz an die CPU direkt :D. Dann baut man sich 4 128MB-Module ein und gut.
Festplatten werden auf keinen Fall überflüssig. Die Speicherhirarchie wird sich in Zukunft ändern, sonst nix.

Avalox
2011-04-22, 13:31:05
Ein neuer Standard wäre ich sogar dagegen, es ist einfach sinnvoll, einheitlich zu arbeiten, da man so die größte Nutzerbasis hat. Ohnehin kommt irgendwann sowieso ein Nachfolger, der die Limits nach oben verschiebt.

Der neue NVM Express Standard richtet sich ausdrücklich auch an Clients.

Neue Techniken erlauben ja auch neue Anwendungen. Warum nicht einen Rechner bei 5 Minuten inaktivität in den STD fahren und 16GB auf die SSD zu schaufeln und eben gleich wieder starten zu lassen wenn man diesen braucht. Braucht dann gar kein Strom das Gerät in der Zwischenzeit. Geht heute nicht, weil die Festplatte zu langsam ist.

PatkIllA
2011-04-22, 13:35:50
Der neue NVM Express Standard richtet sich ausdrücklich auch an Clients.Der Nutzen ist da aber eher gering. Man kriegt auf einem Client-Rechner nicht mal die eine Queue von SATA ordentlich gefüllt, um heutige SSDs an das Limit zu treiben.

Neue Techniken erlauben ja auch neue Anwendungen. Warum nicht einen Rechner bei 5 Minuten inaktivität in den STD fahren und 16GB auf die SSD zu schaufeln und eben gleich wieder starten zu lassen wenn man diesen braucht. Braucht dann gar kein Strom das Gerät in der Zwischenzeit. Geht heute nicht, weil die Festplatte zu langsam ist.Dass ließe sich durch RAID ja beschleunigen, da rein linear. Davon 16 GB in Sekundenbruchteilen zu lesen und zu schreiben sind wir noch ein paar Größenordnungen weit weg. Und da ist die Schnittstelle eher ein kleineres Problem.
Mit STR kann man heute schon ruckzuck in einen Stromsparmodus fahren. Da sich ATX nicht ganz ausschalten läßt kommt eh nicht auf null.

Eggcake
2011-04-22, 13:38:09
NCQ bietet aber nur eine Queue. Eine Queue wegen eines Kopfes der Festplatte. Das ist ja ein Aspekt welcher durch NVM Express verbessert werden soll.

Es erscheint als Queue, aber eine SSD liefert die Daten dann ja parallel. Das, was das Laufwerk macht, ist ja nicht festgeschrieben. Eine HDD optimiert die Positionierung des Kopfes, eine SSD nutzt mehr Kanäle und liest z.B. anstatt 4k aus einem Kanal 4k simultan aus zwei Kanälen. Mir scheint es so, als ob sowas bei Desktops überhaupt nicht genutzt werden kann.

Avalox
2011-04-22, 15:02:22
Der Nutzen ist da aber eher gering. Man kriegt auf einem Client-Rechner nicht mal die eine Queue von SATA ordentlich gefüllt, um heutige SSDs an das Limit zu treiben.


Intel gibt den Bedarf auf zwei bis 16 Queues am Client an. Ich denke nicht, dass es ein Maßstab ist solche eine Queues "vollzuschreiben". Vielmehr zielt des darauf, jedem Kern eine eigene Queue zu ermöglichen.

Danzig1788
2011-04-23, 09:49:31
M.E. koennten die Anforderungen von SSD durch TB langfristig abgedeckt werden. Die optische Variante liese sich mit internen SSD wahrscheinlich rel. leicht realisieren.

Sorkalm
2011-04-23, 10:08:41
Dass ließe sich durch RAID ja beschleunigen, da rein linear. Davon 16 GB in Sekundenbruchteilen zu lesen und zu schreiben sind wir noch ein paar Größenordnungen weit weg. Und da ist die Schnittstelle eher ein kleineres Problem.
Mit STR kann man heute schon ruckzuck in einen Stromsparmodus fahren. Da sich ATX nicht ganz ausschalten läßt kommt eh nicht auf null.

Naja, das ganze wäre aber ein Feature für den Massenmarkt, aber RAID ist kein Feature für den Massenmarkt (schon allein wegen den ganzen Notebooks besteht da keine Chance, dass sich das durchsetzt). Und sowas sind ja durchaus einige Features, die den Aufpreis den man für SSDs zahlen würde, erhöhen könnten.

RavenTS
2011-04-24, 15:25:20
Jetzt mal weg vom rein technischen Gesichtspunkt: Werden wir in den nächsten 5 Jahren für den größten Teil der Computer wirklich soviel Datendurchsatz benötigen? SATAIII mit optimalen 600MB/s ist doch eine ganze Menge binäres Holz!

Ich glaube kaum das die Betriebssysteme und Anwendungen der Benutzermasse in den nächsten Jahren soviel mehr Datendurchsatz benötigen werden oder daraus noch einen Nutzen ziehen.

Zudem scheint sich die Entwicklung der Flash-Technologie doch etwas zu verlangsamen (siehe Haltbarkeit, Strukturbreiten etc.) und überhaupt wird doch sicherlich schon irgendwo an nem SATA4 gearbeitet.?!

anddill
2011-04-24, 18:42:56
Eindeutig Ja. Solange die Platte noch langsamer als der RAM ist, macht eine weitere Beschleunigung Sinn.

A_H
2011-04-24, 19:07:41
Gibt doch schon einen neuen Standard: NVMHCI
http://www.intel.com/standards/nvmhci/index.htm

Ich hatte das Thema bei HWL schon vor einiger Zeit mehrmals angesprochen, zuletzt dort:
http://www.hardwareluxx.de/community/f15/ssd-jetzt-erst-standard-festgelegt-792340.html


Man hat den 2. Schritt vor dem 1. gemacht. Erst das Produkt SSD, dann der Standard:

heise online - Standard für PCI-Express-SSDs verabschiedet
http://www.heise.de/newsticker/meldung/Standard-fuer-PCI-Express-SSDs-verabschiedet-1202793.html

Es geht da speziell um PCI-Express-SSDs, aber im Prinzip wäre das auch für einfache SATA-SSDs sinnvoll gewesen. Ich hatte auf den Umstand bereits vor über einem Jahr hingewiesen, als über das böse Intel gemeckert wurde, das keinen trimfähigen Treiber lieferte und das liebe Indilinx und andere Garagenbastler behinderte, angeblich weil die Intels-SSDs noch kein TRIM konnten. Ich hatte geschrieben, dass die SSD-Hersteller ihre Produkte bitte nicht als Trittbrettfahrer von Festplatten verkaufen sollten, sondern einen eigenen Treiber für einen eigenen Laufwerkstyp mit eigener Classid/GUID schreiben sollten. Meine Argumentation hatte aber hier nicht in den Kram gepasst und man hatte mich gezielt angepöbelt, provoziert und aus dem SSD-Forum gebannt.

Erst dann, wenn der Standard in neuen Produkten umgesetzt und ein SSD-Treiber geschrieben wurde, könnte ich vielleicht SSDs wirklich empfehlen.

Der Beitrag wurde sofort geschlossen. Kritik am derzeitigen Zustand der SSDs ist dort geschäftsschädigend.

Spasstiger
2011-04-24, 19:17:12
Eindeutig Ja. Solange die Platte noch langsamer als der RAM ist, macht eine weitere Beschleunigung Sinn.
Eigentlich widerspricht sich das, denn die Platten werden nicht durch die Schnittstelle schneller. Wenn SSDs so schnell wie RAM wären, dann würde mehr als SATA 6 Gb auch was bringen. Im Moment wird die typische Arbeitsperformance (10-50 MB/s bei SSDs, 1-10 MB/s bei HDDs) aber nicht von der Schnittstelle limitiert.
Sieht man ja auch an der neuen SSD-Generation mit SATA 6 Gb statt SATA 3 Gb wie z.B. der Intel SSD 510. Auf dem Papier doppelt so schnell, in Anwendungsbenchmarks nur auf Niveau der Vorgänger.

Morpog
2011-04-24, 19:17:31
Lieber A_H,

das liegt nicht daran, dass das Thema unerwünscht wäre, oder im Luxx Zensiert werden würde.

Es liegt vielmehr daran, dass du dich dermaßen im SSD Unterforum daneben benommen hast, das du dort gesperrt wurdest. Wenn du jetzt ständig in Themenfremden Unterforen SSD Threads eröffnest, musst du dich nicht wundern wenn diese dort geschlossen werden.

Dass du mir jetzt schon in andere Foren folgst, um deine Leiden anzuprangern zeugt nicht gerade von selbstreflektion.

A_H
2011-04-24, 19:25:20
Eindeutig Ja. Solange die Platte noch langsamer als der RAM ist, macht eine weitere Beschleunigung Sinn.

Ein PC ist für mich ein Arbeitsgerät und für meine Belange auch vor 10 Jahren immer ausreichend schnell gewesen. Bis vor Kurzem hieß es, die Festplatte sei der "Flaschenhals", auch wenn der so breit wie ein Scheunentor ist. Jetzt geht es schon wieder andersrum, die lahme CPU limitiert - bei den Benchmarks - die Leistung der SSD. In einem heterogenen System mit unterschiedlichen Komponenten muss es immer einen "Flaschenhals" geben. Eines Tages wird dann wohl das langsame Ram die SSDs limitieren.

Diese sinnlose Spirale haben wir doch endlich bei den CPUs hinter uns. Ich bevorzuge es, mein Gehirn einzuschalten und mich von wirtschaftlichen Fakten statt von Marktschreiern überzeugen zu lassen.

Morpog
2011-04-24, 19:29:44
Eigentlich widerspricht sich das, denn die Platten werden nicht durch die Schnittstelle schneller. Wenn SSDs so schnell wie RAM wären, dann würde mehr als SATA 6 Gb auch was bringen. Im Moment wird die typische Arbeitsperformance (10-50 MB/s bei SSDs, 1-10 MB/s bei HDDs) aber nicht von der Schnittstelle limitiert.
Sieht man ja auch an der neuen SSD-Generation mit SATA 6 Gb statt SATA 3 Gb wie z.B. der Intel SSD 510. Auf dem Papier doppelt so schnell, in Anwendungsbenchmarks nur auf Niveau der Vorgänger.

Wieder mal werden die sequenziellen Raten unterschätzt und random IO zur einzig wichtigen Größe verklärt.

Ich hab zur Zeit übergangsweise ne Sandforce SF1200 SSD als OS SSD, da ich meine Solidata K5 SLC verkauft habe. Random ist diese deutlich schneller als die K5, jedoch sequenziell deutlich langsamer. Vorallem beim schreiben (80mb/s gegen 240mb/s). Nachdem ich jetzt einige Wochen damit, lebe muss ich sagen das ich random keinen Unterschied in der Praxis bemerke. Jedoch sequentiell ist es ein Unterschied wie Tag und Nacht. Mir kommt schon jedes mal das Grauen wenn ich ne große RAR Datei entpacken soll..... Ich kann es kaum erwarten bis es günstigere ausgereifte (finale FW) SF2200 SSDs zu kaufen gibt. Dann wird sofort getauscht.

Avalox
2011-04-24, 19:31:04
Scheunentor ist. Jetzt geht es schon wieder andersrum, die lahme CPU limitiert - bei den Benchmarks - die Leistung der SSD.

Ach Benchmarks sind absolut uninteressant. Was bedingt die heutigen lästigen Wartezeiten ist die interessante Frage und dieses sind nun mal Startzeiten.

Eine CPU welche während des gesamten Systemstarts oder Starts allgemein, oder nur der Start Vorbereitung wie einer Installation nicht permanent zu 100% ausgelastet ist wartet auf Peripherie und die Festplatte ist heute noch nun mal dort die entscheidende Peripherie.
Neue Systeme bedingen neue Software und dieses wieder neue Engpässe.

Eggcake
2011-04-24, 19:39:39
Die CPU ist heute schon ein entscheidender Faktor wenn es um Startzeiten geht, wenn eine SSD eingesetzt wird (nicht oder nur selten aber bei HDDs ).

ROXY
2011-05-08, 22:00:43
bei einem 300 mb os brauch ich keine ssd und schon gar nicht dessen zugriffszeit.
so eine lite linux distri startet auf einer HD in 7 sekunden - das schafft die ssd mit win 7 nicht.

browser wie chrome und andere sehr optimierte altagssoftware startet in weniger als einer sekunde.
preloader open office = 1 sekunde.

ich sehe für die ssd am normalen consumer markt keinerlei chancen, es sei denn du bekommst 128 GB für 20€

wenn du die ganze schrottsoftware gegen optimierte austauscht dann bekommst du auch deinen 200% leistungsschub mit festplatten.

http://www.youtube.com/watch?v=ySh5mbPz5Ro
wenn du den post und den usb scan wegrechnest = 7 sekunden.


so viel zu windows 7
wenn du nicht zockst oder auf bestimmte windows only software angwiesen bist... braucht das kein mensch

nomadhunter
2011-05-09, 02:21:27
Deine Argumentation ist vollkommen unlogisch. Das einzige Argument für Festplatten ist der Preis pro GB. Der Low-End-PC-Markt, wo das Betriebssystem nur ein paar Apps und den Browser ausführen muss, brauch aber fast keinen Speicherplatz. Also setzt man gerade nicht auf Festplatten, sondern auf SSDs bzw. fest verbauten Flash-Speicher. So wie im iPad, im ersten Eee PC und wahrscheinlich auch in den ARM-Netbooks, die bald den Low-End-PC-Markt überrollen.

Für die Festplatte bleiben nur die "ausgewachsenen" PCs und Notebooks, auf denen noch wirklich viel Speicherplatz benötigt wird. Genau hier spielen die SSDs aber ihren Geschwindigkeitsvorteil aus, sodass für die Festplatte nur die Rolle als Zweitspeichermedium bleibt. Entweder kleine SSD + große Festplatte im PC/Notebook oder nur SSD im PC/Notebook und dazu eine externe Festplatte bzw. Festplatte im NAS oder Cloud-Rechenzentrum.

Die Festplatte wird also in naher Zukunft zum reinen Datengrab verkommen und in mobilen Geräten sowie einfachen PCs vollkommen verschwinden.


Ach Benchmarks sind absolut uninteressant. Was bedingt die heutigen lästigen Wartezeiten ist die interessante Frage und dieses sind nun mal Startzeiten.
"Hochfahren" ist für mich ein weiteres Relikt aus grauer Vorzeit, das in den nächsten Jahren völlig verschwinden wird. Bei modernen Mikrochips oder auch SSDs herrscht zwischen den Zuständen "Aus", "Standby" und "Idle" kein großer Unterschied mehr. Im Grunde gibt es nur "aktiv" (hoher Stromverbrauch) und "nicht aktiv" (Stromverbrauch praktisch null). Ausschalten gibt es eigentlich nicht mehr bzw. bringt nichts.

Bei Smartphones und Tablets sind wir heute schon so weit. Die macht niemand mehr aus und die Unterscheidung "Idle"/"Standby" gibt es auch nicht mehr. Bei Notebooks geht es schon in die richtige Richtung. Je nach dem, wie gut die Stromsparmechanismen umgesetzt sind, kann es sein, dass einmal Hoch- und Runterfahren mehr Strom verbraucht als ein ganzer Tag Standby. Mein MacBook fahr ich z.B. gar nicht mehr runter. Bringt nichts. Der Idle-Verbrauch ist allerdings noch viel zu hoch. PC-Komponenten sind erst recht noch nicht so weit, aber auch da wird der Standby-Verbrauch in den nächsten Jahren von heute 1-5W in den Milliwatt-Bereich absinken. Dann kann man sich zumindest schon mal das Ausschalten sparen. Und etwas später wird auch beim PC die Unterscheidung Idle/Standby wegfallen. Verschwenderisch ist dann nicht mehr der, der seinen PC 24h im Idle laufen lässt, sondern der, der ihn unnötig hoch- und runterfährt.

papachrischi
2011-05-09, 02:48:44
Eindeutig Ja. Solange die Platte noch langsamer als der RAM ist, macht eine weitere Beschleunigung Sinn.

Irgendwie auch nicht, da der Bus irgendwann limitiert.
Geil wäre eine Art SSD- Controller direkt in der CPU. So wie aktuelle Speichercontroller nur eben nicht für den RAM.
Dann müssten allerdings die Flashspeicherhersteller noch ne Schippe Speed mehr drauf legen, damit sich sowas rentiert.

=Floi=
2011-05-09, 06:17:48
bei einem 300 mb os brauch ich keine ssd und schon gar nicht dessen zugriffszeit.
so eine lite linux distri startet auf einer HD in 7 sekunden - das schafft die ssd mit win 7 nicht.

browser wie chrome und andere sehr optimierte altagssoftware startet in weniger als einer sekunde.
preloader open office = 1 sekunde.

ich sehe für die ssd am normalen consumer markt keinerlei chancen, es sei denn du bekommst 128 GB für 20€

wenn du die ganze schrottsoftware gegen optimierte austauscht dann bekommst du auch deinen 200% leistungsschub mit festplatten.

http://www.youtube.com/watch?v=ySh5mbPz5Ro
wenn du den post und den usb scan wegrechnest = 7 sekunden.


so viel zu windows 7
wenn du nicht zockst oder auf bestimmte windows only software angwiesen bist... braucht das kein mensch


du bist einfach unfähig so ein produkt zu verstehen, zu nützen und du bist auch nicht multitasking fähig. :facepalm:
sowas von lächerlich... ;(


---
es geht übrigens hier um die anbindung einer SSD und diese sollte schon noch weiter ausgebaut werden. Es ist auch noch nicht klar wie stark die cpus eine ssd bremsen und die 4k iops sind noch immer ein großer flaschenhals. wäre interessant, wie stark ein 5ghz SB noch limitiert und hier wird es sicherlich auch wie bei den gpus sein. Ab einem bestimmten punkt limitiert wieder die SSD, weil die cpu dann ausreichend schnell ist.

Ich bin gespannt, ob die leistung bei den neuen chips wirklich noch so extrem steigen wird.

Botcruscher
2011-05-09, 15:30:13
Ganz ehrlich, lasst die SSD doch mal im Massenmarkt ankommen. Danach kann man sich dann über SATA im Retail Gedanken machen.
Wenn da überhaupt was kommen sollte, dann im Servermarkt. Da läuft aber eh alles mit ordentlichen Raidcontrollern oder gleich per PCIe. Wer so viel Durchsatz braucht hat idR auch die Kohle dazu.

=Floi=
2011-05-10, 03:22:02
gerade im servermarkt bekommt man für verhältnismäßig wenig kohle bei SSDs abnorm viel leistung! in dem bereich sehe ich die wenigsten probleme. Dort zählen IOPs und hohe leseraten.
Ein anderer aspekt ist die dezentralisierung. bei festplatten verteilte man viele zugriffe auf viele festplatten, aber bei SSDs kann man die daten auch auf 3 oder 4 kleine raid 0 verteilen, weil ein einzelnes laufwerk schon sehr schnell arbeit und man hier den normalen workload besser verteilen kann. (sofern ich hier keinen denkfehler habe)

meine idee basiert auf intels ram controller, welcher auch in drei eigene channel aufgeteil wurde und so unterm strich besser arbeitet wie ein großer.


für den massenmarkt wird es eher kostenoptimierte modelle eben, welche sicherlich nicht durch irgendwelche geschwindigkeitsrekorde hervorstechen werden. da zählt sowieso nur der preis und die response time ist hier auch tadellos. dort wird es aber auch längerfristig noch bei sata2 bleiben imho.

barnygumble
2011-05-10, 08:13:51
bei festplatten verteilte man viele zugriffe auf viele festplatten, aber bei SSDs kann man die daten auch auf 3 oder 4 kleine raid 0 verteilen, weil ein einzelnes laufwerk schon sehr schnell arbeit und man hier den normalen workload besser verteilen kann. (sofern ich hier keinen denkfehler habe)


Niemand würde in nem Server Raid 0 fahren...
Ich glaub Du meinst Raid 1 :wink:
..oder irgendein sonstiges Raid das der Definition gerecht wird (Redundant..)