PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nachfolger von sata 150?


dOOd!eBug
2004-08-19, 12:17:02
Hallo,

ich hatte immer mal wieder etwas von einem Nachfolger von sata 150 gehört. Weiss die Bezeichnung leider nicht mehr (sata 300 evtl. ??) und habe auch sonst nicht viel im Netz darüber gefunden.

Weiss jemand mehr über die nächste Sata - Generation?


Thx & Greetz

Benedikt
2004-08-19, 12:32:26
Hallo,

ich hatte immer mal wieder etwas von einem Nachfolger von sata 150 gehört. Weiss die Bezeichnung leider nicht mehr (sata 300 evtl. ??) und habe auch sonst nicht viel im Netz darüber gefunden.

Weiss jemand mehr über die nächste Sata - Generation?


Thx & Greetz

Schaust du hier (http://www.tecchannel.de/hardware/574/).

MFG,
B. W.

dOOd!eBug
2004-08-19, 13:35:00
Na, bei diesem umfangreichen Bericht bleibt ja fast keine Frage mehr offen. :cool: Danke dafür.

Aber zwei Stück hätte ich dann doch noch:

Nach Bekanntgabe der Finalisierung der Serial-ATA-II-Spezifikation am 20. April 2004 durchläuft der Standard einen Ratifizierungsprozess. Ab Ende Mai 2004 dürfen dann der Spezifikation entsprechende Geräte als 3-Gbps-Serial-ATA-Produkte vermarktet werden. Die externer LinkSATA stellt auf ihrer Internetseite alle Serial-ATA-Spezifikationen zum Download bereit.

Die zweite Generation ermöglicht mit 300 MByte/s bereits die doppelte Datenrate. Mit ersten Festplatten ist allerdings frühestens Ende 2004 zu rechnen.

Is halt nicht gerade ne sehr genaue Angabe wann die Geräte erscheinen werden. Genauso wie die MBs mit SataII - Anschlüssen.


Hat jemand noch etwas genaueres zur Einführung gehört?

Duran05
2004-08-19, 13:43:59
Ich würde behaupten, das es noch nicht sicher ist - wann die ersten Geräte erscheinen.

Außerdem würde es sowieso nicht viel bringen, da selbst aktuelle Geräte diese 150 MB/sek nicht völlig ausnutzen (können).
... Es wird wohl noch einige Zeit vergehen, bis ein weiteres Upgrade ansteht.

Benedikt
2004-08-19, 20:35:07
Obwohl ja die neuen Intel-Chipsätze 9xx mit NCQ (native command queuing) schon ein Feature der neuen Generation unterstützen ... :smile:

MFG,
B. W.

Thanatos
2004-08-19, 21:04:07
Obwohl ja die neuen Intel-Chipsätze 9xx mit NCQ (native command queuing) schon ein Feature der neuen Generation unterstützen ... :smile:

MFG,
B. W.


Also NCQ hat ja bisher noch überhaupt nix gebracht.Letztens wurde in der PCGH viele verschiedene Festplatten getestet.Darunter auch eine Festplatte die NCQ unterstützte.

Aber dieses NCQ brachte keinen deut mehr Leistung, die Platte war nur durschnittlich schnell.

stav0815
2004-08-20, 11:59:19
bis jetzt hat sich noch nichtmal SATA-I durchgesetzt und ihr spekuliert über einen Nachfolger wo ich noch immer eine PATA-100 Platte hab und so auch 95% der anderen User...

LOCHFRASS
2004-08-20, 13:06:11
Wozu ueberhaupt mehr Bandbreite? Die derzeit schnellsten S-ATA Platten schaffen gerade mal ~80 MiB (oder doch MB?) pro Sekunde in den Randbereichen.

Endorphine
2004-08-20, 13:16:11
NCQ (bzw. tagged command queueing allgemein) bringt hauptsächlich dann etwas, wenn mehrere unabhängige Prozesse (oder User bei Diensten) auf die Platte zugreifen. Bei typischen Clients ist der Effekt natürlich vernachlässigbar. Mir fallen bei Clientrechnern auf Anhieb nur fragmentierte Dateien und paralleles Speicherseitenswapping zu einem regulären Filesystemzugriff ein, wo tagged command queueing etwas bringt. Mit herkömmlichen Benchmarks kann man den Effekt auch nicht messen, das kommt noch dazu.

Duran05
2004-08-20, 13:21:59
Wozu ueberhaupt mehr Bandbreite? Die derzeit schnellsten S-ATA Platten schaffen gerade mal ~80 MiB (oder doch MB?) pro Sekunde in den Randbereichen.... Allerdings werden teilweise schon ca. 110-130 MB/sek erreicht, wenn es um das Auslesen von Daten aus dem Cache geht.
Siehe z.B. hier: http://www.computerbase.de/artikel/hardware/laufwerke/maxtor_maxline_iii_250_gb/3/

... die neue Platte von Maxtor soll auch 16 MB statt 8 MB Cache haben.
Eine ordentliche Steigerung, wenn man bedenkt, das es selbst jetzt noch Platten mit 2 MB Cache zu kaufen gibt :)

Dennoch würde mehr Bandbreite im moment nicht wirklich etwas bringen.
Im Dauerbetrieb erreicht man diese Transferraten nämlich nicht.

Endorphine
2004-08-20, 13:57:02
... Allerdings werden teilweise schon ca. 110-130 MB/sek erreicht, wenn es um das Auslesen von Daten aus dem Cache geht. ... was aber sinnbefreit ist. Der "Cache" auf der Platte ist heute nur noch ein Puffer, der primär für read-ahead (und -back) dient, sowie als Schreibpuffer, um ankommende Schreibbefehle erstmal wegzupuffern. Cachefunktionalität wird heutzutage ausschliesslich vom Betriebssystem-Softwarecache übernommen, dort um Größenordnungen effizienter, da das OS von den Anforderungen der Software weiss. Wenn zufällig mal ein Sektor/LBA-Block durch read-ahead bereits im Puffer sein sollte wird der eben mit Interfacegeschwindigkeit ausgeliefert. Die Wahrscheinlichkeit dessen ist in der Praxis imho nicht sehr groß heutzutage. Die Datenrate vom/zum Medium zählt, keine Burstdatenrate vom/zum Hardwarepuffer. ... die neue Platte von Maxtor soll auch 16 MB statt 8 MB Cache haben.
Eine ordentliche Steigerung, wenn man bedenkt, das es selbst jetzt noch Platten mit 2 MB Cache zu kaufen gibt :) Die Puffergrößen sind ziemlich unerheblich, da wie gesagt Softwarecaches um ein Vielfaches größer sind und die Puffer nicht die Kapazitätssteigerungen des Mediums mitmachen. Nur mal als Vergleich der Verhältnisse:
• ungefähr 1996 kam die erste IDE-Platte mit 5400 rpm heraus, eine Seagate Decathlon mit 800 Megabyte Kapazität (ich war stolzer Besitzer) und für die Zeit riesigen 256 kiB Cache. Der Puffer konnte also damals 0,25 MB zu 800 MB abdecken/puffern. 0,25/800 = 1/3200 = 0,0003125.
• heute kommt die erste ATA-Festplatte mit 16 MB Cache (=Puffer) heraus, mit 250 GB Medienkapazität. Es stehen also 16 MB zu 250.000 MB, also 16 zu 250.000 oder 1/15625 = 0,000064.

Setzt man beide Werte zueinander in Relation (kiB/kB jetzt mal aussen vor gelassen) kommt schon jetzt heraus, dass die heutigen Hardwarecaches schon im Verhältnis fast 5x kleiner sind als vor fast 10 Jahren. Die Caches schrumpfen also eher, als das sie wachsen. Was aber kein Problem ist, da heute großzügige Softwarecaches die Arbeit übernehmen. Früher zu DOS-Zeiten war schon ein 2 Megabyte großer Smartdrive-Cache etwas besonderes. Dennoch würde mehr Bandbreite im moment nicht wirklich etwas bringen.
Im Dauerbetrieb erreicht man diese Transferraten nämlich nicht. Eben. Zugriffszeit und lineare Transferrate limitieren, nicht das Interface.

Duran05
2004-08-20, 14:19:57
Setzt man beide Werte zueinander in Relation (kiB/kB jetzt mal aussen vor gelassen) kommt schon jetzt heraus, dass die heutigen Hardwarecaches schon im Verhältnis fast 5x kleiner sind als vor fast 10 Jahren. .
Eigentlich verständlich... im Desktop-Markt werden wohl die wenigsten User, die komplette Platte mit Daten füllen und ständig auf alle Bereiche zugreifen wollen :)

... Wie sichert man in Zukunft eigentlich seine Daten? Bei 400 GB Platten wird das schon schwierig & dauert immer länger, alles auf CD/DVD zu brennen.
... Wird jeder bald zwei Festplatten kaufen um sie in einem RAID-1 laufen zu lassen?

Endorphine
2004-08-20, 14:50:09
Eigentlich verständlich... im Desktop-Markt werden wohl die wenigsten User, die komplette Platte mit Daten füllen und ständig auf alle Bereiche zugreifen wollen :) Klar, nur sinkt eben die potenzielle Abdeckung und damit die Trefferrate des Caches immer weiter, je kleiner der Cache im Verhältnis zur Medienkapazität wird. ... Wie sichert man in Zukunft eigentlich seine Daten? Bei 400 GB Platten wird das schon schwierig & dauert immer länger, alles auf CD/DVD zu brennen. Mir ist DVD-RAM für Backups am meisten sympathisch. Direkter Zugriff, günstige Medienpreise, MO-Technik, hohe Kapazität und bei einigen Leselaufwerken auch Lesekompatibilität. Zudem sind ja nur ein kleiner Bruchteil der Daten wirklich wertvoll und wichtig, so dass sie wirklich gesichert werden müssen. Die meisten Daten (Software, OS, Medien) kann man wiederbeschaffen, selbst erstellte Daten dagegen häufig nicht. ... Wird jeder bald zwei Festplatten kaufen um sie in einem RAID-1 laufen zu lassen? Imho unwahrscheinlich. Und das ist ja auch kein Backup im Sinne der Datensicherheit, als das Daten nicht zerstört werden können (Safety). Wenn ein Virus die Daten zerstört sind sie dann im ganzen Array gelöscht. Oder bei Bedienfehlern, Softwarebugs, Abstürzen etc.

RAID-1 dient imho nur zur Verfügbarkeitserhöhung von Computern, nicht für Backupzwecke, es sei denn, man tauscht die Arrayplatten regelmässig aus (imho Verschwendung).

Duran05
2004-08-20, 15:03:52
Zudem sind ja nur ein kleiner Bruchteil der Daten wirklich wertvoll und wichtig, so dass sie wirklich gesichert werden müssen. Die meisten Daten (Software, OS, Medien) kann man wiederbeschaffen, selbst erstellte Daten dagegen häufig nicht. ... hat außerdem den Vorteil, das man danach das System auf den neuesten Stand bringen kann :)

... Mal sehen, ob es in naher Zukunft größere Speicherkarten gibt... die könnten für ein einfaches Backup gut zu gebrauchen sein.

Wie siehts eigentlich mit Online-Backups aus? GMX bietet ja neuerdings 1 GB Speicher (für alle Daten) an, bei den kostenlosen Tarifen.
Für einen kleinen Aufpreis (5€/Monat) bekommt man schon 10 GB.
Bei einem schnellen Zugang wäre das sicher eine brauchbare alternative.

PhoenixFG
2004-08-20, 21:32:06
Was für ein schneller Zugang soll das denn sein (der bezahlbar ist). Alle normalen ADSL-Anschlüsse liefern doch nur ein paar KB/s. Damit bräuchte man für ein 5GB-Backup ewig.
Für die paar wichtigen Daten oder die Systempartition bieten sich eigentlich Notebook-Platten an. Die nehmen im Schrank recht wenig Platz weg und bieten relativ viel Speicherplatz. Wenn man diese Medien dann rotieren lässt, kommt man mit wenigen dieser Speichermedien aus.
Komfort und Geschwindigkeit haben bei dieser Lösung allerdings auch ihren Preis. Alternativ könnte man ja auch normale 3,5"-Platten nehmen, die etwa die Hälfte kosten.

MfG

Duran05
2004-08-21, 15:35:08
Was für ein schneller Zugang soll das denn sein (der bezahlbar ist). Alle normalen ADSL-Anschlüsse liefern doch nur ein paar KB/s. Damit bräuchte man für ein 5GB-Backup ewig.Kommt drauf an, wo man wohnt...
Es gibt da z.B. folgende Sachen:
SDSL 1 MBit -> ca. 200-250 € mit Flatrate pro Monat. Dafür hat man eben die gleichen Up und Downloadgeschwindigkeiten.
ADSL 3 MBit -> Bei der Telekom kann man dafür 512 kBit Upstream buchen. Das sind immerhin 64 kByte pro Sekunde. In der Stunde kommt man so auf etwa 200-225 MB. 50€ Flatrate + 30 € Anschluss + Telefonanschluss und Gebühren.
Wenn man den Upload über Nacht laufen lässt, ist das normalerweise kein Problem. Der Download der Daten geht ja deutlich schneller :)
Internet über TV Kabel -> Da gibts oft auch 512 kBit Upstream. In einigen Regionen bekommt man sogar 1 MBit.

5 GB sind eigentlich kein Problem. Diese kann man ja notfalls auch noch auf eine CD/DVD Brennen. Allerdings besteht hier das Risiko, das sie trotzdem verloren gehen (CD/DVD defekt...) während bei einem Online-Backup eigentlich immer ein Backup vom Betreiber angelegt wird.

Wenn man Zeit hat, dann dürften Services wie die von GMX sicher die günstige Variante sein...

tokugawa
2004-08-21, 19:35:45
... was aber sinnbefreit ist. Der "Cache" auf der Platte ist heute nur noch ein Puffer, der primär für read-ahead (und -back) dient, sowie als Schreibpuffer, um ankommende Schreibbefehle erstmal wegzupuffern.


Genau das ist ja ein Cache, zumindest einer mit einer bestimmten Cache-Strategie (da gibt's ja viele). Halt ein eher primitiver, der nur Spatial Locality nutzt, und da anscheinend auch nur in eine Richtung ("Leserichtung"). Daher würd ich hier nicht "Cache" in Anführungszeichen schreiben.

Aber stimmt, die Glieder der Cache-Hierarchie auf höherer Ebene (also in Richtung RAM, CPU-Cache, CPU, von "langsamen Medium Festplatte" ausgehend) haben schon intelligentere Cache-Strategien, tw. SW(Betriebssystem-)implementiert.

tokugawa
2004-08-21, 19:42:39
Kommt drauf an, wo man wohnt...
Es gibt da z.B. folgende Sachen:
SDSL 1 MBit -> ca. 200-250 € mit Flatrate pro Monat. Dafür hat man eben die gleichen Up und Downloadgeschwindigkeiten.
ADSL 3 MBit -> Bei der Telekom kann man dafür 512 kBit Upstream buchen. Das sind immerhin 64 kByte pro Sekunde. In der Stunde kommt man so auf etwa 200-225 MB. 50€ Flatrate + 30 € Anschluss + Telefonanschluss und Gebühren.


Argh! 80 Euro kostet hier in Österreich eher eine Flatrate der Bandbreite um die 512 kbit herum (von upstream red ich gar nicht erst...), und das auch nur von den entbündelten Betreibern. 1 MBit würde schon über 140 Euro durchschnittlich kosten. Und Flatrates gibt's erst gar nicht für Privatnutzer von der österreichischen Telekom. Jedes weitere MB über dem Datenvolumen (typischerweise 500 MB, 1 GB, oder 2.5 GB, wobei letzteres schon 45 Euro/Monat all-inclusive kostet) kostet dann 7 Cents. Rechnet das dann auf ein GB auf...

Ich beneid euch Deutsche diesbezüglich echt :|

Aber zurück zum Topic: muß ich mich schlecht fühlen dass meine 3 Primärsysteme mit einem halben Duzend Festplatten mit ca. 500 GB Speicher zusammengerechnet noch auf PATA laufen? :P

Naja, das K7S5A hier hat eh schon bald Ablöse verdient...

FlashBFE
2004-08-21, 23:17:56
Hallo,
ihr habt doch gefragt, wozu man 300 MB/s braucht?
In der neuen Spezifikation werden (wie in dem tecchannel-Artikel beschrieben) sog. Port Multiplier eingefüht.
So ein Teil ist praktisch ein SATA-Switch.
Damit kann man bis zu 4 Festplatten an einen Port hängen, wodurch nurnoch 75MB/s pro Platte übrigbleiben würden.

Klar, das wird kein Desktopanwender jemals ernsthaft in Erwägung ziehen, aber bei Fileservern könnte man dann bei nem Mainboard mit 4 Ports 16 Festplatten einbauen. Damit wäre dann auch mit einem der letzten Vorteile von Ultra320 SCSI gleichgezogen, nämlich sehr viele Platten auf einmal an einen Controller hängen zu können.
(Es gibt ja jetzt schon 16 Port SATA Controller als Zusatzkarte, die könnten dann hypothetisch als SATAII 64 Laufwerke ansprechen. Das wären im Maximalfall 4,8GByte/s über den Bus in einer Richtung. Damit wäre sogar PCI Express 16x überfordert mit seinen 4GB/s/Richtung.)