PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nächste Festplattengeneration?


pt3
2003-08-13, 12:01:05
Wann steht uns die nächste Festplattengeneration bevor? Und wieviel Speicherkapazität pro Scheibe wird sie haben? Gibt es dazu schon Informationen?

Stone2001
2003-08-13, 13:06:44
hmm, ich würde mal sagen, das die neue Generation schon verfügbar ist. Die WD 2500xx Serie z.b. (http://www.westerndigital.com/de/products/products.asp?DriveID=42), Festplatten mit über 80GB pro Scheibe ist schon ein gewaltiger Fortschritt gegenüber dem was heute noch meistens verbaut wird.
Maxtor hat Platten mit ähnlicher Kapazität pro Platte im Angebot und ich denke die anderen Hersteller werden auch nachziehen.

Wenn einer den Forschungsbereich genauer verfolgt, dann kann er auch sagen, was nach dieser Generation kommt. Die Forschung in diesem Bereich steht noch lange nicht still. Ich weiß gerade nicht, welche Speicherdichte (bit pro Quadratzoll) aktuelle Platten haben und wo die Forschung zur Zeit liegt.

Was man mit ziehmlicher Sicherheit sagen kann ist, das die kommenden Platten mit von (aktuell) SATA 150 Interface auf SATA 600 Interface übergehen. (Wenn man den Leuten von SATA trauen darf, dann werden wir SATA noch ca. 10 Jahre haben)

x-dragon
2003-08-13, 14:00:00
Ist nur noch die Frage wer brauch größere Platten (ok da finden sich schnell welche) und die wichtigste Frage, wer kann diese Platten überhaupt nutzen? Aktuell gibts ja noch einige Beschränkungen vom BIOS angefangen über Partitionierungprogramme bis hin zu den Betriebssystemen selber.

mapel110
2003-08-13, 16:36:44
ich würd mir eher mehr speed wünschen. die 10000u/min platten sind ja unterwegs. aber ich hätt gern mehr =)

Börk
2003-08-13, 17:02:28
Original geschrieben von Stone2001
hmm, ich würde mal sagen, das die neue Generation schon verfügbar ist. Die WD 2500xx Serie z.b. (http://www.westerndigital.com/de/products/products.asp?DriveID=42), Festplatten mit über 80GB pro Scheibe ist schon ein gewaltiger Fortschritt gegenüber dem was heute noch meistens verbaut wird.
Maxtor hat Platten mit ähnlicher Kapazität pro Platte im Angebot und ich denke die anderen Hersteller werden auch nachziehen.

Also zur Zeit haben ale Hersteller HDD mit 80er Plattern im Angebot. Ausser bei IBM, da bin ich mir net so ganz sicher ;)

Aqualon
2003-08-13, 17:03:16
Original geschrieben von mapel110
ich würd mir eher mehr speed wünschen. die 10000u/min platten sind ja unterwegs. aber ich hätt gern mehr =)

Eine Erhöhung der Speicherdichte hat ja auch gleichzeitig immer eine Erhöhung der möglichen Geschwindigkeit zur Folge.

Also muss man nicht zwangsläufig auf höhere Drehzahlen gehen, die ja wegen der größeren Hitzeerzeugung nicht ohne Probleme zu erreichen sind.

Aqua

DrumDub
2003-08-13, 17:25:22
was zur speicherdichte aktueller festplatten: 30-70 gbit pro quadratzoll. von ibm gibt schon notebook festplatten, die die 100 gbit pro quadratzoll durchbrochen haben: http://www.research.ibm.com/resources/news/20010518_whitepaper.shtml

ATI-Andi
2003-08-13, 17:36:51
IBM hatte auch was gebracht, wo Daten horizontal und vertikal ausgelesen und geschrieben werden, das würde pro Platte um die 300 MB/sec Datenrate ergeben, bei gleichzeitig hoher Speicherdichte.

Stone2001
2003-08-13, 19:02:00
Original geschrieben von DrumDub
http://www.research.ibm.com/resources/news/20010518_whitepaper.shtml
So was in der Art habe ich vorhin gesucht.

Auch IBM / Hitachi haben Festplatten mit bis zu 250 GB im Angebot (http://www.hitachistorage.com/about/news/20030625.html)

Und Festplatten mit 10000 U/min gibt es doch schon seit Ewigkeiten, auch die mit 15k U/min gibt es schon ewig. Man darf bei dieser Frage nicht nur den IDE / SATA Zweig anschauen. Die Frage hier: Wieviele u/min haben die Platten in naher Zukunft?

Ich gehe mal davon aus, auch die Interfaces der Zunkunft nur von RAID-Verbände wirklich an ihre Leistungsgrenze gebracht werden.

[CMI]Shadow
2003-08-13, 23:44:32
ich halte nicht allzuviel von platten mit so extrem hohen drehzahlen weil:1. sind sie lauter und 2. können sie schneller kauputt gehen(lager ausgeschlagen usw...)

mfg shadow

Stone2001
2003-08-14, 00:08:49
Original geschrieben von [CMI]Shadow
ich halte nicht allzuviel von platten mit so extrem hohen drehzahlen weil:1. sind sie lauter und 2. können sie schneller kauputt gehen(lager ausgeschlagen usw...)

Ok, beim ersten Punkte gebe ich dir recht, aber sind die Platten der Zukunft mit mehr U/min auch lauter als aktuelle Platten mit 5400 U/min oder 7200 U/min? Ich denke das es auch Fortschritte im Gebiet der Geräuschdämpfung geben wird. Vielleicht gibt es auch leisere Motoren und bessere (leisere Lager). Schnelle Platten in der Zukunft jetzt zu verdammen, halte ich für nicht richtig.

Wenn die Festplatten, die schneller drehen, schneller kaputt gehen, warum haben die dann öfters ne längere Garantiezeit? Heutig SCSI Platten (es sind, bis jetzt, die einzigsten die so schnell laufen), die mit 15 000 U/min laufen haben nicht selten ne Garantiezeit von 5 Jahren, während die langsamen IDE Platten, nicht über 3 Jahre hinauskommen.

diedl
2003-08-14, 00:34:25
--------------------------------------------------------------------
Wenn die Festplatten, die schneller drehen, schneller kaputt gehen, warum haben die dann öfters ne längere Garantiezeit? Heutig SCSI Platten (es sind, bis jetzt, die einzigsten die so schnell laufen), die mit 15 000 U/min laufen haben nicht selten ne Garantiezeit von 5 Jahren, während die langsamen IDE Platten, nicht über 3 Jahre hinauskommen.
---------------------------------------------------------------------
Das könnte aber auch am meistens (wesentlich) höheren Preis liegen.
SCSI Platten werden nicht unbedingt (nur) wegen Ihrer Geschwindigkeit
gekauft, sonder auch wegen Ihrer (vermeintlichen) Langlebigkeit.
Und da würde sich doch eine geringere Garantiezeit nicht wirklich anbieten.
Eventuelle Garantiefälle werden wohl durch den höheren Preis wieder
aufgefangen.

mfg diedl

Hamster
2003-08-14, 00:51:26
trägt zwar nichts direkt zum thema bei, aber ich wünsche mir schnellere platten, wesentlich schnellere. dabei ist mir die grösse gar nicht so weichtig. ~200gb reichen heute dicke aus, und vermutlich auch in der zukunft. selbst mit einer "alten" 40er kommen heute noch genug leute aus....
aber was ich will ist speed! es gibt nicht schlimmeres als wenn der komplette pc durch lesen/schreiben auf der platte runtergezogen wird (nein, bitte jetzt keine tipps ala udma mode aktivieren), weil irgendein programm grosse daten lesen oder schreiben muss.


ich fordere 100mb/s durchschnittsgeschwindigkeit bei hdds!

problem ist auch, bei den meisten plattentests wird nur die burstgeschwindigkeit getestet, die ist aber in der praxis sowas von wurscht. interessanter sind hier die random tests, und da können platten schonmal auf elendlangsam 5-10mb/sec fallen.

RyoHazuki
2003-08-14, 00:53:31
Original geschrieben von Stone2001
hmm, ich würde mal sagen, das die neue Generation schon verfügbar ist. Die WD 2500xx Serie z.b. (http://www.westerndigital.com/de/products/products.asp?DriveID=42), Festplatten mit über 80GB pro Scheibe ist schon ein gewaltiger Fortschritt gegenüber dem was heute noch meistens verbaut wird.
Maxtor hat Platten mit ähnlicher Kapazität pro Platte im Angebot und ich denke die anderen Hersteller werden auch nachziehen.

Wenn einer den Forschungsbereich genauer verfolgt, dann kann er auch sagen, was nach dieser Generation kommt. Die Forschung in diesem Bereich steht noch lange nicht still. Ich weiß gerade nicht, welche Speicherdichte (bit pro Quadratzoll) aktuelle Platten haben und wo die Forschung zur Zeit liegt.

Was man mit ziehmlicher Sicherheit sagen kann ist, das die kommenden Platten mit von (aktuell) SATA 150 Interface auf SATA 600 Interface übergehen. (Wenn man den Leuten von SATA trauen darf, dann werden wir SATA noch ca. 10 Jahre haben)

soweit ich weiss kommt erstmal Serial ATA II (300 MB/s) danach Serial ATA III (600 MB/s) !

Festplatten, sind ALT ! Basieren auf einem total altem konzept (ähnlich wie die Kuplung im auto)! Die Festplatte ist das langsamste gerät im ganzen computer !

Hamster
2003-08-14, 00:56:21
Original geschrieben von RyoHazuki
soweit ich weiss kommt erstmal Serial ATA II (300 MB/s) danach Serial ATA III (600 MB/s) !

Festplatten, sind ALT ! Basieren auf einem total altem konzept (ähnlich wie die Kuplung im auto)! Die Festplatte ist das langsamste gerät im ganzen computer !


vom fdd und pci mal abgesehen, haste recht :D

RyoHazuki
2003-08-14, 01:10:45
Original geschrieben von Hamster
vom fdd und pci mal abgesehen, haste recht :D

ja die gehören auch zum alten eisen, PCI-X wird (von mir) schon herzlichst erwartet !

Vorbei, mit dn Zeiten wo meine Videoschnittkarte den ganzen PCI Bus in die Knie zwingt !

Es ist mir noch heute nicht möglich, Videos zu schneiden + Gleichzeitig TV zu schauen (auf dem PC) sobald die TV karte zum einsatz kommt, siehts ehrlich schlimm aus...

Sprich, Ruckeln der maus (Trotz 1024 MB Speicher) abartig lahmes arbeiten ! 10 FPS slideshow beim TV Modus !

Man hat versucht das ganze bussystem zu stärken (bzw. zu entlasten) als man Southbridge mit Northbridge direkt verbunden hatte + die BUS Parking Option einbaute und was weis ich noch alles...

aber der PCI Bus so wie wir ihn kennen muss endlich in rente gehen !

Matti
2003-08-14, 10:46:20
Original geschrieben von Hamster
trägt zwar nichts direkt zum thema bei, aber ich wünsche mir schnellere platten, wesentlich schnellere. dabei ist mir die grösse gar nicht so weichtig. ~200gb reichen heute dicke aus, und vermutlich auch in der zukunft. selbst mit einer "alten" 40er kommen heute noch genug leute aus....
aber was ich will ist speed! es gibt nicht schlimmeres als wenn der komplette pc durch lesen/schreiben auf der platte runtergezogen wird (nein, bitte jetzt keine tipps ala udma mode aktivieren), weil irgendein programm grosse daten lesen oder schreiben muss.


ich fordere 100mb/s durchschnittsgeschwindigkeit bei hdds!

problem ist auch, bei den meisten plattentests wird nur die burstgeschwindigkeit getestet, die ist aber in der praxis sowas von wurscht. interessanter sind hier die random tests, und da können platten schonmal auf elendlangsam 5-10mb/sec fallen.


Deshalb wünsche ich mir Flash-Disks =)
Dann wäre sequenzielles und zufälliges Lesen/Schreiben gleich schnell. Mit Flash-RAM's sind zwar derzeit keine 200 GB möglich, aber man könnte ja eine schnelle Flash-Disk für das Betriebs-System und häufig benötigte Dateien nehmen, und eine herkömmliche HDD für die MP3/DIVX-Sammlung.

Pussycat
2003-08-14, 12:32:30
Will ich auch. Ich HASSE bewegende Medien, und vor allem diese primitive, laute Festplatten.

ATI-Andi
2003-08-14, 20:38:31
Flash Disks mit 300Gb das wäre was. :D Bei den Festplatten wird es hoffentlich auch bald einen Sprung geben. Wer momentan Leistung will kommt um Raid leider nicht herum.

pt3
2003-08-14, 23:35:28
Original geschrieben von Matti
aber man könnte ja eine schnelle Flash-Disk für das Betriebs-System und häufig benötigte Dateien nehmen.

Dafür gibt es ja den RAM, der nichts anderes als die von dir beschriebene Aufagabe erfüllt... ;)


Aber um nochmal auf meine eigentliche Frage zu kommen: Bessere Festplatten (z.B. Seagate Barracuda VI) sind für dieses Jahr nicht mehr geplant, oder? Zumal es die Barracuda V ja nun schon seit über einem Jahr zu kaufen gibt...

ATI-Andi
2003-08-15, 22:36:07
Vielleicht legt WD noch eine Raptor mit mehr Kapazität nach, z.B 74Gb oder 128Gb. Der Preis ist allerdings schon für die 36Gb Variante unverschämt. :D Die Leistung ist aber jetzt schon perfekt. Sonst wird wohl nicht so viel zuerwarten sein.

Haarmann
2003-08-16, 11:52:58
Vor langer langer Zeit...

da gabs ne Firma DEC. Diese hatten in ihren Laboren angeblich (interne Info war das) "Platten" mit extremen möglichen Geschwindigkeiten von ca 384 MB/s. Das Konzept dahinter ist relativ einfach gewesen, aber die Oberfläche war offensichtlich nicht haltbar zu kriegen. Diese Platten hielten nämlich bestenfalls nen Tag - danach war die Oberfläche nicht mehr speicherfähig. Natürlich wars nicht ein mechanisches Problem - und auch keine mechanische Platte ;).

Conner
2003-08-17, 02:00:37
Kennt hier noch irgendjemand das Kenwood 72fach True-X CD-Laufwerk? Leise (!), schnell (leider <72x), teuer und nach der Garantie einfach nur noch tot (jedenfalls meins).
Und wieso erwähne ich das hier? na weil geile Technik nun mal teuer ist!

Hiermit fordere ich, scheißegal wie hoch der Kaufpreis ist, von WD+ Maxtor+Seagate folgende HD:
- 100 GB auf einer Platte heutiger Fertigungart
- 4200 U/pM (schön leise)
- und so viele Schreib-/Leseköpfe wie man in einem 5¼“-Laufwerksgehäuse unterbringen kann
- SATA
- einen Sockel für den Selbsteinzubauenden Cache (128 MB, 133 MHz, SD-RAM)

Gast
2003-08-17, 03:07:24
und dann gibts da noch die 15.000 rpm platten... zwar scsi, aber es gibt sie :)

Matti
2003-08-17, 14:46:40
Original geschrieben von pt3
Dafür gibt es ja den RAM, der nichts anderes als die von dir beschriebene Aufagabe erfüllt... ;)


der Festplatten-Cache im RAM nützt nur was, wenn die Daten schonmal gelesen/geschrieben wurden. Er bringt nichts beim booten oder wenn man ein Programm das erste Mal mach dem booten lädt...
...dafür braucht man eine schnelle HDD oder eben eine Flash-Disk...

Endorphine
2003-08-17, 16:46:29
Original geschrieben von Conner
Hiermit fordere ich, scheißegal wie hoch der Kaufpreis ist, von WD+ Maxtor+Seagate folgende HD:
- 100 GB auf einer Platte heutiger Fertigungart Du meinst sicher auf einem "Platter". Und die Forderung ist mit 83,33 GB/Platter Datendichte bei 3,5"-Laufwerken schon quasi Realität. Und das sogar mit 7200 rpm. Noch höhere Datendichten findest du in 2,5"-Laufwerken mit niedriger Drehzahl. Hohe Datendichte ist aber keinesfalls eine Entwicklung, die nur positive Seiten hat. Es wird mit steigender Spur- und Sektordichte für die Platte immer schwerer, die Informationen zusammenzuhalten. An Datenverlust, der durch Kopfversatz durch externe Stösse/Vibrationen im Schreibmodus entsteht möchte ich nicht mal denken. Den Plattenentwicklern gebührt da mein allerhöchster Respekt, überhaupt noch Platten mit höchsten Datendichten zu bauen, die den üblichen component life cycle von 5 Jahren durchhalten.
Original geschrieben von Conner
- 4200 U/pM (schön leise) So niedrige Drehzahlen sind durch die hohe Latenz im Desktop- und Serversektor aber nicht mehr konkurrenzfähig. Nur noch bei den leistungsmässig weniger anspruchsvollen mobile/integrated Laufwerken werden noch Platten mit dieser Drehzahl gebaut. Für den Mainstream Desktop Markt sollten es heute mindestens 7200 rpm sein, für SCSI 10k oder 15k rpm. Einen geräuscharmen Spindellauf kann man auch über fortgeschrittene Lager- und Antriebstechnik erzielen. Dass das leider nicht auch für die Vibrationen bzw. den Körperschall gilt ist die Kehrseite der Medaille. Aber darüber regt sich ja komischerweise auch niemand auf, alle schauen nur auf den Luftschall. Und die Hersteller geben auch nur Luftschallmessungen in den Datenblättern an, der Kunde weiss ja offensichtlich nicht zwischen Körper- und Luftschall zu entscheiden, er zahlt nur für niedrige Luftschalldruckwerte. Original geschrieben von Conner
- und so viele Schreib-/Leseköpfe wie man in einem 5¼"-Laufwerksgehäuse unterbringen kann Oh nein, bitte nicht. Die Zeiten sind vorbei.
1. unwirtschaftlich, unwirtschaftlich und nebenbei: dieser Festplattenformfaktor ist unwirtschaftlich!
2. unnötig.
3. kauft niemand mehr 5,25"-Festplatten. Es gibt auch gar keine technische Notwendigkeit dafür. Miniaturisierung bzw. das streben nach maximaler Integration macht auch vor den IT-Gesamtsystemen nicht halt. 5,25"-Festplatten wirst du in absehbarer Zeit nicht mehr finden. Im Gegenteil, die hohen Drehzahlen bedingen immer kleinere Platter. Original geschrieben von Conner
- SATA ACK. Aber bitte native SATA-Controller, wie von Seagate. Kein Frickelwerk wie von Maxtor/WD, die einfach einen Serializer/Deserializer auf bestehende PATA-Controllerplatinen pflanzen und das ganze dann als SATA-Festplatte verkaufen. Ausser den schmalen Datenanschlusskabeln hat man von diesen Konstruktionen als Kunde keinen Mehrwert. Und nächstes Jahr kommt ja dann schon wieder die nächste Generation von SATA, bevor sich 1,5 Gb SATA überhaupt richtig durchsetzen konnte. Original geschrieben von Conner
- einen Sockel für den Selbsteinzubauenden Cache (128 MB, 133 MHz, SD-RAM) 1. unnötig
2. zu teuer
3. bezahlt der Kunde dafür kein Geld. Der kauft sich eine Platte quasi als fertige Black Box.
4. Der Controllercache auf den Platten wird allgemein vollkommen überbewertet. Der hat mehr eine Pufferfunktion und dient als Arbeitsspeicher für den Plattencontroller. Das höchste der Gefühle ist da vielleicht noch tagged command queueing, was ohne den Puffer nicht möglich wäre (übrigens auch ein Feature, was nur native SATA-Controller beherrschen, neben den SCSI-Verwandten). Allgemein ist das nur noch ein Puffer, kein Cache. Echte Cachefunktionalität findest du heutzutage schon längst auf OS-Ebene. Und dort um Potenzen grösser als auf der Platte und als gewaltigen Vorteil -> dieser Cache kann auf die Softwareanforderungen und auf das Filesystem angepasst reagieren. Davon träumt der kleine Puffer auf dem Plattencontroller in lauen Sommernächten ;)

Endorphine
2003-08-17, 16:53:48
Original geschrieben von ATI-Andi
Vielleicht legt WD noch eine Raptor mit mehr Kapazität nach, z.B 74Gb oder 128Gb. Der Preis ist allerdings schon für die 36Gb Variante unverschämt. :D Die Leistung ist aber jetzt schon perfekt. Sonst wird wohl nicht so viel zuerwarten sein. Unverschämt? Die Raptor besetzt eine Marktnische. WD kann den Preis im Hinblick auf Ertragmaximierung entsprechend anpassen. Die guten alten Alleinstellungsmerkmale wieder =)

Und so "perfekt" ist die Leistung nun auch wieder nicht. Im Gegenteil, verglichen mit 10k rpm SCSI-Laufwerken bietet die Raptor eher unterdurchschnittliche Leistungswerte. Irgendwo auch logisch, die Platte baut auf einem PATA-Controller mit SATA-Umsetzer auf. Mit einem optimierten nativen SATA-Controller liesse sich noch einiges an Leistung herausholen, dann könnte eine neue Raptor-Serie zu den aktuellen 10k rpm Laufwerken aus dem SCSI-Lager performancemässig aufschliessen.

Endorphine
2003-08-17, 16:57:34
Original geschrieben von Gast
und dann gibts da noch die 15.000 rpm platten... zwar scsi, aber es gibt sie :) Achtung, bei diesem Satz kommt irgendwie die Erwartungshaltung rüber, dass die Performance mit der Drehzahl linear skaliert. Dem ist mitnichten so. Je höher die Drehzahl, desto kleiner die Platter und desto geringer die Datendichte. Die 15k rpm Platten sind zwar auf niedrigste Zugriffszeit hin konstruiert, erreichen aber nicht wesentlich höhere Dauertransferraten als schnelle 3,5" ATA-Platten. Die Kopftechnik und Steuerelektronik limitiert hier die Entwicklung.

15k rpm Platten bieten eine sehr viel niedrigere Latenz und Zugriffszeit als gewöhnliche schnelle 3,5" Desktop ATA-Platten, die linearen Transferraten sind jedoch nur geringfügig höher.

Endorphine
2003-08-17, 17:02:25
Original geschrieben von DrumDub
was zur speicherdichte aktueller festplatten: 30-70 gbit pro quadratzoll. von ibm gibt schon notebook festplatten, die die 100 gbit pro quadratzoll durchbrochen haben: http://www.research.ibm.com/resources/news/20010518_whitepaper.shtml Eine Absolutdatendichte allein ist wenig aussagekräftig für die erreichbare Performance in der Praxis. Die Datendichte setzt sich ja aus spt (sectors per track, Kopf-y-Richtung) und tpi (tracks per inch, Kopf-x-Richtung) zusammen. Nur eine hohe spt-Datendichte erhöht auch die lineare Transferrate. Eine hohe tpi-Datendichte senkt im Gegenteil die Performance, weil der Kopf eine Spur wesentlich genauer anfahren muss und dadurch auch länger ausschwingt. Die über eine Absolutkapazität bei höherer tpi-Datendichte sinkende Kopf-Bewegungsstrecke kompensiert das abhängig von der Anwendung nur sehr selten.

Edit: Grammatik.

Endorphine
2003-08-17, 17:06:36
Original geschrieben von pt3
Aber um nochmal auf meine eigentliche Frage zu kommen: Bessere Festplatten (z.B. Seagate Barracuda VI) sind für dieses Jahr nicht mehr geplant, oder? Zumal es die Barracuda V ja nun schon seit über einem Jahr zu kaufen gibt... 1. Es gibt kein "besser" - das ist eine Absolutbewertung, die aber nicht zulässig ist, da ein Bewertungsmassstab nie alle Anforderungen erfasst.
2. Die Seagate Barracuda 7200.7 ist der Nachfolger der 5er-Serie und schon seit geraumer Zeit erhältlich.
3. Die Entwicklung gerät nur (glücklicherweise) etwas ins stocken, weil die technischen Probleme mit der extrem steigenden Datendichte exponentiell anwachsen, ebenso die Entwicklungskosten. Und im selben Maße nimmt die Haltbarkeit/Datensicherheit ab. Auch zeichnet sich ein wenig eine Sättigung ab, die Kunden nehmen nicht mehr jede beliebig hohe Kapazität mit Jubelschrei zu jedem Preis ab. Deshalb gibt es auch den Trend zu Mainstreamserien mit immer weniger Plattern und Köpfen oder gar nur noch partieller Platternutzung (-> z.B. Maxtor DM +8).

ATI-Andi
2003-08-17, 18:33:15
Original geschrieben von Endorphine
Unverschämt? Die Raptor besetzt eine Marktnische. WD kann den Preis im Hinblick auf Ertragmaximierung entsprechend anpassen. Die guten alten Alleinstellungsmerkmale wieder =)

Und so "perfekt" ist die Leistung nun auch wieder nicht. Im Gegenteil, verglichen mit 10k rpm SCSI-Laufwerken bietet die Raptor eher unterdurchschnittliche Leistungswerte. Irgendwo auch logisch, die Platte baut auf einem PATA-Controller mit SATA-Umsetzer auf. Mit einem optimierten nativen SATA-Controller liesse sich noch einiges an Leistung herausholen, dann könnte eine neue Raptor-Serie zu den aktuellen 10k rpm Laufwerken aus dem SCSI-Lager performancemässig aufschliessen.

Naja 140€ sind kein Pappenstiel für 36,8 GB. Vielleicht mache ich mir aber trotzdem ein Raid 3 mit drei Raptoren, das dürfte bestimmt schnell sein. :D

Endorphine
2003-08-17, 18:40:39
Original geschrieben von ATI-Andi
Naja 140€ sind kein Pappenstiel für 36,8 GB. Vielleicht mache ich mir aber trotzdem ein Raid 3 mit drei Raptoren, das dürfte bestimmt schnell sein. :D RAID-3? Wenn schon, dann gleich RAID-5, RAID-3 nutzt eigentlich heute keiner mehr. Dann aber gleich 4 Platten, sonst ists nicht weit her mit der Redundanz =)

Und da du wahrscheinlich eher auf die Leistung scharf bist: lieber nen RAID 0+1 :) Und dann sind die Investitionen mit vier Platten und nem 4-Kanal Controller auch so gross, dass du statt des SATA-RAID Controllers auch gleich nen SCSI Cache-RAID Controller mit Hardware-XOR anschaffen kannst.

GloomY
2003-08-17, 19:32:18
Original geschrieben von Conner
Hiermit fordere ich, scheißegal wie hoch der Kaufpreis ist, von WD+ Maxtor+Seagate folgende HD:
- 100 GB auf einer Platte heutiger Fertigungart
- 4200 U/pM (schön leise)
- und so viele Schreib-/Leseköpfe wie man in einem 5¼“-Laufwerksgehäuse unterbringen kann
- SATA
- einen Sockel für den Selbsteinzubauenden Cache (128 MB, 133 MHz, SD-RAM) Mit nur 4200 UpM ist eine Platte beim random Zugriff viel zu langsam.

Geschwindigkeit setzt sich bei Festplatten auf zwei Dingen zusammen und zwar aus Burst-Datenrate und Zugriffszeit (wie eigentlich bei allen Speichermedien, siehe RAM). Die Burst-Datenrate ist von der Datendichte und der Umdrehungsgeschwindigkeit abhängig (und davon, wo man auf der Platte ließt). Für die Zugriffszeit sind wiederum zwei Dinge entscheidend: Kopfpositionierungszeit (Spur zu Spur) und die Zeit die die Platte braucht, bis die benötigten Daten unter dem Kopf gelangt sind. Letztere Zeit ist umgekehrt proportional zur Umdrehungsgeschwindigkeit.

Burst-Datenraten kann man mit diversen RAID Modi praktisch beliebig groß machen. Ausserdem steigen die Datendichten der Scheiben kontinuierlich an, so dass bei den Datenraten auch eine stetige Verbesserung erzielt werden kann.
Das kritische für die Performance ist aber die Zugriffszeit. Man probiert z.B. bei High-End SCSI Platten die Kopfpositionierungszeit durch Verwendung von kleineren Plattendurchmessern zu verringern. Man vergleiche z.B. folgende Bilder:

http://www.geizhals.at/img/pix/38982.jpg http://www.geizhals.at/img/pix/39017.jpg
Zusätzlich dazu wird dann die Umdrehungsgeschwindigkeit noch erhöht, was insgesamt in einer deutlich geringeren Zugriffszeit resultiert. Mit dem kleineren Plattendurchmesser verschenkt man zwar sowohl Kapazität als auch Transferrate, letztere kann man aber wie oben erwähnt auf andere Weise leicht steigern.

Endorphine
2003-08-17, 20:28:55
GloomY,

das was du meinst nennt man üblicherweise "lineare Schreib-/Lese Transferrate". Oder auch "linearer Schreib/Lesedurchsatz". Bei Festplatten gibt es keine Bursts :D

zeckensack
2003-08-17, 20:30:25
Original geschrieben von Endorphine
GloomY,

das was du meinst nennt man üblicherweise "lineare Schreib-/Lese Transferrate". Oder auch "linearer Schreib/Lesedurchsatz". Bei Festplatten gibt es keine Bursts :D Doch. Aus dem Cache. Über die vergleichsweise Schneckenlahme ATA-Anbindung, aber immerhin ;)

Endorphine
2003-08-17, 20:40:30
Original geschrieben von zeckensack
Doch. Aus dem Cache. Über die vergleichsweise Schneckenlahme ATA-Anbindung, aber immerhin ;) OK :) Das ist dann aber dennoch nicht das, was GloomY meinte. Wär ja schön, wenn eine Platte immer nur aus dem Puffer lesen könnte und der Puffer auch alle Schreibzugriffe, egal wie lang sie sein mögen, wegpuffern könnte ;)

DrumDub
2003-08-18, 00:07:31
Original geschrieben von Endorphine
Eine Absolutdatendichte allein ist wenig aussagekräftig für die erreichbare Performance in der Praxis. Die Datendichte setzt sich ja aus spt (sectors per track, Kopf-y-Richtung) und tpi (tracks per inch, Kopf-x-Richtung) zusammen. Nur eine hohe spt-Datendichte erhöht auch die lineare Transferrate. Eine hohe tpi-Datendichte senkt im Gegenteil die Performance, weil der Kopf eine Spur wesentlich genauer anfahren muss und dadurch auch länger ausschwingt. Die über eine Absolutkapazität bei höherer tpi-Datendichte sinkende Kopf-Bewegungsstrecke kompensiert das abhängig von der Anwendung nur sehr selten.

Edit: Grammatik.

interessante ausführungen deinerseits... :D

mir war nicht bewusst, dass die absolutdatendichte nicht das entscheidende kriterium ist. wenn man es aber auf notebook-fetsplatten bezieht, ist es aber logisch (= niedriegere transferrate gegenüber desktopfestplatten).

[ncp]EasyChiller
2003-08-18, 00:46:30
Zu der SCSI-Haltbarkeit: SCSI-Platten sind aufgrund der viel geringeren Speicherdichte als bei momentanen IDE-Platten wesentlich resistenter! ... ich habe auch mal gelesen, das es auf grund der höheren Speicherdichte bei den IDE-Pendaten VIEL SCHWERER ist die Rotationsgeschwindigkeit (10k / 15k) zu erhöhen!

Und den selben Gedankengang wie CONNER habe och mir auch schon mehrfach gemacht!!!
WISO nur baut man in eine Platte keine 2 Gegenüberliegenden Abtasteinheiten - oder halt 3 oder 4 symmetrisch versetzte Abtasteinheiten ein??! ... somit hätte das doch bei 2 Einheiten theoretisch (gepaart mit der passenden Steuerelektronik - welche garnicht sooo aufwendig wäre) die fast die halben oder besser gesagt ca. dieselben Zugriffszeiten welche sich bei einer Verdopplung der Rotationsgeschwindigkeit ergeben würden!!! ;D

ps: ich hab hier selber 2 10k-SCSI-18GB-Platen (Fujitsu MAN3184MC U160 im Einsatz! Die sind im Idle LEISER als meine beiden IDE-Platten ( WD1000AB ) nur halt im Zugriff lauter (aber meiner Meinung nach noch weit im grünen Bereich!!!) Die aktuelle Serie von Fujitsu ist noch um einiges (auch im Zugriff) LEISER - die 10k.6'er Cheetaahs sollen sogar NOCH LEISER sein! =)

Was mich nur MEHR ALS MÄCHTIG ankotzt ist der LAHME PCI ... mein SCSI-Kontroler wird auf ne Burst-Leistung von nur 86MB/sek ausgebremst - und das wenn der PCI mal nix zu tun hat! (der Kontroler könnte noch 64bit/66MHz ... aber da hab ich kein passendes MB - für nen dual-Xeon-MB ist mir die Kohle zu schade und nen Opteron-MB mit AGP und PCI-X gibbs leider auch kein tolles! :-/ ... ich warte auch auf PCI-Express - aber nicht weil ich mir dann nen board mit dem Zeuch kaufen will - sondern weil ich hoffe, das dann die Restbestände mit AGP und PCI-X verschleudert werden! ;D

Endorphine
2003-08-18, 01:12:46
[ncp]EasyChiller,

das Problem sind die Kosten. Und dann wäre es auch schwierig, bei gleichem Platterradius aber zwei oder gar noch mehr Köpfen pro Platteroberfläche das ganze noch im selben Formfaktor zu bauen. Der Aktuator benötigt ja auch ordentlich Raum. Und dann würde das den Controller auch wirklich richtig übermässig komplex und teuer machen, damit man auch davon profitiert.

Es lohnt sich nicht. Es ist unwirtschaftlich. Und wenn man nur auf Leistung aus ist bietet sich ein RAID viel eher an, da kannst du das Prinzip mit mehreren Platten realisieren. Das ist unterm Strich deutlich wirtschaftlicher. Und wenn man mit RAID 0+1 gleich aus dem Vollen schöpft hat man als netten Nebeneffekt noch ne schöne Redundanz zur Erhöhung der Ausfallsicherheit des Arrays =)

[ncp]EasyChiller
2003-08-18, 01:54:52
aber bei RAID verringert sich ja doch nicht die ZUGRIFFSZEIT (IMHO)!!

Und wenn ich eben mal die preise von 7200'er Platten mit den 15k-Platten vergleiche, dann wäre es wohl ein leichtes die komplette mechanik UND Elektronik der 7200'er zu verdoppeln und dabei immer noch unter dem Preis eines equivalenten 15k-Drives zu bleiben!

Sicher wäre es vom Platz her nicht so einfach die ganze Konstruktion in ein Standard-Plattengehäuse zu wuchten - aber was spricht denn dagegen die Abmessungen ein wenig zu verändern, wenn mann damit ein neues High-End-Produkt ohne Konkurenz auf den Markt werfen könnte?! ??? ... wie mann ja sieht wird bei Serversystem weniger auf den Preis als auf Performance geachtet ... Und so kompliziert stell ich mir die zusätzlich nötige Steuerelektronik echt nicht vor - Im Grunde müsste doch nur bei jeder Operation abgefragt werden, welche Einheit den Zielsektor zuerst erreicht hat! ... weiterführend könnte man dann natürlich wenn ma die Machanik schon in so einer Anordnung hat auch implementieren, das bei längeren zusammenhängenden Bursts die jeweils 2. Einheit (also welche den Sektor später erreicht hätte) schon ca. so viele Einheiten weiterfährt, das sie noch dann ca. die Hälfte der zu schreibenden / lesenden Daten übernimmt oder wieder weiterführend auch unabhängig von der 1. Einheit z.B. schon den nächsten anstehenden Zugriff übernimmt, während die 1. Einheit noch am schreiben / lesen ist! (womit also auch exakt gleichzeitiges Lesen und Schreiben möglich sein sollte) ;D

StefanV
2003-08-18, 10:26:50
hm, gabs nicht mal vor langer Zeit die Überlegung, mehr Platter in eine Festplatte unterzubringen??

IIRC wars genau wie Easy vorgeschlagen hatte, 2 'Kopfeinheiten', diesesmal allerdings mit dem Unterschied, daß man nur einen Kopf/Oberfläche hat...

zeckensack
2003-08-18, 17:34:57
Original geschrieben von Stefan Payne
hm, gabs nicht mal vor langer Zeit die Überlegung, mehr Platter in eine Festplatte unterzubringen??

IIRC wars genau wie Easy vorgeschlagen hatte, 2 'Kopfeinheiten', diesesmal allerdings mit dem Unterschied, daß man nur einen Kopf/Oberfläche hat... Mehrere Köpfe pro Oberfläche können sowohl die Zugriffszeit senken als auch die Transferrate erhöhen (bei Transfers, die mehr als eine halbe Plattenumdrehung übertragen). Mehr Platter mit jeweils einem Kopf können ersteres nicht leisten.

Allerdings kann man mit mehreren Plattern quasi ein RAID-0 innerhalb der HD fahren. Warum das noch kein Hersteller versucht hat, ist mir absolut schleierhaft :spock:

conner
2003-08-18, 17:55:25
Original geschrieben von zeckensack
Mehrere Köpfe pro Oberfläche

Wie wärs mit 4? Angeordnet in 90° Winkeln von der Achse aus, jeder Trägerarm hätte genug Platz.
Bei einer vollen Umdrehung würde die Leistung einer 16800 UpM-Festplatte (4x4.200) freigesetzt werden.
Natürlich alles nur rein theoretisch!

[ncp]EasyChiller
2003-08-18, 18:04:52
Original geschrieben von zeckensack
Allerdings kann man mit mehreren Plattern quasi ein RAID-0 innerhalb der HD fahren. Warum das noch kein Hersteller versucht hat, ist mir absolut schleierhaft :spock:

Wird das nicht quasi gemacht?! ... die daten werden doch auf alle Plattern's gleichzeitig geschrieben oder?! ???


Original geschrieben von conner
Wie wärs mit 4? Angeordnet in 90° Winkeln von der Achse aus, jeder Trägerarm hätte genug Platz.
Bei einer vollen Umdrehung würde die Leistung einer 16800 UpM-Festplatte (4x4.200) freigesetzt werden.
Natürlich alles nur rein theoretisch!
---> genau das habe ich doch ein paar Posts vorher schon geschrieben

das mit dem 16800'er Vergleich hinkt aber, da du nur entweder die Zugriffszeiten derselben oder aber die Transferleisung erreichen wirst - mit einer sehr ausgefeilten steuerung sollte es auch möglich sein mit beidem in die Nähe der fiktiven 16800'er zu kommen aber halt IMHO niemals exakt gleich oder sogar vorbeiziehen! =)

Conner
2003-08-18, 18:24:13
Original geschrieben von [ncp]EasyChiller
niemals exakt gleich

Hab ja auch geschrieben: Natürlich alles nur rein theoretisch!
Die erreichbare Leistung wäre in jedem Fall max. nur mit einer 15k-UpM Festplatte vergleichbar.
Mein Beispiel bezog sich auch nur auf 4200 UpM. :naughty:

Conner
2003-08-18, 18:48:06
@ Endorphine

Alte Technik reicht mir ja für meine "utopische" Festplatte.
Höhere Datendichten (bei den "Plattern")brauch ich nich, Geschwindigkeiten von 4200 und 5400 UpM reichen vollkommen aus.
Latenz? Wenn meine "Utopia-HDD" pro Spur einen Schreib/Lesekopf bekommt kann mich deine Latenz kreuzweise ...( :D ).
Die 5,25"-Zeiten sind vorbei? OK!

Hiermit sende ich "Viele liebe Grüsse an Endorphine´s DVD- und CD- Laufwerke. :wink:

Ob SATA oder UDMA 133 / 100 ist mir voll schnuppe, was hab ich denn davon wenn die Festplatte im Alltagsbetrieb nicht einmal annähernd soviel Daten liefert? Selbst ein Raid-Verbund kommt bei stärkerer Fragmetierung ins Schleudern.

Der Missbrauch von alten SD-Ram Riegeln als Festplattencache wäre ökologisch eher günstig, da vorhandene Resourcen optimal verwandt werden würden.
Wirtschaftlich wäre dieses natürlich auch aber nur wenn man die bei der Produktionskette entstandenen gesamten Umweltschäden sowie die Endlichkeit der vorhandenen Rohstoffe miteinrechnet und sich nicht nur an der Erzielung des höchstmöglichen „kapitalistischen“ Gewinns orientiert.
Gebt dem nutzlos herumliegenden SD-Ram einen neuen Verwendungszweck!
;)

Ultron
2003-08-18, 23:50:45
Original geschrieben von [ncp]EasyChiller
Was mich nur MEHR ALS MÄCHTIG ankotzt ist der LAHME PCI ... mein SCSI-Kontroler wird auf ne Burst-Leistung von nur 86MB/sek ausgebremst - und das wenn der PCI mal nix zu tun hat! (der Kontroler könnte noch 64bit/66MHz ... aber da hab ich kein passendes MB - für nen dual-Xeon-MB ist mir die Kohle zu schade und nen Opteron-MB mit AGP und PCI-X gibbs leider auch kein tolles! :-/ ... ich warte auch auf PCI-Express - aber nicht weil ich mir dann nen board mit dem Zeuch kaufen will - sondern weil ich hoffe, das dann die Restbestände mit AGP und PCI-X verschleudert werden! ;D

hehe, ich hab hier genau das gleiche Problem, der PCI ist viiiel zu langsam :(
IDE Raid 0 aus 2 Platten ist das maximale was man dem noch 'zumuten' kann, wenn du das gleiche mit SCSI machst verlierst schon ordentlich Speed bei allem was keine OnDisk-Operationen sind.

Wann kommt eigentlich was schnelleres ? Vielleicht beim Prescott PCI-X oder PCI Express wär schon was feines, dann könnte ich endlich mein Raid 0 aus 3 Platten bauen und den Speed auch voll fühlen ! =)

Ultron
2003-08-18, 23:53:50
Original geschrieben von [ncp]EasyChiller
Wird das nicht quasi gemacht?! ... die daten werden doch auf alle Plattern's gleichzeitig geschrieben oder?! ???


Nope, ansonsten wäre ja eine 36GB Platte mit 2 Plattern ~doppelt so schnell als eine 18Gb Platte gleicher Serie mit nur 1 Patter, was sie nicht sind. ;)

Die Frage ist allerdings spitze ! =) Warum macht das keiner, wäre das vielleicht technisch aufwendig für die HDD-Elektronik. Zumindest im SCSI-Bereich wo Geld keine Rolle spielt könnte man sowas ja mal einführen.

[ncp]EasyChiller
2003-08-19, 01:58:43
also ich habe es so gelernt, das die daten auf alle Platerns gleichzeitig geschrieben werden! *grübel* ... was dann natürlich anders sein kann ist die Anzahl der Spuren und die Anzahl der Köpfe pro Scheibe!

Wenn somit die Gesammtanzahl der Köpfe konstant bleibt, dann ist es doch egal wieviele scheiben drin sind ...

Angenommen es würde eine Scheibe nach der anderen beschrieben - dann würde mann z.b. beim messen der linearen übertragungsrate einen Anderen Verlauf bekommen ( mit HDTACH etc. ) als das momentan der Fall ist! (momentan ist: eine immer Weiter abfallende Kurve - unter der Annahme müsste es eine wiederkehrende abfallende Kurve sein - mit genausoviel Amplituden wie Scheiben verbaut wurden!)

zeckensack
2003-08-19, 07:08:27
Theoretisch ist das 'türlich machbar. Aber wenn es wäre, dann müßte man das auch messen können.
Platten aus der gleichen Baureihe mit unterschiedlicher Kapazität waren aber bisher immer exakt gleich schnell. Irgendwas scheint die Hersteller davon abzuhalten ...

Endorphine
2003-08-19, 09:53:46
Original geschrieben von zeckensack
Allerdings kann man mit mehreren Plattern quasi ein RAID-0 innerhalb der HD fahren. Warum das noch kein Hersteller versucht hat, ist mir absolut schleierhaft :spock: Also für mich ist das glasklar: es sind schlicht und einfach die Kosten. Das Gesamtsystem Festplatte wird dadurch unglaublich teurer, komplexer, anfälliger etc. Und ich frage mich auch, wo man den zusätzlichen Aktuator in derzeit gebräuchlichen HDD-Formfaktoren unterbringen sollte, ohne dessen Leistung derart zu beschneiden, dass der Gewinn der Konstruktion eher schmal ausfällt. Man müsste dann ausserdem auch eine völlig neue Controllergeneration entwickeln, die noch sehr viel R&D benötigt, bis da was marktreifes herauskommt, was den konstruktiven Aufwand nur halbwegs in entsprechende Leistungswerte umsetzt.

Diese Verfahrensweise würde auch dem konstruktivem Grundprinzip komplett entgegenlaufen, alles mit so wenig wie möglich Einzelteilen zu konstruieren (Zauberwort Integration).

Die Zugriffszeit lässt sich sehr gut mittels 15k rpm Platten und kleineren Platter Durchmessern senken. Damit haben wir Punkt 1 der Geschwindigkeitsforderung erfüllt. Wer auf AID-0 (ist ja keine Redundanz da ;)) Dauertransferraten abfährt verwendet eben ein Array. Das wäre die zweite Hälfte der Forderung nach mehr Geschwindigkeit.

Ich verstehe es im Gegenteil eher nicht, wieso man diesen Gedanken der platteninternen Multikopf-pro-Oberfläche ernsthaft äussern kann. Aus meiner Sicht zwar naheliegend, aber irgendwie praxisfern.

Ultron
2003-08-19, 10:04:26
Original geschrieben von [ncp]EasyChiller
Angenommen es würde eine Scheibe nach der anderen beschrieben - dann würde mann z.b. beim messen der linearen übertragungsrate einen Anderen Verlauf bekommen ( mit HDTACH etc. ) als das momentan der Fall ist! (momentan ist: eine immer Weiter abfallende Kurve - unter der Annahme müsste es eine wiederkehrende abfallende Kurve sein - mit genausoviel Amplituden wie Scheiben verbaut wurden!)

Stimmt !
Das macht mich auch nachdenklich warum man die Scheiben nicht in HD Tach merkt.
Daraus lässt sich schliesen dass ALLE Scheiben gleichzeitig von aussen nach innen gelesen werden, nur nicht in einem Raid 0, denn die Übertragungsrate ist ja bei allen Platten einer Baureihe gleich schnell.

Hmm, wäre es möglich dass bei einer Platte mit beispielsweise 2 Scheiben, von jeder Scheibe immer abwechselnd ein 64KB Block gelesen wird ? Denn gleichzeitig kann ja IMHO doch wieder nicht sein, sonst wäre das ja wie Raid 0 ... oder ?

Endorphine
2003-08-19, 10:10:12
Original geschrieben von [ncp]EasyChiller
also ich habe es so gelernt, das die daten auf alle Platerns gleichzeitig geschrieben werden! *grübel* ... was dann natürlich anders sein kann ist die Anzahl der Spuren und die Anzahl der Köpfe pro Scheibe!

Wenn somit die Gesammtanzahl der Köpfe konstant bleibt, dann ist es doch egal wieviele scheiben drin sind ...

Angenommen es würde eine Scheibe nach der anderen beschrieben - dann würde mann z.b. beim messen der linearen übertragungsrate einen Anderen Verlauf bekommen ( mit HDTACH etc. ) als das momentan der Fall ist! (momentan ist: eine immer Weiter abfallende Kurve - unter der Annahme müsste es eine wiederkehrende abfallende Kurve sein - mit genausoviel Amplituden wie Scheiben verbaut wurden!) Höh? Das ist eher ein konstruktives Detail, wie die Schreibstrategie über mehrere Platter ausfällt. Heutzutage wird der Kopf ja sowieso permanent dem Track nachgeführt, da ist die track-to-track zugriffszeit nicht sehr hoch.

Die allermeisten Platten haben ein vertikales Mapping, also auch wirklich physikalisch vorhandene Zylinder. Dann kommt theoretisch nur die Kopfumschaltzeit zum tragen und wenn die Sektoren auf der nächsten Oberfläche entsprechend auf die Umschaltzeit hin optimiert angeordnet sind kann der lineare Schreib/Lesevorgang sofort fortgesetzt werden.

Es gibt übrigens auch andere Verfahrensweisen, die z.B. manche Notebookplatten einsetzen: horizontales Mapping, also jede Oberfläche nach der anderen. Ein paar aktuelle HGST/IBM 2,5"-Platten verwenden das beispielsweise. So ungebräuchlich ist das nicht.

p.s. Bitte sofort HDTach löschen und aus dem Gedächtnis streichen. Dieses Tool ist der 3DMark aller Storage Benchmarks ;)

Endorphine
2003-08-19, 10:20:43
Original geschrieben von Ultron
Stimmt !
Das macht mich auch nachdenklich warum man die Scheiben nicht in HD Tach merkt. "Merkt"? Die ZBR-Treppenstufen sind eben einfach länger mit steigender Anzahl von Oberflächen. Sonst nichts. =)Original geschrieben von Ultron
Daraus lässt sich schliesen dass ALLE Scheiben gleichzeitig von aussen nach innen gelesen werden, nur nicht in einem Raid 0, denn die Übertragungsrate ist ja bei allen Platten einer Baureihe gleich schnell. Nein, die allermeisten Platten haben physikalische Zylinder, ergo ein vertikales Mapping. Die Köpfe werden übrigens nicht parallel angesteuert, das würde die Elektronik unglaublich teuer machen und die derzeitige Elektronik komplett überfordern. Es ist immer nur ein Kopf zu einer Zeit aktiv. Original geschrieben von Ultron
Hmm, wäre es möglich dass bei einer Platte mit beispielsweise 2 Scheiben, von jeder Scheibe immer abwechselnd ein 64KB Block gelesen wird ? Denn gleichzeitig kann ja IMHO doch wieder nicht sein, sonst wäre das ja wie Raid 0 ... oder ? Wie ich schon sagte, vertikales Mapping, physikalisch vorhandene Zylinder: wenn alle Sektoren auf Oberfläche 0 bearbeitet wurden wird auf den nächsten Kopf umgeschaltet und Oberfläche 1 auf der gleichen Spur bearbeitet. Vertikales Mapping eben.

zeckensack
2003-08-19, 10:27:12
Original geschrieben von Endorphine
Also für mich ist das glasklar: es sind schlicht und einfach die Kosten. Das Gesamtsystem Festplatte wird dadurch unglaublich teurer, komplexer, anfälliger etc. Und ich frage mich auch, wo man den zusätzlichen Aktuator in derzeit gebräuchlichen HDD-Formfaktoren unterbringen sollte, ohne dessen Leistung derart zu beschneiden, dass der Gewinn der Konstruktion eher schmal ausfällt. Man müsste dann ausserdem auch eine völlig neue Controllergeneration entwickeln, die noch sehr viel R&D benötigt, bis da was marktreifes herauskommt, was den konstruktiven Aufwand nur halbwegs in entsprechende Leistungswerte umsetzt.
<...>Ich glaube wir haben uns nicht ganz verstanden ;)
Daß mehrere Köpfe pro Platte wirtschaftlicher Wahnsinn sind, sehe ich auch so. Darum ging's in dem von dir zitierten aber schon nicht mehr.

Platte heute:
Ein Bündel von S/L-Köpfen wird von einem gemeinsamen Aktuator über einen Stapel Platten geführt. Gearbeitet wird immer nur mit einem Kopf, obwohl die anderen Köpfe auch an Datenspuren entlangrauschen. Die 'toten' Köpfe werden gleichzeitig mit dem 'aktiven' Kopf über eine gleich organisierte Spur gesetzt, also liegen dort auch passende Daten an. Warum nutzt man das nicht aus?

Der zusätzliche Aufwand im Controller beschränkt sich auf Mux/Demux, und die interne Transferbandbreite muß aufgestockt werden. Wohlgemerkt am Controller, die Anbindung der einzelnen Köpfe braucht nicht verändert zu werden.
Redundanz ist auch kein Argument. Aktuell erfolgt spurweises Interleaving nach einer vollen Umdrehung. Also ist die gesamte Einheit bereits mächtig im Eimer, sobald eine einzelne Oberfläche kaputtgeht.

Kalibrierung wird evtl kritischer, nur weiß ich nicht wie tragfähig das Argument ist.

Endorphine
2003-08-19, 11:00:26
Original geschrieben von zeckensack
Ich glaube wir haben uns nicht ganz verstanden ;)
Daß mehrere Köpfe pro Platte wirtschaftlicher Wahnsinn sind, sehe ich auch so. Darum ging's in dem von dir zitierten aber schon nicht mehr. Ah, OK, Missverständnis von mir.

Original geschrieben von zeckensack
Platte heute:
Ein Bündel von S/L-Köpfen wird von einem gemeinsamen Aktuator über einen Stapel Platten geführt. Gearbeitet wird immer nur mit einem Kopf, obwohl die anderen Köpfe auch an Datenspuren entlangrauschen. Die 'toten' Köpfe werden gleichzeitig mit dem 'aktiven' Kopf über eine gleich organisierte Spur gesetzt, also liegen dort auch passende Daten an. Warum nutzt man das nicht aus? Ganz einfach: es funktioniert so nicht bei den heutigen Datendichten. Man mag es kaum glauben, aber die Steuer- und Verarbeitungselektronik ist noch häufig ein Hemmschuh bei der Entwicklung hin zu höheren spt-Datendichten, die zu grösseren linearen Transferraten führen würde. Da sind doch schon sehr sehr viele Daten in kürzester Zeit zu verarbeiten und in einem minimalen Zeitrahmen Steuerbefehle an die Mechanik zu vergeben. Von diesen teuren Controllern dürftest du dann gleich mehrere auf eine Platine pflanzen. Und dann wäre es auch Asche damit, einfach eine Controllerplatine für eine Baureihe zu verwenden. Dann müsste man einzelne verschiedene Controller für jede Kapazität (= Platter/Kopfanzahl) bauen, wenn man nicht teure Elektronik brachliegen lassen möchte bei geringerkapazitiven Modellen.

Aber viel schwerer wiegt doch folgender Fakt: bei heutigen Datendichten wird der Kopf (oder Kopfstapel eben) permanent der Spur nachgeführt. Die Datendichten sind so hoch, dass ein Kopf auf dem nächsten Platter praktisch nie exakt auf der selben Spurposition ist wie derjenige, nach dem gerade nachgeführt wird. Es wird ja immer der gesamte Kopfstapel bewegt. Da kann man gar keine verwertbaren Informationen aus den anderen Köpfen herausziehen, selbst wenn man den immensen Aufwand mit den mehreren parallelen Controllern treibt. Und dann sind die Platter ja lediglich geklemmt und können über ihre Lebensdauer schon mal leicht ihre Position verändern (u.a. durch Stöße). Auch dann funktioniert das Prinzip nicht mehr.

Wenn überhaupt, dann müsste jeder Kopf seinen eigenen Aktuator haben. Aber dann schlägt wieder unbarmherzig die Elektrotechnik zu: dann hat jeder Aktuator für jeden Kopf nur sehr sehr wenig Bauhöhe zur Verfügung und fällt entsprechend leistungsschwach aus. Bei den 15k rpm Platten wird ein nicht unbedeutender Teil der niedrigen Zugriffszeiten ja auch durch den sehr momentstarken grossen Aktuator erzielt. Wenn man die Motore jetzt stark verkleinert sinkt natürlich auch deren Beschleunigungsmoment praktisch in gleichem Maße. Damit ist der Vorteil dann schon wieder fast dahin. An die Zuverlässigkeit & Kosten möchte ich gar nicht erst denken ;)

Ultron
2003-08-19, 12:44:42
Original geschrieben von Endorphine
Die Köpfe werden übrigens nicht parallel angesteuert, das würde die Elektronik unglaublich teuer machen und die derzeitige Elektronik komplett überfordern.


Bist du dir da sicher ? Dass die Daten momentan nicht parallel gelesen werden leuchtet mir schon ein, allein schon wegen den verschiedenen GB-Versionen einer HDD-Serie.

Aber ich denke nicht dass eine Parallelisierung soo unschaffbar ist, denn wie zeckenzack schon sagte es wird ja immer der gesamte Kopfstapel bewegt, warum soll denn die Parallelisierung aus Ungenauigkeitsgründen scheitern ?

Zuerst muss die Platte ja einmal mit Daten beschrieben werden, und hier ist ja der Kopfstapel an der gleichen Stelle wie später beim lesen, also spielt es im Prinzip keine Rolle ob die Köpfe alle superexakt auf dem gleichen Radius sind, eventuell kann man da ja ein bischen Spielraum bei der Schreibdichte lassen um die Datensicherheit zu gewährleisten.

Auf jeden Fall halte ich das interne "Raid0" Verfahren zumindest bei 2 Pattern durchaus für möglich. Oder kann es da weitere Schwierigkeiten außer dem Kopfradius geben ? (Dass die Elektronik das nicht schafft halte ich bei dieser Funktionsweise für einen Witz, die muss ja nur dazu fähig sein den doppelt so hohen Durchsatz an den Controller zu übertragen)

Endorphine
2003-08-19, 13:08:04
Original geschrieben von Ultron
Bist du dir da sicher ? Ja, totsicher. Bist du dir dafür sicher, dass du dich ausreichend mit Festplattentechnik beschäftigt hast, um einschätzen zu können, was der Plattencontroller beim heutigen Stand der Technik so alles zu leisten hat`? Da bin ich mir nämlich nicht so sicher ;)

Original geschrieben von Ultron
Aber ich denke nicht dass eine Parallelisierung soo unschaffbar ist, denn wie zeckenzack schon sagte es wird ja immer der gesamte Kopfstapel bewegt, warum soll denn die Parallelisierung aus Ungenauigkeitsgründen scheitern ? Ein Kopf muss bei den heutigen Datendichten permanent der Spur nachgeführt werden. Das ist insbesondere beim schreiben höchstgradig kritisch. Wenn das nicht durchgeführt wird überschreibt der Kopf dann sehr schnell nicht den Sektor, sondern mal eben über mehrere Spuren hinweg andere Sektoren. Du kannst dir jetzt gut vorstellen, was mit der Konsistenz der Daten geschieht ;) Noch einmal: hast du dich schon mal mit aktueller HDD-Technik befasst? Die Datendichten sind wirklich unglaublich hoch, es geht hier um Bruchteile von µm, die exakt angefahren werden müssen. Es ist einfach rein mechanisch gar nicht möglich, mit einem festen Kopfstapel mehrere Spuren gleichzeitig exakt auszulesen oder gar zu beschreiben. Bei zwei Oberflächen auf einem Platter halte ich das theoretisch noch für möglich (praktisch wohl kaum, da selbst die exakteste Formatierung nicht verhindern kann, dass sich im Laufe der Zeit die Mechanik minimal verändert und jegliche Gleichpositionierung unmöglich macht). Aber auch dann: die Verhältnisse auf der zweiten Oberfläche sind mit 100%iger Sicherheit immer minimal aber entscheidend anders als auf der ersten. Das heisst dass dort der Kopf niemals exakt gleich nachgeführt werden kann wie ein anderer auf einer anderen Oberfläche. Wie soll das funktionieren mit starr montierten Köpfen, Servoaktuatoren, geklemmten Plattern etc.?Original geschrieben von Ultron
(Dass die Elektronik das nicht schafft halte ich bei dieser Funktionsweise für einen Witz, die muss ja nur dazu fähig sein den doppelt so hohen Durchsatz an den Controller zu übertragen) Sorry wenn mein Schreibstil grad wieder ins leicht überhebliche abdriftet, aber ich glaube, du hast dich noch so gut wie gar nicht damit beschäftigt, was eine moderne Festplatte so alles zu tun hat bei den derzeitigen Datendichten und mechanischen Konstruktionen. Die Logik die du voraussetzt kann man vielleicht auf den Techlevel von Festplatten von Anfang der 1980er Jahre übertragen. Dir scheinen irgendwie sehr sehr viele Grundlagen zu fehlen, ich würde mich an deiner Stelle damit zurückhalten, komplizierteste Technik als "Funktionsweisenwitz" zu bezeichnen. Wenn du die Technik derart beherrscht kannst du ja morgen bei Seagate anfangen und die grosse Revolution der Festplattentechnik bringen. Die nehmen dich mit Handkuss auf, du verdienst locker ein paar Millionen mit Patenten, die du nebenbei erteilt bekommst, weil ja alles so einfach und simpel ist und du weisst, wie du die ganzen dummen Ingenieure in der Festplattenindustrie alle mit deinem Wissen arbeitslos machen kannst.

Ich finde, dass die Arbeit der Industrie etwas mehr Respekt verdient hätte. Du scheinst dich aus meiner Sicht sehr sehr wenig auszukennen, redest aber, als sei alles ein Kinderspiel und du wärst derjenige, der alles besser weiss als Heerscharen von gestandenen Ingenieuren, die sich seit Jahrzehnten mit nichts anderem beschäftigen. Mit sowas wäre ich an deiner Stelle vorsichtiger.

Ich hab ne Menge Respekt vor den Leistungen dieser Leute. Ja, ich halte es mangels ganz exaktester Detailkenntnis immer wieder für ein Wunder, wie schnell die Datendichten immer noch wachsen und wie vergleichsweise hoch die Datensicherheit der IDE-Platten dennoch bleibt. Ist nicht böse gemeint, ich möchte dich nur etwas auf den Boden zurückholen. Die Funktionsweise moderner Platten ist weiß Gott kein "Witz". Wenn ich sowas lesen muss ärgert mich diese Respektlosigkeit vor den Leistungen in der Industrie irgendwie. Dir scheinen die Verhältnisse gar nicht bewusst zu sein.

[ncp]EasyChiller
2003-08-19, 15:58:28
Ok, die Erklärung, das die Spuren der einzelnen Scheibchen nicht exakt übereinander sind und so die Kopfeinheit immer nur nach einer Scheibe ausgerichtet werden kann kling Plausabel! =)

Also wäre es somit für das interne Raid-0 nötig die Köpfe für jede Scheibe unabhängig zu machen! ... das wäre zugegeben ein zu hoher aufwand, da mann da echt noch das bissl elektronik und die Hülle drumpacken könnte um getrennte Platten (und somit höhrere Sicherheit) zu haben! :(

Vielleicht wird es ja irgendwann möglich die Spuren so genau auszurichten, das das mit einer festen Kopfeinheit klappt?! ;D

Ultron
2003-08-19, 19:58:19
@Endorphine: thx für die Erklärung. Ich habe nicht berücksichtigt dass die Oberfläche (!) der zweiten Platte immer minimal anders ist als die der ersten Platte und dass schon deshalb nicht möglich ist auf 2 Platten gleichzeitig zu schreiben oder zu lesen. Ist logisch und bei den heutigen Datendichten verstehe ich das auch vollkommen dass dabei solche Probleme auftretem würden. Das war ja auch nur eine Theorie, ich wollte ja wissen ob das gehen WÜRDE. (Für sowas ist ja ein Forum da oder?)

Im Übrigen bin ich erst beim Durchlesen des Threads darauf gekommen als Zeckenzack sowas gepostet hatte:
" An einem Aktuator wird ein Bündel von S/L-Köpfen über einen Stapel Platten geführt.
... warum nur mit einem Kopf gearbeitet wird obwohl die anderen Köpfe auch an Datenspuren entlangziehen."

So und JETZT würde ich gerne wissen warum du mich hier so anmaulst und als DAU hinstellst ?? Verachte ich die Arbeit der Industrie ??? sorry über die MECHANIK einer Platte kenne ich mich nicht wirklich perfekt aus (warscheinlich eine Schande dass ich ohne HDD-Entwickler zu sein in diesen Thread gepostet habe), die grundlegende Funktionsweise einer Platte un deren S/L-Köpfe, der Elektronik, der Datenübertragung, und eines Controllers ist mir jedoch bekannt.

Ich habe sehr wohl großen Respekt an JEDEN Hersteller der etwas für den EDV-Markt produziert auch wenn es in seinem Gebiet das schlechteste Produkt wäre. Festplatten schon gar nicht, das ist für mich auch ein Wunder. Und um dies zu verdeutlichen ich bin auch keiner der einen Rechner beim Aldi kauft und dann froh ist wenn er die Maus bedienen kann sondern ich interessiere mich auch für Technik jeglicher Art die in in diesem Gebiet existiert.

Noch ein Wort zu IDE: Ich halte nicht viel von dieser Technik sie ist uralt und ist auch trotz DMA etc nicht das Gelbe vom Ei. Viel eher ist es eine totgeburt von Seagate die sich aus Kostengründen etabliert hat. Das soll jetzt keine Grundsatzdiskussion werden SCSI contra IDE, aber ein Freund von mir betreibt ein PC-Geschäft und ich sehe wie IDE-Plattem verkauft werden und wie sie wieder zurück kommen. Für Dauerbetrieb sind sie nicht zu gebrauchen, was sich auch im Preis niederschlägt. Die Qualität mancher IDE-Platten lässt extrem zu wünschen übrig, siehe IBM...

Dass es anders geht beweist SCSI, was man auch leicht am Preis erkennen kann...

Dass was ich jetzt gesagt habe hat allerdings NIX mit Respektlosigkeit gegenüber den Leistungen der Industrie zu tun, das wollte ich jetzt nur erwähnen im Bezug auf Datensicherheit bei IDE !!! ;)

ATI-Andi
2003-08-19, 20:34:49
Die Industrie arbeitet auch fieberhaft daran die Festplatten durch statische schnelle Speicher zu ersetzen. Der wissenschaftliche Aufwand steht mittlerweile offensichtlich in keinem wirtschaftlichen und sinnvollen Verhältnis mehr. Fortschritte können nur äußerst mühsam erreicht werden. Die Prinzipien sind ausgereizt, neue Techniken müssen her. Die Festplatten sind nach wie vor die Bremsen Nr.1 im System. Dennoch meine Hochachtung an die Ingeniere und Wissenschaftler, ich hätte nicht damit gerechnet, dass sich so viel aus den Magnetscheiben noch rausholen lässt.

Eine Festplatte ist ein mechanisches Teil im PC, ein Wechseldatenträger auch, nur bei Wechseldatenträgern ist es verständlich, nur ein mechanisches Teil, das sich durch ein Elektronisches ersetzen lässt hat in einem elektronischen System keine Zukunft. Spätestens wenn die statischen Speicher für große Datenmengen marktreif sind, wird die Festplatte ausgedient haben. Momentan sind statische Speicher mit mehr als 2GB noch sehr teuer, doch allein der Trend bei den Flashkartenpreisen zeigt, wie billig solche Flashkarten sind, die Zuverlässlichkeitist höher als sie bei einer Platte überhaupt sein kann. Unanfällig gegen Magnetismus, hohe kontinuierliche Datenrate, geringste Latenzen, niedrige Stromaufnahme, keine beweglichen Teile,daher keine Geräusche,keine Vibrationen, temperaturbeständiger, leichter, schockunempfindlich, längste Lebensdauer, kein Hochfahren, kleiner, billiger etc.

Die Speicher gibt es schon voll funktionsfähig in Labors, nur die Festplattenlobby blockiert natürlich mit.

pt3
2003-09-17, 17:45:34
So: Hab den Thread nochmal rausgekramt, weil jetzt wohl was neues von Seagate erscheint:
100GB pro Platte
http://www.testticker.de/testticker/news/detail.asp?ArticleID=9446

Gast
2003-09-17, 18:46:01
WD hat auch eine Raptor mit 74GB angekündigt... Zudem soll sie 88MB/s haben und ne zugriffzeit von 4,2ms...

Gast
2007-02-09, 22:09:17
Klasse Thread! Die 4 Seiten vergiengen wie im Flug...
Und heute noch genauso aktuell!

Gast
2007-02-10, 18:49:59
WD hat auch eine Raptor mit 74GB angekündigt... Zudem soll sie 88MB/s haben und ne zugriffzeit von 4,2ms...



jo war fast richtig^^

sedai
2007-02-26, 15:57:01
http://www.computerbase.de/news/hardware/laufwerke/flashspeicher/2007/februar/flash-festplatte_160_gb/

jetzt kommt bewegung rein in die geschichte 160gb grösse respekt wenns auch bald mit dem preis stimmt dann wirds gekauft

Gast
2007-02-26, 16:21:48
No exact word on price, but we hear you might be looking at somewhere in the range of $80-$115 per gigabyte

Bandit666
2007-02-27, 11:07:03
Preis ist erstmal egal. Das ist die neue Generation!

In einem Jahre werden sie marktreif sein (vom Preis her) und dann wird sowas die Systemplatte ersetzen.

Ich denke sogar das normale HDDs bald aussterben! Das Limit der Platter wird ja jetzt schon erreicht. Und die Datendichte kann man auch nicht mehr wirklich steigern.
Ich denke bei 1000Gig pro HDD ist schluss.

mfg

Gast
2007-02-27, 12:15:30
hitachi will ja Q1 2007 die 7k1000 rausbringen
einen monat haben sie noch

Endorphine
2007-02-27, 12:54:56
Preis ist erstmal egal. Nein. Der Preis ist ausschlaggebend und sehr wichtig. Ich kann dir auch eine Anlage bauen, von der du von jedem Rechner der Welt drahtlos auf deine Daten zugreifen kannst mit Datenraten von 100 MB/s und in deinem Rechner nur eine kleine lautlose Flash-Boot SSD steckt. Es geht technisch. Es kostet dich aber so viel Geld, dass du es dann nicht mehr willst. Es geht sogar fast ausschließlich um den Preis. Das ist die neue Generation! Wir werden sehen. Die Festplattenindustrie wird sich nicht von heute auf morgen absägen lassen. Ich bin auch sehr dafür, dass Festplatten durch Flash + Wear Leveling und ein ausgeklügeltes Defektmanagement ersetzt werden. Aber das wird nicht gleich morgen ein billiges Massenprodukt werden. Die Entwicklung steckt noch in den Kinderschuhen. Und das betrifft nicht mal nur die Hardware. Da ist auch noch viel Arbeit auf Dateisystemebene zu leisten. Man muss sich auch Gedanken über Swapping machen. Bei den hybriden Festplatten gehen ja keine Daten verloren, wenn der Flash durch Swapping stirbt. Die Festplatte fängt es auf. Was ist aber, wenn nur Flash als Massenspeicher vorhanden ist? Und das ist nur der Anfang. Da sind noch viele Fragen zu klären und durch Entwicklung Probleme zu lösen. In einem Jahre werden sie marktreif sein (vom Preis her) und dann wird sowas die Systemplatte ersetzen. ;D Soll ich dich in genau einem Jahr mal an diese Aussage erinnern? Ich denke sogar das normale HDDs bald aussterben! Das Limit der Platter wird ja jetzt schon erreicht. Blödsinn. Das Gegenteil ist der Fall. Perpendicular Recording wird gerade erst in den Massenmarkt eingeführt. Ich denke bei 1000Gig pro HDD ist schluss. Wir haben bereits 750 GB Platten im 3,5"-Format. :ugly: Und das sind nur 4 Scheiben und perpendicular recording und die Kopf-Flughöhenreduktionstechniken stecken noch in den Kinderschuhen.

Endorphine
2007-02-27, 13:02:52
Die nächste Generation von Festplatten ist übrigens nicht eine reine SSD, sondern das hier: http://www.samsung.com/Products/HardDiskDrive/images/flashon.swf

Genau so wie in der Automobilindustrie. Da geht man auch nicht sofort überall zu Elektromotoren und Brennstoffzellen über, auch wenn beide Techniken da sind und es technisch machbar wäre. Im Gegenteil, schon Ansätze wie Hybridantriebe setzen sich nur zögerlich durch, obwohl die Vorteile klar sind.

Bitte bleibt doch mal ein bischen bei der Realität, was die Entwicklungsgeschwindigkeit betrifft.

Hansea7
2007-03-01, 22:19:09
Ich denke sogar das normale HDDs bald aussterben! Das Limit der Platter wird ja jetzt schon erreicht. Und die Datendichte kann man auch nicht mehr wirklich steigern.
Ich denke bei 1000Gig pro HDD ist schluss.

mfg

Sicher?

http://winfuture.de/news,27428.html ;)

---

Ich würde mal sagen Flash-HDD werden zur Systemplatte, aber im Datenbereich werden die guten alten mechanischen Festplatten noch eine ganze Zeit Bestand haben!

Gast
2007-03-02, 11:39:38
so schauts aus
in den nächsten 5 jahren kann flash speicher gar nicht so billig werden das es im preis mit einer herkömmlichen hdd konkurrieren kann

für systemplatten, welche nciht ganz so riesig sein müssen wird das vll was in 3-5jahren
vll richten es auch die hybrid hdds, aber darum ists in letzter zeit auch still geworden
vll hört man mehr zur cebit

The Jackal
2007-03-05, 19:10:05
Ich stelle mir eine Frage. Kann man die FLASH Funktion auf der HDD auch dann nutzen wenn ein RAID 0 läuft. Mach ich dann aus zwei Platten mit 500GB Magnetic Space je 2 GB Flash auch eine Große 1000 GB MagSpace mit 4 GB Flash und erkennt das Vi x sta das auch???

Ich hatte noch kein solches Drive in der hand.