PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Festplatten mit höherer Datendichte = schneller?


BloodHound
2005-10-13, 11:16:56
Eingehen gehe ich hier auf verschiedene News und Infos ein, unter anderem auf diese hier. (http://www.planet3dnow.de/vbulletin/showthread.php?p=2431961&posted=1#post2431961)

Mir stellen sich nun verschiedene Fragen.
1. Ob es ein Performance-Vorteil ist, wenn die Datendichte höher ist!? Ist es für den Lesekopf nicht komplizierter, dichte Daten einzulesen? Allerdings sind so die "Abstände" zwischen den Daten geringer, was die zurückzulegenden Wege für die Köpfe kleiner macht -> Tempo?
2. Es wird doch garantiert irgendwelche Nachteile haben, wenn die Platters bzw. allgemein die Festplatten so riesig sind! Kann mir keiner erzählen, dass eine Platte mit 500 GB genauso schnell ist, wie eine mit nur 80 GB ... mal von der eventuell unterschiedlichen Generation und damit Technologie abgesehen.
3. Welcher normale PC-Spieler wird sich denn eher eine 500er als zwei 250er in den PC kloppen?
Erstens kann man per RAID ebenfalls die 500GB am Stück erreichen und bekommt dabei sogar noch Speed dazu...
Zweitens sind alle Daten auf einmal futsch, wenn die einzelne Platte das Zeitliche segnen sollte (ok, bei RAID-0 auch ;)).

Bitte postet hier doch mal eure Antworten, eure persönliche Meinung, weitere Informationen oder auch Erfahrungsberichte!

Los geht's!

PatkIllA
2005-10-13, 11:26:19
1. Ob es ein Performance-Vorteil ist, wenn die Datendichte höher ist!? Ist es für den Lesekopf nicht komplizierter, dichte Daten einzulesen? Allerdings sind so die "Abstände" zwischen den Daten geringer, was die zurückzulegenden Wege für die Köpfe kleiner macht -> Tempo?Bei einer Umdrehung laufen somit mehr Daten unter dem Kopf durch. Dadurch steigt die Transferrate. Also schneller. Der Kopf kriegt das schon hin ;)
2. Es wird doch garantiert irgendwelche Nachteile haben, wenn die Platters bzw. allgemein die Festplatten so riesig sind! Kann mir keiner erzählen, dass eine Platte mit 500 GB genauso schnell ist, wie eine mit nur 80 GB ... mal von der eventuell unterschiedlichen Generation und damit Technologie abgesehen.Du könntest bei der 500GB Platte nur die äusseren 80GB nutzen. Die wäre dann im Schnitt zwar schneller, aber IMO wäre das Verschwendung. Geringe Datendichte bei gleicher Umdrehungszahl sorgt für geringere Transferraten.
3. Welcher normale PC-Spieler wird sich denn eher eine 500er als zwei 250er in den PC kloppen?
Erstens kann man per RAID ebenfalls die 500GB am Stück erreichen und bekommt dabei sogar noch Speed dazu...
Zweitens sind alle Daten auf einmal futsch, wenn die einzelne Platte das Zeitliche segnen sollte (ok, bei RAID-0 auch ;)).Ich finde zwei Platten für Backup ganz nett, aber ansonsten würde ich doch eine große vorziehen. Die braucht nur Platz einer Platte und ist normalerweise leiser als zwei einzelne Platte. Gegen den Datenverlust gibt es Backups. Daten ohne Sicherung sind nicht wichtig. Ist doch ganz einfach.

Bauer
2005-10-13, 11:43:33
Es wird doch garantiert irgendwelche Nachteile haben, wenn die Platters bzw. allgemein die Festplatten so riesig sind! Kann mir keiner erzählen, dass eine Platte mit 500 GB genauso schnell ist, wie eine mit nur 80 GB ... mal von der eventuell unterschiedlichen Generation und damit Technologie abgesehen.

Rein von der Geschwindigkeit gibt es keinerlei Grund warum eine grosse Platte langsamer sein sollte. Wenn die Datendichte pro Platter höher ist ist sie sogar schneller.
Das ganze muss man eh Differenziert sehen:
Wird die höhere Kapazität nur durch mehr Platter erreicht, (z.B. 5 Stück), hat das Nachteile für die Lautstärke, Hitzeentwicklung und Ausfallsicherheit.
Der Motor muss grösser sein, und es gibt mehr mechanische Teile die kaputt gehen können.
Höhere Datendichte pro Platter dagegen hat imo nur Geschwindigkeits- und Kapazitätszuwachs zur Folge.
Ich persönlich würde mir nur eine Platte mit maximal drei Platter zulegen (z.B. Western Digital Caviar Special Edition 320GB).
Die ist auch schön leise...

gisbern
2005-10-13, 12:42:08
je höher die datendichte, je höher die zugriffszeit.

Rhönpaulus
2005-10-13, 12:49:34
die lesegeschwindigkeit hängt doch *immer* von der datendichte und der drehzahl ab.
beides erhöht die mögliche rw-geschwindigkeit.
wärend die dichte nur die geschwindigkeit massiv erhöht nimmt die drehzahl auch noch zusätzlich einfluß auf die größe der zugriffszeiten.
mti steigender drehzahl sinken diese ab.
mit der datendichte fällt allerdings auch die anzahl magnetisierter partikel pro bit so das die datensicherheit entsprechend absinkt.
moderne festplatten erreichen schon aus diesem grund niemals die datensicherheit von alten platten.
die architektur hat sich nicht wirklich mitentwickelt und wurde immer nur an die neuen anforderungen angepaßt.

Bauer
2005-10-13, 12:56:14
je höher die datendichte, je höher die zugriffszeit.
hab mir grade länger Gedanken darüber gemacht und kann es noch nicht ganz nachvollziehen.
bei gleicher Drehzahl und Platter-Format (idR. 3,5") sollte die zeit um zu einer beliebigen Stelle auf der Scheibe zu kommen doch gleich sein, egal wieviele Bits auf einer Spur bei einer Umdrehung sind.

erklär am besten mal.

Avalox
2005-10-13, 13:00:50
mit der datendichte fällt allerdings auch die anzahl magnetisierter partikel pro bit

Das will man ja grade mit der Perpendicular Aufzeichnung verbessern, um höhere Datendichten auch in Zukunft zu ereichen.


@Bauer


hab mir grade länger Gedanken darüber gemacht und kann es noch nicht ganz nachvollziehen.


Die Aussage ist ja auch nicht richtig. Es besteht kein fundamental Zusammenhang.

BloodHound
2005-10-13, 13:07:26
Meinst du nicht vielleicht: Je höher die Datendichte, desto niedriger die Zugriffszeit?

Bauer
2005-10-13, 13:10:14
je höher die datendichte, je höher die zugriffszeit.
hehe, war mir garnich aufgefallen.
hirn hats automatisch verbessert....

Avalox
2005-10-13, 13:12:10
Es gibt nicht die Zugriffszeit.

Zugriffszeit ist ein Sammelsurium von Verzögerungen, welche in ihrer Summe die für den Vorgang individuelle Zugriffszeit bestimmen.

Bauer
2005-10-13, 13:29:57
da hast du vollkommen Recht!
Hilft uns beim allgemeinen Vergleich dieser Verzögerungen aber auch nicht weiter... :smile:

edit: man müsste natürlich durchschnittliche Zugriffszeit sagen.

Rhönpaulus
2005-10-14, 13:13:29
die zugriffszeiten hängen nur von der geschwindigkeit der kopfpositionierung und der drehzahl ab.
der kopf steuert die richtige spur an und dann wird gewartet bis der zu bearbeitende sektor am kopf vorbei kommt.
das kann im ungünstigsten fall eine ganze umdrehung dauern.
das schreiben ist deswegen langsamer weil der sektor mehrfach bearbeitet werden muß und deshalb mindestens zwei umdrehungen notwendig sind.

andr_gin
2005-10-14, 16:31:21
Wenn die Datendichte auf einem Platter vervierfacht wird, dann verdoppelt sich die theoretische Bandbreite wenn man davon ausgeht, dass alle anderen Probleme gelöst werden z.B. dass die Umdrehungszahl vermindert werden muss etc. Das liegt daran, dass bei einer höheren Datendichte nicht nur die Anzahl an Bits auf einer Spur erhöht wird, sondern auch die Anzahl an Spuren.

Wenn die Anzahl der Platter vervierfacht wird, dann wird die theoretische Bandbreite vervierfacht, da jeder Platter unabhängig davon die Daten liefert.

Bei der Ausfallssicherheit kann man das denke ich nicht so sagen. Wenn die Anzahl der Platter erhöht wird, dann muss der Plattenhersteller auch dafür sorgen, dass die zusätzliche Wärmeentwicklung keine Probleme macht z.B. mit Elektronik, die mehr Temperatur verträgt etc.

Neomi
2005-10-14, 16:51:22
Wenn die Anzahl der Platter vervierfacht wird, dann wird die theoretische Bandbreite vervierfacht, da jeder Platter unabhängig davon die Daten liefert.

Das habe ich auch mal gedacht, stimmt aber nicht. Da die Lese-/Schreibköpfe ständig nachpositioniert werden müssen, es aber nur eine Steuerung für alle zusammen gibt, kann nur ein einziger zu einer Zeit richtig positioniert sein. Deshalb sind niemals mehrere Platter gleichzeitig aktiv.

del_4901
2005-10-14, 18:48:44
der einzige Nachteil ist: jeh höher die Datendichte umso höher die Ausfallrate. Das lässt sich sehr einfach formell beweisen ... hab aber grad kein Nerv dafür :)

alpha-centauri
2005-10-14, 23:27:45
Mir stellen sich nun verschiedene Fragen.
1. Ob es ein Performance-Vorteil ist, wenn die Datendichte höher ist!?

genaus so ist es. gutes beispiel: samsung p120 oder T7k250 von hitachi. sehr hohe datendichte von beiden 120 gbyte / platter. dennoch zur vorgängerserie mit nur 80 gbyte / platter nur geringe performancevorteile. problematisch sind durch die geringen spurabstände halt die reallokisierungs (reallocation), scheiss deutches wort, - prozesse.

Ist es für den Lesekopf nicht komplizierter, dichte Daten einzulesen? Allerdings sind so die "Abstände" zwischen den Daten geringer, was die zurückzulegenden Wege für die Köpfe kleiner macht -> Tempo?


das ist erst mal egal. guck mal bein nem seek von 1 bis 250gbyte an, wieviel spuren das sind..

2. Es wird doch garantiert irgendwelche Nachteile haben, wenn die Platters bzw. allgemein die Festplatten so riesig sind! Kann mir keiner erzählen, dass eine Platte mit 500 GB genauso schnell ist, wie eine mit nur 80 GB ... mal von der eventuell unterschiedlichen Generation und damit Technologie abgesehen.


weiteres beispiel: zwei platten eines herstellers. die 200 gbyte und die 250gbyte von samsung. beide haben 2 120er platter drin. die 200er ist jedoch im average langsamer, da bestimmte zylinder künstlich beschränkt werden, um die 200 gbyte zu erreichen.

3. Welcher normale PC-Spieler wird sich denn eher eine 500er als zwei 250er in den PC kloppen?


500er sind ausser frage. durch die verwendung von 4 oder 5 plattern hoher stombedarf, starke motoren, lautes geräusch. zwei 250er sin da leieser.

Erstens kann man per RAID ebenfalls die 500GB am Stück erreichen und bekommt dabei sogar noch Speed dazu...


raid0 nicht zwansleifig mehr speed. bedenke: das wohl wichtigste im HDD bereich ist der seek. was glaubste, warum ne raptor so abgeht? wegen dem seek. der average ist bei der raptor nicht besser als bei ner aktuellen 250.
und genau beim raid0 haste das problem der syncronisation der allocation der köpfe.

Zweitens sind alle Daten auf einmal futsch, wenn die einzelne Platte das Zeitliche segnen sollte (ok, bei RAID-0 auch ;)).


wenn raid, dann 5, 1, oder 50 oder 51 oder 6. raid 0 ist quatsch für jeden homeuser.

Coda
2005-10-15, 13:06:34
je höher die datendichte, je höher die zugriffszeit.Das ist falsch. Die Zugriffzeit hängt nur vom Plattendurchmesser, der Kopfgeschwindigkeit und der Drehzahl ab.

wenn raid, dann 5, 1, oder 50 oder 51 oder 6. raid 0 ist quatsch für jeden homeuser.Reines RAID 0 ist im professionellen Bereich ja wohl noch viel größerer Quatsch.

andr_gin
2005-10-15, 13:17:42
Also ich habe mir jetzt ein RAID0 mit 2 Samsung SATA Platten mit 200GB gemacht wegen der Geschwindigkeit. Man muss abwegen, ob der Aufwand und das Risiko des Datenverlustes so viel wert sind, wie die verdoppelte theoretische Bandbreite. In der Realität sind es sowieso nur ca. 70-80% mehr Average Read und bei kleineren oder stark fragmentierten Files bringt es so gut wie nichts, da sich an der Zugriffszeit nichts ändert. Wegen der Datensicherheit mache ich mir zwar etwas Sorgen, aber wenn mir eine Platte ausfällt, dann ist sowieso sehr viel weg. RAID1 kommt nicht in Frage wegen der geringeren Kapazität.

@Neomi: Das mit der Steuerung wusste ich schon. Ich habe mir aber gedacht, dass die Daten gleichmäßig auf die Platter verteilt werden also 2 aufeinander folgende Blöcke auf dem selben Zylinder :confused:

Rhönpaulus
2005-10-15, 13:31:41
Also ich habe mir jetzt ein RAID0 mit 2 Samsung SATA Platten mit 200GB gemacht wegen der Geschwindigkeit.

wenn samsung die qualität der platten gegenüber der 1604-serie nicht deutlich verbessert hat wirst du diese entscheidung noch bereuen.

GloomY
2005-10-15, 13:45:02
je höher die datendichte, je höher die zugriffszeit.Diese Aussage ist generell falsch. Es stimmt aber ebenso wenig, dass durch eine höhere Datendichte die Platte automatisch schneller wird. Die Datendirchte alleine ist nämlich eigentlich gar nicht das entscheidende.

Es hängt wohl vor allem davon ab, wie die höhere Datendichte erreicht wird. Dabei gibt es zwei Möglichkeiten, die auch gemischt verwendet werden können: Man kann die TPI (Tracks per Inch) erhöhen, also die Anzahl der nebeneinander verlaufenden Spuren vergrößern und damit effektiv jede Spur "schmaler" machen. die SPT (Sektors per Track) erhöhen, also die Anzahl der Daten erhöhen, die auf einer Spur liegen.Wenn die höhere Datendichte nur über die Erhöhung des TPI-Werts erreicht wird, dann bringt das gar nichts für die Geschwindigkeit. Vielleicht wird es sogar langsamer, weil es schwieriger ist (und damit länger dauert) bei steigender Spuranzahl die unterschiedlichen Spuren mit dem Kopf anzusteuern.

Steigt jedoch die Datendichte pro Spur und nimmt gleichzeitig die Spuranzahl nicht unverhältnismäßig stark zu, dann treffen die Argumente zu, die in den vorangegangenen Postings schon geäußert wurden: Höhere lineare Lese- und Schreib-Rate bei gleicher Zugriffszeit usw.

Siehe auch Endorphines Post: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=1131878#post1131878
der kopf steuert die richtige spur an und dann wird gewartet bis der zu bearbeitende sektor am kopf vorbei kommt.
das kann im ungünstigsten fall eine ganze umdrehung dauern.Ja. Im Mittel ist es aber eine halbe Umdrehung.
das schreiben ist deswegen langsamer weil der sektor mehrfach bearbeitet werden muß und deshalb mindestens zwei umdrehungen notwendig sind.Ist das ein Read-Modify-Write? Oder wie kommt der mehrmalige Zugriff sonst zustande?

andr_gin
2005-10-15, 22:05:03
wenn samsung die qualität der platten gegenüber der 1604-serie nicht deutlich verbessert hat wirst du diese entscheidung noch bereuen.

Ich habe auch seit Dezember 04 eine 160GB Samsung IDE Platte drin und noch keine Probleme gehabt. Bei den Maxtor 80GB Platten sind mir von 3 jedoch schon 2 abgeraucht (die eine mit Rauchen und Glühen, die andere mit Rauchen und 1m hoher Stichflamme).

alpha-centauri
2005-10-15, 22:56:10
Das ist falsch. Die Zugriffzeit hängt nur vom Plattendurchmesser, der Kopfgeschwindigkeit und der Drehzahl ab.

Reines RAID 0 ist im professionellen Bereich ja wohl noch viel größerer Quatsch.

ansichtssache.