PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HDDs: Zugriffszeit vs. Transferrate - was SPÜRT man im Alltag eher?


MadManniMan
2007-11-21, 10:27:29
Hallihallo und guten Morgen!

Ja, nehmen wir mal den oft surfenden, oft spielenden, regelmäßig Dateien downloadenden und hin- und herschiebenden User, der mit einer Platte herumkrebst, die (je durchschnittlich) um die 15 ms und 40 MB/s für alles Mögliche braucht.

Was würde er wie spüren, wenn er auf einmal statt dessen eine Platte mit 15 ms und 80 MB/s, eine mit 8 ms und 40 MB/s und eine mit 8 ms und 80 MB/s hätte?

tombman
2007-11-21, 10:29:53
Zugriffszeit spürst auf jeden Fall mehr.

StefanV
2007-11-21, 11:05:46
Da du in der Praxis eigentlich NIE Sequentielle ÜBertragungen hast sondern fast ausschließlich Random, ists logischerweise die Zugriffszeit.

Tesseract
2007-11-21, 12:12:45
transferrate merkt man so gut wie überhaupt nicht ohne stopuhr. ob da jetzt 40MB oder 150MB pro sekunde geschaufelt werden spielt in der praxis so gut wie keine rolle wenn du nicht gerade fette daten kopierst.

ganz klar: zugriff > transfer

blackbox
2007-11-21, 12:18:14
Und wie viel Zeit spart man, wenn die eine Festplatte um 3ms schneller ist als die andere?:rolleyes:

dargo
2007-11-21, 12:23:16
Und wie viel Zeit spart man, wenn die eine Festplatte um 3ms schneller ist als die andere?:rolleyes:
Das wirst du kaum in Praxis nachweisen können. Erstens liegen die Daten nicht bei jedem User an der gleichen Stelle der Platte, zweitens die Größe der Daten ist unterschiedlich. Es macht nämlich einen Unterschied ob ich eine 1GB Datei verschiebe oder 100 einzelne Dateien die irgendwo auf der Platte verteilt sind die zusammen 1GB ergeben.

Ikon
2007-11-21, 13:09:30
Zugriffszeit spürt man mehr im "Alltag".

Da die Zugriffszeit allerdings maßgeblich von der Rotationsgeschwindigkeit der Platten abhängt, sind Fortschritte von Modell zu Modell in dieser Richtung gering bis nicht vorhanden. Sprich: deutlich schnellere Zugriffszeiten als bei 7200UpM-Platten gibt es erst mit 10.000UpM-Platten, mit all ihren anderen Vor- und Nachteilen.

Inwieweit allerdings ein Vorsprung von z.B. 3ms spürbar ist, würde mich auch interessieren. Freiwillige Tester?

evilhomer
2007-11-21, 13:51:44
ich würd allen die hier gepostet haben vorschagen sich vorzustellen ihre Platte hätte z.B. 1/3 der Transferrate und dafür drei mal so niedrige zugriffszeit. was sie mehr spüren würden dürfte ziemlich offensichtlich sein.

ich würde sagen die zugriffszeit ist für den "Normalanwender" (spiele, downloads, daten hin und herschieben) ohne belang. bei servern siehts natürlich schon ganz anders aus

man muss aber auch beachten, dass sich die zugriffszeit indirekt auf die transferrate auswirkt, da wie bereits bemerkt die daten so gut wie nie sequentiel liegen. hier mal ein bespiel mit werten aus der luft gegriffen:

50MB/s sequentiell, zugriffszeit: 20ms, wir wollen 500MB übetrtragen,blöcke sequentiell angeordnet sind 10MB gross, also insgesamt 50 sprünge à 20ms sind 1000ms (1 sekende).
insgesamt dauert die übertragung von 500MB: 10+1sekunden, also machen die zugriffe 10% aus. also sieht man, dass in diesem beispiel der "normaluser" viel mehr von der transferrate hat. eine platte mit 50MB/s und 10ms zugriffszeit, wäre nach diesen daten gefüllt genau so schnell wie eine mit 20ms und dafür 55MB/s. aber wie gesagt die werte die ich genommen habe sind aus der luft gegriffem es hängt stark davon ab wie die datten auf der platte verteilt sind und wie ein lese/schreibezugriff genau aussieht.

Botcruscher
2007-11-21, 14:10:33
[x] beides fallabhängig

DerRob
2007-11-21, 14:24:09
ich hab momentan einen rechner laufen, auf dem windows xp auf einer kleinen cf-karte (mit cf-to-ide-adapter) installiert ist. ich hatte angenommen, daß windows dadrauf elendig lahm läuft, und ewig zum booten braucht, weil die karte nur irgendwas um die 5mb/sec (lesend) schafft. allerdings hat die karte auch eine zugriffszeit von weniger als 1ms, und das system läuft erstaunlich gut, reagiert prompt auf befehle, und die bootzeit liegt auch nur bei 1-1,5 min. die geringe zugriffszeit reisst also einiges wieder raus ;)

Gast
2007-11-21, 16:54:30
aber wie gesagt die werte die ich genommen habe sind aus der luft gegriffem...

In der Tat...

Die durchschnittliche Dateigröße auf einer Systemplatte(Programm-, Spiel- & Systemdateien) liegt im zweistelligen Kilobyte-Bereich.

Setz mal realitische Werte in deine Rechnung ein. Du wirst überrascht sein, wie sehr die Zugriffszeit bei der alltäglichen Arbeit zum tragen kommt...

HisN
2007-11-21, 17:02:28
@Evilhomer
Hast Du Dir Deine Festplatte mal genau angeschaut?
http://img207.imageshack.us/img207/1039/filedistgamesok5.th.jpg (http://img207.imageshack.us/my.php?image=filedistgamesok5.jpg)
So sieht meine Games-Disk aus. Zigtausende winzige Dateien.
Ich würde sagen Zugriffszeit. Wenn bei einem Level-Load der SL-Kopf 1000 mal Positioniert wird, weil 1000 Dateien geladen werden (die hoffentlich am Stück hintereinander auf der Platte liegen), dann sind das bei einem 8ms-System immerhin 8 Sekunden die Du nur darauf wartest das der SL-Kopf bewegt wird :-)
Was bringt Daten-Durchsatz, wenn die durchschnittliche Datei-Größe 64KB beträgt?

Haarmann
2007-11-21, 17:57:49
Ohne Swapdatei, wohl die Transferrate...

DerRob
2007-11-21, 18:00:50
Hallihallo und guten Morgen!

Ja, nehmen wir mal den oft surfenden, oft spielenden, regelmäßig Dateien downloadenden und hin- und herschiebenden User, der mit einer Platte herumkrebst, die (je durchschnittlich) um die 15 ms und 40 MB/s für alles Mögliche braucht.

Was würde er wie spüren, wenn er auf einmal statt dessen eine Platte mit 15 ms und 80 MB/s, eine mit 8 ms und 40 MB/s und eine mit 8 ms und 80 MB/s hätte?
die formel ist eigentlich recht einfach:
( ( dateigröße / transferrate ) + zugriffszeit ) * anzahl_der_dateien

hab mal ein paar zahlen jongliert.
wir wollen 1000 dateien zu je 100kb größe einlesen:

40mb/15ms = 17,5 sec
80mb/15ms = 16,25 sec
40mb/8ms = 10,5 sec
80mb/8ms = 9,25 sec

die 8ms-platten sind also in dem szenario erheblich schneller als die 15ms-platten. erst bei einer dateigröße von ca. 570kb sind die 80mb/15ms und die 40mb/8ms platten etwa gleich schnell, bei größeren dateien ziehen natürlich die 80mb-platten davon. wie oft man es allerdings mit sochen dateien zu tun hat, kann man ja auf HisNs bild sehen ;)

noch ein paar kleine beispiele:
Anzahl 100.000 10.000 1.000 100 10 1
Größe 1KiB 10KiB 100KiB 1MiB 10MiB 100MiB
Summe 100MiB 100MiB 100MiB 100MiB 100MiB 100MiB
-------------------------------------------------------------------------
40MiB/15ms 1.502 sec 152 sec 17,5 sec 4,00 sec 2,65 sec 2,52 sec
80MiB/15ms 1.501 sec 151 sec 16,3 sec 2,75 sec 1,40 sec 1,27 sec
40MiB/8ms 802 sec 82 sec 10,5 sec 3,30 sec 2,58 sec 2,51 sec
80MiB/8ms 801 sec 81 sec 9,3 sec 2,05 sec 1,33 sec 1,26 sec
bei den 1KiB- und 10KiB-dateien spielt die lesegeschwindigkeit so gut wie keine rolle, die liegt ja nur bei 1-2 sec. da haut die zugriffszeit mit 1500/800 bzw. 150/80 sekunden erheblich mehr rein :eek:

die 80mb/8ms platte wäre natürlich klar zu bevorzugen, die wäre überall die schnellste ;)

Haarmann
2007-11-22, 12:00:37
DerRob

Deine Rechnung sieht ja nett aus, aber ist leider nicht ganz die Wahrheit.

Du gehst davon aus, das Schmetterlingsgelesen wird und die Files völlig wirr auf der Platte verstreut sind. Lägen die Files hintereinander angeordnet, wird nur linear gelesen.

Kopierst Du also Deine Files aus einem defragmentierten Verzeichnis, dann kopierst die, auch wenn sie klein sind, sehr schnell. Die Clustergrösse ist dann natürlich wichtig. Du wirst den Cluster ganz lesen müssen, auch wenn nur 1 Byte von brauchst.

HisN
2007-11-22, 12:05:24
Schön wenn die Files hintereinander auf der Platte liegen, Du glaubst doch aber wohl nicht das irgend ein Programm seine Dateien so auf der Platte ablegt das sie genau in der Reihenfolge wie sie auf der Platte liegen auch gelesen werden? Da kommt erst das Bin-Verzeichnis, dann das GFX-Verzeichnis, dann das Audio-Verzeichnis, dann die Map-Daten

NEVER wird da Linear gelesen. Alleine wenn Du hinhörst merkst Du es schön
Rödeln: Random
Kein Geräusch aber dauerleuchtende LED: Linear

Spasstiger
2007-11-22, 12:10:00
Der Festplattencache spielt auch eine Rolle, vor allem beim Schreiben. Wenn man 16 MB Cache hat, kann man kurzzeitig auch 16 MB auf die Platte ohne merkliche Zugriffszeit schreiben. Die Daten liegen dann im Cache und werden von der Festplatte nach und nach auf den Datenträger geschrieben.

tombman
2007-11-22, 12:28:39
Ganz ehrlich; es ist im Alltag scheißegal, vorallem für gamer.
Da limitert eher der Ram und die CPU wie schnell ein SPiel startet.

Nur in Windows ist das Gefühl mit meinem scsi raid deutlich angenehmer, weil es um einiges schneller reagiert, auch bei großen "Datenverschiebungen".
Das ist aber auch hardcore mit 6ms Zugriff und >400mb/s linear, 135mb/s random!

Ein normaler gamer und surfer merkt (außer in benchmarks) von seinem 2 Platten Raid 0 genau NIX.
Im Gegenteil, wenn er sich die Daten zusammenhaut -> byebye komplettes Raid. Wenn er Glück hat kann er einen großen Teil wieder herstellen (zb das genau gleiche Raid neu einrichten und hoffen das ein undelete Proggi was findet), aber ansonsten ist Raid für Privatsysteme Unsinn.

Da macht jede 1 TB Platte mehr SInn.

Haarmann
2007-11-22, 12:28:55
HisN

Ich dachte ich hätte genügend Konjunktiv eingebaut, damit man erkennt, dass ich den anderen Extremfall beschreibe...

Die Wahrheit mag in der Mitte liegen.

Mein World in Conflict Ordner hat zB 4.84GB und satte 48 Files und 3 Folders (inkl. dem WiC Folder). Nicht alle Progger und Packager sind eben die gleichen Stümper ;).

Und nebenher vernachlässige nicht die Prefetch etc Mechanismen, die Windows mitbringt, inkl. dessen Cache, wenn Du die "Userleistung" sehen willst.

Einzig das Pagefile ist eine Katastrophe für sich... daher schalte ichs immer als Erstes ab.

DerRob
2007-11-22, 12:51:05
Deine Rechnung sieht ja nett aus, aber ist leider nicht ganz die Wahrheit.

Du gehst davon aus, das Schmetterlingsgelesen wird und die Files völlig wirr auf der Platte verstreut sind. Lägen die Files hintereinander angeordnet, wird nur linear gelesen.

Kopierst Du also Deine Files aus einem defragmentierten Verzeichnis, dann kopierst die, auch wenn sie klein sind, sehr schnell. Die Clustergrösse ist dann natürlich wichtig. Du wirst den Cluster ganz lesen müssen, auch wenn nur 1 Byte von brauchst.
natürlich entspricht die rechnung nicht 100%ig der wahrheit, da diese "wahrheit" bei jedem anwendungsfall auch etwas anders aussieht. die rechnung geht natürlich vom extremfall aus, wenn die daten völlig zufällig von der festplatte gelesen werden (wobei, wenn ich ein spiel auf einer noch nie defragmentierten festplatte installiere, können die zugriffe schon in etwa so aussehen :rolleyes: )
mit defragmentierung und partitionierung der festplatte kann ich bei den zugriffszeiten schon einiges optimieren, aber, wie HisN schon sagte, wird ein spiel die daten niemals in genau der reihenfolge einlesen, wie ich sie auf der festplatte abgelegt habe. die daten werden so eingelesen, wie sie gebraucht werden.
wenn ich glück habe, bekomme ich die zugriffszeiten auf vielleicht 10ms (bei der 15ms-platte) bzw. 5ms (bei der 8ms-platte) runter, vielleicht noch etwas weniger. ganz verschwinden werden diese zugriffszeiten aber nicht, sondern machen immer noch ein erheblichen anteil der "lesezeit" aus.

@spasstiger: klar spielt der festplattencache auch eine rolle, aber eben hauptsächlich beim schreiben. allerdings wird von der festplatte wohl größtenteils gelesen. die daten eines spiels werden einmalig auf die festplatte geschrieben (bei der installation), und danach nur noch hunderte male gelesen, inwiefern der cache da noch hilfreich ist, ist fraglich. da kommt es wohl auch drauf an, wie intelligent der cache ist (werden noch nicht benötigte dateien mit in den cache gelesen, nur weil der lesekopf gerade an der position ist?), und wie das programm/spiel die daten anfordert (wird jede datei einzeln angefordert, und abgewartet, bis sie da ist, oder werden mehrere dateien gebündelt abgerufen, und die festplatte kann sich die dateizugriffe optimieren?).

The_Invisible
2007-11-22, 13:27:23
tja, das nächste ist das windows quasi nur ein dateisystem bietet.

unter linux formatiert man seine partitionen je nach nutzung.
große dateien -> xfs
kleine dateien -> reiser4

und ja, das macht SEHR große unterschiede, vor allem bei reiser4 und hunderttausenden <50kb dateien merkt man erst wie wichtig das dateisystem ist. leider wurde winfs ja verschoben, wäre interessant ob sich da endlich mal was getan hat.

mfg

Tesseract
2007-11-22, 13:27:51
Da macht jede 1 TB Platte mehr SInn.

die der durschnitts-surfer/gamer dann zu etwa 5-10% gefüllt hat? :D

tombman
2007-11-22, 13:32:45
die der durschnitts-surfer/gamer dann zu etwa 5-10% gefüllt hat? :D
Schon mal was von Bittorrent und Warez gehört? ;D;D

Tesseract
2007-11-22, 14:22:44
Schon mal was von Bittorrent und Warez gehört? ;D;D

ich schon aber der "durschnittsuser" nicht. bzw. wenn, dann nicht in einem ausmaß, das eine terrabyte platte füllen könnte. das sind eher die ausnahmen als der durschnitt.

und ja, das macht SEHR große unterschiede, vor allem bei reiser4 und hunderttausenden <50kb dateien merkt man erst wie wichtig das dateisystem ist.

reiserfs (oder meinst du wirklich reiser4?) ist bei einer großen anzahl kleiner daten wirklich teilweise um einen mehrstelligen faktor schneller als die meisten anderen gängigen FS. das kann man ausprobieren indem man sich z.B. eine tiefe verzeichnisstruktur mit hundertausenden von unterordnern und kleinen dateien zusammen kopiert. da ist man schnell an einem punkt, in dem z.B. duplizieren des ganzen blocks auf jedem anderen FS schon mehrere minuten oder stunden dauert wärend reiser es immer noch in sekundenbruchteilen schafft.

überhaupt ist die auswahl von mehreren dateisystemen sehr vorteilhaft weil sie alle bestimmte vorteile haben. XFS hat z.B. einen fixen mindestdurchsatz, ist also im "worst case" viel schneller als andere dateisysteme usw.

hab ich schonmal erwähnt, wie sehr NTFS suckt? :D

MadManniMan
2007-11-22, 14:33:04
Wie flexibel kann man denn unter Linux das Dateisystem zuordnen? Per Partition?

Tesseract
2007-11-22, 14:37:11
Wie flexibel kann man denn unter Linux das Dateisystem zuordnen? Per Partition?

aus hardwaresicht genau so wie unter windows mit NTFS und FAT32, jede partition hat sein eigenes FS auf dem dann auch die bestimmten daten liegen.

aus systemsicht kannst du allerdings jeden ordner mit einem anderen verlinken, mounten usw.
d.h. du kannst im prinzip in jedem ordner ein anderes dateisystem haben ohne, dass du es als user mit bekommst.
dieser ordner unterliegt dann aber natürlich den physikalischen grenzen der jeweiligen partition.

wenn du z.B. eine 500GB ext3 partition hast, und dort einen ordner erstellst in den du eine 2GB reiserfs partition rein mountest hast du quasi einen reiserfs-ordner im ext3 dateisystem. in diesen order kannst du aber klarerweise nur 2GB reinspeichern bis er voll ist.

HisN
2007-11-22, 16:29:29
HisN

Ich dachte ich hätte genügend Konjunktiv eingebaut, damit man erkennt, dass ich den anderen Extremfall beschreibe...

Die Wahrheit mag in der Mitte liegen.

Mein World in Conflict Ordner hat zB 4.84GB und satte 48 Files und 3 Folders (inkl. dem WiC Folder). Nicht alle Progger und Packager sind eben die gleichen Stümper ;).

Und nebenher vernachlässige nicht die Prefetch etc Mechanismen, die Windows mitbringt, inkl. dessen Cache, wenn Du die "Userleistung" sehen willst.

Einzig das Pagefile ist eine Katastrophe für sich... daher schalte ichs immer als Erstes ab.


Sorry, wollte nicht harsch klingen, mach ich aber immer :-)

Du bist Dir aber schon bewusst, das diese 48 Files große Archive sind die während des Games on the fly entpackt werden? Und ich bezweifle stark das die benötigten Dateien in der Reihenfolge im Archiv liegen wie sie gebraucht werden. Genau so Milchmädchen :-) Wobei man da schon wieder schauen müsste... HDD-Limit oder CPU-Limit wobei ich wie üblich auf die HDD tippen würde, und dort wieder auf die Zugriffszeit und nicht auf den Datendurchsatz.

Wolfram
2007-11-22, 17:03:03
Hallihallo und guten Morgen!

Ja, nehmen wir mal den oft surfenden, oft spielenden, regelmäßig Dateien downloadenden und hin- und herschiebenden User, der mit einer Platte herumkrebst, die (je durchschnittlich) um die 15 ms und 40 MB/s für alles Mögliche braucht.

Was würde er wie spüren, wenn er auf einmal statt dessen eine Platte mit 15 ms und 80 MB/s, eine mit 8 ms und 40 MB/s und eine mit 8 ms und 80 MB/s hätte?
Zugriffszeit und Zugriffsstrategie der Firmware entscheiden. Transferrate und Cachegröße sind von untergeordneter Bedeutung.

Die Zugriffszeit allein zu betrachten, führt auch in die Irre. Eine aktuelle SATA-Platte mit 12ms Zugriffszeit ist nicht automatisch schneller als eine mit 14ms. Dann wären die Hitachis ja immer vorne.

Fühlbare Unterschiede zwischen normalen aktuellen 7200er-Consumer-Platten wird man sowieso kaum finden können.

Haarmann
2007-11-22, 18:45:55
HisN

Tatest auch nicht - man kann gewisse Intentionen bekanntlich nicht in Worte fassen -> der Andere muss interpretieren oder lässt es offen.

Der Trick mit den grossen Files ist so alt wie Doom ;).

Wenn die Files nicht fragmentiert sind, dann laden sie schnell...

Und wer mehr RAM hat, der kriegt per Readahead etc die Files einfach rein ;).

Corny
2007-11-22, 19:38:08
Ich habe eine 20GB IBM SCSI Festplatte hier, die macht 10.000 Touren. Allerdings habe ich einen Controller der bei 40MB/s limitiert.

Ich hatte damals Half-Life2 auf der Platte installiert. Die Ladezeiten waren damit kürzer als mit einer 320GB Seagate SATA Festplatte die um die 80MB/s liefert.
Es war spürbar, gestoppt habe ich die Zeit jedoch nicht. Ist auch schon eine weile her.

Haarmann
2007-11-23, 13:14:59
Corny

Und meine 540MB Platte ausm Notebook war schneller im Laden von Rüsselsheim, denn der Desktop vom Kumpel... weil ich OS/2 und HPFS hatte und er nicht.

Wer das Spiel kennt, der weiss wohl auch wieso dem so war.

Evil Ash
2007-11-24, 01:48:42
Transfer natürlich. Meine Platte vor 15 Jahren hatte auch 17 ms Zugriffszeit, hat aber nur ca. 700 kb/s geschafft.

Heute sind es meist immernoch über 10 ms, aber locker mal 80 mb/s.

Und die Platte von damals will hier wirklich niemand haben. *g*

Ikon
2007-11-24, 06:17:39
Transfer natürlich. Meine Platte vor 15 Jahren hatte auch 17 ms Zugriffszeit, hat aber nur ca. 700 kb/s geschafft.

Heute sind es meist immernoch über 10 ms, aber locker mal 80 mb/s.

Und die Platte von damals will hier wirklich niemand haben. *g*

Interessanter Ansatz, aber Korrelation impliziert nicht Kausalität.
Bei heutigen Platten ist die Zugriffszeit trotzdem die größere Bremse - nicht zuletzt weil sie auch die Transferrate in der Praxis massiv beeinflusst. Wie bereits erwähnt kommt andauerndes sequentielles Lesen von Daten im "Alltag" seltenst vor, die durchschnittliche Transferrate wird durch ständige Repositionierungen der Köpfe in den Keller gezogen -> Diese Wartezeiten zwischen dem eigentlichen Lesen/Schreiben sind nichts anderes als das was man als Zugriffszeiten bezeichnet.

Corny
2007-11-24, 12:41:32
Corny

Und meine 540MB Platte ausm Notebook war schneller im Laden von Rüsselsheim, denn der Desktop vom Kumpel... weil ich OS/2 und HPFS hatte und er nicht.

Wer das Spiel kennt, der weiss wohl auch wieso dem so war.

okay, und wieso war dem dann so?
Erklär es mal wenn du es schon weißt.

Spasstiger
2007-11-24, 13:02:15
Schon mal was von Bittorrent und Warez gehört? ;D;D
Ein Bekannter von mir hat mehrere 100 GB Traffic im Monat, aber er löscht auch alle Filme und Serien wieder, die er angeschaut hat.
Nur die Hamster, die auch jeden noch so großen Schrott behalten wollen, brauchen derzeit wirklich deutlich über 1 TB Festplatte.

Haarmann
2007-11-24, 13:18:08
Corny

HPFS hatte kleinste Zuordnungseinheiten und FAT16 war das Gegenteil. Die Files des Games sind fast alle klitzeklein. Da FAT16 8KB cluster hatte und Platten fürher nur langsamere Transferraten hatten, aber ähnliche Zugriffszeiten, las er im Prinzip 16 mal mehr Daten ein, denn ich. Nur soviel schneller war seine Platte natürlich nicht.
Wer sowas nicht bedenkt, der fällt noch oft rein...

Spasstiger

Gibt auch Leute mit nem Mediacenter, die ihre DVD Sammlung drauf rippen ...

Schon ein trivialer DVD Recorder produziert bei nem 4 Wochen Urlaub einer Familie gigantische Datenmengen.

Corny
2007-11-24, 13:37:13
Am Dateisystem dürfte mein Vergleich der SCSI Festplatte mit der SATA Festplatte kaum gescheitert sein. Beide waren NTFS formatiert. Auf der 320GB SATA Platte habe ich eine 40GB große Partition genutzt.

Udragor
2007-11-24, 13:51:19
Wenn man als Durchschnittsuser die Zugriffszeit weit stärker bemerkt als die Transferraten, dann wäre doch z.B. eine WD Raptor oder gar eine SSD (z.B. SanDisk 32GB) als Systemplatte (und für die wichtigsten Programme) mehr als ideal oder? Als "Datengrab" kann man sich ja immernoch eine 500GB-1TB Platte ins System hängen (bei der 32GB SSD aufgrund des geringen Speichers erst recht.). Das Optimum mit aktuell Kaufbaren (aber Preislich im Rahmen und nicht exorbitant Teuer) wäre wohl im Moment als Systemplatte eine 32GB SSD und für den Rest die Spinpoint F1 1TB.

Spasstiger
2007-11-24, 14:01:14
Wenn man als Durchschnittsuser die Zugriffszeit weit stärker bemerkt als die Transferraten, dann wäre doch z.B. eine WD Raptor oder gar eine SSD (z.B. SanDisk 32GB) als Systemplatte (und für die wichtigsten Programme) mehr als ideal oder?
Von ideal ist man auch damit weit entfernt, aber es ist besser als eine normale SATA-Platte mit 7200 U/min.
Ganz sinnvoll dürfte ein Raid-0-Verbund aus mehreren SSDs für die Systempartition sein. Damit kann man die Vorteile aus beiden Welten vereinen, kurze Zugriffszeit und hohe Transferrate.
Derzeit bringen die SSDs aber zumindest beim Booten von Windows keinen Vorteil gegenüber den Raptor-Platten (gegenüber einer normalen aktuellen 7200er-Platte besteht aber doch ein merklicher Vorteil).
Das was die SSDs einer Raptor oder einer SCSI-Platte an Zugriffszeit voraus haben, müssen sie an Transferrate wieder einbüßen, so dass das Ergebniss letztendlich dasselbe ist. Je nach Anwendung kann aber auch mal die Transferrate oder die Zugriffszeit überproportional wichtig sein.

Gast
2007-11-24, 14:07:31
Derzeit bringen die SSDs aber zumindest beim Booten von Windows keinen Vorteil gegenüber den Raptor-Platten (gegenüber einer normalen aktuellen 7200er-Platte besteht aber doch ein merklicher Vorteil).
Ach der Winboot. Wie oft ist das? Wie viele Sekunden? 10?

Meist dauert das Raid Bios länger um durch zulaufen.


Wir wollen die Alltagssituation, Programme starten, Daten laden. :)

Spasstiger
2007-11-24, 14:50:42
Ach der Winboot. Wie oft ist das? Wie viele Sekunden? 10?

Meist dauert das Raid Bios länger um durch zulaufen.


Wir wollen die Alltagssituation, Programme starten, Daten laden. :)
Mein Windowsstart dauert mit Login und dem Laden aller Treiber, Dienste und Programme (Boinc z.B.) schätzungsweise 3 min. Das kann schon nerven, wenn man eigentlich nur schnell was nachschauen möchte.
Hab derzeit das ATI CCC aus dem Systemstart rausgenommen, weil das ewig braucht, bis es komplett da ist (man arbeitet schon 2 min am Rechner und plötzlich wird nochmal der Bildschirm kurz schwarz, weil das CCC fertig geladen wird). Die ATI Tray Tools starte ich schließlich auch mit und die bieten schon die allermeisten Funktionen des CCC (und darüber hinaus natürlich).

Xmas
2007-11-24, 15:05:41
Wir wollen die Alltagssituation, Programme starten, Daten laden. :)
Der Alltag sieht bei jedem anders aus. Ich kann nur für mich selbst sagen dass mir eine SSD mit <1 ms und 40 MB/s deutlich lieber wäre als eine Festplatte mit 10 ms und 80 MB/s. Denn die Wartezeiten beim Starten von Programmen, Navigieren im Explorer und ähnlichem stören mich deutlich mehr als beim Kopieren größerer Dateien – was ich sowieso sehr selten mache – mal ein paar Minuten länger warten zu müssen.

Haarmann
2007-11-24, 15:15:58
Corny

Wo war das OS? Was war aufm dem Rest der Platte?

Eine Platte für Games und eine für das OS hängen eine einzelne Platte recht schnell mal ab. Besonders eben dann, wenn man ein Pagefile hat, welches laufend benutzt wird ohne wirklichen Nutzen.

Udragor

Schreib mal auf Flash... Das System will leider laufen so Mist schreiben... wenn man das alles abschaltet, dann gehts ganz gut.

Xmas

Ich hab ne SSD... sorry - schnell ist das nur beim Lesen.

Spasstiger

Also XP auf Diät startet in etwa 10 Sekunden und Vista braucht schon deutlich länger - aber 3 Minuten? Wie geht denn sowas?

Wuge
2007-11-24, 15:35:34
Vergesst mal nicht, dass sich die angegebene Seektime auf einen Durchschnittswert über die gesamte Kapazität bezieht.

Eine 1 TB Platte muss - wenn eine kleine Systempartition benutzt wird - nur innerhalb eines sehr kleinen Bereichs suchen.

Nächste Woche kommt meine Samsung F1 mit 1 TB. Ich werd mal gegen die Raptor 150 GB testen. Bin gespannt welche innerhalb der ersten 25GB schneller ist - ich vermute die Samsung.

Spasstiger
2007-11-24, 16:02:59
Also XP auf Diät startet in etwa 10 Sekunden und Vista braucht schon deutlich länger - aber 3 Minuten? Wie geht denn sowas?
Ich hab noch nie ein Windows in 10 Sekunden booten sehen vom Einschalten des Rechners, über Login beim Anmeldebildschirm bis zur kompletten Bereitschaft bei allen geladenen Diensten und Programmen.
Ich rede von einem Windows XP 64, das auch benutzt wird, mit installierten Spielen, Kopierschutz-Diensten, einem Boinc-Client, Active Sync zwecks Sync mit dem Pocket PC, diversen Control-Paneln (Razer, Creative, ATI, etc.) und vielem mehr. Seit ich Matlab installiert hab, wird auch davon ein Hintergrunddienst mitgestartet.
Hab aber gestern erst wieder ein paar Dienste aus dem Systemstart rausgenommen.

Den Windows-VGA-Bootscreen sehe ich natürlich auch nur für 5-10 Sekunden, aber das ist nicht das, was ich unter Windowsstart verstehe.

Xmas
2007-11-24, 16:09:59
Ich hab ne SSD... sorry - schnell ist das nur beim Lesen.
Es gibt schnelle wie auch langsame SSDs. Mit 40 MB/s Schreiben wärs schon eine recht schnelle. Außerdem werden Daten viel häufiger gelesen als geschrieben.

DerRob
2007-11-24, 16:43:58
Nächste Woche kommt meine Samsung F1 mit 1 TB. Ich werd mal gegen die Raptor 150 GB testen. Bin gespannt welche innerhalb der ersten 25GB schneller ist - ich vermute die Samsung.
wie willst du das testen? transferrate ist klar, aber mit welchem programm willst du die zugriffszeit innerhalb der ersten 25gb ermitteln?

ich glaube nicht, daß die samsung-platte (wesentlich) schneller sein wird wie die raptor-platte, wahrscheilich liegen die beiden aber sehr dicht zusammen. die zugriffszeit hängt ja nicht nur davon ab, wie schnell der lesekopf auf der entsprechenden spur ist (größere platte=engere spuren=weniger bewegung für den kopf, die raptor hat aber meines wissens nach eh nur 2,5" platter, und muss den lesekopf auch nicht so viel bewegen), sondern auch, wann der richtige sektor sich unter dem kopf vorbei dreht, im schnitt also die halbe umdrehungszeit, und da ist die raptor mit ihren 10.000 upm eindeutig im vorteil gegenüber jeder 7.200 upm platte (3ms für die raptor-platte vs. 4,2ms von der samsung)

JaDz
2007-11-24, 16:44:43
Es gibt schnelle wie auch langsame SSDs. Mit 40 MB/s Schreiben wärs schon eine recht schnelle. Außerdem werden Daten viel häufiger gelesen als geschrieben.
Meist haben SSDs wohl recht schlechte Schreibzugriffsraten im Vergleich zu den Lesezugriffsraten.

Udragor
2007-11-24, 17:08:08
Bei der SanDisk SSD mit 32GB sinds wohl ca. 68MB/s beim Lesen und ca. 30MB/s beim Schreiben... wenn ich mir da meine Maxtor hier so anschaue, also soviel schneller ist das Teil auch nicht :D

Wenn die SSDs im Preis sinken, werd ich mir bestimmt eine Anschaffen. Bis dahin werd ich mir nächste Woche die Spinpoint F1 bestellen. Scheint im Moment der beste Kompromiss aus Leistung/Platz/Preis zu sein.

Im großen und ganzen denke ich, das man als normaler User die Zugriffszeit auf jeden Fall mehr zu spüren bekommt als die Transferrate. Und hier sind SSDs im Moment nicht zu Toppen.

Corny
2007-11-24, 17:30:50
Corny

Wo war das OS? Was war aufm dem Rest der Platte?

Eine Platte für Games und eine für das OS hängen eine einzelne Platte recht schnell mal ab. Besonders eben dann, wenn man ein Pagefile hat, welches laufend benutzt wird ohne wirklichen Nutzen.



das OS war auf der 320GB SATA Platte, das Pagefile war auf einer absolut unbeteiligten 160GB IDE Festplatte.
Die Partition bzw. Festplatte auf der HL2 installiert war, wurde lediglich für Games genutzt.

Ich denke die Voraussetzungen waren vergleichbar, wenn auch nicht ganz zu 100 Prozent. Der Unterschied war auf jeden Fall deutlich spürbar.

sloth9
2007-11-24, 19:01:33
Mein World in Conflict Ordner hat zB 4.84GB und satte 48 Files und 3 Folders (inkl. dem WiC Folder). Nicht alle Progger und Packager sind eben die gleichen Stümper ;).



Das sind aber auch nur Archive, die natürlich nicht sequentiell gelesen werden.
Mein 500 MB-Warcarft 3 besteht aus 1 Archiv, welches aber iirc aus 38.000 Einzeldateien besteht.

Wuge
2007-11-24, 19:29:35
wie willst du das testen? transferrate ist klar, aber mit welchem programm willst du die zugriffszeit innerhalb der ersten 25gb ermitteln?

ich glaube nicht, daß die samsung-platte (wesentlich) schneller sein wird wie die raptor-platte, wahrscheilich liegen die beiden aber sehr dicht zusammen. die zugriffszeit hängt ja nicht nur davon ab, wie schnell der lesekopf auf der entsprechenden spur ist (größere platte=engere spuren=weniger bewegung für den kopf, die raptor hat aber meines wissens nach eh nur 2,5" platter, und muss den lesekopf auch nicht so viel bewegen), sondern auch, wann der richtige sektor sich unter dem kopf vorbei dreht, im schnitt also die halbe umdrehungszeit, und da ist die raptor mit ihren 10.000 upm eindeutig im vorteil gegenüber jeder 7.200 upm platte (3ms für die raptor-platte vs. 4,2ms von der samsung)

Ich werde auf beiden Platten eine 25 GB Partition einrichten und einen Random-Read Benchmark ausführen. Copy-Tests sind langweilig, das ist klar.

Die Frage wird sein, kann die Raptor durch die geringere spin-latency Boden gut machen? Ich bin selbst gespannt...

Gast
2007-11-24, 19:47:44
1.) Also es kommt stark auf die Anwendung drauf an. Wenn du hauptsächlich mit Videoschnitt arbeitest oder Dateien kopierst, dann wirst du die Transferrate mehr spüren. Wenn du einen Datenbankserver betreibst, ist nur die Zugriffszeit interessant. Fakt ist jedoch, dass man die Bandbreite viel leichter verdoppeln kann, als die Latenz halbieren. Einfach ein RAID0 machen und fertig (natürlich auf Kosten der Datensicherheit, das weiß ich schon). Bei der Latenz hilft es nur teure Raptor Platten zu kaufen, die pro GB schweineteuer sind. Wenn ich die Wahl habe eine 1TB Samsung Platte mit 100MB/s average read/write zu kaufen oder eine Raptor mit 60MB/s und nur 60% der Zugriffszeit, dann würde ich jederzeit zur Samsung greifen (oder besser noch 2x500GB im RAID0 um 160 Euro).

2.) Viele kleine Dateien werden fast immer sequentiell nach Namen auf der Platte abgelegt. Das kann man sogar beim defragmentieren bei mancher Software angeben (z.B. O&O). Außerdem gibt es für Windows eine Layout.ini, die alle benötigten Dateien beim Booten aufzeichnet und beim Defragmentieren werden diese genau in dieser Reihenfolge abgelegt. Die Bootzeit für Windows sollte man aber nicht als Benchmark nehmen, da hier meistens der Timeout von irgendwelchen Treibern oder diverse Software, die startet und in erster Linie die CPU benötigt auffällt. Außerdem wie oft habe ich in den letzen 1-2 Wochen den PC neu gestartet? Ich glaube einmal und da habe ich nur eingeschaltet und habe mir nachher was zum Essen aus der Küche geholt und war am Klo (2-3 Minuten), also im Prinzip ist das egal.

3.) Also ich persönlich habe noch keine Platte mit extra geringer Zugriffszeit im Rechner gehabt, aber RAID0 mit ca. 100MB/s spürt man schon sehr stark, wenn man irgendetwas kopiert, mit Gordian Knot DVDs konvertiert, Spiele mit 4GB installiert etc.

Dread1ord
2007-11-24, 19:58:16
Ich stimme klar für die Zugriffszeit da ich schon viel erfahrung mit Festplatten von 5200 - 10000Upm sammeln konnte.

Ein nicht zu verachtender vorteil in der Gesamtperformane von Meschanichen Festplatten stellt heut zu tage auch die meist nicht genutzen oder deaktivierten features wie TCQ, AHCI (NCQ) dar!

Wobei auch andere faktoren wie OS eine rolle spielen. Da bsp. NT 6.0 (Vista) viel schneller kopiert als. NT 5.0/1 (2k/XP)

Haarmann
2007-11-24, 20:25:42
Spasstiger

Autologin ist natürlich aktiviert... bei nem schnellen BIOS bist nach 10 Sekunden im XP. Alles geladen ist wohl nicht, aber man sieht den Desktop mit Icons und kann rumklicken. Nach 30 Sekunden wär bestimmt auch das geladen, was man sonst noch nutzt...
Nebenher ists ein gigantischer Unterschied, ob man die Dienste "deaktiviert" oder schlicht zum Teufel schickt per nLite zB.
In meinem Readyboost Ordner liegen 50 MB rum, obschon ich Readyboost als Dienst deaktiviert hab... und auf den Mist wird auch zugegriffen.
Aber 3 minuten kriegt das Ding nicht hin... nichtmal das NB startet so lahm. Das kriegts unter ner Minute hin, was mich aber schon lange motiviert hat es nur noch schlafen zu legen...

Wenn beim Splashscreen der "Cursor" nie am Ende ankommt, dann bootet XP schnell. Den ersten Screen mit dem weissen Balken darf man gar nie zu Gesicht bekommen imho...

Xmas

Die Zugriffzeit beim Schreiben ist leider schlechter, denn beim Lesen... meisst recht massiv schlechter. Ganz besonders bei kleinen Einträgen wie in Logfiles üblich. Mit rund 20MB/s ist das Teil, was ich nutze, immerhin recht schnell. Verliert aber gnadenlos gegen eine Festplatte.
Die Blockgrösse, damit die SSDs diese Bandbreite erreichen sind meisst im 256KB Bereich zu suchen. Bei 512 Bytes rennt denen oft ein Floppy davon ;).

Corny

Mein RAID0 war auch spürbar schneller, denn mein NTFS Plättchen jetzt... ginge es nur um die Zugriffszeit, dann wär die jetzt schneller.

sloth9

Stopf mal 4GB RAM rein und gib Windows genug RAM fürn Cache frei. Da liest er ganz anders.
Das ist wie beim RAM - Latenz beschissen und Bandbreite hoch -> lies einfach etwas mehr denn notwendig ;).

Dread1ord

Das meinst nicht ernst mit dem schneller kopieren?

Ich hab über LAN unter XP64 50% mehr Leistung von 500er WD Platte zu 500er WD Platte, denn unter Vista von SATA 500er WD zu SATA 500er WD ;).

Liszca
2007-11-24, 20:58:36
@Evilhomer
Hast Du Dir Deine Festplatte mal genau angeschaut?
http://img207.imageshack.us/img207/1039/filedistgamesok5.th.jpg (http://img207.imageshack.us/my.php?image=filedistgamesok5.jpg)
So sieht meine Games-Disk aus. Zigtausende winzige Dateien.
Ich würde sagen Zugriffszeit. Wenn bei einem Level-Load der SL-Kopf 1000 mal Positioniert wird, weil 1000 Dateien geladen werden (die hoffentlich am Stück hintereinander auf der Platte liegen), dann sind das bei einem 8ms-System immerhin 8 Sekunden die Du nur darauf wartest das der SL-Kopf bewegt wird :-)
Was bringt Daten-Durchsatz, wenn die durchschnittliche Datei-Größe 64KB beträgt?

du redest hier imho von einem spur zu spur zugriff, und der liegt bei einer festplatte vonder man sagt dass sie ca 12 ms zugriffszeit hat bei ca 4 ms. also kann deine rechnung auch nicht ganz hinkommen, und von NCQ bei Sata platten ganz zu schweigen.

Liszca
2007-11-24, 21:05:19
Wobei auch andere faktoren wie OS eine rolle spielen. Da bsp. NT 6.0 (Vista) viel schneller kopiert als. NT 5.0/1 (2k/XP)

Hmm bei mir brauch vista für 52 gb ca 1h 45 unter xp geht das unter einer stunde.

ob das am NCQ liegt weiss ich nicht, ich weiss nur dass ich ncq unter vista nicht hin bekomme, aber unter xp schon.

achso kopiert habe ich mit einer festplatte per usb.

Xmas
2007-11-24, 23:23:13
Die Zugriffzeit beim Schreiben ist leider schlechter, denn beim Lesen... meisst recht massiv schlechter. Ganz besonders bei kleinen Einträgen wie in Logfiles üblich. Mit rund 20MB/s ist das Teil, was ich nutze, immerhin recht schnell. Verliert aber gnadenlos gegen eine Festplatte.
Die Blockgrösse, damit die SSDs diese Bandbreite erreichen sind meisst im 256KB Bereich zu suchen. Bei 512 Bytes rennt denen oft ein Floppy davon ;).
Das Schreiben von Einträgen in Logfiles ist wohl eher selten performancekritisch, das kann auch gepuffert und im Hintergrund geschrieben werden sofern Write Caching akzeptabel ist.

Die Blockgröße bezieht sich ja nur auf Delete-Blocks. Mit einem Flash-optimierten Dateisystem gäbe es da wenig Probleme.

HisN
2007-11-25, 01:06:39
Ich hab noch nie ein Windows in 10 Sekunden booten sehen vom Einschalten des Rechners, über Login beim Anmeldebildschirm bis zur kompletten Bereitschaft bei allen geladenen Diensten und Programmen.

Den Windows-VGA-Bootscreen sehe ich natürlich auch nur für 5-10 Sekunden, aber das ist nicht das, was ich unter Windowsstart verstehe.


Mein Windows-XP hat auf meinem Arbeitsrechner mit allem Schnickschnack 56 Sekunden gebraucht, davon waren ca. 10 Sekunden Bios.

Vom Power-Knopf-Drücken bis zum offenen Windows-File-Explorer.
Das gleiche Windows, mit den gleichen Treibern startet von meinem I-Ram in 28 Sekunden. Und ich hab meistens Rechner in denen alle Steckplätze belegt sind^^

Das ist der Unterschied zwischen HDD und (guter) SSD.

10 Sekunden ins Windows? Wer schrieb das?
Funktioniert wohl nur an einem frisch installiertem PC, auf dem noch kein einziges Programm läuft und (die Hauptsache) es darf keine Hardware drinne stecken. Wenn man mal beim Windows-Start auf die HDD schaut, sieht man das sie streckenweise (beim Treiber-Initialisieren) gar nix macht. Diese Zeit in der die Treiber ihre Wait-Runden fahren um ihre Hardware zu initialisieren kann man nicht drücken. Das bedeutet: Je weniger Hardware im Rechner, je weniger Treiber müssen installiert werden. Wenn man jetzt einen Rechner hat in dem gar nix drinne steckt und n dem alles was das MB an Hardware zu bieten hat abgeschaltet ist, nur dann kann man irgendwie auf 10 Sekunden kommen. Meistens braucht doch das Bios schon diese Zeit.

tombman
2007-11-25, 10:27:43
Wie schnell ein System hochfährt ist doch sowas von egal.
Ich schalte ein, gehe aufs Klo oder mache sonstwas, und wenn ich wieder zurück bin ist er fertig mit booten.

Gast
2007-11-25, 11:19:29
Wie schnell ein System hochfährt ist doch sowas von egal.
ack



Den Windows-VGA-Bootscreen sehe ich natürlich auch nur für 5-10 Sekunden, aber das ist nicht das, was ich unter Windowsstart verstehe.
Ich versteh unter Windows Boot die Zeit vom Anzeigen der lustigen bewegten Balken, bis zur Benutzbarkeit.

Alles davor zähle ich zum Bios.
Und der Bios Part dauert locker so lange, wie der Win Part.

Haarmann
2007-11-25, 11:27:19
Xmas

Du meinst einem Filesystem ohne Journal?
Ohne zuviel dezentral gelagerte Verwaltung?
Mit zB Containern in Flashblockgrösse?

Also was ganz Anderes als NTFS?

Da bin ich Deiner Meinung.

P.S. Logfiles schalte ich am Liebsten ab. Was ich je lese, ist so bescheiden, dass ich auf den Rest dankend verzichte.

Xmas
2007-11-25, 12:56:33
Du meinst einem Filesystem ohne Journal?
Ohne zuviel dezentral gelagerte Verwaltung?
Mit zB Containern in Flashblockgrösse?
Nicht notwendigerweise. Aber erst einmal Copy-on-Write und Garbage Collection im Hintergrund.

Haarmann
2007-11-25, 13:30:40
Xmas

Sorgen nicht die Controller für Copy on Write? Damit alle Blocks gleich abgenutzt werden?

Fragmentierte Dateien sind ja nicht mehr das Problem.

Tesseract
2007-11-25, 17:25:38
Wie schnell ein System hochfährt ist doch sowas von egal.

nicht, wenn man die unteren 98% vom graphen wegschneidet und die achsen nicht beschriftet, dann ist es gleich unglaublich viel und um so wichtiger! </ironie>

Gast
2007-11-25, 18:01:16
Für viele unbedarfte Blödmarkt-Kunden (& Hardwareluxx-Foristen) ist die Bootdauer DAS Performancemerkmal schlechthin.

Man braucht sich doch nur den Stellenwert der Bootzeit im Vista Marketing betrachten - die halten uns (zurecht) für so blöd...

Smoke Screen
2007-11-25, 18:56:07
Glaube kaum das im Jahre X nach Etablierung des PC in das Forum häuslicher
Unterhaltungselektronik noch jemand so schweineblöd ist die Bootzeit als
Benchmark für irgendwas zu halten. Eher hätten das einige PR-Manager gerne
das ihre Klientel so blöd ist,was eher auf ihre eigene Blödheit schließen lässt.
Aber seisdrum,richtig was merken gegenüber aktuellen Durschnittsplatten tut
man nur wenn sowohl Zugriffszeit als auch Transferrate erheblich
besser sind: sprich mindestens halbe Zugriffszeit bei doppelter Transferrate.
Allerdings bedeutet das einen heftigen finanziellen Mehraufwand (echtes
HW-Raid mit Server-HDDs) und nach dem Kosten/Nutzenfaktor (und der
Lautheit) sollte besser nicht gefragt werden. Sicher nur ne Lösung für dedizierte HW-Freaks. Ansonsten kann ja jeder im selbexperiment rausfinden was es bringt wenn eine kleine Raptor als Systemfestplatte verwendet wird. Das Teil läßt sich mittels Bitumenbox noch gut dämmen und hat etwa die halbe Zugriffszeit einer normalen Standartplatte. Persönlich würde ich diese Lösung einem Raid aus zwei Standart-HDDs vorziehen und eher Raptor + Datenplatte nehmen.

Wolfram
2007-11-25, 19:31:31
Wie schnell ein System hochfährt ist doch sowas von egal.
Ich schalte ein, gehe aufs Klo oder mache sonstwas, und wenn ich wieder zurück bin ist er fertig mit booten.
Wenn Rechner schneller booten würden, würde man sie anders nutzen. Und häufiger zwischendurch ausmachen. Standy ist nur eine Krücke, um genau die langen Bootzeiten zu umgehen.

Tesseract
2007-11-25, 19:49:06
Wenn Rechner schneller booten würden, würde man sie anders nutzen. Und häufiger zwischendurch ausmachen. Standy ist nur eine Krücke, um genau die langen Bootzeiten zu umgehen.

das ist aber hauptsächlich ein problem vom bios respektive der innovationsbremse microsoft als von "zu langsamer hardware".

gegen den meterlangen bios-rattenschwanz beim booten hilft auch ein noch so schnelles system nicht.

Gast
2007-11-25, 20:57:47
... der innovationsbremse microsoft ...
Kannst du das mal bitte etwas ausbauen und erläutern?

Tesseract
2007-11-25, 21:07:48
Kannst du das mal bitte etwas ausbauen und erläutern?

ganz einfach: microsoft sitzt zwar zusammen mit intel und noch ein paar anderen größen im kremium, das für EFI, UEFI usw. zuständig ist um zu verhindern, dass irgendwas hinter ihrem rücken entschieden wird, bieten aber de facto bis heute weder für xp noch für vista eine unterstützung dafür.

wie realistisch die tatsächliche einführung eines beschlossenen standards ist, der von einem betriebsystem mit über 90% marktanteil einfach nicht unterstützt wird muss ich wohl nicht erwähnen.

bei apple hingegen ist EFI seit jahren standard auf allen geräten.

Wolfram
2007-11-25, 21:46:09
das ist aber hauptsächlich ein problem vom bios respektive der innovationsbremse microsoft als von "zu langsamer hardware".

gegen den meterlangen bios-rattenschwanz beim booten hilft auch ein noch so schnelles system nicht.
Das Problem ist aber die Schnelligkeit des Systems. Die zehn Sekunden, die das BIOS benötigt, sind wenig im Vergleich zu den 60 bis 180 Sekunden, die Windows und Anwendungen anschließend brauchen.

Tesseract
2007-11-25, 23:37:32
Das Problem ist aber die Schnelligkeit des Systems. Die zehn Sekunden, die das BIOS benötigt, sind wenig im Vergleich zu den 60 bis 180 Sekunden, die Windows und Anwendungen anschließend brauchen.

ich hab eben bei mir nachgemessen:

bios-teil: 18 sekunden
linux boot: +48 sekunden bis das system zu 100% einsatzbereit ist
windows xp boot: +35-40 sekunden bis system "bedienbar" ist. (da kommen dann je nach dem wie schnell man was macht noch ein paar sekunden dazu)

der biosdreck macht bei mir also gut 1/3 des ganzen startvorgangs aus.

und jetzt sag mir bitte mit welcher hardware du beim systemstart allein durch performance ~18 sekunden einsparen willst was einer fast-halbierung der systemladezeit entspricht...

HisN
2007-11-25, 23:58:55
Du könntest Dich vom Raid-Bios verabschieden, das spart gute 5-8 Sekunden.

Wolfram
2007-11-26, 00:01:22
ich hab eben bei mir nachgemessen:

bios-teil: 18 sekunden
linux boot: +48 sekunden bis das system zu 100% einsatzbereit ist
windows xp boot: +35-40 sekunden bis system "bedienbar" ist. (da kommen dann je nach dem wie schnell man was macht noch ein paar sekunden dazu)

der biosdreck macht bei mir also gut 1/3 des ganzen startvorgangs aus.

und jetzt sag mir bitte mit welcher hardware du beim systemstart allein durch performance ~18 sekunden einsparen willst was einer fast-halbierung der systemladezeit entspricht...
Es mag ja sein, daß der BIOS-Teil der am leichtesten "einzusparende" ist. Er ist nur an sich nicht das Hauptproblem.

StefanV
2007-11-26, 00:28:50
Ein 'Partial Hibernate' wäre nicht verkehrt, wo nur ein Teil des Hauptspeichers gesichert wird, bei bis zu 1GiB Mem ist der WInterschlaf ja noch ganz praktisch, aber bei 4GiB Hauptspeicher?!

Das kann man vergessen, dann ist normales abschalten schneller...

Gast
2007-11-26, 01:08:43
Ein 'Partial Hibernate' wäre nicht verkehrt, wo nur ein Teil des Hauptspeichers gesichert wird, bei bis zu 1GiB Mem ist der WInterschlaf ja noch ganz praktisch, aber bei 4GiB Hauptspeicher?!

Das kann man vergessen, dann ist normales abschalten schneller...

Funktioniert unter Linux mit TuxOnIce sehr gut; Die Snapshot-Größe ist sogar einstellbar. Man kann auch die Treiber erst später neu laden lassen, das bringt vor allem bei SCSI-Kontrollern weniger Verzögerungen. Dazu kommt noch, dass man vorher / nachher viele Dinge automatisch erledigen lassen kann (Netzressourcen einbinden, Programme neu starten, etc.).

Dumm habe ich unter Windows gefunden, dass der Ruhezustand überhaupt nicht konfigurierbar ist. Die hibernate.sys Datei liegt unnütz herum (Platzverschwendung), wenn sie nicht gebraucht wird. Wenn man ein Festplatten-Image zwecks Sicherung erstellen möchte, muss man sie zuerst löschen. Man muss Windows aber zugute halten, dass der Ruhezustand dafür meistens funktioniert, während es unter Linux da leider nicht immer so toll aussieht. Zumindest wenn die Treiber es erlauben...

Gast
2007-11-26, 09:07:50
Stopf mal 4GB RAM rein und gib Windows genug RAM fürn Cache frei. Da liest er ganz anders. Wie gibt man "RAM fürn Cache frei"?

HisN
2007-11-26, 09:47:22
Das macht Windows automatisch

Haarmann
2007-11-26, 10:53:27
Tesseract

Und EFI soll schneller sein?
An was glaubst sonst noch?

Du hast sicherlich Intel Chipset ohne ATA Port - da geht das Posten halt lange...

Bei mir erreicht das schnellste Board 5 Sekunden BIOS-Zeit. Für nen TFT Besitzer ist daher Auswendigwissen der BIOS-Tastenbefehle angesagt.

In der Theorie, also ohne Autodetects und Timeouts, wäre das BIOS innert ner Sekunde durch.

Das Problem sind die Betriebsysteme - keines erlaubt mir eine "Tiefschlafdatei" zu machen, welche das OS nach komplettem Boot widerspiegelt. Das wären linear gelesene Daten und nach spätestens 5 Sekunden ab BIOS ist man gestartet. Kompletter Boot nur als Alternative, wenn man was geändert hat zB.

StefanV

Er speichert imho nur das belegte RAM ab. Sonst müsste ich auf meinem DELL NB mit 4GB RAM Dekaden warten ;).

Gast

Schau mal in Deinen Taskman, wieviel Deines Speichers er als Systemcache "misbrauchen" darf. Da er das dynamisch verkleinert, kann er am Anfang praktisch allen dafür nutzen, macht er aber nicht. Allerdings gilt das wohl auch wieder nur für Leute ohne Pagefile.

Gast
2007-11-26, 16:19:18
Bei mir erreicht das schnellste Board 5 Sekunden BIOS-Zeit. Für nen TFT Besitzer ist daher Auswendigwissen der BIOS-Tastenbefehle angesagt.

Nur habe ich mir mein Board nicht nach der Bios Bootzeit ausgesucht. Den Test der Bios Bootzeit gab es nicht mal dazu.

2s VGA + eigentliche Schirm + Controller erkennt SATA Platten, dann 10s Bootmenü
Der ganze Spass dauert nunmal 20-30s -> Genauso lang wie der eigentliche WinBoot

Haarmann
2007-11-26, 16:31:35
Gast

Wenn Du noch im BIOS klebst... bin ich ja im Vista...

Und dabei ist die Platte keineswegs ne Rennmaschine und die CPU auch nicht.

Gast
2007-11-26, 17:15:21
Es ist für mich eh egal, da ich das mache:
Ich schalte ein, gehe aufs Klo oder mache sonstwas, und wenn ich wieder zurück bin ist er fertig mit booten.
Meist könnte der komplette Start auch 5min / 5x so lange dauern, mich würds nicht jucken.

Nightspider
2007-11-26, 17:39:40
Mich würde mal interessieren, wie schnell ein PC mit SSD bootet, der normalerweise um die 80-90 Sekunden benötigt, wenn er zugemüllt ist.

Xmas
2007-11-26, 22:43:04
Sorgen nicht die Controller für Copy on Write? Damit alle Blocks gleich abgenutzt werden?
Ich weiß nicht wie intelligent und effizient diese arbeiten, oder ob auf Basis von Pages oder Blocks. Diese muss ein Dateisystem ja nicht unbedingt verwenden.

HisN
2007-11-27, 00:16:05
Mich würde mal interessieren, wie schnell ein PC mit SSD bootet, der normalerweise um die 80-90 Sekunden benötigt, wenn er zugemüllt ist.


50% schneller im Falle eines I-Rams

Gast
2007-11-27, 02:47:43
Mich würde mal interessieren, wie schnell ein PC mit SSD bootet, der normalerweise um die 80-90 Sekunden benötigt, wenn er zugemüllt ist.

20 Sekunden...

http://youtube.com/watch?v=HIUa0mwUwW8

Haarmann
2007-11-27, 06:39:46
Gast

Das ist kein PC...

Das ist auch kein Windows...

Xmas

Laut CT kriegt man durch diese integrierte Logik nen Flashmedium nicht übern Jordan, auch wenn man 16 mio mal den gleichen logischen Block beschreibt.
Da ein Flash nur Blockweise gelöscht werden kann, muss bei einer Änderung, welche nur Teile eines Blocks betrifft, schlicht erst gelesen, dann manipuliert und am Ende wieder ein ganzer Block beschrieben werden. Um eine gleichmässige Abnutzung zu gewährleisten, wird da wohl ein anderer Block genommen bei jedem Vorgang - siehe CT.

Gast
2007-11-27, 07:22:04
Gast

Das ist kein PC...

Das ist auch kein Windows...

Xmas

Laut CT kriegt man durch diese integrierte Logik nen Flashmedium nicht übern Jordan, auch wenn man 16 mio mal den gleichen logischen Block beschreibt.
Da ein Flash nur Blockweise gelöscht werden kann, muss bei einer Änderung, welche nur Teile eines Blocks betrifft, schlicht erst gelesen, dann manipuliert und am Ende wieder ein ganzer Block beschrieben werden. Um eine gleichmässige Abnutzung zu gewährleisten, wird da wohl ein anderer Block genommen bei jedem Vorgang - siehe CT.

Ein Mac ist auch ein PC. Das weiß ich selbst dass das kein Windows ist. Deswegen nutze ich auch Mac OSX. Das sieht man, wie überlegen MacOSX ist.

Aber gut, hier habt ihr euren Vergleich. Zum Ende des Videos wirds lustig, da ist die HD im Arsch, trotz Beschleunigungssensoren.

http://youtube.com/watch?v=pJMGAdpCLVg&feature=related

Xmas
2007-11-27, 11:20:27
Laut CT kriegt man durch diese integrierte Logik nen Flashmedium nicht übern Jordan, auch wenn man 16 mio mal den gleichen logischen Block beschreibt.
Das heißt ja noch nicht dass es effizient ist. ;)

Da ein Flash nur Blockweise gelöscht werden kann, muss bei einer Änderung, welche nur Teile eines Blocks betrifft, schlicht erst gelesen, dann manipuliert und am Ende wieder ein ganzer Block beschrieben werden. Um eine gleichmässige Abnutzung zu gewährleisten, wird da wohl ein anderer Block genommen bei jedem Vorgang - siehe CT.
Auf Flash-Ebene, ja. Auf Dateisystemebene muss man eben keine ganzen Blöcke kopieren, sondern lediglich das schreiben was geändert wurde.

Haarmann
2007-11-27, 11:23:39
Xmas

Natürlich, aber man weiss, wie gross diese Blöcke sind, dann kann man das Dateisystem draufhin optimieren.

Gast

Und wie gross wäre der Unterschied beim Ruhezustand?

Denn eigentlich ist nur der wichtig... bei nem Notebook jedenfalls.

Die Startzeit meines Dells mit Vista und noch ohne Bitlocker ist jedenfalls praktisch identisch mit dem der SSD. Ein frisch aufgesetztes Vista startet ja nicht optimal schnell auf einer normalen Platte.

Und ein Mac ist kein PC und OSX gefällt nicht allen Usern. Ich finde es schrecklich unlogisch aufgebaut und zu verspielt.

Linux dürfte auch viel von SSD profizieren mit seinen vielen kleinen Dateien.

K4mPFwUr$t
2007-11-27, 11:27:52
@haarmann
ein mac ist sehr wohl ein pc, apple setzt ja in letzter zeit sehr auf intels x86er :rolleyes:

aber beim mac OSX muss ich dir zustimmen, mir ist es auch zu unlogisch aufgebaut und vorallem klicki bunti. und da sagt einer mal was gegen winXP ;D

Fadl
2007-11-27, 11:44:11
@haarmann
ein mac ist sehr wohl ein pc, apple setzt ja in letzter zeit sehr auf intels x86er :rolleyes:

aber beim mac OSX muss ich dir zustimmen, mir ist es auch zu unlogisch aufgebaut und vorallem klicki bunti. und da sagt einer mal was gegen winXP ;D

Die Welt ist nunmal nicht nur grau. Ich nehme sie durchaus in Farbe wahr. Aber das mag bei anderen ja durchaus anders sein... ;)

Und unlogisch ist wenn dann wohl eher Windows. Mit seinen hunderten von Reitern etc. die man an diesem Ort nie vermuten würde wenn man nicht wüsste das sie dort sind. Umsteigern erscheint das vielleicht nur so da sie es eben ganz anders gewohnt sind. Aber logisch und userfreundlich aufgebaut ist Windows mit Sicherheit nicht. ;)

Gast
2007-11-27, 12:51:08
Genauso ist es. Ich dachte auch erst, Mac? Du gehypter Kram. Aber mittlerweile passt der Mac zu meiner Einstellung.

Wie sagte jemand vor kurzem? Ein Mac ist ein langweiliger Rechner, weil eben alles funktioniert.

Dieses Jahr erst auf Mac umgestiegen und es ist eine Wohltat für den Geist und die Gesundheit.

Und logischer aufgebaut ist Mac OSX, Windows ist zu verschachtelt und verbaut.

Aber, was der Bauer nicht kennt, frisst er nicht...

Tesseract
2007-11-27, 14:35:43
Und ein Mac ist kein PC und OSX gefällt nicht allen Usern. Ich finde es schrecklich unlogisch aufgebaut und zu verspielt.

ich hab zwar keine langzeiterfahrungen mit osx aber das was ich bisher bei freunden gesehen habe war für mich auf den ersten blick um ein vielfaches sinnvoller und logischer als das total schwachsinnige windows wo alles einfach wie kraut und rüben vor sich hin gewachsen ist.

dazu muss man aber sagen, dass ich durch linux relativ offen für andere ideen/bedienkonzepte bin wenn sie schneller oder sinnvoller sind.
bei den meisten anderen usern steht bei so einem vergleich dann 10+ jahre windows-only-erfahrung gegen 5 minuten mac testen. dass in so einem fall das alt-bekannte, auch wenn es noch so schwachsinnig ist, auf den ersten blick als "sinnvoller" empfunden wird ist wohl naheliegend.

und natürlich ist ein mac ein pc, auch wenn das apple marketing etwas anderes erzählen will.
im weiten (historischen) sinne war jeder bisherige mac ein pc und im engeren, modernem sinne (x86-architektur) sind es zumindest alle auf intel-basis also alle seit osx.

Wolfram
2007-11-27, 14:58:08
ich hab zwar keine langzeiterfahrungen mit osx aber das was ich bisher bei freunden gesehen habe war für mich auf den ersten blick um ein vielfaches sinnvoller und logischer als das total schwachsinnige windows wo alles einfach wie kraut und rüben vor sich hin gewachsen ist.
Finde ich als reiner Windows-User auch. Ich hätte allerdings Schwierigkeiten, mich an die Mac-Maus zu gewöhnen. Und die OSX-Oberfläche scheint zwar sehr komfortabel zu sein, die Frage ist nur, ob man sie auch so schnell bedienen kann wie Windows XP.

und natürlich ist ein mac ein pc, auch wenn das apple marketing etwas anderes erzählen will.
im weiten (historischen) sinne war jeder bisherige mac ein pc und im engeren, modernem sinne (x86-architektur) sind es zumindest alle auf intel-basis also alle seit osx.
Technisch ist das sicher richtig, aber im allgemeinen Sprachgebrauch bedeutete "PC" doch immer "IBM-PC"- und heute "Windows-PC".

jojo4u
2007-11-27, 16:06:31
Tesseract
Das Problem sind die Betriebsysteme - keines erlaubt mir eine "Tiefschlafdatei" zu machen, welche das OS nach komplettem Boot widerspiegelt. Das wären linear gelesene Daten und nach spätestens 5 Sekunden ab BIOS ist man gestartet. Kompletter Boot nur als Alternative, wenn man was geändert hat zB.


Schau dir mal EWF an, hab hir mal ein wenig drüber geschrieben: http://www.silentpcreview.com/forums/viewtopic.php?t=37678&highlight=ewf

Edit: Ist natürlich nicht linear

jojo4u
2007-11-27, 16:15:40
Ich lasse Linux von einem hochwertigen USB-Stick laufen. Ist billiger als CF und genau so schnell/schneller.
Am meisten merkt man den Unterschied bei apt-get/aptitude Operationen und Dateisuchen.

K4mPFwUr$t
2007-11-27, 16:40:12
@jojo4u
in wie fern merkst du das?
würde mich interessieren da ich ein ubuntu VM fahre =)

@zum thema mac osx
mir persönlich sagt weder ein grau in grau windows noch ein klicki bunti mac os x zu.
anderseits ist es sicherlich gewöhnungssache wegen aufbau vom system selbst, der administration.

Haarmann
2007-11-27, 17:52:48
K4mPFwUr$t

Man kann einen Mac als PC bezeichnen, aber ich würds nicht tun. Das darf aber jeder halten, wie er will - die Begründung ist imho eher historisch bedingt.

Fadl

Gerade in diesem Forum wird eine Mehrzahl nicht einfach User sein...

Gast

Sofern man keine M$ Software nutzt, funktioniert wohl auch ein Mac ... nur hat Windows ohne Zugemüse auch keine Probleme - es sei denn mit Hardware und Treibern. Da allerdings Mac nicht die gleiche Hardwareunterstützungsbreite bietet wie Windows, ist ein sinnvoller Vergleich nicht möglich.

Tesseract

Ich glaube nicht, dass ein Diskettenauswurf mit Symbol auf Mülleimer ziehen irgendwann mal Sinn ergab ;).

Das Suchen nach bestimmten Dateiendungen ist nebenher für mich eine der häufigsten Aufgaben der Suche. Ansonsten brauch ich die Suche kaum...
Die Endungen mag ich leider auch weit lieber... die waren einst eine Krücke, aber trotzdem sind sie ein Segen im Formatedschungel.
Für "User" mit 3 Textdokumenten und nem Browser mag das egal sein, aber für andere Leute ist das zentral.

Und ich schliesse mich Wolfram an - wer mit Windows umgehen kann, der ist schneller. Und ich bin als sehr ungeduldiger Mensch bekannt, weswegen mir diese Animationen ein Gräuel sind.

P.S. Was ist http://www.macreloaded.com/wp-content/uploads/mac_os_x_on_apple_tv2.jpg hier logisch?

alpha-centauri
2007-11-27, 19:04:49
Hallihallo und guten Morgen!

Ja, nehmen wir mal den oft surfenden, oft spielenden, regelmäßig Dateien downloadenden und hin- und herschiebenden User, der mit einer Platte herumkrebst, die (je durchschnittlich) um die 15 ms und 40 MB/s für alles Mögliche braucht.

Was würde er wie spüren, wenn er auf einmal statt dessen eine Platte mit 15 ms und 80 MB/s, eine mit 8 ms und 40 MB/s und eine mit 8 ms und 80 MB/s hätte?


90% zugriffszeit, 10% transfer. ein grund, warum die geschwindigkeit der festplatten in den letzten 10 jahren sich praktisch nicht verbessert hat.
wer es nicht glaubt, mache bitte mal zugriffszeitmessungen mit ner 2-4 GB platte. tada... ~15 ms oldy vs ~12-15 ms aktuell.

nur die netten 10k oder 15k platten bringen da was.

ich hätte lieber ne 5 ms platte mit 50mb/sec als ne 15 ms platt mit 150/mb

jojo4u
2007-11-27, 21:43:25
@jojo4u
würde mich interessieren da ich ein ubuntu VM fahre =)


Ok, habe mal Tests gefahren:
Jeweils in Buffalo Firestix-R mit 30/20 MB/s sequenziell und eine Samsung V60 5400 upm 120 GB. Xubuntu 7.10 ein bischen abgespeckt.


Test: HDD/USB (in Sekunden)
Boot bis GDM und Beep: 33/44 (USB lädt initrd langsam - mainboardabhängig)
GDM bis alle Tray-Icons vorhanden: 21/9 (Claws-Mail braucht bei HDD lange zum Scannen)
aptitude install firefox: 7/5 (firefox schon vorhanden)
find /usr -name firefox: 17/5
treesize /: 30/11 (http://treesize.sourceforge.net/)
Fazit: Sieg für USB ;) Aber die Festplatte ist ziemlich lahm (30 MiB/s, 15 ms, 10er C't Anwendungsindex)

BlackBirdSR
2007-11-27, 22:36:04
90% zugriffszeit, 10% transfer. ein grund, warum die geschwindigkeit der festplatten in den letzten 10 jahren sich praktisch nicht verbessert hat.
wer es nicht glaubt, mache bitte mal zugriffszeitmessungen mit ner 2-4 GB platte. tada... ~15 ms oldy vs ~12-15 ms aktuell.

nur die netten 10k oder 15k platten bringen da was.

ich hätte lieber ne 5 ms platte mit 50mb/sec als ne 15 ms platt mit 150/mb

Ich habe im Laufe der letzten Jahre stetig neue Festplatten gekauft. Z.B Seagate 80GB -> 200GB -> 320GB
Der geschwindigkeitszuwachs war jedes mal mehr als Spürbar. Besonders was die Zugriffszeiten und Reaktionsfreudigkeit angeht.
Natürlich liegt das nicht direkt am physikalischen Fortschritt. Es liegt zum großen Teil auch am viel größeren Cache, den moderneren Prefetching-Mechanismen und den hohen Burstraten.

Trotzdem wehre ich mich stark dagegen, dass der Unterschied subjektiv nicht vorhanden wäre ;)

Fadl
2007-11-27, 22:46:51
Und ich schliesse mich Wolfram an - wer mit Windows umgehen kann, der ist schneller. Und ich bin als sehr ungeduldiger Mensch bekannt, weswegen mir diese Animationen ein Gräuel sind.

Eher genau das Gegenteil ist wohl der Fall. Der Mac bietet den deutlich besseren Workflow. Aber du kennst OS X eh nicht wirklich wie man deinen Aussagen entnehmen kann. Daher nehme ich deine Aussagen mal nicht wirklich ernst.

P.S. Was ist http://www.macreloaded.com/wp-content/uploads/mac_os_x_on_apple_tv2.jpg hier logisch?

Wow, klasse Bild. Das ist der Systemprofiler. Was ist daran unlogisch?
Vergiss die Sache lieber schnell wieder. Du bist ein Windows Fan und das darfst du gerne bleiben.

StefanV
2007-11-27, 23:35:39
Der Mac bietet den deutlich besseren Workflow.
Das ist Quatsch und kann ich ganz und garnicht bestätigen, der MAC ist nur beim Texteschreiben besser und das auch nur weil man viel mehr Zeichen auf der Tastatur hat, z.B. Anführungszeichen unten, diese spitzen doppelklammern a la: << sowas >> und so weiter...

Zum Thema:
Zugriffszeit ist natürlich das entscheidende... (http://www.forumdeluxx.de/forum/showpost.php?p=7024770&postcount=48)

Gast
2007-11-27, 23:38:50
StevanV,

was hälst du so allgemein vom Mac, wenn man vom Spielen absieht?

Fadl
2007-11-27, 23:46:47
Das ist Quatsch und kann ich ganz und garnicht bestätigen, der MAC ist nur beim Texteschreiben besser und das auch nur weil man viel mehr Zeichen auf der Tastatur hat, z.B. Anführungszeichen unten, diese spitzen doppelklammern a la: << sowas >> und so weiter...

Zum Thema:
Zugriffszeit ist natürlich das entscheidende... (http://www.forumdeluxx.de/forum/showpost.php?p=7024770&postcount=48)


Ich kenne beide Systeme sehr gut und OS X ist einfach sehr viel runder, logischer aufgebaut. Ebenso greifen die meisten Programme viel besser ineinander(z.B. auch drag and drop). Etwas was bei Windows in sehr vielen Fällen ja gar nicht erst vorgesehen ist oder nicht funktioniert. Aber hier bei 3DCenter werden sich eh nur die wenigsten wirklich mit Apple und OS X beschäftigt haben.

alpha-centauri
2007-11-28, 18:05:51
Ich habe im Laufe der letzten Jahre stetig neue Festplatten gekauft. Z.B Seagate 80GB -> 200GB -> 320GB
Der geschwindigkeitszuwachs war jedes mal mehr als Spürbar. Besonders was die Zugriffszeiten und Reaktionsfreudigkeit angeht.
Natürlich liegt das nicht direkt am physikalischen Fortschritt. Es liegt zum großen Teil auch am viel größeren Cache, den moderneren Prefetching-Mechanismen und den hohen Burstraten.

Trotzdem wehre ich mich stark dagegen, dass der Unterschied subjektiv nicht vorhanden wäre ;)

sicher.. durch die höhere datendichte > höhere übertragungsrate. nachmessbar über den kompletten speicherplatz gibt es in den letzten jahren in den consumer-platten praktisch keinen geschwindigkeitszuwachs im zugriffsbereich.

Haarmann
2007-11-28, 20:38:45
StefanV

In dem Extrembeispiel wird die Zugriffszeit um welchen Faktor gesenkt?
Wenn ich den Transfer um den gleichen Faktor steigern könnte... dann wärs schneller denn das RAM ;).

Fadl

Das ist der typische MacUser... keine Ahnung haben, was ich meine, aber immerhin mal das gegenüber diffamieren.

In dem Bild fehlt die "Taskleiste" und die Icons dort Unten sind gigantisch gross...
Wenn jemand nicht unter Parkinson leidet, dann trifft er auch kleinere Icons...
Ich will eine Taskleiste - Punkt.

Ich erwarte nicht, dass jeder das will, aber eine Taskleiste gibt mir den Überblick ohne dass ich überhaupt klicken muss.

P.S. Beruflich muss ich mich damit beschäftigen - das reicht mir dicke.

Xmas
2007-11-28, 20:53:57
In dem Bild fehlt die "Taskleiste" und die Icons dort Unten sind gigantisch gross...
Wenn jemand nicht unter Parkinson leidet, dann trifft er auch kleinere Icons...
Ich will eine Taskleiste - Punkt.
Die Größe der Dock-Icons kann man beliebig einstellen – ein Vorteil gegenüber Windows, auch wenn es sonst leider eher wenig Einstellungsmöglichkeiten gibt. Du willst eine Taskleiste weil du dich daran gewöhnt hast. Das Dock und solche Helfer wie Exposé können diese Aufgabe aber genauso übernehmen, in meinen Augen sogar besser. Und wenns um Suchen geht liegt Windows ja wohl ganz weit hinten. ;)

Haarmann
2007-11-28, 20:59:56
Xmas

So nen Dashboard hatte ich bei OS2 auch schon abgeschaltet ;).
Es ist schlicht nutzlos für mich. Bei mir ist alles immer auf "Vollbild". Da erschliesst sich der Sinn einer Taskleiste. Deswegen find ich Hintergrundbilder auch ziemlich fürn Arsch - sehe ich ja nie.

Ich suche wie gesagt eigentlich nur nach Extensions...
Das kann der Mac ja nicht, weil er keine kennt... von daher ist das ein sehr unfairer Vergleich.

Ikon
2007-11-28, 21:04:02
Der Einfluss der Firmware und des Caches auf den die Geschwindigkeit im "Altagseinsatz" wird wohl von vielen unterschätzt (mich eingeschlossen). Aber anders sind die IMO spürbaren Fortschritte, die HDDs in den letzten Jahren trotz nahezu konstanter Zugriffszeit gemacht haben, kaum zu erklären. S-ATA war's jedenfalls nicht :D

@all
Ist das ein Witz? Schluss mit dem "OSX vs. Windows"-Getrolle in diesem Thread - reißt euch zusammen, Leute :mad:

Wolfram
2007-11-28, 21:11:17
Der Einfluss der Firmware und des Caches auf den die Geschwindigkeit im "Altagseinsatz" wird wohl von vielen unterschätzt (mich eingeschlossen). Aber anders sind die IMO spürbaren Fortschritte, die HDDs in den letzten Jahren trotz nahezu konstanter Zugriffszeit gemacht haben, kaum zu erklären. S-ATA war's jedenfalls nicht :D
Firmwarestrategien lassen sich eben nicht quantifizieren. Beim Cache kann es auch nicht das reine "Mehr" sein, sonst hätten die Hersteller längst größere Caches eingebaut.

Und die Fortschritte sind ja nicht nur spürbar, sie zeigen sich ja auch in sämtlichen Benchmarks (zB auf storagereview). Die Performance wächst langsam, aber stetig.

Fadl
2007-11-29, 11:00:11
Das ist der typische MacUser... keine Ahnung haben, was ich meine, aber immerhin mal das gegenüber diffamieren.

In dem Bild fehlt die "Taskleiste" und die Icons dort Unten sind gigantisch gross...



Oh mein Gott. Spätestens jetzt hast du dich aber gehörig disqualifiziert. Wenn du nicht einmal weist das man das Dock in der Größe variieren kann dann bist du zum Thema OS X am besten mal ganz ruhig und sagst kein Wort mehr.
Ansonsten werfe ich dir noch mal "Spaces" in den Raum(OS X 10.5). Aber auch damit wirst du nichts anfangen können(und mit der Konfiguration selbiger noch viel weniger). Du hast doch noch nie mit einem Mac gearbeitet. Ansonsten würdest du nicht vor soviel Unwissenheit darüber strotzen.
Und File-Extensions kennt auch OS X. Wenn man denn weiß wo man sie einschalten muss. Aber damit bist du ja eh überfordert.
Bleibe einfach bei deiner Taskleiste und genieße dein ach so logisches Windows.

Wolfram
2007-11-29, 11:07:25
@all
Ist das ein Witz? Schluss mit dem "OSX vs. Windows"-Getrolle in diesem Thread - reißt euch zusammen, Leute :mad:
Ikon hat recht.

Haarmann
2007-11-29, 15:18:37
Vielleicht sollten wir uns mal auf eine oder mehrere "Aufgabe/Bench" einigen und dann darf jeder, der Lust hat, das auf sein System loslassen. Aufgrund der verschiedenen Konfigurationen, die hier bestimmt vorhanden sind, kann man dann ja vergleichen.

Fadl

Wie gesagt.... typischer Macuser...

Ich will das ganze Drecksdock nicht. Selbst 1 Pixel Icons sind schlich Platzverschwendung aus meiner Sicht. Sind sie on Top stören sie mich und sind sie es nicht seh ich sie ja nicht -> Speicherverschwendung.

Spaces - weiche von mir Satan - weg mit solchem Ballast. Gibts ja schon seit ewig auf anderen Systemen und als Zusatz sowieso.

Nein, ich arbeite nicht auf einem Mac - das tue ich mir nicht an. Ich muss nur mit diesen Biestern umgehen können.

P.S. Marketing von Apple war schon immer gut...

StefanV
2007-11-29, 15:44:10
StefanV

In dem Extrembeispiel wird die Zugriffszeit um welchen Faktor gesenkt?
Wenn ich den Transfer um den gleichen Faktor steigern könnte... dann wärs schneller denn das RAM ;).
Naja, er hat ja 'nen AID0 Array mit über 500MB/sec burst gegen das I-RAM mit ~100MB/sec verglichen.

Zu MacOS X:
Ich weiß ehrlich gesagt nicht, was daran so toll ist, einen Maximize Button gibts nicht, global Hotkeys scheinen nicht möglich zu sein, man kann den integrierten Quicktime Player nicht wirklich verwenden, dazu muss man erstmal löhnen (seit 10.4), man bekommt iTunes, das die Musikstücke vergewaltigt und auch ansonsten ist die Abbel Software eher meis denn gut/innovativ...

Avalox
2007-11-29, 22:15:39
In der c't 23/07 waren umfangreiche Artikel zum Thema Mac vs. Vista PC.

Einer der Artikel ist frei zu lesen.

Mac OS X 10.5 versus Windows Vista. http://www.heise.de/ct/07/23/092/

Sehr interessant. Wenn gewollt, schneide ich die Postings in einen eigenen Thread.

Ansonsten bitte ich auf das ursprüngliche Thema zurück zu kommen.

Wuge
2007-11-30, 18:49:34
Moin Moin,

heute kam endlich meine neue Samsung HD103UJ, auch bekannt als F1 in der 1000GB Variante mit 32 MB Cache.

Die Platte wird bei mir für Programme und Daten genutzt, bevor ich sie fülle wollte ichs jedoch wissen und habe sie gegen die WD 1500ADFD (auch Raptor 150GB genannt) antreten lassen.

Da es bereits genug sinnlose Sequentail Read Benchmarks über die gesamte Kapazität gibt, habe ich ein realitätsnahes Umfeld geschaffen.

Kandidaten:
Samsung HD103UJ, 1000GB, SATA 300MB/s, 32MB Cache
Western Digital 1500ADFD, 150GB, SATA 150MB/s, 16MB Cache

Testbedingungen:
Eine 25GB Partition am Kapazitätsanfang der Platten, identische Datenfüllung, gespiegelte Systempartition, 15GB belegt, 3% Fragmentierung

Es wurde ein Rechner mit ASUS P5K Deluxe genutzt. ICH9 ACPI SATA.

Tool: SiSoftware Sandra Lite XIIc, Test der logischen Partition

Ich war natürlich äußerst gespannt, wie nahe die neue 7200upm Platte an die Raptor heran kommt. Das deutliche Ergebnis hat mich dann doch etwas überrascht:

Sequential Read:
F1: 111 MB/s
Raptor: 81 MB/s

Random Read:
F1: 58 MB/s
Raptor: 41 MB/s

Mittlere Zugriffszeit:
F1: 8 ms
Raptor: 12 ms

Also habe ich den "Versuchsaufbau" nochmals überprüft und die Benchmarks wiederholt. Das Ergebnis wich nur minimal ab.

Die Raptor hat innerhalb der "ersten" 25 GB bei stark verstreuten Daten eindeutig das Nachsehen.

/// Hat jemand einen Fehler in meiner Vorgehensweise entdeckt oder einen anderen Benchmarkwunsch? Noch ist die neue Platte "jungfräulich".

tombman
2007-11-30, 18:53:41
Mittlere Zugriffszeit:
F1: 8 ms
Raptor: 12 ms
Da KANN was ned stimmen. Die Raptor sollte bei 8ms liegen und die F1 über 12ms.

Wuge
2007-11-30, 19:01:23
Aber was? Ich überlege auch schon!

Der Wert der F1 ist für mich absolut nachvollziehbar. Nur warum ist die Raptor so mies drauf?

Undertaker
2007-11-30, 19:21:13
Aber was? Ich überlege auch schon!

Der Wert der F1 ist für mich absolut nachvollziehbar. Nur warum ist die Raptor so mies drauf?

mach doch mal screens von hd-tach :) bzgl zugriffszeit MUSS die raptor vorne sein :)

Wuge
2007-11-30, 19:26:41
HDTach ist unerheblich für die Reallife-Performance, da ich damit nicht innerhalb eines identischen Kapazitätsfensters messen kann.

//

Ich habe jetzt von meiner Backupplatte gebootet und defragmentiere beide Partitionen synchron mit O&O. Die F1 liegt momentan einige Verzeichnisse vorn.

Wenns fertig ist mache ich noch mal einen Benchmark. Mit einer anderen Sandra Version und auf dem Backupsystem (XP32, zuvor Vista 64).

Gast
2007-11-30, 19:36:09
Aber was? Ich überlege auch schon!

Der Wert der F1 ist für mich absolut nachvollziehbar. Nur warum ist die Raptor so mies drauf?

Deine Ergebnisse sind Murks - schade um die vergeudete Zeit.

Du solltest sich von dem Gedanken verabschieden, synthetische Benchmarks zur Leistungsbestimmung heranzuziehen.

Nimm eine Stoppuhr und mess die Kopier-/Programmstartzeiten, Installations- und Entpackdauer (und sonstige Dinge, die du mit deinem PC anstellst) von Hand.

Undertaker
2007-11-30, 19:39:38
HDTach ist unerheblich für die Reallife-Performance,

mit welcher reallife-anwendung hast du denn dann die zugriffszeiten von 8/12ms gemessen? :)

Wuge
2007-11-30, 19:48:55
@Gast

Hab die identischen Partitionen synchron Defragmentiert. F1: 27 Minuten, Raptor 29 Minuten.

Also wieder ein leichter Vorteil für die Samsung.

---

Ich werde jetzt was anderes testen. Dauert noch ne Weile, dann gibts Low-Level Daten der ersten 25 GB jeder Platte. Vielleicht erklärt das die Systematik.

Gast
2007-11-30, 19:57:04
@Gast

Hab die identischen Partitionen synchron Defragmentiert. F1: 27 Minuten, Raptor 29 Minuten.

Also wieder ein leichter Vorteil für die Samsung.


Das ist doch schon mal ein Anfang. Lass den synthetischen Müll in Zukunft weg.

Praxisbezogene Benchmarks sind für den Leser aufschlussreicher.

Wuge
2007-11-30, 20:00:16
Schon klar... Aber schwer umsetzbar. Kopierbenchmarks sind sinnlos um die Systemperformance zu testen. Programmstarten, Systembooten etc. gestalten sich schwierig wenn man am System nichts verändern möchte.

Wuge
2007-11-30, 22:08:20
Hab mal mittels VM und HDTach die Zugriffszeiten auf low-level Ebene ermittelt (innerhalb der ersten 20GB):

Raptor: 7.9-8.1ms
Samsung: 8.7-8.8ms

In Verbindung mit der deutlich höheren Datentransferrate und dem größeren Cache wird damit klar, dass die Samsung Platte die schnellere ist.

Gast
2007-11-30, 22:34:58
welche versionen der f1 haben die platten mit der höhrene datendichte? 500&1000gb?

Wuge
2007-11-30, 23:16:01
Die 1000er hat die Platter mit 334 GB. Die 750iger die mit 250 GB.

Die anderen weiß ich nicht.

RavenTS
2007-12-01, 01:30:09
@Wuge: Ist deine Raptor im Produktiveinsatz oder könntest du auch mal das ct-Tool H2bench zum messen drüber laufen lassen (braucht aber "Schreibzugriff" für aussagekräftige Daten, sprich die HD sollte leer sein)..?

Undertaker
2007-12-01, 10:19:02
Hab mal mittels VM und HDTach die Zugriffszeiten auf low-level Ebene ermittelt (innerhalb der ersten 20GB):

Raptor: 7.9-8.1ms
Samsung: 8.7-8.8ms

In Verbindung mit der deutlich höheren Datentransferrate und dem größeren Cache wird damit klar, dass die Samsung Platte die schnellere ist.

kannst du von hd-tach bitte mal einen screen reinstellen? :) irgendwie scheint das bei dir mist zu messen :|

Wuge
2007-12-01, 10:26:50
Die Raptor ist meine Systemplatte. Ich hatte sie gestern Abend mal geleert um die Benchmarks in der VM durchzuführen. Inzwischen hab ich aber wieder mein Backup draufgebügelt.

Screens hab ich leider keine, da ich aufm Backup/VM keine Imagetools hab und sich der Dateitransfer ins Produktivsystem schwierig gestaltet.

Ich verschiebe heut Nachmittag meine Daten. Dann habe ich die hinteren 100GB der Raptor frei. Für Zugriffszeitmessungen könnte ich da eine kleine Testpartition erstellen.

@RavenTS

Kann ich das Tool auf eine bestimmte Partition anwenden oder testet es immer die gesamte Platte?

Undertaker
2007-12-01, 10:42:39
versteh ich nicht ganz, ist die samsung nicht in deinem normalen system verbaut? du kannst mit hd-tach von jedem betriebssystem aus das zugriff auf die platte hat einen test laufen lassen, was dabei für daten bereits auf der platte liegen ist irrelevant :) so sollte das ganze dann etwa aussehen:

http://img124.imageshack.us/img124/2526/hdtachbenchmarksamsunghaq4.png

man beachte die zugriffszeit

Die_Allianz
2007-12-01, 10:54:03
also die zugriffszeiten der samsung müssen falsch sein!
diese zugriffszeiten sind bei einer 7200er Platte unmöglich.
Entweder fake, messfehler oder samsung hat dir ein 10000 U/min entwicklungssample untergeschoben

K4mPFwUr$t
2007-12-01, 10:56:25
die avg read ist ganz brauchbar für eine einzelne platte. allerdings ist die radom access zeit nicht besonders toll :shake:

vergleich:
Hitachi Deskstar 7K250 160GB @ RAID0
http://img211.imageshack.us/img211/7621/blalm5.jpg

Gast
2007-12-01, 11:25:16
die avg read ist ganz brauchbar für eine einzelne platte. allerdings ist die radom access zeit nicht besonders toll :shake:

vergleich:
Hitachi Deskstar 7K250 160GB @ RAID0
http://img211.imageshack.us/img211/7621/blalm5.jpg

Wozu RAID0? Lass die Platten getrennt laufen, so erzieltst du wenigstens in machen Situationen(Kopieraktionen) eine 100% Steigerung.

Zudem kannst du bei geschickter Verteilung(Temp, Eigene Dateien, SWAP usw) die anfallende Last auf zwei Festplatten verteilen.

Wuge
2007-12-01, 12:35:43
versteh ich nicht ganz, ist die samsung nicht in deinem normalen system verbaut? du kannst mit hd-tach von jedem betriebssystem aus das zugriff auf die platte hat einen test laufen lassen, was dabei für daten bereits auf der platte liegen ist irrelevant :) so sollte das ganze dann etwa aussehen:

http://img124.imageshack.us/img124/2526/hdtachbenchmarksamsunghaq4.png

man beachte die zugriffszeit

Damit erhalte ich Werte, die sich nicht vergleichen lassen. Oder vergleichst Du die Beschleunigung eines Polo von 0-100 mit einem Porsche 0-200? ;)

Entscheidend ist für mich die Performance innerhalb eines gleichen Kapazitätsfensters und nicht über die gesamte Platte.


also die zugriffszeiten der samsung müssen falsch sein!
diese zugriffszeiten sind bei einer 7200er Platte unmöglich.
Entweder fake, messfehler oder samsung hat dir ein 10000 U/min entwicklungssample untergeschoben

Wenn die Platte über die gesamte Kapazität im Schnitt 14ms braucht, ist es doch durchaus realistisch, dass die Zugriffszeit deutlich geringer ist, wenn der Lesekopf nur innerhalb eines 2,5% Kapazitätsfensters bewegt werden muss, oder?

---

Genau das ist doch der entscheidende Punkt! Der Lesekopf der Raptor muss einem fast 10x so großen Bereich suchen wie der Kopf der F1 - eben weil die 25GB bei der großen Platte phisikalisch auf viel kleinerem Raum verteilt sind.

Das wollte ich messen und ich denke, das hat (zumindest in etwa) geklappt.

HisN
2007-12-01, 12:55:37
Kommt drauf an wie lange die Firmware braucht um den Kopf in die Ruheposition in der Mitte der Platte zu fahren, bzw wie schnell die Zugriffe aufeinanderfolgen müssen damit das nicht passiert.

Haarmann
2007-12-01, 13:03:54
HD Tach hat in der "falschen" Umgebung bei mir auch schon nur Mist gemessen...
Abwarten, bis wer so ne Platte auf nem normalen XP nutzt und nicht irgendwo in virtuellen Welten oder 64 Bit Systemen.

Wuge
2007-12-01, 13:19:43
Wenn die Platte gefordert wird, dürfte die IO-Warteschlange kaum leer laufen...

Mein nächstes Studium geht in Richtung Technik, das steht fest ;) Ungeheuer interessant das alles...

Wolfram
2007-12-01, 17:26:18
Entscheidend ist für mich die Performance innerhalb eines gleichen Kapazitätsfensters und nicht über die gesamte Platte.
In der Praxis ist aber die Performance über die gesamte Platte interessant, schließlich willst Du ja die ganze Platte nutzen.

Genau das ist doch der entscheidende Punkt! Der Lesekopf der Raptor muss einem fast 10x so großen Bereich suchen wie der Kopf der F1 - eben weil die 25GB bei der großen Platte phisikalisch auf viel kleinerem Raum verteilt sind.
Ist da schon einkalkuliert, daß die Raptor kleinere Plattern hat als andere Platten?

Da es hier im Thread ja um fühlbare Unterschiede geht, würde mich mal interessieren, ob da Unterschiede zwischen Raptor und F1 auf der einen Seite und "normalen" 500GB/7200er-Platten auf der anderen Seite bestehen. Merken können wird man Unterschiede zwischen Raptor und F1 ja nicht.

Wuge
2007-12-01, 17:53:25
Also fühlen tu ich keinen Unterschied ;)

In der Praxis ist aber die Performance über die gesamte Platte interessant, schließlich willst Du ja die ganze Platte nutzen.


Es kommt aber so gut wie nie vor, dass auf mehrere Partitionen gleichzeitig zugegriffen werden soll.

Wenn das System innerhalb der erstn 25GB liegt, spielt die Plattenperformance in dem Bereich die ausschlaggebende Rolle.

Auch wenn dahinter noch 900GB Filme kommen. (Für deren Wiedergabe die Zugriffszeit eh wurscht ist)

Wolfram
2007-12-01, 18:23:21
Es kommt aber so gut wie nie vor, dass auf mehrere Partitionen gleichzeitig zugegriffen werden soll.

Wenn das System innerhalb der erstn 25GB liegt, spielt die Plattenperformance in dem Bereich die ausschlaggebende Rolle.

Auch wenn dahinter noch 900GB Filme kommen. (Für deren Wiedergabe die Zugriffszeit eh wurscht ist)
Gleichzeitig kann ja sowieso nicht auch nur auf zwei Spuren zugegriffen werden :biggrin:. Vom wohl seltenen Fall mal abgesehen, daß zwei oder mehr Köpfe zufällig genau gleichzeitig auf dem für sie richtigen Sektor landen. Und da weiß ich auch gar nicht, ob die Platten gleichzeitig von mehreren Köpfen lesen/schreiben können (interessante Frage, zumindest in der Kombination Lesen/Schreiben oder Schreiben/Schreiben...).

Wenn Du tatsächlichr nur einen Film von den 900GB dahinter abspielst, wird natürlich selten auf diesen Bereich zugegriffen werden. Wenn auf den 900GB Spiele liegen, sieht das schon wieder ganz anders aus.

Wuge
2007-12-01, 20:05:02
Darauf hab ich gewartet! Und deshalb geschrieben "zugegriffen werden soll", was soviel heißt wie "das OS will beide Datenblöcke gleichzeitig". Dass eine HD keine zwei Sektoren gleichzeitig laden kann weiß ich auch. Und es geht auch nicht wenn die Köpfe zufällig richtig positioniert sind.

Wenn auf der ersten Partition die Programme liegen und auf der zweiten die Spiele wird id.R. auch nicht gleichzeitig (erspart mir die Erbsenzählerei) von beiden Partitionen gelesen.

Btw. Wer Wert auf Speed legt hat das System ohnehin auf einer anderen Platte als Programme / Spiele. So ist das bei mir, Raptor System und Programme auf der F1.

Wolfram
2007-12-01, 20:11:49
Darauf hab ich gewartet! Gern geschehen!:biggrin:

Und deshalb geschrieben "zugegriffen werden soll", was soviel heißt wie "das OS will beide Datenblöcke gleichzeitig". Dass eine HD keine zwei Sektoren gleichzeitig laden kann weiß ich auch. Und es geht auch nicht wenn die Köpfe zufällig richtig positioniert sind.

Wenn auf der ersten Partition die Programme liegen und auf der zweiten die Spiele wird id.R. auch nicht gleichzeitig (erspart mir die Erbsenzählerei) von beiden Partitionen gelesen.
Nicht? Wieso denn nicht?

Btw. Wer Wert auf Speed legt hat das System ohnehin auf einer anderen Platte als Programme / Spiele. So ist das bei mir, Raptor System und Programme auf der F1.
Das mag die Verwaltung vereinfachen, mehr Speed bringt das nicht. Warum sollte es Deiner Meinung nach? Quatsch... ich hatte "Partition" statt "Platte" gelesen. Mehr Speed bringt es aber auch so nur, wenn von beiden Platten gleichzeitig gelesen werden kann.

Wuge
2007-12-01, 20:34:18
Gern geschehen!:biggrin:

Nicht? Wieso denn nicht?

Das mag die Verwaltung vereinfachen, mehr Speed bringt das nicht. Warum sollte es Deiner Meinung nach? Quatsch... ich hatte "Partition" statt "Platte" gelesen. Mehr Speed bringt es aber auch so nur, wenn von beiden Platten gleichzeitig gelesen werden kann.


Ich lade selten große Programme während ich spiele oder Videos ansehe. Aber vorkommen kann es natürlich. Deshalb sollte man seine Partitionen/Platten so organisieren, dass gleichzeitig von verschiedenen Platten, selten jedoch gleichzeitig von verschiedenen Partitionen auf einer Platte gelesen wird.

Bei mir klappt das bisher verdammt gut :D Gewisse Überschneidungen lassen sich sicher nie vermeiden... Aber wenn sich die Systemdateien über eine 1000 GB große Partition verteilen, sollte man sich Gedanken machen ;)

Wolfram
2007-12-01, 20:45:29
Ich lade selten große Programme während ich spiele oder Videos ansehe. Aber vorkommen kann es natürlich. Deshalb sollte man seine Partitionen/Platten so organisieren, dass gleichzeitig von verschiedenen Platten, selten jedoch gleichzeitig von verschiedenen Partitionen auf einer Platte gelesen wird.

Bei mir klappt das bisher verdammt gut :D Gewisse Überschneidungen lassen sich sicher nie vermeiden... Aber wenn sich die Systemdateien über eine 1000 GB große Partition verteilen, sollte man sich Gedanken machen ;)
Tja... das wäre noch die Frage. Es wird ja immer auf System + Anwendungen/Daten zugegriffen, egal, was Du machst. Ob die Köpfe dann aus dem Datenbereich wieder in den Systembereich zurückmüssen oder alles vermischt ist und die nächste benötigte Systemdatei irgendwo liegt- zeigt sich da wirklich ein Unterschied?

Wenn ich mehrere Platten einsetze, ist das eine andere Sache. Dennoch wird aber niemand wird ja bei den heutigen Plattengrößen 25GB nutzen und den Rest leer lassen. Und die Frage ist immer noch, ob bei der Verteilung auf mehrere Platten der Controller nicht schnell zum Flaschenhals wird, jedenfalls solange man simple Onboard-Controller verwendet und es nicht um das Schreiben großer Dateien geht (zB Temporärdateien bei Audio- oder Videoschnitt, da bringen mehrere Platten immer etwas).

Wuge
2007-12-01, 21:12:41
Naja, wenn man zwei Platten hat kann man jeweils eine Partition am Anfang der Platte für das System bzw. die Programme anlegen. Damit hat man die Problematik ganz gut (natürlich nicht 100%ig) im Griff.

Auf den Partitionen dahinter dann die Daten... Filme, Musik, Backups, was weiß ich. Somit wird der Platz genutzt und man vermindert das hin-und-her-springen des Kopfs weitgehend. Beim Systemstart oder beim öffnen des IE, Word, Excel etc. werden wohl kaum gleichzeitig mp3s vom OS angefordert.