PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : wofür schnelleren speicher bei sandy bridge?


eraser-x
2011-01-08, 10:27:51
moin

kurze frage was bringt mir ein zb ka 2000er speicher wenn ich mir ein sandy system hole weil fsb takten geht ja mal null

sprich ich sehe da keinen sinn auf hohen takt zu gehen oder über sehe ich da ein detail an der sache?

mfg

TechNickel
2011-01-08, 10:47:20
Der Sinn von OC Speicher früher war, dass man ihn beim Übertakten unbedingt gebraucht hat, da der Speicher ja 1:1 an den FSB gebunden war. Wie du ja selber gemerkt hast, ist das bei SB nicht mehr der Fall, und wenn sich seit Bloomfield und Lynnfield nicht gravierend etwas geändert hat, wird SB auch so gut wie kaum davon profitieren. Die Vorteile sind auf jeden Fall so klein, dass man sie nur in Benchmarks merkt, und rechtfertigen das Geld, dass solcher Speicher kostet, absolut nicht.

Teurer Speicher ist zur Marketing Sache geworden, die einzigen Leute, die den wirklich "brauchen" sind die, die bei hwbot Benchmark Rekorden hinterherjagen. Jeder andere Mensch steck das Geld lieber in die Grafikkarte, CPU oder Kühlung (für mehr OC).

eraser-x
2011-01-08, 10:55:20
also hab ich alles richtig erkannt :D
dann kommt lieber ein standart dimm rein mit besserer cl wenn der preis das mitmacht und fertig

mfg

ux-3
2011-01-08, 11:26:04
Habe wir irgendwo einen Thread zum Thema "Warum lässt Intel den Multi offen"? Wenn FSB nicht verändert werden kann, dann hätte Intel doch mit festem Multi das Tor zum OC dicht. Was ist der Gedanke dahinter?

nymand
2011-01-08, 12:28:20
Habe wir irgendwo einen Thread zum Thema "Warum lässt Intel den Multi offen"? Wenn FSB nicht verändert werden kann, dann hätte Intel doch mit festem Multi das Tor zum OC dicht. Was ist der Gedanke dahinter?

Weil sie sich den offenen Multi bezahlen lassen? Außerdem übertaktet doch eh ne Minderheit - wieso also nicht die paar Freaks glücklich machen und gleichzeitig mehr geld in der tasche haben.

TechNickel
2011-01-08, 14:33:24
Das Problem ist nicht, das Intel den Bclk Takt festgesetzt hat (haben sie nicht), das Problem ist, dass die SATA und PCIE Takte etc. jetzt an ihn gekoppelt sind. Der/die Taktgeber sitzt(en) nicht mehr auf dem Mainboard, sondern in der CPU. Somit übertaktest du automatisch auch den PCIE Bus und deine Festplatten. Das geht aber nicht gut, und schon nach einer kleinen Anhebung wird das System instabil. Also geht nur Übertaktung über den Multi.

Ob Intel das aus Kostengründen gemacht hat, oder ob sie bewusst die kleine Minderheit der Übertakter zu K Modellen mit freiem Multi zwingen wollen, ist unklar (vielleicht war es auch beides).

ux-3
2011-01-08, 14:41:52
Ob Intel das aus Kostengründen gemacht hat, oder ob sie bewusst die kleine Minderheit der Übertakter zu K Modellen mit freiem Multi zwingen wollen, ist unklar (vielleicht war es auch beides).

Ah, der freie Multi kostet also extra. Ich hab beim Stöbern gelesen, dass spätere Modelle auch im fsb wieder beweglich werden sollen.

Gast
2011-01-08, 16:30:43
Hm was die übertaktung von pcie betrifft, vielleicht stellen AMD und Nvidia ja bald Grakas her, die auch mit einem stark erhöhten bustakt noch garantiert stabil laufen. Was die Festplatten betrifft, ist das wirklich ein Problem der Platten? Müsste man dann mal schauen welche da besonders empfindlich sind und welche einen höheren Takt klaglos mitmachen

ux-3
2011-01-08, 16:39:47
Müsste man dann mal schauen welche da besonders empfindlich sind und welche einen höheren Takt klaglos mitmachen

Das willst du nicht wirklich rausfinden - denn dann stürzt nicht nur der Rechner ab, sondern deine HDD wird korrupt.

Noebbie
2011-01-08, 16:44:22
Hm, vielleicht liegt hinter der Absicht folgendes:

Die Modelle werden vorher von Intel intern auf höhere Taktraten getestet und bekommen je nach Ergebnis das K angehängt und gewisse Einschnitte. Damit beeinflusst Intel direkt, dass höhere Taktraten beim OC erzielt werden.

Gast
2011-01-08, 17:15:14
Natürlich sollte man die Festplatten nicht mit wichtigen Daten testen... Oder meinst du mit korrupt Hardwaretechnisch beschädigt so dass Fehler auch bleiben, wenn man den Takt wieder auf Standard stellt und alle Sektoren der Festplatte einmal überschreibt?

Noebbie
2011-01-08, 17:23:15
Natürlich sollte man die Festplatten nicht mit wichtigen Daten testen... Oder meinst du mit korrupt Hardwaretechnisch beschädigt so dass Fehler auch bleiben, wenn man den Takt wieder auf Standard stellt und alle Sektoren der Festplatte einmal überschreibt?

Bei höheren Takraten steigt halt irgendwann der Sata-Controller aus und schreibt nur noch Mist in Form von falschen Bits auf die Platte. Kaputt wird der so schnell nicht gehen aber die Daten kann man sich damit ziemlich flott zerballern.

Den gleichen Effekt hatten damals viele, bzw. heute noch, die fleißig ihren PCIe Takt höher stellen und sich irgendwann wundern warum das System nicht mehr bootet oder Partitionen einfach weg sind!

TechNickel
2011-01-08, 17:59:27
Ah, der freie Multi kostet also extra. Ich hab beim Stöbern gelesen, dass spätere Modelle auch im fsb wieder beweglich werden sollen.

Ja, aber auch nicht besonders viel extra. Momentan sind die Unterschiede noch relativ hoch, aber das dürfte sich bald ändern, wenn mann mal auf die Preisliste (http://en.wikipedia.org/wiki/Sandy_Bridge_(microarchitecture)#Desktop_Processors) guckt. Ist wohl hauptsächlich, weil die nachfrage nach K Modellen momentan besonders hoch ist.

Hm was die übertaktung von pcie betrifft, vielleicht stellen AMD und Nvidia ja bald Grakas her, die auch mit einem stark erhöhten bustakt noch garantiert stabil laufen. Was die Festplatten betrifft, ist das wirklich ein Problem der Platten? Müsste man dann mal schauen welche da besonders empfindlich sind und welche einen höheren Takt klaglos mitmachen

Solche Grafikkarten wird es nicht geben und sie würde nichts bringen, denn es müssten nicht nur sie, sondern eben noch alle möglichen anderen Geräte (USB hängt da glaube ich auch dran) mit dem höheren Referenztakt zurechtkommen. Im Endeffekt ist es viel einfacher einen K Prozessor zu nehmen, als sämtliche Hardware OC fähig zu machen. Und es sind schließlich auch nicht nur die Geräte, sondern auch die Intel Controller selber im P67 Chipsatz, die mit dem höheren Referenztakt zurechtkommen müssen. Und Intel wird sich wohl kaum die Mühe geben, die OC-fähig zu machen, wenn Bclk OC ja gerade verhindert werden soll.

Gast
2011-01-08, 21:13:35
Ist es nicht möglich, das PCIe, Sata, USB und Freunde in Zukunft bei einigen Mainboards entkoppelt werden, so wie es damals bei PCI eingeführt wurde, aber nicht Standard war?

TechNickel
2011-01-08, 22:17:59
Aufgrund der Architektur der Sandy Bridge CPUs geht es eben nicht. So wie ich das verstehe, braucht man dafür mehrere Taktgeber auf dem Mainboard, wodurch die einzelnen Frequenzen verschiedener Interfaces sich nicht gegenseitig beeinflussen. Bei Sandy Bridge gibt es nun aber nur einen Taktgeber (http://www.anandtech.com/show/3871/the-sandy-bridge-preview-three-wins-in-a-row/5), und der sitzt auf der CPU. Somit hat Intel die Möglichkeit abgeschafft, den Bclk unabhängig zu ändern. Eine Änderung der Bclk beeinflusst gezwungenermaßen alle anderen Bus Frequenzen.
Siehe auch hier (http://en.wikipedia.org/wiki/Sandy_Bridge_(microarchitecture)#Overclocking).

Beim Sandy Bridge E, dem Nachfolger der aktuellen S1366 Plattform (erscheint vermutlich Q3 2011), wird man den Bclk aber wie gewohnt unabhängig ändern können, normales Übertakten, wie wir es kennen, ist also wieder möglich.

RavenTS
2011-01-15, 19:05:14
Benutzt man die integrierte GPU dürfte doch schnellerer Speicher etwas bringen oder.?!

TechNickel
2011-01-15, 20:28:26
Bei normalen Settings kaum, siehe hier (http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index37.php) (ganz unten). Aber anstatt des teuren Speichers kauft man sich eh lieber eine Grafikkarte, wenn es einem auf die 3D Leistung ankommt.

Schrotti
2011-01-15, 22:39:12
Aufgrund der Architektur der Sandy Bridge CPUs geht es eben nicht. So wie ich das verstehe, braucht man dafür mehrere Taktgeber auf dem Mainboard, wodurch die einzelnen Frequenzen verschiedener Interfaces sich nicht gegenseitig beeinflussen. Bei Sandy Bridge gibt es nun aber nur einen Taktgeber (http://www.anandtech.com/show/3871/the-sandy-bridge-preview-three-wins-in-a-row/5), und der sitzt auf der CPU. Somit hat Intel die Möglichkeit abgeschafft, den Bclk unabhängig zu ändern. Eine Änderung der Bclk beeinflusst gezwungenermaßen alle anderen Bus Frequenzen.
Siehe auch hier (http://en.wikipedia.org/wiki/Sandy_Bridge_(microarchitecture)#Overclocking).

Beim Sandy Bridge E, dem Nachfolger der aktuellen S1366 Plattform (erscheint vermutlich Q3 2011), wird man den Bclk aber wie gewohnt unabhängig ändern können, normales Übertakten, wie wir es kennen, ist also wieder möglich.

Eigentlich ein Grund die CPU zu meiden.

Den Mist gab es damals schon wo man mit Erhöhung des FSB alle anderen Komponenten mit übertaktet hat.

TechNickel
2011-01-16, 13:48:18
Eigentlich nicht, da sie bei vergleichbarem Preis trotz der Einschränkung mehr fürs Geld bietet.

Und es ist ja nicht so, als ob Intel die Änderungen verheimlicht, man weiss ja, was die da anbieten, also kann man Intel auch kaum unethisches Verhalten vorwerfen. Ein 2500K hat für Übertakter das beste Preis/Leistungs-Verhältnis aller aktuellen CPUs in dem Bereich, AMD und Intels alter i5 760 können da nicht mithalten. Der 2500K ist leistungstechnisch sowohl @stock als auch übertaktet eine klare Verbesserung, also wo ist das Problem?

=Floi=
2011-01-16, 20:38:28
ich dachte es kommt nur der sockel 2011?

naja, der vorteil der kaufbaren k modelle ist schon größer. Das übertakten geht so viel besser und problemloser und man kann auch noch den idle modus richtig nutzen.
die frickelei mit dem fsb/blc war auch immer eine sache des boards und des chipsatzes und es war immer blöd, wenn hier irgendwas den guten prozessor ausbremste.
die paar € ist die sache mit dem offenen multi schon wert.

vorher kam man ja nur über ein ES oder über eine extreme edition an so ein modell...

RavenTS
2011-01-16, 21:01:00
Bei normalen Settings kaum, siehe hier (http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index37.php) (ganz unten). Aber anstatt des teuren Speichers kauft man sich eh lieber eine Grafikkarte, wenn es einem auf die 3D Leistung ankommt.

Ohje, das ist ja erbärmlich. Woran das wohl liegt? Kommt der Memory-Controller da nicht mehr hinterher oder ist die Rohperformance der GPU an sich einfach absolut am Limit und braucht schlicht keinen schnelleren Speicher.?!

TechNickel
2011-01-16, 22:47:50
Liegt wohl an der GPU, wenn du dir die 880x600 Benchmarks anguckst, die ja eher auf die CPU gehen, siehst du, dass die dann schon etwas von schnellerem Speicher hat, also kann der Memory Controller schon was mit dem anfangen.