Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Core i7: (P)Review-Thread
Whigga
2008-12-20, 16:34:45
@Backfisch
Ich finde es merkwürdig, dass Hardtecs 4U selber 100W gemessen haben. Aber nun anhand von Zahlen der französischen Seite CannardPC einen Artikel über den unglaublichen Stromverbrauch des Core i7 machen, der selbst die Intel TDP sprengt.
Bei Hardtecs 4U stellt man quasi die eigenen Messwerte ad absurdum und wiederspricht sich selbst mit Werten von einer anderen Seite.
:hammer::crazy::hammer::ugly::uconf3:
Vielleicht solltest du erstmal lesen lernen, bevor du son Blödsinn ablässt. Oder hast du etwa gar nicht gelesen und meinst dir anhand von der Überschrift und zwei Bildern, die anscheinend nicht mal jeder richtig versteht, ein Urteil bilden zu können?
In dem Artikel wird eindeutig erläutert, wie die ersten Ergebnisse zustande gekommen sind und warum diese eben nicht den kompletten Verbauch des i7 darstellen. Intel versorgt die CPU nicht wie gewohnt nur aus der 12v-leitung sondern jetzt wieder auch aus der 3,3v-leitung. (im falle des intel mainboards, den herstellern hat man freigelassen wie sie das regeln aber 99% werden das gleiche wie intel tun) Die ersten messungen sind also nur als teilmessung zu betrachten weil der komplette uncore-bereich fehlt.
Die von canard-pc haben diesen umstand quasi "aufgedeckt" weil intel natürlich nichts von sich aus gesagt hat. Bei ht4u hat man lediglich anhand einer theoretischen nachrechnung versucht deren werte nachzuvollziehen und ist eben zu dem ergebnis gekommen, dass diese aller wahrscheinlichkeit nach korrekt sind. Eigene werte konnte man nicht angeben, weil schlichtweg die zeit und noch einige andere sachen den umbau einer weiteren platine unmöglich machten. Im neuen jahr wird dann ein neuer artikel kommen, in dem man eigene und dann korrekte werte präsentieren wird.
VooDoo7mx
2008-12-20, 17:10:00
Schande über mein haupt, ich hab den Artikel tatsächlich nicht gelesen und nur überflogen.
Aber jetzt ergibt für mich alles einen Sinn und ich bin erleuchtet.
Vielen Dank!
FlashBFE
2008-12-20, 18:06:20
Falls es hier noch jemand interessiert ;) :
Mein i7 920 läuft absolut problemlos mit dem Billigspeicher. Also man muss nicht unbedingt das Geld für Ultra-1337-Hyper-RAM rausschmeißen.
Ansonsten ärgert mich, dass die X58 Mainboards schon wieder deutlich im Preis nachgelassen haben. Aber so ist das wohl nun mal. Übertaktungsversuche werde ich jetzt noch nicht starten, erstens weil ich noch den Standard-Intel-Kühler drauf hab, zweitens weil ich mein Fortron Bluestorm 350W NT vielleicht doch nicht zusehr stressen sollte.
Chrisch
2008-12-20, 20:10:48
Naja, das die Preise so nachgelassen haben liegt wohl am €/$ Kurs...
letzten Monat wars noch 1€/~1.26$ und nu ists 1€/~1.43$
Edit: hab heut nen bissel mitm speicher gespielt....
http://www.abload.de/img/4ghz-32m-01paf6.png
http://www.abload.de/img/cinebench-01h7pp.png
http://www.abload.de/img/ddr3-2000-014cop.png
Und weil mir gerade langweilig ist gibt es noch nen Bild...
http://img2.abload.de/img/p1010350nk3i.jpg
.alice
2008-12-20, 20:57:41
hi,
hier mal meine momentanen settings mit 08/15 ram... :biggrin:
http://www.250kb.de/u/081220/j/dd146269.jpg
cu
=Floi=
2008-12-20, 22:00:35
sind die 200mhz fsb jetzt stabil? Letztens ging ja nur 211x19
edit
sind die 1,9volt vdimm nicht zu viel für den speichercontroller in der cpu?
Chrisch
2008-12-20, 22:08:52
Solang die Differenz zwischen VTT & VDimm nicht größer ist als 0.5v machts nicht wirklich viel. Ist auch nur zum testen gewesen ;)
20x200 läuft mit beiden neuen CPUs.
Matrix316
2008-12-20, 22:45:04
Schau mal unten auf die Skala. Die 128W sind alle Werte zusammengerechnet. Oder ist das nur dämlich beschriftet?
Das ist der allgemeine Trennd mehrere Diagramme in eins zu quetschen und die Leute dann nicht mehr durchblicken. ;) Ich denke mal, jeder Balken zeigt rechts den Max Wert an, hat aber als Anfangswert 0.
Und so wie ich das verstanden habe, dachten die, der Strom kommt nur über 12V, dabei bekommt die CPU auch über 3,3 V noch Saft und verbraucht so mehr Strom, als man an der 12 V Leitung messen würde...wurde oben schon erklärt ;)
Nightspider
2008-12-22, 17:02:06
Seit heute wird bei Geizhals das Gigabyte GA-EX58-UD4P, X58 gelistet.
Weiß schon jemand was darüber?
http://geizhals.at/eu/a392098.html
Chrisch
2008-12-22, 17:36:50
War gestern auch schon bei Geizhals drin. Sieht optisch genauso aus wie das UD5/Extreme nur mit anderen Kühlern
und 2 Sata Ports weniger. GA-EX58-UD4 und GA-EX58-UD3R kommen auch noch (auf der GB HP bereits gelistet).
FlashBFE
2008-12-23, 00:03:02
Also mal zur Übersicht:
GA-EX58-Extreme
GA-EX58-UD5
GA-EX58-UD4P
GA-EX58-UD4
GA-EX58-UD3R
GA-EX58-DS4
Was will denn Gigabyte mit dann insgesamt sechs Mainboards mit dem gleichen Chipsatz? Ich finde ja schon drei zu viel!
Steffko
2008-12-23, 02:18:05
Gibts eigentlich schon irgendwelche neuen Chipsätze für Core i7, die in absehbarer Zeit rauskommen sollen? 200€+ für nen Mainboard ist schon en bissal hart imo.
=Floi=
2008-12-23, 03:24:15
wenn du das geld nicht hast, dann darfst du auch keinen core i7 kaufen! Die boards sind für das gebotene spottbillig und verdammt gut.
die gigabyte boards sind immer mehr abgespeckt und bieten zB auch kein tsli mehr. die kleineren versionen haben auch weniger beilagen, garantie und nur noch 1 gblan anschluss etc.
Steffko
2008-12-23, 03:34:14
Klar, deswegen kaufe ich mir momentan ja auch keinen :biggrin: Aber ich gehe doch mal davon aus, dass Intel den Core i7 früher oder später (zwangsläufig) einem etwas breiteren Publikum zugänglich machen will. Und dazu würden natürlich günstigere Mainboards ganz gut passen.
Wenn ich dafür dann "nur" 1xGigabit LAN bekomme (wer braucht mehr :confused: ) und kein Triple SLI nutzen kann, dann kann ich damit durchaus leben :wink:
Spasstiger
2008-12-23, 03:39:01
Gibts eigentlich schon irgendwelche neuen Chipsätze für Core i7, die in absehbarer Zeit rauskommen sollen? 200€+ für nen Mainboard ist schon en bissal hart imo.
Für den Core i7 (Bloomfield) werden in absehbarer Zeit keine neuen Chipsätze kommen und günstigere erst recht nicht. Wenn du Nehalem-Rechenpower mit einem günstigen Board haben willst, musst du dich noch einige Monate gedulden bis der Core i5 mit Lynnfield-Kern kommt. Dieser verzichtet im Gegensatz zum Bloomfield auf den QPI-Link und die Northbridge und stellt selbst 16 PCIe-Lanes für Grafikkarten bereit. SLI/Crossfire wird damit wohl nicht gehen.
Steffko
2008-12-23, 22:02:41
Alles klar, vielen Dank für deine Hilfe.
SLI/Crossfire wird damit wohl nicht gehen.
Angeblich soll ein Split auf 2x8xPCIe möglich sein.
centurio81
2008-12-24, 07:34:47
Warum hat man den Core 2 Quad nicht schon auf 75°C getrieben wenn man im FC2 doch eh nur auf 62°C kommt.
Alles "nur" ein psychologisches Problem.
Genauso sieht es aus..
Ich hab meien Quad mit Prime auf etwas über 70 Grad Kerntemp..
Hat mich nie gestört..
Der steckt das weg, sagt ja sogar INTEL.. ;D
Und andere regen sich über 50 Grad auf wenn er die erreicht.. ^^
.alice
2008-12-24, 08:01:04
hi,
die gigabyte boards sind immer mehr abgespeckt und bieten zB auch kein tsli mehr. die kleineren versionen haben auch weniger beilagen, garantie und nur noch 1 gblan anschluss etc.
ich selber habe das GA X58-DS4 (siehe oben)
und bin begeistert
ein LAN port (langt mir)
tripple SLI ist nicht mögl. (*dual SLI geht !?!),
tripple CrossFire geht.
bios ist in etwa genauso umfangreich wie das vom EX58-Extreme,
spannungen sind sehr stabil, auch die vcore.
board ist sehr gutmütig, keine speicherzicke,
das akt. bios ohne nennenswerte fehler.
als max. BCLK habe ich hier 219 mhz ausgemacht, wobei ich meine, das diese BCLK eher von der CPU abhängig ist wie vom motherboard.
kostenpkt.: < 200,- eur
als einzigen negativen pkt. der mir bisher auffällt ist die doch recht hohe
temperatur des x58 chips.
so original aus dem karton ins gehäuse verbaut,
mit guter durchlüftung war sie etwa 68grad warm (heiss), nach
austausch des wlp pads und entfernen der blauen abdeckungen auf den
kühlkörpern + 80mm geregeltem pwm lüfter, bleibt sie nun unter 50grad.
momentan läuft der i920 mit 21x191 bei 1.26vc sehr entspannt :wink:
//edit: hier noch ein paar screens dazu:
http://forums.overclockers.co.nz/showthread.php?t=33025
cu
=Floi=
2008-12-24, 08:29:12
das DS4 hat keinen support für SLi. Es ist auch noch bei den lanes abgespekt etc.
es ist sicherlich noch immer ein sehr gutes board, nur bei den spitzenmodellen gibt es eben noch ein paar gute extra sachen die auch geld kosten! Ich halte das UD5 noch immer für das beste board zum besten preis.
boxleitnerb
2008-12-24, 10:48:32
Wieso ziehen gerade die Intel-Chipsätze immer soviel Saft? Bei was liegt der X58, bei 40+ Watt? In welcher Technologie werden die denn gefertigt?
Sorkalm
2008-12-24, 12:36:56
Wieso ziehen gerade die Intel-Chipsätze immer soviel Saft? Bei was liegt der X58, bei 40+ Watt? In welcher Technologie werden die denn gefertigt?
Die 4er- und 5er-Serie sind 65 nm.
Die Northbridge des X58 hat eine TDP von 24,1 Watt, mit der Southbridge kommen glaube ich nochmal 4,x Watt dazu. Allles in allem schon recht viel für einen Chipsatz in 65 nm ohne Speichercontroller. Aber es stört halt in dem Bereich kaum einen.
40 Watt sinds aber nicht, jedenfalls nicht für den Chipsatz. Mit einem entsprechenden Board dazu kann man das aber schaffen.
Spasstiger
2008-12-24, 12:39:35
Wieso ziehen gerade die Intel-Chipsätze immer soviel Saft? Bei was liegt der X58, bei 40+ Watt? In welcher Technologie werden die denn gefertigt?
Die TDP des X58 liegt zusammen mit der ICH10R (Southbridge) bei 24,1 Watt, als System-TDP für den Core i7 + X58-Chipsatz (inkl. ICH10) gibt Intel 154,1 Watt an:
http://ark.intel.com/chipset.aspx?familyID=36776
Ohne die ICH10R dürfte es wohl rund 20 Watt sein.
Der idle-Verbrauch des Chipsatzes liegt bei 8,5 Watt:
http://www.intel.com/Assets/PDF/designguide/320840.pdf
Der X58 wird in 65 nm gefertigt, bei der ICH10R konnte ich es nicht rausfinden. Angesichts der breiten Verwendung der ICH10R über alle aktuellen Chipsätze hinweg vermute ich aber eine 45-nm-Fertigung bei der ICH10R.
Die TDP des X58-Chipsatzes finde in Anbetracht der über 32 PCIe-Lanes, der umfangreichen Storage-Features und der schnellen Interconnects (QPI-Link, DMI) gar nicht so hoch.
Natürlich muss man auch dagegen halten, dass der ebenfalls in 65 nm gefertigte 790FX (ohne Southbridge) von AMD bei ähnlichen Features nur max. 8 Watt schluckt und im Idle seinen Verbrauch auf unter 1 Watt senken kann. Die SB600 schlägt mit 4 Watt TDP zu Buche. Insgesamt liegt die aktuelle AMD-High-End-Chipsatz-Kombi also bei max. 12 Watt, halb soviel wie bei Intel.
Bei Nvidia siehts dafür genau andersrum aus, hier ist die TDP bei den High-End-Chipsätzen ca. doppelt so hoch wie bei Intel.
Sorkalm
2008-12-24, 14:01:14
OK, dann waren die 24,1 Watt für den gesamten Chipsatz. Dann dürften das 4,1 Watt für die SB gewesen sein, also exakt 20 Watt TDP für den X58 selbst.
bei der ICH10R konnte ich es nicht rausfinden. Angesichts der breiten Verwendung der ICH10R über alle aktuellen Chipsätze hinweg vermute ich aber eine 45-nm-Fertigung bei der ICH10R.
Intel fertigt noch keine Chipsätze im 45-nm-Prozess. Auch der 65-nm-Prozess wird ja erst seit Anfang dieses Jahres genutzt (P45 war der erste Chipsatz in 65 nm). X48 wurde ja sogar noch in 90 nm gefertigt.
Von daher sind 65 nm für die ICH10 sehr wahrscheinlich.
=Floi=
2008-12-24, 21:04:34
http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_intel_p45_eaglelake/#
dort sind die chipsätze und die southbridges aufgelistet
ich10 ist in 013nm gefertig ;D Da nutzt intel einfach die "alte" technik profitabel weiter. scheinbar hat eine sb keinen so hohen transistor count und der verbrauch ist sowieso minimal.
Avalox
2008-12-25, 14:21:55
ich10 ist in 013nm gefertig ;D Da nutzt intel einfach die "alte" technik profitabel weiter. scheinbar hat eine sb keinen so hohen transistor count und der verbrauch ist sowieso minimal.
Das ist doch der Sinn der ganzen Chipsatz Produktion. Für die CPU Produktion veraltete Kapazitäten nutzen. Sonst würden sich moderne Fertigungen gar nicht mehr rechnen.
So kommt es auch, dass ein NVidia-Chipsatz trotz massiv besseren Grafikmöglichkeiten/-Leistung nicht mehr als ein Intel-Chipsatz verbraucht.
.alice
2009-01-10, 11:39:59
hi,
hier mal ein intressanter vergleich: i7 mit und ohne HT bei identischem setup...
ohne
http://www.250kb.de/u/090109/p/6159a8b1.png
mit
http://www.250kb.de/u/090109/p/c5a5dc5d.png
cu
Sowohl die vCore wie auch die vDimm sind unterschiedlich, also ein kein identisches Setup.
Die Spannung ist ja nicht performance-relevant, außerdem wird sie afaik vom Core i7 selbständig geregelt.
.alice
2009-01-10, 18:45:46
hi,
Sowohl die vCore wie auch die vDimm sind unterschiedlich, also ein kein identisches Setup.
lol...:wink:
cu
AnarchX
2009-01-17, 22:39:18
Da es dazu noch keine Benchmarks gibt, mal die Bitte an die Core i7 User mal die Grafikleistung des i7 zu testen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6413826#post6413826
DL von Swiftshader 2.0 (http://www.transgaming.com/products/swiftshader/download/swiftshader_v20_demo.zip)
... einfach die dlls und die ini in den 3DM01SE-Ordner kopieren.
Testweise in der ini den Threadcount auf 8 erhöhen.
BlackBirdSR
2009-01-17, 23:36:58
Da es dazu noch keine Benchmarks gibt, mal die Bitte an die Core i7 User mal die Grafikleistung des i7 zu testen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6413826#post6413826
DL von Swiftshader 2.0 (http://www.transgaming.com/products/swiftshader/download/swiftshader_v20_demo.zip)
... einfach die dlls und die ini in den 3DM01SE-Ordner kopieren.
Testweise in der ini den Threadcount auf 8 erhöhen.
Ums gleich vorweg zu nehmen,
Swiftshader setzt intensiv auf MMX bzw SSE.
Nightspider
2009-01-18, 02:44:21
Done
http://www.abload.de/img/3dmark01se_scoreue7j.jpg
CPU-Auslastung:
http://www.abload.de/img/3dmark01se_cpuauslastub8oh.jpg
Spasstiger
2009-01-22, 09:44:41
Weiß hier jemand genau, wie die Cacheverwaltung beim Core i7 aussieht?
In der PCGH steht, dass das komplette Cachedesign inklusive ist und dass somit alle Daten des L1-Caches auch im L2-Cache liegen und alle Daten des L2-Cache auch im L3-Cache.
Bei Wikipedia (http://de.wikipedia.org/wiki/Intel_Core_i7#Neuerungen) lese ich dagegen raus, dass nur L3-Cache inklusive ist, d.h. dass der L1- und der L2-Cache unterschiedliche Daten halten können, aber beide im L3-Cache abgebildet werden.
In beiden Fällen hat man natürlich nur effektiv 8 MiB Cache, aber die Wikipedia-Variante erscheint mir etwas sinnvoller, weil so der ohnehin schon recht knappe L2-Cache besser ausgenutzt wird.
BlackBirdSR
2009-01-22, 16:20:53
Weiß hier jemand genau, wie die Cacheverwaltung beim Core i7 aussieht?
In der PCGH steht, dass das komplette Cachedesign inklusive ist und dass somit alle Daten des L1-Caches auch im L2-Cache liegen und alle Daten des L2-Cache auch im L3-Cache.
War schon immer der Meinung, dass die L1->L2 Caches bei Intel nur Teil-Inklusive sind. Kann das aber nicht beweisen ;)
Wie stellst du dir das genau vor?
Mal eine Frage zum Memory Controller. Stimmt es, dass bei >1333Mhz tripple channel nicht mehr richtig läuft und nur noch auf zwei Kanäle gleichzeitig zugegriffen werden kann? Frage deshalb, weil ja die meisten Overclocker 3x 2GB @1600Mhz verwenden.
Zitat:
"Overclocking
...The Core i7 has three memory channels, and the channel bandwidth can be selected by setting the memory multiplier. However, in early benchmarks, when the clock rate is set higher than a threshold (1333 for the 965XE) the processor will only access two memory channels simultaneously. A 965XE has higher memory throughput with 3xDDR3-1333 than with 3xDDR3-1600, and 2xDDR3-1600 has almost identical throughput to 3xDDR3-1600.[14]"
http://en.wikipedia.org/wiki/Intel_Core_3
AnarchX
2009-02-02, 09:50:02
Core i7 bald im Notebook, wenn auch nur in der Bastel-DTR-Variante mit 5.4kg:
http://www.eurocom.com/products/future/specselectfuture.cfm?model_id=201
Die genannte GPU ist aber nicht ganz uninteressant. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7079004#post7079004)
dildo4u
2009-02-02, 15:30:23
MSI: „Günstiges“ Mainboard für Intels Core i7
http://www.computerbase.de/news/hardware/mainboards/intel-systeme/2009/februar/msi_guenstiges_mainboard_intels_core_i7/
http://www.computerbase.de/preisvergleich/a400003.html
CPU Scaling with GTX295 (Core i7/C2D/C2Q/PH 1/2)
http://www.legionhardware.com/document.php?id=807
Farcry 2 ist absolut extrem mit 2.1Ghz ist der Core i7 schneller als ein 4Ghz C2Q. :eek:
http://www.legionhardware.com/document.php?id=807&p=7
dildo4u
2009-02-04, 13:38:49
xbitlabs: "1+1=?": ATI CrossFireX and Nvidia SLI on Intel Core i7 Platform"
http://www.xbitlabs.com/articles/video/display/crossfirex-sli-core-i7.html
Nakai
2009-02-04, 13:44:37
Netter Test. Ich kann mich dem Fazit nicht ganz anschließen. CF hat imo etwas mehr Nachteile als SLI. Von der reinen Performancezuwächsen liegen beide etwa auf gleichem Niveau. Sehe hier jedoch Vorteile für SLI wegen besseren Konfigurationsmöglichkeiten.
Imo jedoch ein sehr guter Test von Xbitlabs, welchen ich von dieser Seite nicht erwartet hätte.
mfg Nakai
Warum ist der Core i7 in den folgenden Benchmarks bei hoher Bildqualität langsamer als ein Phenom 2? Bei nicht praxisrelevanten niedrigen Auflösungen liegt er hingegen vorn.
Liegt es eventuell am verwendeten Mainboard(Intel DX58 SO)? :confused:
Benchmarks:
Far Cry 2 (http://www.hardware-infos.com/tests.php?test=64&seite=7)
G.R.A.W. I (http://www.hardware-infos.com/tests.php?test=64&seite=8)
Far Cry 2 (http://ht4u.net/reviews/2009/amd_phenom2_am3/index28.php)
Crysis (http://ht4u.net/reviews/2009/amd_phenom2_am3/index31.php)
Am Prozessor selbst wirds nicht liegen...
Der Grund dürfte die Anbindung der Grafikkarten sein und damit das Board. Möglicherweise liegts an der Plattform generell oder am DX58 SO.
EDIT: Oder es liegt an der Unterschiedlichen Speicherausstattung. Das Intel System hat 1 GB weniger, das könnte bei hohen Auflösungen die paar Prozent ausmachen.
Hier (http://www.tomshardware.com/reviews/socket-am3-phenom,2148-10.html) ist ein Test mit "6 GB (2 GB x 3) Corsair Dominator DDR3-1600 8-8-8-24 @ 1.65 V (Intel)" und einem anderen Mainboard("Asus Rampage II Extreme (X58/ICH10) LGA 1366"), bei dem der Core i7 unter hohen Auflösungen ebenfalls langsamer ist. Bei Left 4 Dead ist er bis zu ~30% langsamer als ein PII 940.
Von einem 300€ Board müsste man eigentlich eine höhere Leistung erwarten.
Undertaker
2009-04-19, 21:15:10
Da gabs einen grundlegendes Problem, schau dir mal den 3DMark Vantage GPU-Score des i7 Systems an... THG hat solche Unstimmigkeiten natürlich wie immer sorglos übersehen... :rolleyes:
Da gabs einen grundlegendes Problem, schau dir mal den 3DMark Vantage GPU-Score des i7 Systems an... THG hat solche Unstimmigkeiten natürlich wie immer sorglos übersehen... :rolleyes:
Den Kommentaren nach zu urteilen, ist der Autor dem Problem nachgegangen.
"After building the system up, breaking it down, building it up again and re-running all of the i7 920 tests, the gaming scores came out the same. We questioned Nvidia on its latest drivers, but everything looked normal to them. It didn't seem to be a configuration problem--the i7 still dominated in the productivity-oriented benchmarks."
Leider gibt es nicht viele CPU-Vergleiche Core i7 vs. PII mit praxisrelevanten Auflösungen und AA/AF, aber die bisher gefundenen bestätigen diese Schwäche beim Core i7.
Weiterer Test:
http://www.guru3d.com/article/amd-phenom-ii-x4-810-and-x3-720be-review-am3/22
Außer bei COD4 ist der Core i7 bei den Spielebenchmarks unter 1600x1200 langsamer.
Undertaker
2009-04-19, 23:22:38
65 zu 67fps bei BiA, keine Differenz bei Fear, Vorsprung bei CoD4 und 32 zu 33-35fps bei Crysis nennst du langsamer? Im Angesicht der Rundung der Angaben auf ganze fps und durchschnittlichen Schwankungen solcher Benches von gewiss >5% würde ich da mal eher gar nix sehen...
Ein anderes Review mit hohen Auflösungen:
http://www.legionhardware.com/document.php?id=807&p=5
Keinerlei Unterschiede im GPU-Limit, wie zu erwarten.
Weiterer Test:
http://www.guru3d.com/article/amd-phenom-ii-x4-810-and-x3-720be-review-am3/22
Außer bei COD4 ist der Core i7 bei den Spielebenchmarks unter 1600x1200 langsamer.
Alles elendig GPU-Limitiert! Kann man dort schön an den OC-Vergleichen sehen. Somit als CPU-Vergleich absolut unbrauchbar.
der i7 rockt (zur zeit) mit high end sli und cf karten.
alles in allem sind die gpu's aber zu langsam das er sich bei einer derzeitigen single gpu karte (welche wohl die meisten verwenden) für spiele lohnen würde.
mal tests abwarten wenn nv und amd neue gpus rausbringen > 4 quartal 2009
tombman
2009-04-20, 04:20:00
der i7 rockt (zur zeit) mit high end sli und cf karten.
alles in allem sind die gpu's aber zu langsam das er sich bei einer derzeitigen single gpu karte (welche wohl die meisten verwenden) für spiele lohnen würde.
mal tests abwarten wenn nv und amd neue gpus rausbringen > 4 quartal 2009
Natürlich ist der i7 der Schnellste im gaming- weiß gar ned wie die Leute auf die Idee kommen, es wäre nicht so ...
Nicht wenn es ein GPU-Limit gibt (was ja öfters vorkommen soll ;)). Komischerweise ist er dann selbst langsamer als Core-2-Chips.
Das Problem ist wohl irgend eines der Infrastruktur, nicht vom Prozessor selbst.
tombman
2009-04-20, 04:47:58
Nicht wenn es ein GPU-Limit gibt (was ja öfters vorkommen soll ;)). Komischerweise ist er dann selbst langsamer als Core-2-Chips.
Das Problem ist wohl irgend eines der Infrastruktur, nicht vom Prozessor selbst.
Also laut dem hier
http://www.legionhardware.com/document.php?id=807
reicht eine 295er schon aus um zu ownen- und ich hab 2 ;)
dargo
2009-04-20, 11:41:39
alles in allem sind die gpu's aber zu langsam das er sich bei einer derzeitigen single gpu karte (welche wohl die meisten verwenden) für spiele lohnen würde.
Was ein Quark.
640x480 1xAA/1xAF max. Details
http://img3.imagebanana.com/img/ii7yzjzd/nfs2009041919543786.jpg
1680x1050 4xMSAA/16xAF max. Details
http://img3.imagebanana.com/img/0r6hcczl/nfs2009041919533760.jpg
Ein Yorkfield @3,7Ghz und eine OC GTX260.
Wobei mir die Leistung vom i7 in gpu-limitierten Szenen schon zu denken gibt. Woran liegt das genau?
Botcruscher
2009-04-20, 12:36:13
Daran das IH ÄH wie üblich Bockmist progt. Witzig ist das du damit auch noch hausieren gehen must.
dargo
2009-04-20, 13:02:32
Daran das IH ÄH wie üblich Bockmist progt. Witzig ist das du damit auch noch hausieren gehen must.
Das musst du mir mal näher erklären. EA programmiert Mist weil eine Szene selbst in praxisrelevanten Settings noch zum großen Teil (im Beispiel sogar zu 100%) cpu-limitiert ist? tsss
Dann scheinen aber viele Mist zu programmieren - das wären Codemasters mit DIRT/GRID, Rockstar mit GTA IV, Crytek mit Crysis, etc. :rolleyes:
Sorry, aber im Moment gibst du von dir Mist. Ist schon sche... wenn die ganzen Benchmarks im Netz nichts taugen, was? ;)
Wobei mir die Leistung vom i7 in gpu-limitierten Szenen schon zu denken gibt. Woran liegt das genau?
Vermutlich am sehr komplexen Powermanagement des i7 in Verbindung mit dem Betriebssystem (man müsste das ganze auch mal unter Linux testen). Bei hoher GPU-Last langweilt sich der Core i7 und schaltet öfters als nötig die Kerne in einen seiner vielen Schlafmodi.
65 zu 67fps bei BiA, keine Differenz bei Fear,
Bei Fear sind es 3 fps Differenz.
Vorsprung bei CoD4 und 32 zu 33-35fps bei Crysis nennst du langsamer?
Ja, und bei den niedrigeren Auflösungen, wo der Core i7 hingegen vorne liegt, nenne ich das schneller.
Im Angesicht der Rundung der Angaben auf ganze fps und durchschnittlichen Schwankungen solcher Benches von gewiss >5% würde ich da mal eher gar nix sehen...
Solche Schwankungen(aufgrund zu weniger Testdurchläufe) müssten dann eher zufällig auftreten und nicht nur bei hohen Auflösungen + AF/AA.
Ein anderes Review mit hohen Auflösungen:
http://www.legionhardware.com/document.php?id=807&p=5
Keinerlei Unterschiede im GPU-Limit, wie zu erwarten.
Bei schnellen SLI/Crossfire-Karten tritt das Problem offenbar nicht auf.
dargo
2009-04-20, 13:52:20
Vermutlich am sehr komplexen Powermanagement des i7 in Verbindung mit dem Betriebssystem (man müsste das ganze auch mal unter Linux testen). Bei hoher GPU-Last langweilt sich der Core i7 und schaltet öfters als nötig die Kerne in einen seiner vielen Schlafmodi.
Hmm... kann man das PM im Bios und/oder beim OS nicht deaktivieren?
Undertaker
2009-04-20, 15:30:23
Bei Fear sind es 3 fps Differenz.
Ein Phenom II X4 920 ist gleichschnell. Da der X3 720BE diesem in keinem Punkt überlegen ist, ist die Messschwankung für diesen Bench schoneinmal bewiesen. Ergo, gleich schnell.
Ja, und bei den niedrigeren Auflösungen, wo der Core i7 hingegen vorne liegt, nenne ich das schneller.
Leider ist kein Bench mit klarem CPU Limit dabei, die Differenzen der CPUs allesamt von der GPU komprimiert. Wenn wir aber auf anderen Seiten in solchen Settings Vorteile bis 30%, 40% oder noch mehr sehen macht es keinen Sinn, Differenzen <5% (inkl. Abzug von Messschwankungen, siehe Fear), die nur in den wenigsten Tests auftreten, mit "schneller" oder "langsamer" einzustufen. Zumal es auch gegenteilige Fälle gibt:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_805_810/18/#abschnitt_company_of_heroes
Hier unterliegt der X4 im GPU-Limit.
Solche Schwankungen(aufgrund zu weniger Testdurchläufe) müssten dann eher zufällig auftreten und nicht nur bei hohen Auflösungen + AF/AA.
Da treten sie natürlich ebenso auf. Wenn aber dort zusätzliche Differenzen in der ausschlaggebenden CPU-Leistung in weit höherem Maß vorherrschen, wird dies schlicht überdeckt.
Bei schnellen SLI/Crossfire-Karten tritt das Problem offenbar nicht auf.
Für ein diskretes SLI/CF System mag man solche Einwände noch verstehen und genauer untersuchen, für ein SLI/CF auf einer Karte ist das aber bedeutungslos - bis auf die höhere GPU-Leistung verhält sich eine solche Karte nicht anders als eine Single-GPU Karte.
Bis auf Hardware-Infos haben wir keinen weiteren Test (solche Bugs wie THG ausgeklammert), der das Bild überhaupt bestätigt. Da kommt doch der Verdacht hoch, dass es vielmehr dort womöglich an der speziellen Kombination der Komponenten, einer Treibersache oder evntl. ungewöhnlich schlechter Latenzen des PCIe des verwendeten Boards lag.
Ein Phenom II X4 920 ist gleichschnell. Da der X3 720BE diesem in keinem Punkt überlegen ist, ist die Messschwankung für diesen Bench schoneinmal bewiesen. Ergo, gleich schnell.
Du irrst dich. Die Taktfrequenz des HT-Links und des L3 Caches ist 200Mhz höher, daher kommt der Unterschied.
Leider ist kein Bench mit klarem CPU Limit dabei, die Differenzen der CPUs allesamt von der GPU komprimiert. Wenn wir aber auf anderen Seiten in solchen Settings Vorteile bis 30%, 40% oder noch mehr sehen macht es keinen Sinn, Differenzen <5% (inkl. Abzug von Messschwankungen, siehe Fear), die nur in den wenigsten Tests auftreten, mit "schneller" oder "langsamer" einzustufen. Zumal es auch gegenteilige Fälle gibt:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_805_810/18/#abschnitt_company_of_heroes
Hier unterliegt der X4 im GPU-Limit.
Die GPU ist dort nicht am Limit, da nur mit 1.280 x 1.024 gemessen wird.
Da treten sie natürlich ebenso auf. Wenn aber dort zusätzliche Differenzen in der ausschlaggebenden CPU-Leistung in weit höherem Maß vorherrschen, wird dies schlicht überdeckt.
Bei den niedrigeren Auflösungen liegen die FPS auch schon nah beieinander.
Für ein diskretes SLI/CF System mag man solche Einwände noch verstehen und genauer untersuchen, für ein SLI/CF auf einer Karte ist das aber bedeutungslos - bis auf die höhere GPU-Leistung verhält sich eine solche Karte nicht anders als eine Single-GPU Karte.
Du irrst dich. Zum Beispiel können dort Mikroruckler auftreten und der Verwaltungsaufwand ist höher.
Bis auf Hardware-Infos haben wir keinen weiteren Test (solche Bugs wie THG ausgeklammert), der das Bild überhaupt bestätigt.
Den Test von ht4u.net hast du auch gleich ausgeklammert. Du machst es dir ganz schön einfach.
THG ist dem Problem nachgegangen:
http://www.tomshardware.com/reviews/geforce-gtx-280,2156.html
Sowohl HTT als auch die Stromsparfunktion kosten jeweils ~5% Leistung. Schaltet man beides ab, würden die beiden Prozessoren vermutlich auf ähnlichem Niveau liegen, wie es bei GPU-limitierenden Einstellungen zu erwarten wäre. Interessanterweise liegen bei der Analyse auch zwei GeForce GTX 280 Karten in der höchsten Auflösung hinter der 4870 x2 zurück.
Der Core i7 wird von THG seit diesem Artikel nur noch mit ausgeschalteter Stromsparfunktion getestet.
Da kommt doch der Verdacht hoch, dass es vielmehr dort womöglich an der speziellen Kombination der Komponenten, einer Treibersache oder evntl. ungewöhnlich schlechter Latenzen des PCIe des verwendeten Boards lag.
Also sind es auf einmal doch keine Messschwankungen.:rolleyes:
MrMostar
2009-04-26, 21:50:26
Liegt die mangelnde Grafikperformance bei höheren Auflösungen nicht an der externen PCIe Anbindung des i7?
Dieses Problem will Intel doch mit dem Integrierten PCIe Controller im kommenden i5 lösen, dieser sollte auch bei sehr hoher PCIe Last schneller als die AMD Konkurrenz sein...
Undertaker
2009-04-26, 22:40:18
Du irrst dich. Die Taktfrequenz des HT-Links und des L3 Caches ist 200Mhz höher, daher kommt der Unterschied.
Ich habe einen PII und kann dir garantieren, dass die 200MHz mehr Kerntakt in jedem Fall effektiver sind. Der Vergleich X3 720 vs. X4 940 ist der beste Fall für eine typische Messschwankung.
Die GPU ist dort nicht am Limit, da nur mit 1.280 x 1.024 gemessen wird.
Was ein GPU-Limit ist, ist dir aber bekannt? Wenn der PII von 2,5GHz auf 3GHz nur 6% gewinnt, ist dies ein recht klares. Die Core 2/i7 sind durchgängig schneller, mit Ausnahme des Q6600 für ein GPU-Limit sogar recht deutlich.
Und um das nochmal klar zu stellen, welche Auflösung verwendet wird, hat damit, ob es ein GPU-Limit geben kann, rein gar nix zu tun. In Crysis auf Very High reicht selbst auf High-End GPUs wohl noch weniger dafür.
Bei den niedrigeren Auflösungen liegen die FPS auch schon nah beieinander.
Nichtsdestotrotz herrscht hier wenigstens z.T. kein vollkommenes GPU-Limit, den X2 7750 sieht man häufiger mal zurückfallen.
Du irrst dich. Zum Beispiel können dort Mikroruckler auftreten und der Verwaltungsaufwand ist höher.
Mikroruckler haben mit der reinen FPS-Zahl nichts zu tun, aber das sollte bekannt sein. Warum ein möglicher, zusätzlicher Verwaltungsaufwand für die CPU jetzt verhindern sollte, dass ein unterstellter Plattformnachteil nicht mehr auftritt, müsstest du mir erläutern.
Den Test von ht4u.net hast du auch gleich ausgeklammert. Du machst es dir ganz schön einfach.
Worauf sprichst du an, diesen Test?
http://ht4u.net/reviews/2009/amd_phenom_2_x4_940/
Da zeigt exakt 1 von 6 Spielen (Prey) eine verwertbare Differenz von >4% vom i7 920 zum X4 940. Das wäre mir jetzt ein wenig dünn, um über einen Nachteil zu disktuieren, zumal die i7 Modelle interessanterweise untereinander durchaus eine gewisse Skalierung zeigen, ergo also nicht komplett im GPU-Limit hingen und in diesem Spiel damit wohl einfach nicht sehr gut performen.
THG ist dem Problem nachgegangen:
http://www.tomshardware.com/reviews/geforce-gtx-280,2156.html
Sowohl HTT als auch die Stromsparfunktion kosten jeweils ~5% Leistung. Schaltet man beides ab, würden die beiden Prozessoren vermutlich auf ähnlichem Niveau liegen, wie es bei GPU-limitierenden Einstellungen zu erwarten wäre. Interessanterweise liegen bei der Analyse auch zwei GeForce GTX 280 Karten in der höchsten Auflösung hinter der 4870 x2 zurück.
Der Core i7 wird von THG seit diesem Artikel nur noch mit ausgeschalteter Stromsparfunktion getestet.
Korrigiere mich, aber warum der Vantage einen ~2000 Punkte zu niedrigen GPU-Score auf dem i7 ausgab, steht da nicht. Diese Größenordnung ist auch für Punkte wie Stromsparmodi und SMT unrealistisch, ergo ein größeres Problem des Tests - das macht die restlichen Zahlen des i7-Systems recht wertlos und auch erklärbar.
Also sind es auf einmal doch keine Messschwankungen.:rolleyes:
Bisher kann dir wohl keiner eine genaue Aussage machen, aber fassen wir zusammen:
Beispielfälle ohne Bugs (wie bei THG) sind äußerst rar, speziell wenn man sich auf sinnvolle Differenzen größer 5%, besser 10% beschränkt, je nachdem auf welche FPS-Höhe (und damit evntl. Rundungen) man sich bezieht. Im Fall von CB zeigte ein Spiel, CoH, sogar ein exakt gegenteiliges Bild. Die Masse aller Reviews sieht erwartungsgemäß gar keine Differenz.
jedenfalls ist ein Phenom II X4 945 in spielen bereits bei 1280p schneller als ein i7 940 und was anderes interessiert mich nicht.
dargo
2009-04-27, 12:59:50
jedenfalls ist ein Phenom II X4 945 in spielen bereits bei 1280p schneller als ein i7 940 und was anderes interessiert mich nicht.
Wo leitest du das ab? :)
CB performacerating spiele und das ist nur ein beispiel.
oder gibts irgendwelche einwände gegen den test?
dargo
2009-04-27, 13:07:13
CB performacerating spiele und das ist nur ein beispiel.
oder gibts irgendwelche einwände gegen den test?
Um Gottes Willen, nicht schon wieder CB. X-D
Zum x-ten Mal - Timedemos <> Spieleperformance. :)
Um Gottes Willen, nicht schon wieder CB. X-D
Zum x-ten Mal - Timedemos <> Spieleperformance. :)
wieso hat der i7 ein problem damit? und warum nur bei normalen und hohen auflösungen? erklär es mir bitte
Jake Dunn
2009-04-27, 13:11:10
CB performacerating spiele und das ist nur ein beispiel.
oder gibts irgendwelche einwände gegen den test?
Dann nimm doch ein E8600 der nochmal schneller als der 945er nach dem CB Rating ist :D Na merste was?
Dann nimm doch ein E8600 der nochmal schneller als der 945er nach dem CB Rating ist :D Na merste was?
weil die spiele keinen quad nutzen? bzw davon profitieren ;)
Jake Dunn
2009-04-27, 13:13:49
weil die spiele keinen quad nutzen? bzw davon profitieren ;)
Nö weil auch die GPU grütze ist ;)
bei welcher seite gibts dann einen verlässlichen CPU test? (kein GPU test)
dargo
2009-04-27, 13:16:22
wieso hat der i7 ein problem damit? und warum nur bei normalen und hohen auflösungen? erklär es mir bitte
Ich weiß es selbst nicht. Ich würde es aber anders formulieren - das i7-System hat anscheinend Probleme bei hohen GPU-Lasten (nicht hoher Auflösung, das ist ein kleiner Unterschied), sobald es in Richtung CPU-Limit geht kann er wieder zeigen was in ihm steckt. Hier im Forum gabs mal eine Vermutung, dass es an den Stromsparmodis liegen könnte. Hätte ich ein i7-System würde ich dem nachgehen. Anscheinend interessiert das aber selbst die Reviewer nicht oder habe ich was übersehen? Oder es liegt daran wie die CPU angebunden ist. Sollte dies der Fall sein werden wir mit dem i5 schlauer.
bei welcher seite gibts dann einen verlässlichen CPU test? (kein GPU test)
Hier: ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Ist aber nicht wirklich das was du suchst. Du willst ja wissen wie verschiedene CPUs in Games performen. So einen Test der auch was taugt wirst du aber im Netz nicht finden.
Jake Dunn
2009-04-27, 13:19:07
bei welcher seite gibts dann einen verlässlichen CPU test? (kein GPU test)
http://www.legionhardware.com/document.php?id=807&p=5 ;)
Jake Dunn
2009-04-27, 13:22:33
Ich weiß es selbst nicht. Ich würde es aber anders formulieren - das i7-System hat anscheinend Probleme bei hohen GPU-Lasten (nicht hoher Auflösung, das ist ein kleiner Unterschied), sobald es in Richtung CPU-Limit geht kann er wieder zeigen was in ihm steckt. Hier im Forum gabs mal eine Vermutung, dass es an den Stromsparmodis liegen könnte.
Das macht oft Probleme egal ob bei INTEL od. AMD ->hab ich immer aus :biggrin:
dargo
2009-04-27, 13:26:31
Das macht oft Probleme egal ob bei INTEL od. AMD ->hab ich immer aus :biggrin:
Ich habe nur EIST deaktiviert. Mit C1E alleine dürfte es keine Performancenachteile geben.
der i7 sieht da schon anders aus.
aber nicht der E8600, der is immer noch schneller wieder PHII X4 ;)
bzw gleichschnell mit dem C2Q bei gleicher taktung.
QC nutzt/profitiert halt fast kein spiel und wenn vielleicht ~10% zu nem DC
Jake Dunn
2009-04-27, 13:30:55
Ich habe nur EIST deaktiviert. Mit C1E alleine dürfte es keine Performancenachteile geben.
Ja beim i7 schwankt das ganz schön bei den vielen Multis ^^
der i7 sieht da schon anders aus.
aber nicht der E8600, der is immer noch schneller wie C2Q oder PHII X4 ;D
bzw gleichschnell bei dem C2Q mit gleicher taktung
Ich wurde nichtmal einen Q6600 gegen ein E8600 tauschen (zum Verkaufen ja ;D)
dargo
2009-04-27, 13:33:23
Ja beim i7 schwankt das ganz schön bei den vielen Multis ^^
Nur mit C1E? Kann ich mir gar nicht vorstellen. Im Prinzip dürfte der Multi Ingame sich damit gar nicht ändern.
Jake Dunn
2009-04-27, 13:40:46
Nur mit C1E? Kann ich mir gar nicht vorstellen. Im Prinzip dürfte der Multi Ingame sich damit gar nicht ändern.
Hab ich einzeln nicht getestet, EIST und C1E sind doch von einander abhängig so weit mir bekannt.
dargo
2009-04-27, 14:31:32
Hab ich einzeln nicht getestet, EIST und C1E sind doch von einander abhängig so weit mir bekannt.
Was heißt abhängig? C1E senkt die Vcore und den Takt, EIST beeinflusst den Takt zusätzlich je nach Last.
Ich habe einen PII und kann dir garantieren, dass die 200MHz mehr Kerntakt in jedem Fall effektiver sind. Der Vergleich X3 720 vs. X4 940 ist der beste Fall für eine typische Messschwankung.
Lies noch genau mal, was du geschrieben hast.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7247272&postcount=560
Du behauptest fälschlicherweise, dass der X3 720BE(trotz schnellerem HT-Link und L3-Cache) dem PII 920 in keinem Punkt überlegen sei..
Schau dir das Diagramm auch noch einmal an. Ein X4 940 wird dort gar nicht getestet.
Was ein GPU-Limit ist, ist dir aber bekannt? Wenn der PII von 2,5GHz auf 3GHz nur 6% gewinnt, ist dies ein recht klares. Die Core 2/i7 sind durchgängig schneller, mit Ausnahme des Q6600 für ein GPU-Limit sogar recht deutlich.
Dir ist das offenbar nicht bekannt. Die Abstände zwischen den verschiedenen CPUs sind viel zu groß und die Auflösung für dieses Spiel zu niedrig, als dass dort ein GPU-Limit vorliegen könnte.
Und um das nochmal klar zu stellen, welche Auflösung verwendet wird, hat damit, ob es ein GPU-Limit geben kann, rein gar nix zu tun. In Crysis auf Very High reicht selbst auf High-End GPUs wohl noch weniger dafür.
Du vergisst, dass Crysis auch bei niedrigen Auflösungen viel mehr GPU-Leistung benötigt als CoH. Dort liegen die Werte dann ja auch logischerwiese viel näher beieinander.
Nichtsdestotrotz herrscht hier wenigstens z.T. kein vollkommenes GPU-Limit, den X2 7750 sieht man häufiger mal zurückfallen.
Das ändert nichts daran, dass die Werte dort auch schon nah beieinander liegen.
Mikroruckler haben mit der reinen FPS-Zahl nichts zu tun, aber das sollte bekannt sein. Warum ein möglicher, zusätzlicher Verwaltungsaufwand für die CPU jetzt verhindern sollte, dass ein unterstellter Plattformnachteil nicht mehr auftritt, müsstest du mir erläutern.
Lies noch mal, was geschrieben wurde. Ich bezog mich auf deine Behauptung "bis auf die höhere GPU-Leistung verhält sich eine solche Karte nicht anders als eine Single-GPU Karte". Wenn dem so wäre, könnten sich ATI und Nvidia ihre spielespezifischen Crossfire- und SLI-Profile/Optimierungen sparen. :rolleyes:
Dass dieses Verhalten bisher nicht bei Dual-Chip-Karten zu beobachten war, widerlegt nicht die Tatsache, dass es bei Single-Chip-Karten auftritt.
Worauf sprichst du an, diesen Test?
http://ht4u.net/reviews/2009/amd_phenom_2_x4_940/
Da zeigt exakt 1 von 6 Spielen (Prey) eine verwertbare Differenz von >4% vom i7 920 zum X4 940. Das wäre mir jetzt ein wenig dünn, um über einen Nachteil zu disktuieren, zumal die i7 Modelle interessanterweise untereinander durchaus eine gewisse Skalierung zeigen, ergo also nicht komplett im GPU-Limit hingen und in diesem Spiel damit wohl einfach nicht sehr gut performen.
Das dir etwas ein wenig dünn ist, widerlegt diese Ergebnisse nicht. Ich habe doch gerade mehrere Benchmarks verlinkt, um Messfehler ausschliessen zu können. Zum Beispiel bei Far Cry 2 sieht man dort auch eine Differenz wie bei hardware-infos.com.
Ich meinte übrigens den Test, den ich im ersten Post verlinkt habe:
http://ht4u.net/reviews/2009/amd_phenom2_am3/index28.php
Korrigiere mich, aber warum der Vantage einen ~2000 Punkte zu niedrigen GPU-Score auf dem i7 ausgab, steht da nicht. Diese Größenordnung ist auch für Punkte wie Stromsparmodi und SMT unrealistisch, ergo ein größeres Problem des Tests - das macht die restlichen Zahlen des i7-Systems recht wertlos und auch erklärbar.
Du machst es dir ganz schön einfach. Dort wurde versucht festzustellen, woran genau es liegt. Daher wurde verständlicherweise nur ein Benchmark genommen.
Bisher kann dir wohl keiner eine genaue Aussage machen, aber fassen wir zusammen:
Die von dir vermuteten Messschwankungen kann man schon einmal ausschliessen.
Beispielfälle ohne Bugs (wie bei THG) sind äußerst rar, speziell wenn man sich auf sinnvolle Differenzen größer 5%, besser 10% beschränkt, je nachdem auf welche FPS-Höhe (und damit evntl. Rundungen) man sich bezieht. Im Fall von CB zeigte ein Spiel, CoH, sogar ein exakt gegenteiliges Bild.
Dort war die Auflösung zu niedrig.
Die Masse aller Reviews sieht erwartungsgemäß gar keine Differenz.
Deine Behauptung ist falsch. Hier ist noch eine weiterer Test, der diese Ergebnisse bestätigt:
http://www.legionhardware.com/document.php?id=825&p=6
Laut THG hat auch Nvidia die Ergebnisse reproduzieren können.
Undertaker
2009-04-27, 17:32:24
Lies noch genau mal, was du geschrieben hast.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7247272&postcount=560
Du behauptest fälschlicherweise, dass der X3 720BE(trotz schnellerem HT-Link und L3-Cache) dem PII 920 in keinem Punkt überlegen sei..
Schau dir das Diagramm auch noch einmal an. Ein X4 940 wird dort gar nicht getestet.
Tippfehler, wie du dir wohl denken konntest ;).
Dir ist das offenbar nicht bekannt. Die Abstände zwischen den verschiedenen CPUs sind viel zu groß und die Auflösung für dieses Spiel zu niedrig, als dass dort ein GPU-Limit vorliegen könnte.
Hallo?? 6% Skalierung bei 20% Mehrtakt, viel deutlich kann man es dir nicht mehr machen, dass da die GPU am Ende war.
Du vergisst, dass Crysis auch bei niedrigen Auflösungen viel mehr GPU-Leistung benötigt als CoH. Dort liegen die Werte dann ja auch logischerwiese viel näher beieinander.
Genau das habe ich wie du lesen kannst geschrieben. Und um das mal vor zu ziehen,
Dort war die Auflösung zu niedrig.
damit ist auch das Unfug. Für ein GPU-Limit braucht es, siehe unser Crysis Beispiel, nicht zwangsläufig hohe Auflösungen.
Das ändert nichts daran, dass die Werte dort auch schon nah beieinander liegen.
Immernoch nah, aber weitaus weniger je nach Spiel. Das beweist dir das zunehmende GPU-Limit.
Lies noch mal, was geschrieben wurde. Ich bezog mich auf deine Behauptung "bis auf die höhere GPU-Leistung verhält sich eine solche Karte nicht anders als eine Single-GPU Karte". Wenn dem so wäre, könnten sich ATI und Nvidia ihre spielespezifischen Crossfire- und SLI-Profile/Optimierungen sparen. :rolleyes:
Dass dieses Verhalten bisher nicht bei Dual-Chip-Karten zu beobachten war, widerlegt nicht die Tatsache, dass es bei Single-Chip-Karten auftritt.
Nocheinmal ganz einfach: Ich möchte gerne irgendeinen handfesten Anhaltspunkt, warum sich diese Theorie angeblich nicht auf Dual-CPU Karten wiederspiegel können soll. Den gibt es bisher nicht, was die gesammte Problematik generell in Frage stellt.
Das dir etwas ein wenig dünn ist, widerlegt diese Ergebnisse nicht. Ich habe doch gerade mehrere Benchmarks verlinkt, um Messfehler ausschliessen zu können. Zum Beispiel bei Far Cry 2 sieht man dort auch eine Differenz wie bei hardware-infos.com.
Ich meinte übrigens den Test, den ich im ersten Post verlinkt habe:
http://ht4u.net/reviews/2009/amd_phenom2_am3/index28.php
OK, was möchtest du jetzt aus 4% Differenz herauslesen? Bei Computerbase haben identische AMD-Systeme, einmal mit dem 790GX und einmal mit dem 790FX, z.T. höhere Differenzen gezeigt. Wir sind hier weit entfernt von einem Bereich, in dem man über solche Werte sinnvoll diskutieren kann.
Du machst es dir ganz schön einfach. Dort wurde versucht festzustellen, woran genau es liegt. Daher wurde verständlicherweise nur ein Benchmark genommen.
Ich mache mir gar nichts einfach, ich halte fest: SMT und Stromsparmodi kosten keine 25%, die bei THG im Vantage fehlten. Hier lief etwas schief, was nicht geklärt wurde. Punkt.
Die von dir vermuteten Messschwankungen kann man schon einmal ausschliessen.
Nope. Das kannst du bei Differenzen ab 5-10%, nicht aber bei Differenzen darunter, die z.T. auch noch erheblich auf ganze FPS gerundet sind.
Deine Behauptung ist falsch. Hier ist noch eine weiterer Test, der diese Ergebnisse bestätigt:
http://www.legionhardware.com/document.php?id=825&p=6
Laut THG hat auch Nvidia die Ergebnisse reproduzieren können.
Ein Test ändert nichts an der Masse. Wenn nach wie die meisten Reviews, z.B. CB - wo wir "Dank" der 9800GTX auch in 1280x1024 schon im GPU-Limit sind - keine Differenz zeigen, besteht weiterhin erheblicher Klärungsbedarf. Einer generelle Problematik müsste sich auch in generell jedem Test zeigen.
Im übrigen: i7 920/940 Werte bisheriger Reviews sind seit der allgemeinen QPI-Erhöhung auf den Takt des i7 965 überholt. Möglich, dass sich hieraus eine Problematik ergab, die mittlerweile somit behoben ist.
Jake Dunn
2009-04-27, 18:54:35
Im übrigen: i7 920/940 Werte bisheriger Reviews sind seit der allgemeinen QPI-Erhöhung auf den Takt des i7 965 überholt. Möglich, dass sich hieraus eine Problematik ergab, die mittlerweile somit behoben ist.
Hast du ein Link parat? :)
Undertaker
2009-04-27, 20:39:57
http://www.hardware-infos.com/news.php?news=2796
:)
Jake Dunn
2009-04-27, 22:53:45
http://www.hardware-infos.com/news.php?news=2796
:)
Thx :) Konnte ähnliches beobachten :D
Geht auch noch höher zu takten als die 6,4GT/s, wird sich bei SLI oder CF noch etwas stärker bemerkbar machen.
Tippfehler, wie du dir wohl denken konntest ;).
Nach deinen bisherigen falschen Behauptungen und dem vorhergehenden Satz wäre ein Ablesefehler wahrscheinlicher.
Hallo?? 6% Skalierung bei 20% Mehrtakt, viel deutlich kann man es dir nicht mehr machen, dass da die GPU am Ende war.
Deine Ausflüchte sind zwecklos. Wäre die GPU am Ende, wären die Differenzen viel geringer.
Im Artikel steht sogar:
"Bei Spielen wird auf die Auflösung von 1.280 x 1.024 Bildpunkten zurückgegriffen, da bei höheren Auflösungen quasi nur noch die Grafikkarte ein Rolle spielt, geringere Auflösungen aber kein Bezug zur Realität haben."
Genau das habe ich wie du lesen kannst geschrieben. Und um das mal vor zu ziehen,
Für CoH ist die Auflösung aber zu niedrig, um wie bei Crysis ein GPU-Limit feststellen zu können.
damit ist auch das Unfug. Für ein GPU-Limit braucht es, siehe unser Crysis Beispiel, nicht zwangsläufig hohe Auflösungen.
Das hat auch niemand behauptet. Mein Einwand bezog sich auf CoH, dass nun mal weniger GPU-Leistung benötigt als Crysis.
Immernoch nah, aber weitaus weniger je nach Spiel. Das beweist dir das zunehmende GPU-Limit.
Dort siehst du, dass es sich eben nicht um von dir vermutete Messschwankungen handelt.
Nocheinmal ganz einfach: Ich möchte gerne irgendeinen handfesten Anhaltspunkt, warum sich diese Theorie angeblich nicht auf Dual-CPU Karten wiederspiegel können soll. Den gibt es bisher nicht, was die gesammte Problematik generell in Frage stellt.
Es wäre überflüssige Spekulation, Vermutungen darüber aufzustellen, an welchen Unterschieden genau es liegt, da es nichts daran ändert, dass diese Ergebnisse bei Single-Chip-Karten auftreten.
OK, was möchtest du jetzt aus 4% Differenz herauslesen? Bei Computerbase haben identische AMD-Systeme, einmal mit dem 790GX und einmal mit dem 790FX, z.T. höhere Differenzen gezeigt. Wir sind hier weit entfernt von einem Bereich, in dem man über solche Werte sinnvoll diskutieren kann.
Du machst den Fehler die Ergebnisse isoliert zu betrachten und dich dann an vermutete Messschwankungen oder Fehler festzuklammern. Die Tests mit geringereren Differenzen bestätigen jedoch die Tests mit höheren Differenzen.
Ich mache mir gar nichts einfach, ich halte fest: SMT und Stromsparmodi kosten keine 25%, die bei THG im Vantage fehlten. Hier lief etwas schief, was nicht geklärt wurde. Punkt.
Doch, du machst es dir einfach, indem du versuchst die Differenzen als Messschwankungen oder Fehler abzutun. Das kann bei einem Test vielleicht der Fall sein, aber nicht bei so vielen Tests. Wenn bei THG etwas schief gelaufen wäre, hätte Nvidia die Ergebnisse auch nicht bestätigen können. Das kannst du nicht einfach ignorieren und stur an deiner Vermutung festhalten.
Nope. Das kannst du bei Differenzen ab 5-10%, nicht aber bei Differenzen darunter, die z.T. auch noch erheblich auf ganze FPS gerundet sind.
Du irrst dich. Die von dir vermuteten Messschwankungen kann man aufgrund der Vielzahl der Tests, der Tests mit höheren Differenzen und der Bestätigung durch Nvidia ausschliessen.
Ein Test ändert nichts an der Masse.
Deine Ausrede ist lächerlich. Du machst es dir ganz schön einfach und verdrehst die Tatsachen. Deine Vermutung, es würde sich um Messschwankungen handeln, ändert nichts an der Masse an Tests, die dieses Verhalten bestätigen. Deine Leugnungsversuche sind zwecklos.
Wenn nach wie die meisten Reviews, z.B. CB - wo wir "Dank" der 9800GTX auch in 1280x1024 schon im GPU-Limit sind - keine Differenz zeigen, besteht weiterhin erheblicher Klärungsbedarf. Einer generelle Problematik müsste sich auch in generell jedem Test zeigen.
Die hohen Differenzen und die niedrige Auflösung widerlegen deine Vermutung, dass dort ein GPU-Limit vorliegt.
Im Artikel steht sogar, dass diese niedrige Auflösung gewählt wurde, um ein GPU-Limit zu vermeiden.
Im übrigen: i7 920/940 Werte bisheriger Reviews sind seit der allgemeinen QPI-Erhöhung auf den Takt des i7 965 überholt. Möglich, dass sich hieraus eine Problematik ergab, die mittlerweile somit behoben ist.
Der Test von Legionhardware ist vom 22.4.2009 und bei hardware-infos.com (http://www.hardware-infos.com/tests.php?test=64&seite=8) wurde zusätzlich mit einem Core i7 965 XE getestet.
Undertaker
2009-05-01, 19:07:06
Wenn du bei 20% Mehrtakt und 6% Skalierung noch nichtmal ein GPU-Limit erkennst, ist für eine kompetente Diskussion mit dir Hopfen und Malz verloren. Glaub was du möchtest, keiner hindert dich daran. :)
dargo
2009-05-01, 20:33:00
Im Artikel steht sogar:
"Bei Spielen wird auf die Auflösung von 1.280 x 1.024 Bildpunkten zurückgegriffen, da bei höheren Auflösungen quasi nur noch die Grafikkarte ein Rolle spielt, geringere Auflösungen aber kein Bezug zur Realität haben."
Das alleine ist schon eine völlig verkehrte Aussage. :)
BlackBirdSR
2009-05-01, 20:51:35
Das alleine ist schon eine völlig verkehrte Aussage. :)
Sehe ich auch so, um die Sache mal zu festigen.
Lotzi
2009-05-01, 23:27:16
stimmt das das der 920er D0 Step auch ein 6,4 MT/s interface hat wie der XE965EE?
Undertaker
2009-05-01, 23:56:52
Alle i7 Modelle auf dem Markt haben den höheren QPI Takt des i7 965. Evntl. muss man diesen bei älteren Steppings/BIOS-Versionen aber noch von Hand heraufsetzen.
Lotzi
2009-05-02, 00:12:52
ich frage nur weil man mir heute sagte das das neue D0 Step beim 920er 6,4 QPI Interface hat
Das C0 Step hätte noch 4,8
Undertaker
2009-05-02, 00:27:05
Zum Launch ja, Intel hat aber alle Modelle offiziell für den höheren Takt freigegeben. Du darfst ohne Garantieverlust auch deinen C0 mit 6,4GT/s betreiben.
Lotzi
2009-05-02, 00:36:47
ok dann heisst das wie folgt
Beim C0 Stepping MUSS ich im Bios auf 6,4GT/s manuell umstellen
Beim D0 Stepping muss ich NICHTS im Bios umstellen da dort gleich die 6,4GT/s aktiv sind??
Vom ständigen Wiederholen wird deine Vermutung auch nicht wahr. Würde ein GPU-Limit vorliegen, würde das Diagramm so (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_805_810/22/#abschnitt_race_driver_grid) oder so (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_805_810/24/#abschnitt_world_in_conflict) aussehen. Wenn du glaubst, dass sich Nvidia, THG, legionhardware.com usw. alle irren und nur du recht hast, dann ist jede weitere Diskussion mir dir sinnlos. Man könnte den Eindruck gewinnen, dass es dir gar nicht um das Thema geht, sondern nur darum irgendwie recht zu haben. :rolleyes:
Ronny145
2009-05-04, 18:00:54
Die 9800 GTX+ ist nicht das richtige, kein Wunder das dort vieles durch die Karte ausgebremst wird. Und deswegen liegt dort der i7 ab und zu etwas zurück, wie hier schon geschrieben wurde, wirds aber nicht an der CPU liegen, sondern eher an der Plattform insgesamt. Kommt der Sockel 1366 nicht aus dem Server Bereich? Vielleicht nicht auf das letzte Prozent Leistung optimiert.
dargo
2009-05-04, 18:01:01
@ftw
Tut mir leid wenn ich mich bei euch einmische aber du verstehst leider nicht was Limits sind. Es gibt nicht nur 100% auf Seite X und Y.
anakin87
2009-05-06, 16:24:20
wie erkennt man eigentlich ob es sich bei dem i7 920 um ein C0 oder D0 handelt?
ich hab das ding noch nicht und würd das gerne vom auspacken schon wissen?
weil auf der verpackung steht es nicht explizit drauf oder?
beste grüße
der i7 ist zu teuer - wird sich nicht verkaufen können da ihn niemand wirklich braucht.
bei uns fragt niemand danach - wir haben auch keine X mainboards mehr auf lager (nur noch auf bestellung).
Klar stehts auf der Packung... Einfach SpecCode ablesen.
anakin87
2009-05-06, 18:12:51
denke nicht das der i7 als cpu alleine das problem ist, sondern das drumherum also MB und RAM sind noch im preis deutlich höher als bei MB mit 775 und ddr2... aber warum jetzt ne platform kaufen die auf nem älteren sockel basiert?
@nnn ah ja hört sich so an als arbeitest du eh an der quelle hast du ne idee wie man erkennt ob es sich um ein c0 oder d0 kerntyp handelt? seriennummer oder so?
@wuge ok und weiter das alleine hilft noch nicht viel.... schon klar von SLBCH (C0) auf SLBEJ (D0) wenn man weis wonach man sucht gehts besser :D
beste grüße
RAM ist doch inwzischen günstig... Bei Alternate gabs letztens 12 GB 1600er it 7-7-7-24 für 155 EUR ;)
i7 ist halt High-End. Daher sind die Boards und CPUs nicht die preisgünstigsten.
Jake Dunn
2009-05-06, 23:03:42
i7 ist halt High-End. Daher sind die Boards und CPUs nicht die preisgünstigsten.
Der 920er i7 ist doch kaum teurer als der Q9550er aber schneller :)
Der 920er i7 ist doch kaum teurer als der Q9550er aber schneller :)
Der Q9550 zählt auch nicht zu den Günstigsten. ;)
Und die Günstigsten zählen nicht zu den schnellsten ;)
Lotzi
2009-05-08, 14:47:00
eine frage
mein nachbar möchte sich einen 920er D0 holen aber DDR3 1600 fahren
kann er die ram geschwindikeit im bios auswählen oder kann der 920er nur speicherteiler bis 1333 im bios fahren?
mein nachbar möchte nichts übertakten nur einen 920er mit ddr3 1600 fahren
geht das?
dargo
2009-05-08, 17:19:17
Und die Günstigsten zählen nicht zu den schnellsten ;)
Und seit wann ist der 920-er i7 der Schnellste? ;)
Hat das jemand behauptet? Er zählt zu den schnellsten... Haare spalten will gelernt sein ;)
dargo
2009-05-08, 17:44:29
Hat das jemand behauptet?
Hat der Gast behauptet <= Q9550 wäre der Schnellste auf dieser Plattform? Wollen wir jetzt weiter klugscheißern?
eine frage
mein nachbar möchte sich einen 920er D0 holen aber DDR3 1600 fahren
kann er die ram geschwindikeit im bios auswählen oder kann der 920er nur speicherteiler bis 1333 im bios fahren?
mein nachbar möchte nichts übertakten nur einen 920er mit ddr3 1600 fahren
geht das?
das kann man über den Ramteiler einstellen, hier zb.10, EIST und C6 an.
http://www.abload.de/thumb/unbenannt8bnc.jpg (http://www.abload.de/image.php?img=unbenannt8bnc.jpg)
Jake Dunn
2009-06-03, 10:48:13
Test: Intel Core i7 950 und 975 Extreme Edition
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/
captainsangria
2009-06-03, 12:39:03
testen die alles in 1280?
mapel110
2009-06-03, 14:14:49
hehe, mein E8400 ist bei Games meist nur 2 % langsamer als ein 3.3 Ghz I7 ;D Shice Intel. :biggrin:
Botcruscher
2009-06-03, 14:17:11
testen die alles in 1280?
„Realitätsferne“ Spiele-Tests anklicken.:rolleyes:
hehe, mein E8400 ist bei Games meist nur 2 % langsamer als ein 3.3 Ghz I7 ;D Shice Intel. :biggrin:
Wenn du nicht in 800x600 und low details zockst kommt das sogar hin.;)
Test: Intel Core i7 950 und 975 Extreme Edition
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/
OMG.. die geballte Kompetenz am Werk.. Ne 9800GTX+ & die auflösung ??
und Fanboys wie redfirediablo die ja immer wieder auf die angeblichen Ungereimtheiten bei AMD-Reviews hinweisen überschlagen sich mit Lob.
Ist echt komplett sinnlos der Test. Was soll das?
tombman
2009-06-03, 16:09:23
Vorallem schreiben sie sich auf die Fahnen REALITÄTSNAH zu testen. Ja klar, als ob ein 975 Käufer sich kein SLI/CF System ins Gehäuse pfeffern würde :rolleyes:
Unter einer GTX295 hätten sie nicht testen dürfen...
derguru
2009-06-03, 16:16:07
eine 295gtx wäre perfekt dafür da sie in der auflösung ca. doppelt so schnell ist.
und dann noch das;D
Alle weiter in Frage kommenden Modelle (HD 4870, GTX 260, GTX 280) liefern zwar eine höhere Performance, aber nur bei unverhältnismäßig steigender Leistungsaufnahme – darum geht es in einem Prozessortest aber auch nicht.
Jake Dunn
2009-06-03, 16:20:08
Ach ist doch o.k. 1000$ CPU mit 99$ Graka :ulol:
Ein günstiger 920er reicht auch locker für den 955er von AMD, ist ja nichts neues das sich INTEL die XE richtig vergolden lässt und die P/L nicht gerade gut dastehen, das ist aber gewollt und nur für einen sehr kleinen Kundenkreis gedacht, daher hat man die CPUs auch im Portfolio.
y33H@
2009-06-03, 16:35:28
warum hat man im test bei dem i7-950 auf den DDR3-1066mhz und bei dem i7-975 auf den DDR3-1600mhz gesetzt?
Weil das genau deren offizielle Spezifikationen sind. Das machen wir aber seit Jahren so, sowohl bei AMD als auch Intel. Was der Hersteller der Prozessoren offiziell freigibt interessiert bei einem Prozessor-Test, nicht was ein Mainboardhersteller auf seine Packung schreibt.Man vergleicht also keine CPUs, sondern "Pakete" - selbst innerhalb einer CPU-Serie. Finde ich unpraktisch.
Jake Dunn
2009-06-03, 16:56:59
Man vergleicht also keine CPUs, sondern "Pakete" - selbst innerhalb einer CPU-Serie. Finde ich unpraktisch.
INTEL gibt doch auch Offiziel für den i7-975er nur 1066er Ram frei, daher ist die Aussage von CB großer BS
y33H@
2009-06-03, 17:05:08
Mal abgesehen davon ;D
Ach ist doch o.k. 1000$ CPU mit 99$ Graka :ulol:
Übliche MM Kombi. Lässt tief blicken auf CBs Leserschaft. ;)
Aber die nicht Grafikkartenlimitierten Benchmarks sind bezeichnend... Selbst der 920iger ist nahezu Konkurrenzlos. Von dem Übertaktungspotenzial ganz zu schweigen...
Aber die nicht Grafikkartenlimitierten Benchmarks sind bezeichnend... Selbst der 920iger ist nahezu Konkurrenzlos. Von dem Übertaktungspotenzial ganz zu schweigen...
Jo, da ist schon ne Menge Wumms dahinter, aber Hauptsache auf dem Stromverbrauch beim Turbomodus rumreiten.. Und die Argumentation zur Graka ist ja geradezu paradox.
Das mit dem Turbo ist auch quatsch. Wenn SpeedStep an ist, gehts Idle mit Turbo genauso weit runter wie ohne. Wenn man natürlich alle Energiesparmodi abschaltet, ist der Idle-Verbrauch logischerweise bei den dicken CPUs entsprechend hoch.
Gemessen an der Leistung ist der Last-Energieverbrauch auch sehr gering.
dargo
2009-06-03, 23:12:39
Wenn du nicht in 800x600 und low details zockst kommt das sogar hin.;)
Ganz bestimmt. :ueye:
Leute, vergesst die CPU-Tests von Computerbase in Verbindung mit Games. Die haben leider davon keinen Schimmer.
Schrotti
2009-06-03, 23:31:27
Das schreibe ich schon seit Jahren und Reviews lese ich auf CB schon ewig nimmer.
Ist ja wieder so ein super Beispiel. Ne 1000€ CPU mit ner 100€ Graka kombinieren.
Na gute Nacht.
derguru
2009-06-04, 01:20:04
hat mit dem preis der cpu herzlich wenig zutun(oder dem unterschied zur karte),eine 920 für 240euro mit der genommenen karte wäre genauso schwachsinnig.
Fakt ist doch das Cbase einen Test machen will der relevant ist für die Zielgruppe. Irgendwelche 50%+ Benchmarkvorteile in Spielen, die der Nutzer zuhause nicht im entferntesten unter realen Bedingungen sehen wird, sondern eher noch Nachteile da bei Grafiklimitierung die Nehalemplattform deutlich Federn lässt (vor allem mit NV Karten), sind eben nicht relevant für die Zielgruppe.
Bei so viel Arroganz gepart mit mutwilliger Unwissenheit bleibt mir einfach die Sprache weg.
Kann da nicht mal jemand schreiben was Sache ist?
y33H@
2009-06-05, 02:52:44
Wo lässt der Nehalem Federn, wenn die gammlige GTX+ aus dem letzten Loch pfeift? :confused: Zumal dieses "i7 kackt mit AA/AF" nach wie vor keiner eindeutig nachgewiesen hat. Ich selbst habe das bisher nur in FC2 und Anno1404 gesehen und hier bewegen wir uns im Rahmen von unter 5% Rückstand gegenüber einem gleichgetakteten C2Q - mit einer Geforce.
EDIT
OMG, die Aussage ist von redfirediablo (http://www.computerbase.de/forum/showpost.php?p=6144508&postcount=108) - das sagt bereits alles. Intel-Hater ... man beachte seine Sig und den Thread im Luxx.
EDIT
OMG, die Aussage ist von redfirediablo (http://www.computerbase.de/forum/showpost.php?p=6144508&postcount=108) - das sagt bereits alles. Intel-Hater ... man beachte seine Sig und den Thread im Luxx.
Ich habs ja weiter oben schon gesagt: Wenn Anandtech, Tomshardware, Xbitlabs oder so nen AMD reviewen wird immer feste druff gehauen, unfair, gekauft blabla.. und wenn dann so ein offensichtlicher BS verzapft wird, der ja im Forum bei den CB usern noch zu Begeisterungsstürmen führt ist das geradezu grotesk.
Volker scheint sich in letzter Zeit, auch in den News zur Computex, auf Intel eingeschossen zu haben.
dargo
2009-06-05, 09:54:29
Wo lässt der Nehalem Federn, wenn die gammlige GTX+ aus dem letzten Loch pfeift? :confused:
Nirgendwo, das haben wir hier schon festgehalten.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455727
Ich verweise hier besonders auf GRID. Die anderen Games sind mit Vorsicht zu genießen da afaik alles Timedemos. Sind aber auch brauchbar um zu zeigen, dass der i7 in GPU-Limits nicht langsamer wird. GRID haben wir mit einem Savegame gebencht.
Jake Dunn
2009-06-05, 10:26:00
Nirgendwo, das haben wir hier schon festgehalten.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455727
Ich verweise hier besonders auf GRID. Die anderen Games sind mit Vorsicht zu genießen da afaik alles Timedemos. Sind aber auch brauchbar um zu zeigen, dass der i7 in GPU-Limits nicht langsamer wird. GRID haben wir mit einem Savegame gebencht.
Da wurde auch eine andere Graka genommen
dargo
2009-06-05, 10:34:16
Da wurde auch eine andere Graka genommen
Natürlich, spielt aber nicht direkt eine Rolle. Das wichtigste bei CPU-Tests ist nunmal CPU-Limits zu suchen und diese auch zu benchen. Das raffen die meisten einfach nicht. Nein, es wird noch mit Timedemos gebencht. :uhammer:
Timedemos + alte GPU limitierte Spiele + hohe Auflösung + AA + AF + maxFPS = idealer Test für die Masse ;)
Mist, lahme Grafikkarte vergessen. ;(
dargo
2009-06-05, 10:40:54
Timedemos + alte GPU limitierte Spiele + hohe Auflösung + AA + AF + maxFPS = idealer Test für die Masse ;)
Jo, und am besten die CPU bis zum Anschlag noch übertakten. ;D
Avalox/Gast
2009-06-05, 11:11:53
Da wurde auch eine andere Graka genommen
Vor allen sind die CPUs und deren Anbindungen übertaktet. Sicherlich interessant, aber mit keinerlei Aussagekraft für den Betrieb der CPU wie diese im Regelbetrieb arbeitet.
=Floi=
2009-06-07, 22:22:44
erst der GT300 (im sli) wird das wahre potenzial zeigen können.
die realitätsfernen tests bei cb sind ja nicht schlecht und bei anderen details haben sie sich auch mühe gegeben. so ist der test schon rund, wenn man die restlichen benchmarks einfach ausblendet. die p/l tabelle ist auch für den popo, weil man mit dem 5050e wohl kaum gta fear spielen kann. ;D
zitat
OMG, die Aussage ist von redfirediablo - das sagt bereits alles. Intel-Hater ... man beachte seine Sig und den Thread im Luxx
solche links könntest du dir eigentlich sparen. ;)
y33H@
2009-06-07, 22:38:13
solche links könntest du dir eigentlich sparenWarum?
mapel110
2009-07-24, 23:39:43
http://www.anandtech.com/memory/showdoc.aspx?i=3589
Memory Scaling on Core i7 - Is DDR3-1066 Really the Best Choice?
Bei dieser RAM geschichte kommt mir noch eine weitere Idee. Wäre es nicht vielleicht sogar sinnvoll auf Triple Channel zu verzichten und stattdessen Dual Channel mit sehr schnellen Modulen zu fahren?
Denn neben der Bandbreite ist auch noch die Latenzzeit entscheidend und die sinkt bei schnellen Modulen mit guten Timings weiter. "RAM Zugriff" ist eben auch bei normalen Anwendungen erforderlich, nicht nur in Spezialfällen.
Da es schon sehr günstige Module gibt, würde ich z.B. nicht mehr umbedingt DDR3-1066 reinpacken, sondern DDR3-1800 mit besten Timings nehmen.
Man könnte sogar beides kombinieren, es gibt ja sogar 2133er Module, welche allerdings ziemlich teuer sind, so wäre sogar mit wenigen Modulen gleiche Bandbreite möglich.
Edit: Krasser Preisverfall, ich sehe gerade, das 2000er Module im 3x2 GB Paket schon für 120€ zu haben sind. Naja, ich würde aber weiterhin CL6/Cl7 bei 1600/1800/1866 bevorzugen. Gerade Programm die oft und gern auf den RAM zugreifen wie Packer profitieren ja auch von der Latenzzeit. Ich schätze mal, das Verschlüsselung oder andere Dinge in dieser Richtung (Video?) auch in diese Kategorie fallen könnten.
Der Test ist leider nicht viel Wert, da man nicht weiß ob die Performance-Vorteile durch den höheren Speicher-Takt oder durch den höheren Uncore-Takt entstehen.
Ich hab vor einiger Zeit mal eigene Messungen gemacht und festgestellt, dass von den 5% Mehrperformance von DDR1600 zu DDR1333 etwa 3-4% auf den höheren Takt des Uncore zurück zu führen sind. Also ehe man viel Geld in den Speicher investiert, einfach den Uncore höher takten - falls das Board dazu in der Lage ist.
Byteschlumpf
2009-07-25, 13:57:57
Ich arbeite viel mit HD-Videos, weshalb der Rechner bei der Postproduktion nicht schnell genug sein kann. ^^
Jedoch frage ich mich, ob die deutlichen Mehrkosten für ein i7-Upgrade (i920, Board, RAM ~ 600€) überhaupt in Relation zum Upgrade auf einen C2Q (Q9550) für ein bestehendes S775-System mir nur 200€ stehen?
Ich zahle also das Dreifache für vielleicht maximal 50% mehr Leistung.
Wie seht ihr das?
dargo
2009-07-25, 14:16:47
@Byteschlumpf
Wieso 600€?
http://geizhals.at/deutschland/a442028.html
http://geizhals.at/deutschland/a366185.html
2x http://geizhals.at/deutschland/a295630.html
Mit 425-430€ gehts auch. :)
Edit: Mich juckts bei dem Preis schon selbst in den Fingern obwohl ich auf den i5 warten wollte. X-D
Byteschlumpf
2009-07-25, 14:30:57
Ist das Asrock wirklich gut? Ich hatte mal mit einem Probleme wegen Spulenfiepen und man mußte noch Jumper setzen. ^^
Beim Board würde ich daher eher auf Asus setzen: http://geizhals.at/deutschland/a391160.html
Ist die DualChannel-Performance beim i7 auch genügend schnell im Vergleich zu TrippleChannel?
=Floi=
2009-07-25, 15:19:27
ja, es reicht.
derguru
2009-07-25, 15:25:46
es gibt ja auch noch das foxconn für ca. 140 euro.
zum spielen dürfte die dualchannelperformance keinen unterschied machen.hab mal far cry2 damit getestet gehabt weil far cry 2 einigermaßen auf ram settings anspringt aber da tat sich gar nichts.identische fps werte zwischen dual und triple.
hier sind noch werte von verschiedenen ramsettings bei far cry 2,
uncore bei beiden auf 4000
1200 ddr3 6/6/6/20
avg.124,56 fps
http://www.abload.de/thumb/farcry21200ddr3cl642nj.gif (http://www.abload.de/image.php?img=farcry21200ddr3cl642nj.gif)
2000 ddr3 8/9/8/20
131,26 fps
http://www.abload.de/thumb/farcry22000ddr3cl835t0.gif (http://www.abload.de/image.php?img=farcry22000ddr3cl835t0.gif)
=Floi=
2009-07-25, 20:05:15
wobei man es mitlerweile durch die gesenkten preise mitnehmen sollte und sich zusätzlich 2 gb ram auch posiv auswirken können.
dargo
2009-07-25, 20:34:43
wobei man es mitlerweile durch die gesenkten preise mitnehmen sollte und sich zusätzlich 2 gb ram auch posiv auswirken können.
Ich würde da eher gleich 2x 4GB im Dualchannel betreiben um mir die Option (falls man die Plattform länger behalten möchte) zu 12GB frei zu lassen, wenn man schon unbedingt mehr als 4GB Ram braucht. Wobei ich noch keine 4GB DDR3-Riegel gefunden habe. Gibts noch keine? :confused:
Kann man eigentlch 2x2 GB und 1x 4GB im Triplechannel kombinieren? Eigentlich müsste es gehen oder? Jetzt 2x2GB besorgen und später halt einen 4GB-Riegel. Wäre auch praktisch. :)
Byteschlumpf
2009-07-25, 20:48:41
Die SATAII -Ports von meinem Zweit-PC (GA P35-DS3R) machen sporadisch Probleme, wie ich heute wieder feststellen mußte. Dabei kann die HDD nicht mehr angesprochen werden und bei einem Kalt/Warmstart wird die HDD auch nicht mehr gefunden.
Nach dem Umstecken des HDD-SATA-Kabels in einen anderen Port läuft das System wieder.
Ein neues S775 Board würde sich als Ersatz aus kostengründen nicht lohnen. Da wäre ein S1366 Board + DDR3 RAM + i920 die wohl bessere Wahl. Das Board käme dann in Reparatur und könnte danach günstig abgegeben werden.
WICHTIG!
Kann sich eine Übertaktung der CPU negativ auf den SATA-Controler auswirken?
Also ich habe mir ein MSI X38 pro-e gekauft, für 179€.
Läuft alles bestens. Wollte auch erst zum Asus P6T greifen
aber die Anordnung der Steckplätze hat mir nicht zugesagt.
(PCI-e 1x)
dargo
2009-07-25, 21:24:00
WICHTIG!
Kann sich eine Übertaktung der CPU negativ auf den SATA-Controler auswirken?
Nö, der Controller wird nicht übertaktet. Zumindest afaik du den PCIe-Takt bei 100Mhz lässt.
Byteschlumpf
2009-07-25, 21:34:52
Ich dachte schon. Derzeit läuft der Rechner ohne Übertaktung der CPU (E4500) stabil mit dem W7 RC.
Wann kommen denn die C2D Nachfolger in Form von brauchbaren Core i5 Quads?
James Ryan
2009-07-29, 14:30:57
Mitte September!
MfG :cool:
es gibt ja auch noch das foxconn für ca. 140 euro.
zum spielen dürfte die dualchannelperformance keinen unterschied machen.hab mal far cry2 damit getestet gehabt weil far cry 2 einigermaßen auf ram settings anspringt aber da tat sich gar nichts.identische fps werte zwischen dual und triple.
hier sind noch werte von verschiedenen ramsettings bei far cry 2,
uncore bei beiden auf 4000
1200 ddr3 6/6/6/20
avg.124,56 fps
http://www.abload.de/thumb/farcry21200ddr3cl642nj.gif (http://www.abload.de/image.php?img=farcry21200ddr3cl642nj.gif)
2000 ddr3 8/9/8/20
131,26 fps
http://www.abload.de/thumb/farcry22000ddr3cl835t0.gif (http://www.abload.de/image.php?img=farcry22000ddr3cl835t0.gif)
dann nimm mal 1600>7-8-7-20 2T und vergleich mit den 2000.....
Wieso Uncore auf 3200? Uncore übertakten kostet nix. Die Timings machen fast nichts aus. Ich habs selbst schon getestet. Wenn der Uncore gleich getaktet ist, bringt schnellerer Speicher sehr wenig.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.