PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ziehen die Nehalems erst bei realitätsfremden Settings davon?


cipoint
2009-09-20, 23:52:51
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/28/#abschnitt_realitaetsferne_spieletests

Schaut euch die Ergebnisse an und vergleicht diese mit denen bei normalen Settings. Ist die Grafikkarte kaum ausgelastet, so sind CPUs auf der Nehalem-Basis klar schneller als der Phenom. Aber unter normalen Settings sind sie oft unterlegen (vorallem min. FPS).

Warum ist das so?

Cubitus
2009-09-21, 00:47:57
So realitätsfern sind die Messungen imo gar nicht!
Die heutigen SLI Systeme und die kommenden Singel GPUs von ATI und NVidia werden/sind so stark das ein CPU Limit,
z.b eine Szene in einem Spiel, eher von der Leistung der CPU abhängig ist als von der Grafikkarte.

Z.b bei Shift mit 15 Fhzg gleichzeitig auf der Strecke, beansprucht so wesentlich mehr CPU Power als wenn man alleine fährt.
Also muss da die CPU besonders stark sein, um die GPU mit ausreichend Daten versorgen zu können, damit der Spielfluss nicht all zu sehr stockt.

Was CB in den Tests macht ist einfach ein absolutes CPU limit zu erzeugen,
indem sie heutige GPUs mit niedrigsten Auflösungen total unterfordern.

Folglich wird die Zeit des i7/i5 mit der kommenden GPU Genration noch kommen.

die normalen Settings sind zu GPU lastig, sodass der Nehalem seine Power nicht ausspielen kann.

Gast
2009-09-21, 01:14:31
Möp. Die Überlegung geht mal wieder in die falsche Richtung.

Diese Settings sind sehr realitätsnah, denn sie sagen aus, das, wenn die CPU alleine die meisten Aufgaben übernehmen muss, sie um x % schneller ist als eine andere.

Und das in der Praxis das entscheidende: Die CPU ist das Herzstück. Rohpower wird in vielen Fällen gefragt, egal ob Spiele, Audio, Video, Grafikbearbeitung oder sogar bei einfacheren Dingen wie AntiViren Scannern, Verschlüsselungsprogrammen oder gar Archivprogrammen wie WinZip, WinRAR oder 7-Zip. Hier spielt die Grafikkarte fast keine Rolle und die CPU übernimmt fast jede Aufgabe.

Hinzu kommt noch, das bei Benchmarks ein großes Problem besteht: Sie sind zu kurz. Benchmarks selbst sind schon realitätsfern.
Warum? Ein 1 oder 2 Minuten Benchmark kann niemals die Praxis wiedergeben, da er einfach zu kurz ist. Man sieht noch nichtmal jede Stelle, die in der Praxis zu finden ist.
Da liegt eines der größten Probleme. Was sagt ein kurzer Benchmark darüber aus, wie gut am Ende das Spiel laufen wird? Praktisch Nichts.

Bei Spielen wie Age of Empires oder Warcraft wird ja nicht nur Grafik dargestellt, sondern auch KI berechnet (praktisch immer) und jede Einheit will gesteuert werden. Was steuert die Grafikkarte hier bei? Fast nichts.
In einer Multiplayerpartie kann es aufgrund der enormen Vielfalt an Einheiten sogar noch zu Ruckelorgien kommen.. jede Einheit hat mehr oder wenige eine KI, die berechnet werden will. Ist die CPU zu langsam, so kann auch die Grafikkarte keine Wunder mehr vollbringen und die Werte sacken ab.

In anderen Worten: Ein CPU Benchmark darf nicht durch andere Komponenten limitiert sein. Denn sonst zeigt er nicht, wie stark eine CPU wirklich ist, wenn es darauf ankommt.
Würde man einen Test mit einem System machen, das nur 256 MB RAM hat oder einer integrierten Grafikkarte, so bremsen diese Komponenten alles andere aus. Ebenso wenig wäre eine uralte Festplatte förderlich, denn das System kann nur so schnell arbeiten, wie die langsamste Komponente.

Problem dieser Benchmark sind in 99% aller Fälle, das sie zu wenig Praxis zeigen. Einheitenvielfalt wird oft unterschlagen, oft wird sogar noch nichtmal mehr Sound oder die KI live berechnet.
Es ist Unsinn anzunehmen, das eine 2 GHz CPU genauso schnell wäre wie eine 4 GHz CPU. Das stimmt nämlich nicht. In oben genannten Fällen und sogar bei den gleichen Benchmark-Games gibts Stellen, wo es genau umgekehrt ist, das CPU Leistung gefordert wird und Grafikleistung genügend vorhanden ist. Was nützt dann die schnellste Karte, wenn die CPU Leistung nicht ausreichend ist um sie zu befeuern?
Ergo, kann man mit zu hohen Grafiksettings den Benchmark komplett verfälschen, denn wenn die Grafikleistung ausgereizt ist, kann auch nicht mehr berechnet werden, obwohl die CPU es könnte.

Praxisnäher sind da schon Benches mit realen Savegames, wie sie unter anderem hier im 3DCenter angewendet werden. Diese sind weitaus praxisnäher als irgendein Wert einer Szene, die man meist nichtmal so zu Gesicht bekommt.

Mal ein rechnerisches Beispiel:
CPU A, 2 GHz Power, irgendeine Grafikkarte
120 Sekunden Benchmark: 60fps im Durchschnitt (min fps 35 an irgendeiner Stelle)

CPU B 3 GHz Power, die gleiche beliebige Grafikkarte
120 Sekunden Benchmark: 68fps im Durchschnitt (min fps 52 an irgendeiner Stelle)
Obwohl der Durchschnittswert eine geringe Steigerung ausspuckt, kann es sein, das an der beliebigen Stelle die Werte um 50% höher waren - weil dort ein CPU limit vorlag.

Der Durchschnittswert bemisst sich ja über die ganze Zeit und daher nicht allein auf diese kurzen, aber zum Teil wichtigeren Sequenzen (z.B. Bosskampf mit vielen Effekten). Was interessiert mich denn die Stelle, wo ich eh 70fps hatte? Da kann mir die Leistung egal sein..

Gast
2009-09-21, 01:27:37
Einfache Antwort: der Nehalem hat höhere Rechenleistung.
Aber unter normalen settings kann er dies nicht ausspielen, da die Grafikkarte limitiert.
Aber von dieser theoretischen Mehrleistung auf zukünftige Spiele und deren Performance mit zukünftigen Grafikkarten zu schließen ist totaler Blödsinn. Ich glaube, jeder halbwegs vernünftige Spielentwickler wird immer hin zu einer Grafiklimitierung entwickeln. Einfach weil bei 90% der Spieler eine bessere Optik ein besserer Kaufgrund ist, also eine bessere K.I. oder eine hohe Anzahl an nps´s oder bessere WEgfindung, etc..

Oder um es anders zu sagen, wenn man hin zu einer CPU Limitierung entwickelt, verdient man weniger Geld, als andersherum.

|FAT|Punisher
2009-09-21, 02:22:09
Ich kann da nur zustimmen.
Seit ich eine GTX 295 habe, merke ich sehr deutlich, daß sogar bei (so dachte ich) trivialen Spielen wie Team Fortress 2 (! :eek: ) die CPU limitiert. Bei 1920x1200, vollen Details, und groooßzügigem AA. :wink: (8xQ + STAA)

Und das bei einem Q6600, der auf 3,4 GHz übertaktet ist. :rolleyes:

CPU-Power sollte man nicht unterschätzen.
GPU-Power aber genauso wenig. Meine 8800 GTX war wirklich deutlich langsamer.

Muß halt alles knallen. ;D

Gast
2009-09-21, 11:15:49
Die ganzen Test, realitaetsfern, sind eh fuer den A.....
Wenn man hier Vergleiche zieht, bitte dann alle mit der selben Frequenz. Aber ne, TM+HT versus "old skool" und [fast]1ghz Taktunterschied.

So gross ist der Unterschied zwischen Phenom 2 und Nehalems nicht[Spiele]. Bei einem favorisiert der groessere L2 Cache, beim anderen die "bessere Performance por Takt".

Die Frage ist, warum der i5[und nur der i5] bei SSE3 so dermassen schlecht abschneidet. Der i7 860 basiert auf dem gleichen Kern, hat eignet. nur HT zus. unter der Haube aber dessen SSE3 Leistung kann man nicht in Frage stellen. Braucht man heute noch SSE3 ?

Cubitus
2009-09-21, 12:00:59
. Braucht man heute noch SSE3 ?

Bei der Videobearbeitung und bei diversen Emulatoren.

cipoint
2009-09-21, 13:03:57
Die ganzen Test, realitaetsfern, sind eh fuer den A.....
Wenn man hier Vergleiche zieht, bitte dann alle mit der selben Frequenz. Aber ne, TM+HT versus "old skool" und [fast]1ghz Taktunterschied.

So gross ist der Unterschied zwischen Phenom 2 und Nehalems nicht[Spiele]. Bei einem favorisiert der groessere L2 Cache, beim anderen die "bessere Performance por Takt".

Die Frage ist, warum der i5[und nur der i5] bei SSE3 so dermassen schlecht abschneidet. Der i7 860 basiert auf dem gleichen Kern, hat eignet. nur HT zus. unter der Haube aber dessen SSE3 Leistung kann man nicht in Frage stellen. Braucht man heute noch SSE3 ?

Welchen Sinn hätte das? Du vergleichst Motorleistung auch nicht bei gleicher RPM!

Gast
2009-09-21, 15:04:03
Die Frage ist, warum der i5[und nur der i5] bei SSE3 so dermassen schlecht abschneidet. Der i7 860 basiert auf dem gleichen Kern, hat eignet. nur HT zus. unter der Haube aber dessen SSE3 Leistung kann man nicht in Frage stellen. Braucht man heute noch SSE3 ?
hast du dazu vielleicht eine quelle?

Crazy_Chris
2009-09-21, 15:18:17
Abgesehen von GTA4 fällt mir derzeit kein Spiel ein was einen merklichen Mehrwert gegenüber einen Core 2 liefert. :freak: Ob das Geld dann nicht doch eher besser in eine neue Grafikkarte investiert wäre? Was juckt mich ein CPU Limit wenn ich trotzdem in einen gut spielbaren Framebereich liege. Wenn man rein Pragmatisch an die Sache heran geht sehe ich derzeit keinen Grund für ein Upgrade aus Sicht eines Spielers.

Cubitus
2009-09-21, 15:25:05
Resident Evil oder Shift profitieren mit einem anständigen
Grafikunterbau von den neuen Intels :wink:

Exxtreme
2009-09-21, 15:27:49
Was ich viel witziger finde, ist daß die Phenoms irgendwie dafür sorgen, daß die Grafikkarte weniger krass schlapp macht bei hohen Auflösungen/Detailstufen. Rein von der reinen Rohpower her sind die Nehalems überlegen. Bei der Gesamtarchitektur hingegen sind die Phenoms wieder überlegen.

Crazy_Chris
2009-09-21, 15:30:20
Resident Evil oder Shift profitieren mit einem anständigen
Grafikunterbau von den neuen Intels :wink:

ja wär auch schlimm wenn nicht :freak: Aber Rechtfertigt der eher geringe Vorteil auch einen kompletten Plattformwechsel? Immerhin ist man da auch erst ab ~400€ dabei und das dann für viell. 10% Mehrperformance unter praxisnahen Settings. Für die 400€ würde ich eher zu ein HD 5870 greifen und noch ein Jahr durchaus mit einen schnellen Core 2 Duo überbrücken. ;) Was anderes kann man garnicht aus den Performanceratingdiagramm für die getesteten Spiele von Computerbase schlussfolgern. In deren Test fehlt einfach die Killerapplikation die einen Core 2 in die Knie zwingt.

PS: Auch mein Pentium E2180 2. System liefert im Resident Evil 5 Benchmark gut spielbare Frameraten.

Undertaker
2009-09-21, 15:37:19
Was ich viel witziger finde, ist daß die Phenoms irgendwie dafür sorgen, daß die Grafikkarte weniger krass schlapp macht bei hohen Auflösungen/Detailstufen. Rein von der reinen Rohpower her sind die Nehalems überlegen. Bei der Gesamtarchitektur hingegen sind die Phenoms wieder überlegen.

Interessant ist dabei aber, dass nur eine Hand voll Spiele und ausschließlich Nvidia-Karten betroffen sind. Bisher kann es keiner so richtig erklären ;)

Cubitus
2009-09-21, 15:40:33
kann vielleicht die CPU-Multicore Unterstützung
im Grafikkartentreiber was damit zu tun haben :confused:

Undertaker
2009-09-21, 15:48:41
Auch dann wäre komisch, dass ohne erkennbares Muster Spiele betroffen oder nicht betroffen sind... Was uns hier fehlt, ist mal endlich eine saubere Untersuchung mit folgenden Kernpunkten:

- Windows Vista/Windows 7
- verschiedene ATI und NVidia Modelle
- verschiedene Mainboards
- Variation von Core, Uncore und QPI-Takt
- ...

Um zumindest ersteinmal ein Muster und damit mögliche Ursachen feststellen zu können.

Gast
2009-09-21, 16:01:33
hast du dazu vielleicht eine quelle?

Everest "Suite"; die Frage is nun ob solche "Tests" ueberhaupt irgendeine "Gewichtung" [Cpu Test]haben. ...totzdem strange.

http://www.guru3d.com/article/core-i5-750-core-i7-860-870-processor-review-test/12

Crazy_Chris
2009-09-21, 16:17:14
Auch dann wäre komisch, dass ohne erkennbares Muster Spiele betroffen oder nicht betroffen sind... Was uns hier fehlt, ist mal endlich eine saubere Untersuchung mit folgenden Kernpunkten:

- Windows Vista/Windows 7
- verschiedene ATI und NVidia Modelle
- verschiedene Mainboards
- Variation von Core, Uncore und QPI-Takt
- ...

Um zumindest ersteinmal ein Muster und damit mögliche Ursachen feststellen zu können.

Eventuell ändert sich das auch mit neuen Treibern. Die aktuellen sind sicher nicht besonders gut auf die Nehalem Architektur optimiert. Aber das schreit doch geradezu nach einen Artikel auf 3dcenter oder ht4u der sowas genau beleuchtet. ;D

Undertaker
2009-09-21, 16:35:35
Everest "Suite"; die Frage is nun ob solche "Tests" ueberhaupt irgendeine "Gewichtung" [Cpu Test]haben. ...totzdem strange.

http://www.guru3d.com/article/core-i5-750-core-i7-860-870-processor-review-test/12

Das liegt an SMT ;)

http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/11/#abschnitt_sisoft_sandra_2009

Vergleiche i5 und i7 mit deaktiviertem SMT - identische Ergebnisse.

Gast
2009-09-21, 18:39:46
Das liegt an SMT ;)

http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/11/#abschnitt_sisoft_sandra_2009

Vergleiche i5 und i7 mit deaktiviertem SMT - identische Ergebnisse.

Das heisst bzw. was ich daraus interpretiere ist, das HT/SMT per SSE3 beim Nehalem "ausgefuehrt" wird. Warum nicht gleich SSE4 ? Das waere mit Sicherhiet ein paar Prozente schneller.....[no knwolegde about iT/Compo. :)]

Cubitus
2009-09-21, 18:50:58
ja wär auch schlimm wenn nicht :freak: Aber Rechtfertigt der eher geringe Vorteil auch einen kompletten Plattformwechsel? Immerhin ist man da auch erst ab ~400€ dabei und das dann für viell. 10% Mehrperformance unter praxisnahen Settings. Für die 400€ würde ich eher zu ein HD 5870 greifen und noch ein Jahr durchaus mit einen schnellen Core 2 Duo überbrücken. ;) Was anderes kann man garnicht aus den Performanceratingdiagramm für die getesteten Spiele von Computerbase schlussfolgern. In deren Test fehlt einfach die Killerapplikation die einen Core 2 in die Knie zwingt.

PS: Auch mein Pentium E2180 2. System liefert im Resident Evil 5 Benchmark gut spielbare Frameraten.

Bei Resdent Evil habe ich fast durchgehend 120 FPS min sind ca 80 FPS leider stimmt beim letzten Test etwas nicht ,SLI geht nicht korrekt, aber ich bin noch auf der Fehler-Suche. Jedenfalls hatte ich mit meinem Q6600 an manchen stellen teilweise noch unter 40 FPS

Aber der Shift Bench hat zumindest funktioniert

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7545924&postcount=14

@Undertaker

Ja eine Grundlage wäre nicht schlecht, nur dann müssten sich mehrere User mit unterschiedlichen Systemen melden,
also wenn es was zu testen gibt, ich wäre dabei :freak: