PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Nvidias Treiberproblem mit zwei Thread CPUs


ux-3
2014-01-20, 17:40:18
Mehrere Seiten und 3DC-Mitglieder haben wohl davon berichtet:
Nvidia GPUs sollen große Performanceeinbrüche erleiden, wenn die CPU nur über 2 Threads verfügt.

Von Zafi übernehme ich mal eine Grafik, welche das Problem recht anschaulich zeigt. (Verdammt, wie geht das mit dem Vorschaubild?)

Dieses Problem wurde auch von Dargo hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213) und hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739) angesprochen, ich finde aber keine Infos zum Ausmaß. Die Grafik unten betrifft auch nur ein Spiel und eine High End Grafikkarte. Ich suche dringend nach mehr Informationen zu diesem Thema. Besonders froh wäre ich über Benchmark Programme, mit denen ich diesen Einbruch reproduzieren könnte, wenn ich bei einem i3 zwei der vier Threads ausschalte.

Wenn ihr also Informationen, Links, etc. zu dieser Problematik habt, bitte her damit. Ab welchem Treiber tritt es auf? Ist es behoben?

Falls das Problem schon einen eigenen Namen oder Thread hat, klärt mich bitte auf, damit ich den Titel anpassen kann.

Eine gute Übersicht über verschiedene Spiele findet man hier:
http://www.overclock.pl/articles/show/id/412,3,7,wydajnosc-amd-radeon-hd-6970
http://www.overclock.pl/articles/show/id/412,4,7,wydajnosc-nvidia-geforce-gtx-580
http://www.overclock.pl/Articles/Show/Id/412,5,7,wydajnosc-amd-radeon-hd-7970


http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=47704&d=1390038775

Raff
2014-01-20, 17:43:07
Na wenn du eh einen i3 hast, passt alles – 4 Threads sind gut, bei allem darunter suckt die GeForce-Performance.

MfG,
Raff

Botcruscher
2014-01-20, 18:14:25
Ist doch schon seit Jahren so. Das viel schon richtig beim erscheinen der X3 AMD auf.

Gaestle
2014-01-20, 18:26:56
Mir ist es neu.
Und es betrifft mich anscheinend (E8400 & 260GTX).

schreiber
2014-01-20, 18:27:33
Dafür bremst nvidia die Intel Quads nicht künstlich aus. ^^

Radeonfreak
2014-01-20, 18:29:57
Wo liegt jetzt eigentlich das Problem? Wer 2014 noch mit Dualcore unterwegs ist sollte sich nicht über Performanceinbußen beschweren.

aufkrawall
2014-01-20, 18:31:08
Denke nicht, dass sich da noch was tut. Ist doch mittlerweile völlig unwichtig.

grobi
2014-01-20, 18:31:15
Dafür bremst nvidia die Intel Quads nicht künstlich aus. ^^

Trollversuch oder was ist dein Anliegen?

ux-3
2014-01-20, 18:34:10
Na wenn du eh einen i3 hast, passt alles – 4 Threads sind gut, bei allem darunter suckt die GeForce-Performance.


Ich hab auch noch jede Menge anderer CPUs am laufen. Von daher würde ich gerne das Ausmaß des Problems kennen wollen.

Wo liegt jetzt eigentlich das Problem? Wer 2014 noch mit Dualcore unterwegs ist sollte sich nicht über Performanceinbußen beschweren.

Wenn Du damit kein Problem hast, dann brauchst Du doch hier nicht zu posten, oder? Mir ist das Thema wichtig, da ich noch viele betroffene Rechner "betreue".


@all: Wenn ihr nichts beisteuern könnt, wollt, etc, dann spammt das bitte nicht zu.

Knuddelbearli
2014-01-20, 18:35:05
Wo liegt jetzt eigentlich das Problem? Wer 2014 noch mit Dualcore unterwegs ist sollte sich nicht über Performanceinbußen beschweren.


Trifft ne Menge Leute mit Notebooks. und Mit einem P8500+ GTX 260M kann man noch einiges spielen vor allem in Notebook 1280er auflösung.

betrifft mich ja selber mit so einem Notebook. Und in paar Jahren betrifft es dann vielleicht die Quads ...

aufkrawall
2014-01-20, 18:37:53
Es betrifft niemanden mehr, der neue Hardware hat oder kauft.
Hätte man halt damals genauer hingeschaut.

Blediator16
2014-01-20, 18:44:34
Trollversuch oder was ist dein Anliegen?

AMD hat wohl irgendwas mit Multithreading unter DX11. Keine Ahnung wo man das merkt.

Knuddelbearli
2014-01-20, 18:51:35
Also ist es ok wenn man alte Hardware, bewusst, ausbremst? ähm ok ^^

aufkrawall
2014-01-20, 18:58:38
Redest du mit mir?

Botcruscher
2014-01-20, 18:59:42
Trifft ne Menge Leute mit Notebooks.
Wer nach den brüchigen Chipträgern(im mobile) noch NV kauft ist selber schuld. Die Warnung vor Zweikernern und NV sind auch alt(mindestens 2008/9). Das sind halt die überlegenen Treiber von den einige Leute immer quatschen.

captain_drink
2014-01-20, 19:03:18
AMD hat wohl irgendwas mit Multithreading unter DX11. Keine Ahnung wo man das merkt.

Ich dachte, das wäre mittlerweile behoben? Bei Civilization 5 standen die Fermis m.W. ja damals wegen dem Multithreading unter DX11 viel besser da als die nominell gleichschnellen Modelle von AMD.

boxleitnerb
2014-01-20, 19:15:45
Wer nach den brüchigen Chipträgern(im mobile) noch NV kauft ist selber schuld. Die Warnung vor Zweikernern und NV sind auch alt(mindestens 2008/9). Das sind halt die überlegenen Treiber von den einige Leute immer quatschen.

Das ist dasselbe dumme Gequatsche wie "2000 waren die ATI-Treiber mal scheiße, deshalb ist das jetzt genauso..." :facepalm:

ux-3
2014-01-20, 19:20:20
Die Warnung vor Zweikernern und NV sind auch alt(mindestens 2008/9).

Dann verlink doch mal bitte eine ernsthafte Warnung von damals. Danke.

seaFs
2014-01-20, 19:32:49
Hier dargos Thread von vor über zwei Jahren
Auswirkungen von Grafiktreibern auf CPU-Skalierung in Games (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213)

Mr. Lolman
2014-01-20, 19:39:55
Hätte man halt damals genauer hingeschaut.

Aber sicher nicht ins 3DC. Weil damals wurden die NV-Karten wie blöde empfohlen. Außerdem kam das Problem wohl erst im Nachhinein, sonst hätte man denen ja damals nicht so eine Überlegenheit angedichtet...

dargo
2014-01-20, 19:41:56
@ux-3

Hier kannst du dich umschauen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739

Pauschal kann man sagen da wo der TC sich kaum vom DC absetzen kann liegts am NV-Treiber (zb. DIRT 3). Übrigens... dass der NV-Treiber so abkackt liegt nicht nur am Treiber selbst sondern auch an der Engine. Nicht jedes Game ist von diesem Problem betroffen.

aufkrawall
2014-01-20, 19:42:04
Außerdem kam das Problem wohl erst im Nachhinein
Ist das dokumentiert?

Schnäppchenjäger
2014-01-20, 19:45:40
wen juckt's, wer bentuzt heut schon 2 Kerner außer in nem Office-PC?

ux-3
2014-01-20, 19:50:32
wen juckt's

Mich!

Effe
2014-01-20, 19:53:16
Es betrifft niemanden mehr, der neue Hardware hat oder kauft.
Achja? Ich lese in APU-Threads immer von: " Mit nem Celeron XYZ und ner Einsteigerkarte(bspw. AMD 7750 oder Nvidia 650) ist man besser bedient als ..."

Insofern ist es relevant, wenn solche Empfehlungen abgegeben werden.

Cubitus
2014-01-20, 20:02:01
Interessant, und auch irgendwie doof sicher.
Dann muss man eben auf eine AMD zurückgreifen.
Oder man holt sich einen Q6600 kosten ca 20-50 Euro, bei Ebay.

Nvidia wird sicherlich nichts daran ändern.
Die Frage ist, falls man alte Treiber nimmt ob dieses Problem immer noch besteht?

aufkrawall
2014-01-20, 20:14:28
Achja? Ich lese in APU-Threads immer von: " Mit nem Celeron XYZ und ner Einsteigerkarte(bspw. AMD 7750 oder Nvidia 650) ist man besser bedient als ..."

Insofern ist es relevant, wenn solche Empfehlungen abgegeben werden.
Man kann im Hinblick auf kommende CurrentGen Spiele keine Dualcores mehr empfehlen.

Btw. haben selbst 200€ Smartphones mittlerweile Quadcores.

Effe
2014-01-20, 20:27:51
Man kann im Hinblick auf kommende CurrentGen Spiele keine Dualcores mehr empfehlen.
Damit werden aber immer die APUs für überflüssig erklärt. Darauf wollte ich hinaus.

ux-3
2014-01-20, 20:43:01
Die Frage ist, falls man alte Treiber nimmt ob dieses Problem immer noch besteht?

Dazu bräuchte man zunächst ein Nachweisverfahren.

Dann käme die Frage hinzu, wie viele Spiele mit älteren Treibern (3+Jahre) nicht laufen würden.


Hier kannst du dich umschauen.

Danke, hab es im Startpost eingefügt.

Übrigens... dass der NV-Treiber so abkackt liegt nicht nur am Treiber selbst sondern auch an der Engine. Nicht jedes Game ist von diesem Problem betroffen.

Welche Spiele/Engines sind denn problematisch?

Edit: Was geschieht denn, wenn eine kleine CPU @2T eine gemäßigte Grafikkarte befeuert, z.B. eine GF 460 oder 650ti. Was, wenn es gar nur eine 260 GTX oder eine 9800 GTX ist.

Tritt dieser Effekt nur bei DX11 auf, oder auch bei 9 und 10?

Undertaker
2014-01-20, 20:47:30
Ich bitte darum, alle nicht Thema-relevanten Kommentare a'la "Wen interessierts?" zu unterlassen.

Haswell 2C Celeron/Pentium + kleine GPU sind im unteren Preisbereich ein nach wie vor aktuelles Thema, auch wenn das mancher High-End-Käufer nicht glauben mag. Ich fände es schon sehr interessant zu wissen, welche GPUs/Treiber/... betroffen sind und ob man evtl. eine Lösung finden kann.

fondness
2014-01-20, 20:52:37
Hm, da erscheinen so manche Benchmarks weswegen ich damals meine Core 2 Duo verkauft habe in einem völlig anderem Licht. Bringt mir zwar jetzt auch nichts mehr, aber finde ich schon seltsam.

Botcruscher
2014-01-20, 21:15:27
Das ist dasselbe dumme Gequatsche wie "2000 waren die ATI-Treiber mal scheiße, deshalb ist das jetzt genauso..." :facepalm:

Wenn man Müll herstellt, dann sollte man dafür gerade stehen und alle Geräte austauschen! Nicht mal so ein bisschen nachlöten von Kaisers Gnaden. Was der Pöbel sich auch beschwert...

boxleitnerb
2014-01-20, 21:24:46
Wenn man Müll herstellt, dann sollte man dafür gerade stehen und alle Geräte austauschen! Nicht mal so ein bisschen nachlöten von Kaisers Gnaden. Was der Pöbel sich auch beschwert...

Und das hat mit aktuellen Notebook-GPUs genau was zu tun? Riecht einfach nach Bashing, sonst nix.

Botcruscher
2014-01-20, 21:44:43
Es sind alles Entscheidungen aus dem gleichen Zeitraum und der gleichen Sparte. Bei aktuellen Geräten erwischt dich übrigens das Thermalverhalten aktueller CPUs. Da wird ein (HT) Kern auf Eis gelegt und die Leistung bricht mit NV GPU ins nichts.

exxo
2014-01-20, 21:56:19
Der Ton ist wie so oft wenn es um Grafikchips geht eher ruppig ;-)

Moral von der Geschichte ist das nicht nur AMD nur das supporten was im Moment verkauft wird, sondern auch nvidia da sparen wo nur noch wenig User betroffen sind.

dargo
2014-01-20, 22:03:01
Welche Spiele/Engines sind denn problematisch?

Soweit ich das überblicken kann sind folgende Games betroffen.
Dirt 3
Battlefield: Bad Company 2
Battlefield 3
NfS: The Run
Project Cars

Da die Frostbite 1.5 und 2.0 betroffen sind würde ich auch Battlefield 4 mit Frostbite 3.0 vermuten. Ich habe aber auch nicht so viele Spiele getestet. Wie man sieht eigentlich nur Shooter und Rennspiele. Wie das bei anderen Games aussieht weiß ich somit nicht.


Edit: Was geschieht denn, wenn eine kleine CPU @2T eine gemäßigte Grafikkarte befeuert, z.B. eine GF 460 oder 650ti. Was, wenn es gar nur eine 260 GTX oder eine 9800 GTX ist.

Da ändert sich gar nichts dran. Das einzige was passieren kann ist, dass eine Szene plötzlich durch eine schwächere Grafikkarte nicht mehr voll im CPU-Limit liegt und somit die Treiberlimitierung etwas durch die limitierende Grafikkarte kaschiert wird.

Botcruscher
2014-01-20, 22:07:16
Moral von der Geschichte ist das nicht nur AMD nur das supporten was im Moment verkauft wird, sondern auch nvidia da sparen wo nur noch wenig User betroffen sind.

Aktuelle Hardware dürfte von diesem "Feature" nicht verschont bleiben. Der Mobilmarkt mit seinen schwachen Kühllösungen liefert da genug Kandidaten.

dargo
2014-01-20, 22:21:34
Es sind alles Entscheidungen aus dem gleichen Zeitraum und der gleichen Sparte. Bei aktuellen Geräten erwischt dich übrigens das Thermalverhalten aktueller CPUs. Da wird ein (HT) Kern auf Eis gelegt und die Leistung bricht mit NV GPU ins nichts.
Wird da echt ein Thread komplett deaktiviert? Ich dachte alle Threads takten nur langsamer bei zu hohen Temp.

ux-3
2014-01-20, 22:30:43
Soweit ich das überblicken kann sind folgende Games betroffen.
Dirt 3
Battlefield: Bad Company 2
Battlefield 3
NfS: The Run
Project Cars

Da die Frostbite 1.5 und 2.0 betroffen sind würde ich auch Battlefield 4 mit Frostbite 3.0 vermuten. Ich habe aber auch nicht so viele Spiele getestet. Wie man sieht eigentlich nur Shooter und Rennspiele. Wie das bei anderen Games aussieht weiß ich somit nicht.

Gut, das relativiert die Sache natürlich. Mit ein paar betroffenen Titeln könnte ich leben. Wie bist Du denn auf diese Titel gestoßen? Zufall oder Hinweisen gefolgt?

Das einzige was passieren kann ist, dass eine Szene plötzlich durch eine schwächere Grafikkarte nicht mehr voll im CPU-Limit liegt und somit die Treiberlimitierung etwas durch die limitierende Grafikkarte kaschiert wird.

Das würde sich dann in gelegentlichen bösen minframerates bemerkbar machen?

Botcruscher
2014-01-20, 22:46:47
Wird da echt ein Thread komplett deaktiviert? Ich dachte alle Threads takten nur langsamer bei zu hohen Temp.
Die i3 U machen es auf jeden Fall. Da wird im idle(Browsernutzung) ein Kern schlafen gelegt. Der hat dann durchgehend 0% Auslastung. Unter Vollast(+angewärmt im Trockenschrank) wird dann auch zumindest einer ruhig gestellt. Ich hab das nicht weiter durch getestet. Ich dachte erst da wäre ein Kern hinüber.
Das würde sich dann in gelegentlichen bösen minframerates bemerkbar machen?
Bei weniger als 4 Theads hast du immer miese FPS.

dargo
2014-01-20, 22:54:48
Wie bist Du denn auf diese Titel gestoßen? Zufall oder Hinweisen gefolgt?

Mich hat in einigen Titeln die überproportionale Kernskalierung gewundert, die eigentlich keinen Sinn macht, da man mit den Frameraten weit von der Grundlast entfernt ist. Also zb. weit über Faktor 2 @Quadcore vs. Dualcore. Daraufhin habe ich 3DC-User mit einer AMD-Graka um einen Vergleichstest gebeten. Und so kam eins zum anderen.


Das würde sich dann in gelegentlichen bösen minframerates bemerkbar machen?
Min.fps entstehen nicht immer im CPU-Limit.

Mal ein simples Beispiel. Dein Dualcore limitiert in Szene X mit Graka X zu 100%. Nimmst du jetzt eine deutlich schwächere Grafikkarte kann es passieren, dass deine min.fps noch tiefer sind als beim Beispiel mit Graka X. Diesmal liegts aber nicht am Dualcore sondern der Graka. Plötzlich wird aus einem vollständigen CPU-Limit ein GPU-Limit.

Die i3 U machen es auf jeden Fall. Da wird im idle(Browsernutzung) ein Kern schlafen gelegt. Der hat dann durchgehend 0% Auslastung. Unter Vollast(+angewärmt im Trockenschrank) wird dann auch zumindest einer ruhig gestellt.
Aber nur bei Notebooks oder auch beim Desktop?

exxo
2014-01-20, 23:01:39
Aktuelle Hardware dürfte von diesem "Feature" nicht verschont bleiben. Der Mobilmarkt mit seinen schwachen Kühllösungen liefert da genug Kandidaten.

Uups an User mit Notebooks habe ich gar nicht mitgedacht. Tja wie blöd das teure Grafikchips meistens mit Desktop CPU`s gebencht werden. Da fällt das Problem mit mangelnder Performance mit Dualcore nicht weiter auf ;-)

Und selbst wenn Notebooks gebencht werden ist das kein Beinbruch weil mobile Grafikchips eh nicht soviel bringen als das mangelnde Performance mit lediglich zwei Kernen groß auffällt.

Wenn Notebooks gebencht werden, sind das meistens die voluminösen Teile von Alienware etc. mit einem dicken i7 und entsprechender Kühlung und nicht die Ultrabook flundern mit einem midrange Grafikchip.

Botcruscher
2014-01-20, 23:13:49
Aber nur bei Notebooks oder auch beim Desktop?
Keine Ahnung. Der Bausatz hat aber schon ganz andere thermische und Verbrauchsspezifikationen. Das Problem dürfte beim Desktop maximal exotischer Natur sein. PS: Keine Ahnung ob S /T Prozessoren das auf dem Desktop überhaupt können. Intel ist ja Meister beim beschneiden.
Und selbst wenn Notebooks gebencht werden ist das kein Beinbruch weil mobile Grafikchips eh nicht soviel bringen als das mangelnde Performance mit lediglich zwei Kernen groß auffällt. Kuck mal bei Steam mit was der Russe Dota 2 zockt.^^ Das läuft selbst auf einem E450 bei mir.

StefanV
2014-01-20, 23:41:57
Könnte die Ursache nicht schlicht eine (deutlich) höhere CPU Last der nVidia Treiber sein??

Ich sehe bei meinem C2D, den ich momentan aus irgendwelchen Gründen nutze, dass die CPU Last bei dem Teil gern mal auf (nahe) 100% ansteigt, bei manchen Spielen. Da ist nicht mehr viel Luft für andere Dinge...

Kurzum: Kein Bug, nix, was gefixt werden könnte, einfach ein Zustand, an dem man nix ändert...

ux-3
2014-01-20, 23:44:07
Könnte die Ursache nicht schlicht eine (deutlich) höhere CPU Last der nVidia Treiber sein??

Ich sehe bei meinem C2D, den ich momentan aus irgendwelchen Gründen nutze, dass die CPU Last bei dem Teil gern mal auf (nahe) 100% ansteigt, bei manchen Spielen. Da ist nicht mehr viel Luft für andere Dinge...


Warum helfen dann Threads so massiv als wären es Kerne?

Botcruscher
2014-01-20, 23:49:50
Es ist kein Bug, es ist eine Designentscheidung. Der Treiber ist auf 4 Kerne ausgelegt. Wer drunter liegt hat Pech.
Warum helfen dann Threads so massiv als wären es Kerne?
HT(CMT) ist ja "quasi" ein Kern. Die Verarbeitung läuft parallel. Auf zwei Kernen kicken sich die Threads nacheinander aus der Verarbeitung. Das kostet dann halt.

dargo
2014-01-20, 23:55:05
Könnte die Ursache nicht schlicht eine (deutlich) höhere CPU Last der nVidia Treiber sein??

Nein... es ist eine Designentscheidung für 4 Threads. Vor Jahren gabs mal ein offizielles Statement von NV man würde die eigenen Treiber für Quadcores optimieren. Dass dabei Dual- und Triplecores so viel leiden hatte ich allerdings nicht mitbekommen.

Edit:
Vielleicht bringt euch das etwas weiter?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439191
http://www.behardware.com/news/10005/dx10-radeon-geforce-quad-core.html

Schaffe89
2014-01-21, 07:05:00
PCCGH hat das vor ein paar Jahren mal getestet, mit dem Ergebnis, dass die Nvidiakarten mit einem Dualcore etwas weniger Frames produzieren.

ux-3
2014-01-21, 07:19:02
Vielleicht bringt euch das etwas weiter?
http://www.behardware.com/news/10005/dx10-radeon-geforce-quad-core.html

Das ist mal hilfreich! Scheinbar ist WinXP für so alte DC Kisten dann doch nicht so schlecht. Das Problem existiert dann also schon über 5 Jahre.

sloth9
2014-01-21, 07:22:41
kann man nicht das multithreading o. so im treiberpanel ausschalten?

Dawn on Titan
2014-01-21, 08:10:27
Ich meine ja. Multithreadoptimierung müsste der Punkt sein.

StefanV
2014-01-21, 08:22:54
Warum helfen dann Threads so massiv als wären es Kerne?
Weil die Last vom Treiber auf den beiden Kernen so hoch ist, dass für das Spiel weniger übrig bleibt.
Sprich das Spiel gewaltig ins CPU Limit rutscht, weil der Treiber so viel CPU-Last beansprucht.

Das wäre eine Vermutung.

Warum SMT hilft: Weil man weniger Register umschieben muss zum Beispiel...

dargo
2014-01-21, 09:41:44
Ich meine ja. Multithreadoptimierung müsste der Punkt sein.
Ich hatte früher mit der Option rumgespielt und keinen Unterschied festgestellt.

Mr. Lolman
2014-01-21, 09:46:02
Ist das dokumentiert?

Nö. Logisch. Wären die NV Karten damals auch schon so langsam gewesen, dann hätten die Reviews ein bisschen anders ausgesehen.

y33H@
2014-01-21, 10:40:42
Ich sehe bei meinem C2D, den ich momentan aus irgendwelchen Gründen nutze, dass die CPU Last bei dem Teil gern mal auf (nahe) 100% ansteigt, bei manchen Spielen. Da ist nicht mehr viel Luft für andere Dinge.Für halbwegs moderne MT-Spiele wie BF4 oder C3 ist ein C2D halt viel zu lahm, egal ob AMD- oder NV-Treiber.

Wenn man Müll herstellt, dann sollte man dafür gerade stehen und alle Geräte austauschen! Nicht mal so ein bisschen nachlöten von Kaisers Gnaden. Was der Pöbel sich auch beschwert.Seit wann fertigt NV GPUs und seit wann lötet NV diese auf Boards?

Ätznatron
2014-01-21, 11:15:46
Für halbwegs moderne MT-Spiele wie BF4 oder C3 ist ein C2D halt viel zu lahm, egal ob AMD- oder NV-Treiber.



Ah ja.

Und was zu lahm ist und daher nicht mehr unterstützenswürdig, befindet dann wohl die Treiberabteilung von nVidia?

StefanV
2014-01-21, 11:17:36
Für halbwegs moderne MT-Spiele wie BF4 oder C3 ist ein C2D halt viel zu lahm, egal ob AMD- oder NV-Treiber.
Davon spreche ich ja auch gar nicht. Sondern von 'Normalem Arbeiten', Videos (720p und 1080p 10bit MKVs), SWTOR zocken oder andere Dinge. Also eher Dinge, die unter 'Office' fallen.

Und selbst da hab ich das Gefühl, dass der E6850 weit hinter dem Phenom II X4 955BE zurück liegt, vom FX8350 sprechen wir gar nicht erst...

ux-3
2014-01-21, 11:38:45
Für halbwegs moderne MT-Spiele wie BF4 oder C3 ist ein C2D halt viel zu lahm, egal ob AMD- oder NV-Treiber.

Es betrifft aber offenbar ALLE 2T-CPUs, nicht nur C2Ds. Also vermutlich auch Haswells.

Und ein Blick auf die Grafik im Startpost zeigt deutlich, dass die selbe CPU deutlich mehr (33%) Leistung bringt, wenn sie mit einer schwächeren AMD Karte gepaart wird.

In einigen Tests gewinnt ein i3 iirc 100% beim Zuschalten des HT.

Botcruscher
2014-01-21, 11:55:02
Seit wann fertigt NV GPUs und seit wann lötet NV diese auf Boards?
Seit wann verkauft ein "Entwickler" sein Design an TSMC und hat mit dem aufbringen der GPU auf den Träger absolut nichts gemein...

y33H@
2014-01-21, 12:34:03
Ah ja. Und was zu lahm ist und daher nicht mehr unterstützenswürdig, befindet dann wohl die Treiberabteilung von nVidia?Sorry, aber wer heute noch eine ansatzweise spieletaugliche Grafikkarte nutzt, der wird auch eine 4T-CPU einsetzen.

Es betrifft aber offenbar ALLE 2T-CPUs, nicht nur C2Ds. Also vermutlich auch Haswells.Welche 2T-HSW gibt's denn schon außer den schnarchigen Pentiums? Wer damit aktuelle Titel zocken will, hat entweder eh genug Leistung oder viel zu wenig.

Seit wann verkauft ein "Entwickler" sein Design an TSMC und hat mit dem aufbringen der GPU auf den Träger absolut nichts gemein.Ich bezweifle, dass NV das verwendete Lot selbst benannt hat.

Davon spreche ich ja auch gar nicht. Sondern von 'Normalem Arbeiten', Videos (720p und 1080p 10bit MKVs), SWTOR zocken oder andere Dinge. Also eher Dinge, die unter 'Office' fallen.Du willst mir erzählen, dass dein C2D beim Abspielen eines 720p-Videos auf 100 Prozent geht? Das sollte deine GPU machen. SWTOR übrigens lastet zwei Kerne aus, egal ob mit AMD- oder NV-GraKa, gerade so was lahmes wie einen C2D.

Botcruscher
2014-01-21, 12:37:41
Ich bezweifle, dass NV das verwendete Lot selbst benannt hat.
Wer legt sonnst die Spezifikationen für ein Bauteil fest? Neben dem Lot war es ja auch noch ein zerbröckelnder Träger und thermische Probleme.

ux-3
2014-01-21, 13:15:04
Ihr seit OT!

Sorry, aber wer heute noch eine ansatzweise spieletaugliche Grafikkarte nutzt, der wird auch eine 4T-CPU einsetzen.

Können wir bitte beim Thema bleiben! Zudem ist deine Annahme falsch bzw. sind deine Ansprüche an "spieletaugliche Grafikkarten" sehr hoch. Du schließt von hier auf andere.

y33H@
2014-01-21, 13:24:57
Im GPU-Limit ist das doch eh egal ...

Dawn on Titan
2014-01-21, 13:26:46
Gibt genug 2C Laptops mit GT 620-640M, die würden durch den Treiber massiv Leistung verlieren. Macht die Treibereinstellung eigentlich einen Unterschied oder nicht?

ux-3
2014-01-21, 13:30:14
Im GPU-Limit ist das doch eh egal ...

Auch so ein zirkuläres Argument. Wenn das Karten-Pendant von AMD im GPU Limit läuft, muss es die Nvidia - bedingt durch das Problem - ja nicht auch machen.
Anders ausgedrückt: "Wenn alles normal läuft, hast Du eh kein Problem". :freak:


@dargo: Die Grafik in Post #1 ist mit "ust.max" beschriftet. Du hast ja auch vermutlich bei max. Details getestet. Was passiert, wenn man diese Einstellung eine Stufe zurück setzt? Als Besitzer einer 2T-CPU ist man ja zu Kompromissen bereit.

Ex3cut3r
2014-01-21, 14:23:48
Ich hatte das Problem noch in meinem alten Spiele PC, mit X3 720 @ 3,6 Ghz und GTX 260, kam auf die Idee, eine GTX 660 einzubauen, tja leider lief das gar nicht gut, später habe ich dann von Dargo erfahren warum. :/

Vor allem die Min FPS waren abartig, habe dann ne HD 7870 eingebaut vom Kumpel mal getestet, und es lief sowas von besser, wo es mit GTX 660 bei 21 min rumkrebste, waren es mit der 7870 35 min. ;D

Mit der Nvidia hat ich in 1080p nur eine Auslastung von 40-60%, mit der Radeon waren es 70-90%...gut manchmal auch schlimmer, aber trotzdem erheblich besser. Mir ist klar, dass X3 720 keine Rakete mehr ist/war aber was mit der Nvidia Karte da abgeliefert wurde, war wirklich abartig.

ux-3
2014-01-21, 15:10:53
Info

Danke, dass ist hilfreich. Womit hast Du gemessen/getestet? Das würde mich sehr interessieren.



Ich hab den zur Eingangsgrafik passenden Artikel gefunden:
http://www.overclock.pl/articles/show/id/412,3,7,wydajnosc-amd-radeon-hd-6970

Auf dieser und den beiden nächsten Seiten werden drei GPUs mit unterschiedlichen GPUs verglichen.

Ein Blick auf den Test von Bad Company und E8600 zeigt m.E., dass das Problem auch bei ATI angekommen ist. Die 7970 läuft mit dem E8600 deutlich langsamer als die 6970. Liegt das am Treiber oder an der Karte? Ich kann kein polnisch. Wurden die Tests mit dem gleichen Treiber gemacht?

Ich wühle mich gerade durch die unglaubliche Menge an Daten.

dargo
2014-01-21, 16:07:57
@dargo: Die Grafik in Post #1 ist mit "ust.max" beschriftet. Du hast ja auch vermutlich bei max. Details getestet. Was passiert, wenn man diese Einstellung eine Stufe zurück setzt? Als Besitzer einer 2T-CPU ist man ja zu Kompromissen bereit.
Das hängt von den zur Verfügung stehenden Grafikoptionen die ein Spiel bietet ab. In der Regel kannst du besser GPU-Last über Grafikoptionen (plus natürlich Auflösung, AA-Stufe) senken als CPU-Last.

ux-3
2014-01-21, 16:13:10
@Dargo:

Kannst Du evtl. an einem vormals eindeutigen Beispiel testen, ob die ATI-Treiber sich bei 2T verschlechtert haben? Eine ATI Karte und eine passende CPU hättest Du ja.

dargo
2014-01-21, 16:21:19
Wie stellst du dir das vor? Bei NV hatte ich noch den i5-750. Jetzt habe ich einen Haswell. Das wird nicht funktionieren.

ux-3
2014-01-21, 16:27:52
Wie stellst du dir das vor? Bei NV hatte ich noch den i5-750. Jetzt habe ich einen Haswell. Das wird nicht funktionieren.

Kann ich jetzt so nicht beurteilen.

Hast Du dir meine Beobachtung in der polnischen Statistik angesehen?

Wie hat Ex3cut3r getestet?

dargo
2014-01-21, 16:52:26
Kann ich jetzt so nicht beurteilen.

Wie gesagt... das wird nicht funktionieren. Ich müsste entweder wieder den i5-750 haben oder zusätzlich eine NV-Karte mit dem Haswell durch die Savegames durchjagen.


Hast Du dir meine Beobachtung in der polnischen Statistik angesehen?

Ja habe ich. Du musst hier allerdings aufpassen.

1. Es gibt keine Infos wie der Reviewer beim Test genau vorgegangen ist. Mir fehlt zb. die Info zur Länge vom Savegame falls überhaupt Savegames verwendet wurden.

2. Min.fps kannst du gleich streichen. In Savegames sind min.fps gefährlich. Besonders bei längeren Szenen. Die Schwankungen sind nicht ohne je nach Game und Szene.

3. Messschwankungen berücksichtigen. Der E8600 ist zwar in Battlefield: BC2 8,6% bei HD6970 schneller. Der E4600 aber dann nur noch 2,3%. Wie ist sowas möglich? Mir fehlen hier einfach zu viele Angaben. Wieviele Durchgänge hat der Reviewier genommen? Ein einziger wäre zb. viel zu wenig. Bei solchen Tests ist es immer vorteilhaft wenn man 3-4 Durchgänge nimmt und davon den Durchschnitt ermittelt. Zudem sollte man den ersten Durchgang nie bewerten wegen dem Streaming.

ux-3
2014-01-21, 17:05:16
1. Es gibt keine Infos wie der Reviewer beim Test genau vorgegangen ist.

Ich dachte schon, aber die sind halt auf polnisch... :freak:

http://www.overclock.pl/articles/show/id/412,2,7,platforma-testowa-i-metodologia

Scheinbar haben sie für die AMDs den gleichen Treiber 12.2 genommen.

Ex3cut3r
2014-01-21, 17:11:22
Danke, dass ist hilfreich. Womit hast Du gemessen/getestet? Das würde mich sehr interessieren.



Das war im Juli/August 2013, gemessen habe ich mit Fraps, game war Tomb Raider, Grid 2, Sleeping Dogs. Die Ergebnisse habe ich leider nicht mehr. :/

Habe mich dann auch entschlossen, ein komplett neues System aufzubauen.

Hier ist noch der Thread von mir damals, zum "Problem"

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542551

ux-3
2014-01-21, 17:43:45
Hier ist noch der Thread von mir damals, zum "Problem"

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542551

Oh, und da kommen wir an einen ganz spannenden Punkt. Du hast damals geschrieben, dass die 260 GTX besser (runder) lief. War das wirklich so, oder nur Frust bzw. Erwartungshaltung an die neue Karte? Mit welchem Treiber hattest Du die 260 am Laufen.

Wie hast Du überhaupt genau getestet. Fraps laufen lassen und min. Frames protokolliert? Ich hab das noch nie gemacht und wäre Dir für einen Hinweis ganz dankbar. Ich brauche das auch nicht so exakt wie dargo, sondern würde gerne die Alltagsauswirkungen messen.


@Dargo: hast Du irgendwas mit DX 10/9 getestet oder etwas aus der GT200er Reihe probiert?

Ex3cut3r
2014-01-21, 18:35:31
könnte wohl beides sein, einerseits war ich schon frustiert, dass mit der 660er alles so schlecht lief und anderseits hatte ich schon das Gefühl, dass mit der 260er alles smoother lief, dass würde ich aber heute wahrscheinlich revidieren, ich habe mit 260er seit 2011 in 1080p gespielt, wahrscheinlich war ich immer im GPU Limit damit.

Hatte für die 260er immer den aktuellsten Treiber von der Nvidia Page

Ja, habs mit Fraps gemacht, natürlich vorher ne Szene gesucht, die immer gleich abläuft. Fraps auf 30 sekunden, je nach Szene einstellen. Fertig (am besten 3mal wiederholen.)

Aber was ich sonst noch so sagen kann, man merkt das glaube ich auch einfach vom Spielgefühl, mit dem "Problem" Ich weiß klingt komisch ;D

Hoffe ich könnte bisschen helfen.

Schaffe89
2014-01-21, 19:25:40
Für halbwegs moderne MT-Spiele wie BF4 oder C3 ist ein C2D halt viel zu lahm, egal ob AMD- oder NV-Treiber.


Sagt der, der auch Pentiums zum Spielen empfiehlt, welche nun darin nicht ganz so schlecht sind, also irgendwie misst du hier mit zweierlei Maß.
Pentiums sind weit verbreitet, massenhaft in Notebooks auch kombiniert mit NV GPU.

Sorry, aber wer heute noch eine ansatzweise spieletaugliche Grafikkarte nutzt, der wird auch eine 4T-CPU einsetzen.

Hä wieso? Wie lautete nochmal den Test den du zum PL der Pentium Ivy Bridge Prozessoren verfasst hast?
Hohe Spieleleistung für den Preis und gutes P/L. Empfehlenswert für einen sparsamen LAn Rechner oder HTPC.

Welche 2T-HSW gibt's denn schon außer den schnarchigen Pentiums?

Die schnarchigen Pentiums liegen was Spieleperformance angeht auf dem Niveau mancher Richland und Trinity 4 Threader.
Das habt ihr doch selbst hervorgehoben. Also ich finde es jedenfalls nicht abwegig einen Low Budget Spiele PC mit flotter Haswell Pentium CPU zu bauen.

Jedenfalls soll man dan PC dann laut aktuellem Stand eher nichtmit NV kombinieren.

Im GPU-Limit ist das doch eh egal ...


Hör doch mit dem Getrolle auf. GPU Limit lässt sich leicht verschieben.
Besonders weil eine solche Aussage gerade von dir kommt, wo du anderen immer wegen solcher pauschalaussagen auf die Finger haust.

dildo4u
2014-01-21, 19:38:38
Im Low End wird auch kaum einer NV empfehlen bei den billigen GPU's ist immer AMD vorzuziehen.Daher ist Haswell Celeron und ne 7700 ne gute Kombo.

dargo
2014-01-21, 19:56:27
Ich dachte schon, aber die sind halt auf polnisch... :freak:

http://www.overclock.pl/articles/show/id/412,2,7,platforma-testowa-i-metodologia

Scheinbar haben sie für die AMDs den gleichen Treiber 12.2 genommen.
Ich meine damit nicht die Testsoftware und Hardware sondern spezielle Angaben zu Savegames wie zb. welche Szene und wie lange? Hat sich der Protagonist selbst bewegt oder nicht usw.

y33H@
2014-01-21, 20:00:05
Sagt der, der auch Pentiums zum Spielen empfiehlt, welche nun darin nicht ganz so schlecht sind, also irgendwie misst du hier mit zweierlei Maß.Wo tue ich das? Für unter 100 Euro ganz klar ein Athlon II X4 oder eine 4T-APU.

Hä wieso? Wie lautete nochmal den Test den du zum PL der Pentium Ivy Bridge Prozessoren verfasst hast? Hohe Spieleleistung für den Preis und gutes P/L.Du solltest vll die Tests erst noch mal lesen, bevor du BS von dir gibst: http://www.pcgameshardware.de/Core-i3-3240-CPU-255216/Tests/Test-Core-i3-3240-Pentium-G2120-1024257/

Da steht: "Der Pentium G2120 ist mit 85 bis 90 Euro kein Schnäppchen und bietet darüber hinaus kein SMT - bei diesem Preis ist er daher keine Empfehlung wert."

Zudem gibt es den Test den Athlon II X4 750K: http://www.pcgameshardware.de/Athlon-II-X4-750K-CPU-256666/Tests/Athlon-II-X4-750K-Test-1070107/

Da steht: "Für 65 Euro leistet der 750K im Mittel klar mehr als der preisliche Gegner Pentium G2120, inbesondere in modernen Spielen wie Crysis 3 oder Dirt Showdown."

dargo
2014-01-21, 20:04:45
@Dargo: hast Du irgendwas mit DX 10/9 getestet oder etwas aus der GT200er Reihe probiert?
Bei Games die DX10/DX11 geboten haben habe ich in der Regel immer auf DX9 verzichtet. Aus einem einfachen Grund... die CPU-Last ist unter DX9 noch wesentlich höher durch den API-Overhead. Wenn man eine eher schwache CPU hat wie zb. einen C2D sollte man eher zu DX10/DX11 greifen als zu DX9.

ux-3
2014-01-21, 20:10:45
Also der in #1 verlinkte Test der Polen ist schon recht interessant. Die neuere HD7970 zeigt ein ganz interessantes Verhalten. Ein paar Spiele werden auf den Zweithreadern nämlich auch langsamer. Wenn ich den Test der HD7970 neben den der 580 GTX lege, sieht das nicht mehr ganz so übel aus wie im Bild des Startpostings.

Auch interessant ist die Leistung der nur minimal übertakteten Ivy 2-Kern CPUs im Vergleich zu den auf Anschlag geclockten Core2 CPUs. Ein Haswell Celeron ohne OC liegt etwa gleichauf mit einem 4+GHz E8600.

Undertaker
2014-01-21, 20:15:47
Wo tue ich das? Für unter 100 Euro ganz klar ein Athlon II X4 oder eine 4T-APU.

Das ist auch nicht der Preisbereich eines Pentium. Ivy Bridge/Haswell gibt es die ab ~45 Euro, Celeron sogar ab 30-36 Euro. Dafür bekommt man keinen 4-Kerner, und darum ist das Thema hier für Low-End-Käufer auch interessant. Wenn jemand eine CPU speziell mit Low-Power-Augenmerk oder für schlecht parallelisierte Spiele wie Starcraft, Sims usw. sucht, ist der Pentium sogar ggü. manch teurerem 4-Kerner interessant.

Also nicht einfach sagen, das interessiert keinen. :)

dargo
2014-01-21, 20:21:31
Also der in #1 verlinkte Test der Polen ist schon recht interessant. Die neuere HD7970 zeigt ein ganz interessantes Verhalten. Ein paar Spiele werden auf den Zweithreadern nämlich auch langsamer.
Wie ich schon sagte würde ich das nicht auf die Goldwaage legen. Die Gründe hatte ich dir genannt. Zudem fällt mir gerade noch ein weiterer ganz wichtige Grund ein. Im Test wurde der Cat. 12.2 verwendet. Dieser Treiber ist vom Februar/März 2012. Dh. AMD hatte bei der HD6970 seit Dezember 2010 genug Zeit gehabt den Treiber bis zum Erbrechen zu optimieren. Die HD7970 kam im Dezember 2011. Der Treiber war also für Tahiti erst 2-3 Monate jung.

Wenn man ganz auf Nummer sicher gehen will müsste man einen aktuellen Grafiktreiber nehmen. Grafiktreiber werden auch im CPU-Limit optimiert.

ux-3
2014-01-21, 20:30:38
Im Test wurde der Cat. 12.2 verwendet. Dieser Treiber ist vom Februar/März 2012. Dh. AMD hatte bei der HD6970 seit Dezember 2010 genug Zeit gehabt den Treiber bis zum Erbrechen zu optimieren. Die HD7970 kam im Dezember 2011. Der Treiber war also für Tahiti erst 2-3 Monate jung.

Das klingt plausibel.

dargo
2014-01-21, 20:33:59
Das klingt plausibel.
Ich frage mich übrigens gerade warum die so einen alten Treiber genommen haben wenn der Test am 09.09.2013 veröffentlicht wurde? :|

Nicht, dass die mit dem Testen schon so früh (also 2012) angefangen haben. Da läuft man wieder Gefahr mit unterschiedlichen Spielversionen zu vergleichen. :freak: Und nicht nur da... Windows aktualisiert sich ja auch selbst mit der Zeit. Es wäre also auch hier möglich, dass die DX-Versionen unterschiedlich waren.

StefanV
2014-01-21, 20:53:54
Auch interessant ist die Leistung der nur minimal übertakteten Ivy 2-Kern CPUs im Vergleich zu den auf Anschlag geclockten Core2 CPUs. Ein Haswell Celeron ohne OC liegt etwa gleichauf mit einem 4+GHz E8600.
Ja, ich habs auch mit dem C2D E6850 gemerkt. Der wurd ja von einigen als recht gut dargestellt.

In SWTOR wars aber 'ne Ruckelorgie. Der FX8350, auf 2 Module beschränkt, war locker doppelt so schnell - oder mehr. Und nein, 'ne 7970 war nicht im Rechner, nur eine 5870...

Sprich: DIe so hoch gelobten Core2 CPUs sind einfach schnarch lahm, in diesen Tagen...

Würd gern auch mit einem Dual Duo testen, aber ohne passende CPU ist das schlecht möglich...

dargo
2014-01-21, 20:59:10
Sprich: DIe so hoch gelobten Core2 CPUs sind einfach schnarch lahm, in diesen Tagen...

Würd gern auch mit einem Dual Duo testen, aber ohne passende CPU ist das schlecht möglich...
Wen wundert das noch? Die Dinger mussten über den lahmen FSB zugreifen. Beim Dual-Dualcore wirds nur noch schlimmer dank FSB.

Edit:
Ich hatte früher mal verschiedene Settings probiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7707800&postcount=237

Man sieht hier schon die Auswirkungen obwohl ich den CPU-Multi nur um 1,5 geändert habe und entsprechend den FSB und Speicherteiler angepasst habe um auf den gleichen CPU-Takt zu kommen. Zudem muss man berücksichtigen, dass ich mich hier mit nur 2Ghz im recht tiefen CPU-Takt befinde. Je höher der CPU-Takt umso größer der FSB-Flaschenhals solange der nicht 1:1 angehoben wurde. Die Speicherbandbreite natürlich auch.

Und das war dann endgültig der Auslöser für mich die "FSB-Architektur" zu verlassen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7713240&postcount=253

y33H@
2014-01-21, 21:08:43
Das ist auch nicht der Preisbereich eines Pentium. Ivy Bridge/Haswell gibt es die ab ~45 Euro, Celeron sogar ab 30-36 Euro. Dafür bekommt man keinen 4-Kerner, und darum ist das Thema hier für Low-End-Käufer auch interessant. Wenn jemand eine CPU speziell mit Low-Power-Augenmerk oder für schlecht parallelisierte Spiele wie Starcraft, Sims usw. sucht, ist der Pentium sogar ggü. manch teurerem 4-Kerner interessant.In diesen sehr niedrigen Preisbereichen stimme ich dir zu.

Schaffe89
2014-01-21, 21:15:58
Da steht: "Für 65 Euro leistet der 750K im Mittel klar mehr als der preisliche Gegner Pentium G2120, inbesondere in modernen Spielen wie Crysis 3 oder Dirt Showdown."

Wo leistet der klar mehr? Im leistungsmittel sieht es doch gut für den Pentium aus??

Der Pentium G2120 liefert ebenfalls eine hohe Leistung ab (64,6 Prozent) und schiebt sich vor den FX-8150.

Du redest dich wieder um Kopf un Kragen, anstatt mal zuzugeben, dass deine Aussagen vorhin einfach falsch sind.
Weder läuft man sowieso ins GPU Limit, noch interessiert das keinen.

Palpatin
2014-01-21, 21:43:03
Man braucht ja nur mal einen Blick in den Steam Hardwaresurvey werfen. Gut 50% der Gamer sind mit einem oder 2 Kernen unterwegs. Dazu kommt das gut 50% mit NV unterwegs sind. Kombiniert man das sind es ca 25 die eine 2 Kern CPU mit einer NV Karte kombiniert haben. Geht man jetzt davon aus das in etwa die hälfte davon wenigsten eine 2C4T CPU haben bleiben immer noch gut 12,5% übrig die davon betroffen sind. Bei ca 50Mio aktiven Steam User eine ganze Menge. :eek:

Ex3cut3r
2014-01-21, 21:53:43
Und wahrscheinlich wissen/merken die gar nix davon. :/

Ne ziemliche Verarschung von Nvidia, eine bremse bei CPU's, die sowieso schon lahm sind. Sollte man verklagen ;D

y33H@
2014-01-21, 21:54:08
Wo leistet der klar mehr? Im leistungsmittel sieht es doch gut für den Pentium aus? Du redest dich wieder um Kopf un Kragen, anstatt mal zuzugeben, dass deine Aussagen vorhin einfach falsch sind.Das Quote mit dem FX ist 1,5 Jahre her und der damalige Parcours beinhaltete 3 von 6 Spielen die praktisch nur 2 Kerne nutzen. Heute sieht die Spielewelt doch etwas anders aus.

dildo4u
2014-01-21, 22:03:36
Man braucht ja nur mal einen Blick in den Steam Hardwaresurvey werfen. Gut 50% der Gamer sind mit einem oder 2 Kernen unterwegs. Dazu kommt das gut 50% mit NV unterwegs sind. Kombiniert man das sind es ca 25 die eine 2 Kern CPU mit einer NV Karte kombiniert haben. Geht man jetzt davon aus das in etwa die hälfte davon wenigsten eine 2C4T CPU haben bleiben immer noch gut 12,5% übrig die davon betroffen sind. Bei ca 50Mio aktiven Steam User eine ganze Menge. :eek:
Ein Großteil davon wird Dota 2,CS,TF2 oder so zocken und vermutlich Intel Grafik nutzen.Ist nicht umsonst auf Platz 1 bei den GPUs.

ux-3
2014-01-21, 23:03:56
Eine Frage bleibt eh noch offen, da ja leider keine Zahlen vorliegen. Wer mit einen C2D unterwegs ist, wird nur selten eine 660 im Rechner haben. Passender wäre eine 260 GTX o.ä.
Haben wir irgendeinen Beleg, dass bei dieser Karte (DX10) das Problem auch existiert?

Der Bericht vom Executer spricht eher dafür, dass die Karte nicht so stark betroffen ist.

Könnte man das ansatzweise mit einem Programm wie Heaven4 o.ä. testen? Ich hab leider nur genau eine HT CPU, einen i3. Beim i5 könnte ich Kerne im Bios ausknipsen.

Ex3cut3r
2014-01-21, 23:17:38
Ich könnte die Tage ja mal die alte GTX 260 einbauen, HT und 2 Kerne im Bios ausschalten, und mal testen, ob ich es aber wirklich mache, kann ich dir aber nicht garantieren.

Mir schien es aber, dass mit der GTX 260 das Problem nicht so heftig, wenn überhaupt vorhanden war, wie mit der GTX 660, aber wie gesagt wahrscheinlich war ich immer im GPU Limit @ 1080p (GTX 260)

hatte davor nen 22" @ 1680x1050, da habe ich auch nichts gemerkt, und noch weiter davor nen 17" @ 1280x1024, ebenfalls nichts.

dargo
2014-01-21, 23:21:51
Eine Frage bleibt eh noch offen, da ja leider keine Zahlen vorliegen. Wer mit einen C2D unterwegs ist, wird nur selten eine 660 im Rechner haben. Passender wäre eine 260 GTX o.ä.
Haben wir irgendeinen Beleg, dass bei dieser Karte (DX10) das Problem auch existiert?

Warum sollte dies nicht der Fall sein? Nach diesem Link:
http://www.behardware.com/news/10005/dx10-radeon-geforce-quad-core.html

hat sich Nvidia entschieden, nachdem DX10 langsam das Licht der Welt erblickte, den Treiber mehr in Richtung Quadcore auszurichten.

ux-3
2014-01-21, 23:23:34
Ich könnte die Tage ja mal die alte GTX 260 einbauen, HT und 2 Kerne im Bios ausschalten, und mal testen, ob ich es aber wirklich mache, kann ich dir aber nicht garantieren.

Falls Du es machst, sag mal Bescheid, was Du genau gemacht hast. Ich hab hier von 260 bis 660 alle 60iger verbaut und würde das gerne mal gegentesten. Ich hab nur keinen Plan, wie. :redface:

Ex3cut3r
2014-01-21, 23:24:02
Oh, der Link von Dargo über uns, klärt wohl die DX10 Sache.

Naja, hier gibts benchmark szenen: http://www.youtube.com/results?search_query=pcgh%20benchmark%20szene&sm=3


einfach nachmachen. ;) Fraps meißtens auf 30 sekunden einstellen, manchmal auch länger musst dann nach den Artikel der PCGH für jeweilige Spiel suchen, meißtens erklären sich da genauer wie sie gebencht haben.

http://abload.de/img/unbenannthod6m.jpg

ux-3
2014-01-21, 23:26:33
Warum sollte dies nicht der Fall sein? Nach diesem Link:
http://www.behardware.com/news/10005/dx10-radeon-geforce-quad-core.html

hat sich Nvidia entschieden, nachdem DX10 langsam das Licht der Welt erblickte, den Treiber mehr in Richtung Quadcore auszurichten.

Der Artikel muss schon verlinkt gewesen sein, die Tabelle hatte ich mir angesehen. Daher hatte ich auch den Eindruck, dass DX9 das Problem nicht so hat. Die Framerate war bei DCs deutlich höher.

Edit: Gerade gesehen, höhere Effekte in DX10 möglich, daher weniger Frames.

ux-3
2014-01-21, 23:28:55
Mir schien es aber, dass mit der GTX 260 das Problem nicht so heftig, wenn überhaupt vorhanden war, wie mit der GTX 660, aber wie gesagt wahrscheinlich war ich immer im GPU Limit @ 1080p (GTX 260)

Warum sollte es im GPU Limit weniger ruckeln als im CPU Limit bei gleicher CPU. Kann es sein, dass der Resourcenbedarf des Treibers mit der Karte zunimmt?

Ex3cut3r
2014-01-21, 23:31:36
Da bin ehrlich gesagt überfragt, bin leider nicht so der über Profi, ich habe lediglich meine Einschätzung von damals abgegeben. ^^

ux-3
2014-01-21, 23:34:12
Da bin ehrlich gesagt überfragt, bin leider nicht so der über Profi, ich habe lediglich meine Einschätzung von damals abgegeben. ^^

Und ich vermute, dass Du Dich damals nicht geirrt hast. Man hat sich an eine Karte gewöhnt, Verschlechterungen merkt man.

Schaffe89
2014-01-22, 00:19:03
Das Quote mit dem FX ist 1,5 Jahre her und der damalige Parcours beinhaltete 3 von 6 Spielen die praktisch nur 2 Kerne nutzen. Heute sieht die Spielewelt doch etwas anders aus.

Verstehe ich trotzdem nicht. Ein Haswell 2 kerner Pentium bietet eine ähnliche Spieleleistung wie ein 760k und den deutlich geringeren Strombedarf.
Warum niemand die Pentiums kaufen sollte oder die nicht interessant wären, leuchtet mir nicht ein.

Und auch verstehe ich nicht, warum man sowieso im GPu Limit liegt. Wirst du wohl nie erklären.

Palpatin
2014-01-22, 08:35:43
Ein Großteil davon wird Dota 2,CS,TF2 oder so zocken und vermutlich Intel Grafik nutzen.Ist nicht umsonst auf Platz 1 bei den GPUs.
Es geht um die ~50 Mio aktiven Steamuser und nicht um Office PCs und da ist Intel mit 16% auf Platz 3. Bei den von mir geschätzten ~12,5% ist das schon alles berücksichtigt.

Iruwen
2014-01-22, 10:48:14
Und auch verstehe ich nicht, warum man sowieso im GPu Limit liegt. Wirst du wohl nie erklären.
Weil man typischerweise nicht in 1024x768 spielt?

y33H@
2014-01-22, 12:04:16
Ach, lass Schaffe89 doch seinen Spaß. In aktuellen Spielen wie BF4, Crysis 3 oder Diablo 3 sieht ein HSW-Pentium kein Land gegen einen 750K. Wer einen C2D nutzt, der wird bis auf Ausnahmen eine Grafikkarte der ersten DX10-Generatione nutzen, also zB eine 8800 GT oder GTX 260. Damit ist man IMHO praktisch immer im GPU-Limit, selbst bei Titeln wie Crysis 3.

dargo
2014-01-22, 13:05:09
Der Artikel muss schon verlinkt gewesen sein, die Tabelle hatte ich mir angesehen. Daher hatte ich auch den Eindruck, dass DX9 das Problem nicht so hat. Die Framerate war bei DCs deutlich höher.

Edit: Gerade gesehen, höhere Effekte in DX10 möglich, daher weniger Frames.
Gut, dass du editiert hast. Auf den ersten Blick wußte ich nicht so recht was du mir vor dem Edit genau sagen willst. :tongue: Dass die Frames leicht tiefer unter DX10 sind liegt wie du richtig sagst an mehr/besseren Effekten. Das zeigt mir aber wieder mal, dass man sich in diesem Test nicht vollständig im CPU-Limit befunden hat. Soll heißen... der Quad könnte noch etwas besser skalieren.

Schnäppchenjäger
2014-01-22, 14:32:49
Ach, lass Schaffe89 doch seinen Spaß. In aktuellen Spielen wie BF4, Crysis 3 oder Diablo 4
Diablo 3 ;)

Gaestle
2014-01-24, 16:20:38
Skalieren jetzt Quads nur besonders gut (was für mich ok wäre), oder sind Systeme mit DualCores über die verschiedenen Treiber-Versionen bei identischem System langsamer geworden?

BTW: Mein Zeug stammt vom Oktober 2008.

ux-3
2014-01-24, 16:27:18
Weil man typischerweise nicht in 1024x768 spielt?

Dann schau Dir doch bitte mal die Auflösung der Chart im Startposting an!

Iruwen
2014-01-24, 20:35:04
Erstens war BC2 eins der wenigen Spiele die zu der Zeit mehrere Kerne überhaupt vernünftig genutzt haben, bricht mit einer AMD Karte ja auch plötzlich ordentlich ein, zweitens würde keiner so eine CPU mit einer GTX 580 paaren sondern mit einer schwächeren Karte, darum gings ja. Oder man hätte SSAA drübergebügelt. Die 580 kam zwei Jahre (!) nach z.B. dem i7-920 raus.

Schaffe89
2014-01-25, 11:41:21
ch, lass Schaffe89 doch seinen Spaß. In aktuellen Spielen wie BF4, Crysis 3 oder Diablo 3 sieht ein HSW-Pentium kein Land gegen einen 750K. Wer einen C2D nutzt, der wird bis auf Ausnahmen eine Grafikkarte der ersten DX10-Generatione nutzen, also zB eine 8800 GT oder GTX 260. Damit ist man IMHO praktisch immer im GPU-Limit, selbst bei Titeln wie Crysis 3.

Ja, in aktuellen Spielen vielleicht. In der Mehrzahl der Spiele eher nicht, da sieht es nach einem gleichstand aus.

Wieso sollte man immer im GPU Limit sein? Drehe die Grafiksettings nach unten, verringere die Auflösung, dann kannst du genauso ins CPU Limit laufen, da sieht man doch auch bei den IGP´s.

Pauschaler Unsinn.

Iruwen
2014-01-25, 13:02:23
Ja, wenn man ein CPU-Limit forcieren möchte schafft man das immer irgendwie, das ist richtig :freak:

Spasstiger
2014-01-25, 13:09:55
Gut zu wissen, somit sollte man bei einem Budget-Gaming-System mit Haswell-Pentium von einer Nvidia-Karte absehen.

ux-3
2014-01-25, 13:46:35
Skalieren jetzt Quads nur besonders gut (was für mich ok wäre), oder sind Systeme mit DualCores über die verschiedenen Treiber-Versionen bei identischem System langsamer geworden?


Genau das ist eine der Fragen, die mich sehr interessiert.

Was zunächst gegen die konstante Qualität mit neueren Treibern spricht, ist die schlechte Performance der 580 GTX mit zwei Threads im Vergleich zur Konkurenz. Vielleicht liegt es aber auch an dem Arbeitsaufwand, den der Treiber bei neueren fetten Karten hat. Niemand hat sich vermutlich die Mühe gemacht, und eine ältere Karte (260 GTX, 460 GTX) mit einer 2-Thread CPU getestet.

Wenn ich die Zeit finde, würde ich mich glatt mal dran machen. Es wäre dann wohl nötig, verschiedene Treiber im CPU-Limit auszuprobieren. Ob das auch mit 3DMark06 bei 1024x768 geht?

dargo
2014-01-25, 13:51:32
Vergiss es... Timedemos sind grundsätzlich Grütze. Nur mit Savegames in aktionreichen Szenen hast du ein gutes Abbild der tatsächlichen CPU-Last.

Schaffe89
2014-01-25, 20:03:17
Ja, wenn man ein CPU-Limit forcieren möchte schafft man das immer irgendwie, das ist richtig

Wieso forcieren? Ich wähle meine Einstellungen so, dass ich genügend FPS habe, egal ob CPU oder GPU Limit, das ist völlig zweitrangig, insofern muss man da gar nichts forcieren.
Zu behaupten man läuft sowieso ins GPU Limit ist völliger Blödsinn und der werte Herr der das Gegenteil 100 mal gepredigt hat, dreht sich jetzt um 180°, damit er das " Treiberproblem" bei Nvidia negiert.
Fanboyverhalten erster Güte nach dem Motto " man läuft doch sowieso in das GPU Limit", wo er Leute immer scharf angegangen hat, die sowas bei AMD Prozessoren behauptet haben, es sei doch egal welcher Prozessor verbaut ist, wenn die Grundleistung stimmt.

Man läuft auch mit einer IGP teils gnadenlos ins CPU Limit, wenn man die Einstellung Richtung flüssige FPS vornimmt.

Die CPU Beanspruchung bleibt immer gleich, außer man wechselt das Seitenverhältnis, oder dreht an Setings die die CPU Beanspruchung senken, gibt es aber kaum.
Das heißt 40+ FPS.

ux-3
2014-01-25, 20:37:25
Darf ich euch beide freundlich bitten, diesen Thread nicht für unproduktive Streitereien zu nutzen. Ich gehe dieses Problem völlig ergebnisoffen an und freue mich über jeden konstruktiven Beitrag. Lagerdenken wird uns aber nicht weiter helfen.

Ich überlege gerade, ob es Sinn machen würde, einen C2D mit 260 GTX zu kombinieren, eine Platte mit OS und Testspielen auszustatten und dann mehrfach zu clonen. Anschließend kommen unterschiedlich alte Treiber drauf. Dann müsste man schauen, ob man ein Nachlassen der Performance bei neueren Treibern nachweisen kann. Wenn ich die ganzen Baustellen hier los bin, würde ich mich wohl gerne mal in so einen Test einarbeiten.

Gaestle
2014-01-26, 19:33:20
Das wäre ziemlicher Aufwand, den Du da betreiben willst, aber anders geht es wohl nicht. Andererseits scheinen wir beiden die Einzigen hier zu sein, die wirklich Interesse an dem Problem an sich haben. Ob sich das lohnt?

N0Thing
2014-01-26, 20:03:31
Interesse an den Ergebnissen habe ich auch. Darüber hinaus würde mich ebenfalls interessieren, wie das Ergebnis bei sechs und acht Kernen aussieht. Alles in Butter auf beiden Seiten oder gibt es oberhalb von vier Kernen auch wieder Unterschiede?

Da ich keinen Dual-Core besitze und auch nicht vorhabe wieder einen anzuschaffen, kann ich leider nicht mit hilfreichen Daten dienen. Aber wie gesagt, Interesse an Ergebnissen habe ich definitiv. :)

ux-3
2014-01-26, 20:08:44
Sofern wir das wirklich angehen würden, könnten wir vermutlich mehrere Mitarbeiter gebrauchen. Und deine CPU kann doch wieselflink in einen Zwei- und Dreikerner verwandelt werden. Hättest Du noch ältere Nvidia-Karten?

N0Thing
2014-01-26, 22:00:16
Ich müßte noch eine GTX 275 haben, falls ich die nicht verschenkt habe. Ich durchsuche mal den Keller und geb morgen bescheid.
Ne kurze Anleitung wie ich die CPU-Kerne deaktiviere wäre willkommen.

ux-3
2014-01-26, 23:09:41
Ne kurze Anleitung wie ich die CPU-Kerne deaktiviere wäre willkommen.

Das müsste doch direkt im Bios möglich sein.

N0Thing
2014-01-28, 09:10:21
Ok, meine alte GTX 275 habe ich noch zur Hand und die entsprechende BIOS-Option für die Anzahl der Kerne habe ich auch gefunden.

ux-3
2014-01-28, 10:53:41
Ok, meine alte GTX 275 habe ich noch zur Hand und die entsprechende BIOS-Option für die Anzahl der Kerne habe ich auch gefunden.

Ich werde mal schauen, ob man dargo zum Abschalten von Kernen übereden kann.

Screemer
2014-01-28, 11:15:58
die tage kommt der e8400 bei dir an. vielleicht kannst du ja mit dem auch schon vergleichswerte ziehen.

Gaestle
2014-01-29, 09:58:54
Sauber!

:up: :massa:

StefanV
2014-05-23, 16:12:57
Gibts aktuelle Erkenntnisse zu diesem Thema?

Sprich Benches 'moderner' CPUs/GPUs mit 2-8 Threads??

sloth9
2014-08-09, 02:43:24
So. Gibt's was neues?

Sprich, einen Treiber, der dies Problematik angeht?
Tests?

dildo4u
2014-08-09, 02:52:38
So. Gibt's was neues?

Sprich, einen Treiber, der dies Problematik angeht?
Tests?
Ja ab dem 337.50 hat vorallem 2 Kern Performance zugelegt.

http://www.computerbase.de/2014-04/geforce-337.50-cpu-skalierung-benchmarks/