PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI Treiberoptimierung auf Dual Core


goldman82110
2006-01-20, 12:20:16
Hallo Leute,

da war doch mal ne Meldung daß ATI seine Treiber auf Dual Core optimieren wollte. Ist das in den aktuellen Treibern schon drin? Und falls ja für alle Karten der neuesten Gereration oder nur für die X1800 oder auch für die X1600 und X1300?

Hat das noch jemand im Kopf oder weiß wo die entsprechenden Meldungen zu finden sind?


bye

goldman

Gast
2006-01-20, 12:26:53
Sollte mittlerweile drin sein, bringt aber nich soviel Leistung wie bei NV.

Gast
2006-01-20, 12:28:27
Schau dir mal das an:
http://www.anandtech.com/video/showdoc.aspx?i=2629

Es gab glaube ich auf einer anderen Seite einen interessanteren Bericht, aber alles in allem bringt die Optimierung nicht viel. Ist auf jeden in den aktuellen Catalyst enthalten.

SKYNET
2006-01-20, 12:36:15
jupp, so ist es... entweder bringt es bei ATI nix(architektur?!) oder sie müssen es erst noch "lernen", NV hat ja schon ein jahr vorsprung in sachen doppelherz @ graka!

Super Grobi
2006-01-20, 12:41:09
jupp, so ist es... entweder bringt es bei ATI nix(architektur?!) oder sie müssen es erst noch "lernen", NV hat ja schon ein jahr vorsprung in sachen doppelherz @ graka!

Aus MEINEN Erfahrungen: Die NV Treiber haben schon immer eine hohe CPU Last erzeugt und konnten daher besser optimiert werden. Der Ati Treiber war schon immer etwas genügsamer und kann daher nicht einen solchen spürbaren Sprung machen.

Wie gesagt: MEINE ERFAHRUNGEN, bevor das gemaule jetzt los geht.

Gruss
SG

Karten: 9700Pro;9800Pro, X800Pro, X800XT, X800XT-pe, FX5900, 6800GT und 6800Ultra. Sind wohl genug Karten in den letzen Monaten gewesen um das fest zu stellen, oder?

Tidus
2006-01-20, 12:47:04
Aus MEINEN Erfahrungen: Die NV Treiber haben schon immer eine hohe CPU Last erzeugt und konnten daher besser optimiert werden. Der Ati Treiber war schon immer etwas genügsamer und kann daher nicht einen solchen spürbaren Sprung machen.

Wie gesagt: MEINE ERFAHRUNGEN, bevor das gemaule jetzt los geht.

Gruss
SG

Karten: 9700Pro;9800Pro, X800Pro, X800XT, X800XT-pe, FX5900, 6800GT und 6800Ultra. Sind wohl genug Karten in den letzen Monaten gewesen um das fest zu stellen, oder?
:biggrin: langeweile gehabt? :biggrin:

AnarchX
2006-01-20, 13:10:28
us MEINEN Erfahrungen: Die NV Treiber haben schon immer eine hohe CPU Last erzeugt und konnten daher besser optimiert werden. Der Ati Treiber war schon immer etwas genügsamer und kann daher nicht einen solchen spürbaren Sprung machen.
ack.
ATI-Treiber sind resourcen-schonender, da musste ich damals vom Umstieg von der 9800Pro auf 6800Gt erfahren, welche vor allem in den CPU-limitierten Tests etwas langsamer als die 9800Pro war.

Spasstiger
2006-01-20, 13:58:54
Laut PC Games Hardware soll die Dual-Core-Optimierung der ATI-Treiber (seit dem Cat. 5.12 drin) in Need for Speed Most Wanted bis zu 35% mehr Speed bringen. Ob vielleicht auch das Spiel generell von Multithreading profitiert, weiß ich nicht.

Ansonsten kann man hier die Dual-Core-Optimierungen von ATI und Nvidia vergleichen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/7/#abschnitt_dual_core_treiber

goldman82110
2006-01-20, 14:03:54
Schau dir mal das an:
http://www.anandtech.com/video/showdoc.aspx?i=2629


Leider haben die hier ja nur die X1800 getestet. Aber trotdem danke schon mal.

Leider kann ich bei meiner X1600 überhaupt nix feststellen. Habe zwar jetzt nicht die Frames getestet sondern ich sehe nur in meinem Taskmanager daß mein Dual Core zu genau 50% ausgelastet ist wenn ich WoW laufen hab. Also ein Core zu 100% und der andere langweilt sich. Wenn hier was auf dem anderen Core laufen würde müsste ich ja zumindest was im Taskmanager sehen. Die neuesten Treiber hab ich auch, kann mir jetzt eigentlich nur noch vorstellen daß es bei der X1600 noch keine optimierungen gibt.

Oder kanns vielleicht seiß daß diese Optimierungen nur bei bestimmten Games ziehen? Dachte eigentlich daß das allgemeine Optimierungen sein müssten die in allen Games greifen.

goldman82110
2006-01-20, 14:08:32
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/7/#abschnitt_dual_core_treiber

Auch hier wieder nur X1800... Anscheinend hat das noch keiner mit ner X1600 getestet

Gast
2006-01-20, 14:12:29
Ich glaube da tut sich nicht mehr viel, egal ob 1800 oder 1600. Am Ende müssen die Softwarehersteller selbst eine entsprechende Optimierung ins Spiel einbringen.

Spasstiger
2006-01-20, 14:17:26
Ich glaube da tut sich nicht mehr viel, egal ob 1800 oder 1600. Am Ende müssen die Softwarehersteller selbst eine entsprechende Optimierung ins Spiel einbringen.

Ich denke auch nicht, dass sich bei den Dual-Core-Optimierungen im Treiber noch viel tut. Die teilweise erreichten Steigerungen von 20% sind ja schon beeindruckend genug.

reunion
2006-01-20, 14:18:07
jupp, so ist es... entweder bringt es bei ATI nix(architektur?!) oder sie müssen es erst noch "lernen", NV hat ja schon ein jahr vorsprung in sachen doppelherz @ graka!


Blödsinn³, ich würde dir mal raten, diesen Thread sorgfältig zu lesen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=268268&page=1&pp=10&highlight=quake

Coda
2006-01-20, 14:21:54
Das mit Quake ist wohl passiert weil der Treiber in einer falschen Priorität arbeitet. Das ist nun wirklich nicht schwer zu beheben.

Ohne Einblick in die Treiber kann man nichts aber auch gar nichts über die Qualität aussagen.

Gast
2006-01-20, 14:33:52
Und einen Einblick in die Treiber werden uns NV und ATI wohl kaum gewähren. ;)

Birdman
2006-01-20, 20:16:23
ack.
ATI-Treiber sind resourcen-schonender, da musste ich damals vom Umstieg von der 9800Pro auf 6800Gt erfahren, welche vor allem in den CPU-limitierten Tests etwas langsamer als die 9800Pro war.
Huh? Wenn überhaupt, dann erzeugten die NV Treiber 1-2% mehr CPU Load. Doch in OpenGL und auch einigen Direct3D Games laufen Games bei NV am CPU Limit auch schneller als bei Ati, von daher ist das ganze völlig irrelevant.
Zumal NV beim DualCore deutlich mehr als diese 1-2% auf Ati rausholt....

Pirx
2006-01-20, 20:20:58
Ist das eigentlich gut, wenn der Treiber sich soviel von der Dual-Core-CPU-Power(:rolleyes: ) schnappen will? Wenn dann mal ein Spiel kommt, was die CPU selbst für bessere KI und wasweißich nutzen möchte?

Gast
2006-01-20, 20:22:27
Sollte eigentlich kein Problem sein. Wenn du nur eine CPU hast, läuft darauf ja auch Treiber und Spiel (und oft noch vieles mehr).

mirp
2006-01-20, 21:56:42
Bislang beschränken sich die Dual Core Optimierungen bei ATI wohl auf Direct3D. Dafür bringt es aber bei jeder Karte etwas. Nicht nur bei der neuen Generation.

DriverHeaven.net: Catalyst 5.12 Dual Core CPU Optimisations (http://www.driverheaven.net/articles/dualcore512/)

[..]

Driverheaven: Can you give our readers a simplistic explanation of how the dual core optimisations work?

Phil Rogers: The D3D driver interface delivers work to the driver in large batches, encoded in an execute buffer. It is the driver's job to parse this execute buffer, translate it to a form that our hardware can process and deliver it to the hardware. With the dual core optimizations, we move the bulk of this driver processing to a worker thread that runs on the second core.

[..]

Driverheaven: OpenGL dual core optimisations are not currently included in the drivers, are there any plans to add them?

Phil Rogers: Yes, but I cannot say more about that right now :-)

[..]

Gast
2006-01-20, 23:00:35
interessant, bei NV profitiert ja OGL mehr von der dual-core-optimierung.

Super Grobi
2006-01-21, 01:21:22
Huh? Wenn überhaupt, dann erzeugten die NV Treiber 1-2% mehr CPU Load. Doch in OpenGL und auch einigen Direct3D Games laufen Games bei NV am CPU Limit auch schneller als bei Ati, von daher ist das ganze völlig irrelevant.
Zumal NV beim DualCore deutlich mehr als diese 1-2% auf Ati rausholt....

Naja,
kannst du gerne so sehen! Fakt (aus MEINER SICHT) ist, das alle Benches beim wechseln von z.B. X800XT zu 6800Ultra der CPU-Wert einbricht. Das ist mir halt immer und immer wieder aufgefallen. Ich dachte erst das ich nur mein System neu installieren müsste. Keine Angst, auch das hab ich immer gemacht. Die CPU Werte waren IMMER mit der NV Karte schlechter, als mit dem entsprechenden "Gegenprodukt" von ATI.

Die ganze Sache hier soll KEIN NV flame sein! Bevor das hier jetzt abgeht wie ....

Der Unterschied ist nicht die Welt gewesen, denoch ist das für die Frage hier bzgl. DC-opti wichtig!

Davon mal ab: Die ganze DC-Opti ist doch eh für den Po! Guckt euch doch bitte mal die neuen Games an. Was sind diese? CPU oder GPU limitiert? ... siehste... ales Quark mit Soße!

Gruss
SG

p.s.
ich hab bei der Grakaliste die FX5950 vergessen! *ggg*

mirp
2006-01-21, 07:20:15
Davon mal ab: Die ganze DC-Opti ist doch eh für den Po! Guckt euch doch bitte mal die neuen Games an. Was sind diese? CPU oder GPU limitiert? ... siehste... ales Quark mit Soße!
Das sieht hier aber ganz anders aus.

Quake 4 SMP Patch Benchmarks Revised

neu getestet mit netdemo

Render demos do not run any game logic, they feed a sequence of render command to the renderer subsystem. While this is fine for hardware vendors wanting to validate their drivers performance, it's not a good representation of real gameplay situations.


Network demos however, are a recording/replay of the network stream, and run gamecode frames and render frames. So any benchmarking should really be done with network demos.

http://img76.imageshack.us/img76/9858/x1800xl6vt.jpg

http://img76.imageshack.us/img76/4585/7800gt3kc.jpg

http://tinyurl.com/e3mbp

Com1
2006-01-21, 12:19:35
Auf meinem System (Pentium D 830 + X800XT) habe ich keine Verbesserungen der D3D-Performance bemerkt. Ich spiele ich aber auch fast alles mit 4xAA. 3DMark05 ist auch nicht schneller, der Unterschied ist minimal.

Aus der Doom3-Engine lassen sich aber bestimmt noch einige fps rauskitzeln.

(del)
2006-01-29, 12:56:08
Naja,
kannst du gerne so sehen! Fakt (aus MEINER SICHT) ist, das alle Benches beim wechseln von z.B. X800XT zu 6800Ultra der CPU-Wert einbricht. Das ist mir halt immer und immer wieder aufgefallen. Ich dachte erst das ich nur mein System neu installieren müsste. Keine Angst, auch das hab ich immer gemacht
Das IST auch korrekt. Konnte das sogar Pi mal Daumen im Taskmanager beobachten. Die Aktivität des Kerneltreibers (roter Balken der dem Grünen "nachfolgt), war mit 6600GT merklich höcher als mit 9800pro. Kann ja beim gleichbleibenden System nur der Graka Kerneltreiber sein.

Richtig. Soll ja kein gebasche sein, aber Birdmans "1-2%" sind auf jeden Fall falsch.

@Birdman
Doch in OpenGL und auch einigen Direct3D Games laufen Games bei NV am CPU Limit auch schneller als bei Ati
Oh man :rolleyes: X1800XT ist bei X3 so schnell wie GTX512 (+-1 fps). Meist ist die GTX512 aber sonst überall schneller. Was sagt mir das? Graka schelchter, aber das Spiel haut voll auf die CPU womit sie mit "CPU-schonenderen" Treiber bissl aufholen kann. Jedenfalls theoretisch hört sich das gut an :D ;)

Palpatin
2006-01-30, 23:53:17
Bei mir wars im 3dmark 2001 ein anstieg von 24000 auf 28000 x1800xl a64 3800@ 2,45 ghz also schon ganz ordentlich fürs erste

dargo
2006-01-31, 00:28:20
Davon mal ab: Die ganze DC-Opti ist doch eh für den Po! Guckt euch doch bitte mal die neuen Games an. Was sind diese? CPU oder GPU limitiert? ... siehste... ales Quark mit Soße!

Ähm, ich darf dich an GT Legends erinnern. :rolleyes: