PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Pentium4 für Grafikkarten-Treiber


aths
2002-02-27, 12:38:50
nVidia behauptet in einer recht ausschweifenden Presseerklärung, ihre GF4-Familie sei besonders für den P4 optimiert. (Schon zur GF3 sagten sie irgendwann, sie sei mit neuen Treibern angeblich auf einem P4 schneller als auf einem gleich getaktetem Athlon.) Mir geht es jetzt allgemein darum, ob:

- eine Treiberoptimierung auf eine bestimmte CPU möglich und wenn ja, sinnvoll ist,

- und ob sich für Grafikkarten "reine" FPU-Leistung nicht eher lohnt als Techniken wie SSE2.

Unregistered
2002-02-27, 15:34:53
Wenn das wirklich so wäre, wäre das wirklich ganz schön ungerecht gegenüber AMD. Vor allem, wenn man bedenkt, dass fast alle Prozessor Benchmarks mit eine Nvidia Karte durchgeführt werden...

HOT
2002-02-27, 15:40:26
Es wird alles heisser gekocht, als es gegessen wird ;)
Die SSE2 Optimierungen sind schon seit den 1x.xx Treiber drin und seither hat sich am Leistungsunterschied P4/Athlon nicht sonderlich viel getan. AMD und Intel tun in diesem Segment auch alles, um die bestmöglichen Optimierungen bei allen Grafiktreibern hinzubekommen. PowerVR bescheinigt sogar AMD höhere Kooperationsbereitschaft als Intel ;)

Korak
2002-02-27, 17:39:32
Originally posted by aths
nVidia behauptet in einer recht ausschweifenden Presseerklärung, ihre GF4-Familie sei besonders für den P4 optimiert. (Schon zur GF3 sagten sie irgendwann, sie sei mit neuen Treibern angeblich auf einem P4 schneller als auf einem gleich getaktetem Athlon.) Mir geht es jetzt allgemein darum, ob:

- eine Treiberoptimierung auf eine bestimmte CPU möglich und wenn ja, sinnvoll ist,

- und ob sich für Grafikkarten "reine" FPU-Leistung nicht eher lohnt als Techniken wie SSE2.

Ob eine Optimierung möglich ist weiss ich leider nicht aber sinnvoll ist optimieren im Normalfall schon. Schließlich kann es nicht schnell genug sein. Eine flächendeckende Optimierung wäre zwar für die Masse der User besser aber NV wird sich schon was dabei gedacht haben ('geldtechnisch' ;)).
Techniken wie SSE(2) sind doch IMHO Instruktionen, die die Bearbeitung der Aufgaben, welche die CPU abarbeiten muss, schneller ablaufen lassen. Ich wüsste nicht wie eine Graka direkt vom Vorhanden sein dieser Befehle ohne optimierte Software (Spiele) profitieren sollte.

SledgeHammer
2002-02-27, 22:13:14
Natürlich kann mann Grafikkartentreiber für Befehlssatzerweiterungen optimieren.
Vielleicht erinnert sich noch jemand an den von AMD für den K6-2/3 (3Dnow) optimierten Voodoo 2 Treiber. Speziell nur für Quake 2.
Das spiel lief damit auf solch einem System schneller als mit einer Voodoo 3 ohne Optimuerungen auf diesem System.
Deshalb bringen Optimierungen in manchen Fällen schon etwas.

Quasar
2002-02-27, 22:32:21
Ohne das jetzt fundiert beweisen zu können, glaube ich, daß so eine Optimierung möglich ist und sinnvoll sein kann.

Man kann ja z.B. bei nV-Karten unter OpenGL die Unterstützung für erweiterte CPU-Befehlssätze dekativieren, wenn man nicht a priori unterstellen will, daß diese Option zum großangelegten Täuschungsmanöver gehört.

Das solcherlei Optimierungen möglich und sinnvoll sein können, beweisen imho zuhauf optimierte professionelle OpenGL-Karten/Anwendungen. Diese können z.B. aus SSE2 einen ziemlichen Leistungsgewinn ziehen, wenn man bsw. einen Teil der Vertex-Berechnungen auslagert (nV-Treiber sollen das ja z.B. beim Nature-Test tun können, auch den Savage-2000 Karten wurde m.W. ein Load-Balancing nachgesagt) und so lokale Bandbreite z.B. für Texturen freibekommt. Unter Umständen kann eine CPU-Erweiterung (MMX, 3DNow+professional, SSE, SSE2, AltiVec) bei bestimmten Funktionen durchaus auch schneller sein, als ein integrierter Vertex-Prozessor, z.B. bei Berechnungen mit multiplen Lichtquellen, wie sich beim 3DMark2000 nachweisen läßt. Hierbei versagt der GeForce einigermaßen, wie die Radeon abschneiden würde ist mir nicht bekannt.

StefanV
2002-02-28, 00:58:49
Originally posted by Quasar
(...)durchaus auch schneller sein, als ein integrierter Vertex-Prozessor, z.B. bei Berechnungen mit multiplen Lichtquellen, wie sich beim 3DMark2000 nachweisen läßt. Hierbei versagt der GeForce einigermaßen, wie die Radeon abschneiden würde ist mir nicht bekannt.

Die Radeon hat eine recht konstante TnL Leistung ;)

Bricht also bei mehreren Lichtern nicht soo stark weg ;)

HOT
2002-02-28, 09:52:17
die Radeon7500 hat eine stärkere TnL Leistung als ne Geforce3 ;)

jor
2002-02-28, 10:03:43
Soweit ich mich erinnern kann sind Programme die mit Unterstützung von SSE2 geschrieben wurden teilweise immer noch langsamer als pure in Assembler geschrieben Programme. Ok, nagelt mich bitte nicht fest, wenn ich da was verwechselt habe..;-)
Ich hab mir vor längerer Zeit mal das Intel-Tutorial zu SSE angeschaut und da wurden diese Sachen verglichen. Natürlich ist SSE2 schon ein Fortschritt, aber bevor das nicht von Allen gängigen Prozessoren unterstützt wird, würde ich als kommerzieller Entwickler das nicht unterstützen.

aths
2002-02-28, 12:08:10
jor,

auch SSE2 lässt sich mit purem ASM nutzen, insofern lassen sich schlecht Aussagen treffen.

Meine Frage ließe sich auch anders formulieren: Ist die synthetische Leistung eines NV2x auf einem Pentium IV oder Athlon XP besser?

jor
2002-02-28, 12:54:26
Ok, ich gebs zu ich hab mich geirrt. Es war so, C++ - Anwendungen mit SIMD waren fast genau so schnell wie reine Assembleranwendungen.

Aber ich werde das Tutorial noch Mal suchen.

aths
2002-02-28, 16:32:04
jor, mir (persönlich jedenfalls) geht es hier darum, ob Techniken wie SSE2 (oder natürlich auch 3dnow) den Graka-Treiber unterstützen können.

Quasar
2002-02-28, 18:27:20
Originally posted by Stefan Payne


Die Radeon hat eine recht konstante TnL Leistung ;)

Bricht also bei mehreren Lichtern nicht soo stark weg ;)

Wie wär's mal mit ein paar konkreten Werten? Am besten im direkten Vergleich zu 3DNow/SSE-Optimierungen....