PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : So was blödes... graka und spiel?


sChRaNzA
2004-05-06, 22:10:31
HI,
wie schon so oft gechrieben wird es ,,wahrscheinlich'' so sein das hl² mit einer ati um bis zu 40% schneller laufen soll!! Sowas ist doch echt krank, da auch nvidia mit id-software (doomIII) so nen ,,packt'' hat.Soll man sich da demnächst seine neuen spielen nach seiner graka kaufen? oder andersrum, soll man sich bald seine neue grafikkarte nach den spielen kaufen die für diese programmiert werden? is doch irgendwie lächerlich, ging doch bis jetzt auch...!

dildo4u
2004-05-06, 22:12:41
beide karten werden genug performance bei beiden games bieten bin sogar überzeugt das auch ne 9800pro locker für alle details reicht bei Doom3 und HL2

sChRaNzA
2004-05-06, 22:14:14
Das meine ich ja auch nicht ganz so, ich gehe davon aus das es ist bei einem spiel bleiben wird... das ist es aber auch nciht, warum sollen spiele für eine grafikkartengruppe es optimiert werden?

dildo4u
2004-05-06, 22:19:09
Original geschrieben von sChRaNzA
Das meine ich ja auch nicht ganz so, ich gehe davon aus das es ist bei einem spiel bleiben wird... das ist es aber auch nciht, warum sollen spiele für eine grafikkartengruppe es optimiert werden? naja zum teil ist das technologich bedingt HL2 is DX9 stärke von ati damals wie heute Doom3 Opengl lag und liegt Nvidia schon immer beide neuen karten haben ein großteil ihrer schwächen ausgebügelt Nvidia halt besonders die DX9 Shader schwäche der FX karten

Colin MacLaren
2004-05-06, 22:22:56
Ati hat schon immer grottige OpenGL-Performance abgeliefert, den NVIDIAS fehlt entweder FP24 (Geforce FX) oder generell die nötige Shaderleistung (im Vergleich zu den X800-Derivaten).

Das hat nix mit "Pakt" zu tun, sondern hat einfache technische Ursachen, die sich analog auch auf eine ganze Reihe anderer Spiele anwenden lassen.

Xinor
2004-05-06, 22:34:12
Original geschrieben von Colin MacLaren
Ati hat schon immer grottige OpenGL-Performance abgeliefert, ...

Hm, ich kann mit meiner ATI alle OpenGl Games auf volle Details zocken. Grottige ist das wohl das völlig falsche Wort...
Bei nVidia liegts an den Features. Die wurden von den Game-Proggern net "angenommen" zB die Cine-FX-Engine.

MikBach
2004-05-06, 22:40:10
Original geschrieben von Colin MacLaren
Ati hat schon immer grottige OpenGL-Performance abgeliefert,

Sachlich falsch.

tokugawa
2004-05-06, 23:17:43
Original geschrieben von MikBach
Sachlich falsch.

Stimme zu, aber was schon richtig ist: ATI hat mit OpenGL ziemliche Schwierigkeiten. Bin schon über so manche Sachen gestolpert, das fängt mit Bugs an (Absturz bei zu vielen Display Lists und mehreren Render Contexts bei Cat 3.8 uvm.) und hört bei seltsamen Abschweifungen bei einigen OpenGL-Verhalten (etwa "Default-Werte" für die States) auf.

Aber zugegebenermaßen ist es immer besser geworden, wenn der Trend weitergeht erreicht ATI's OpenGL Implementation sicher bald die Qualität von NVIDIAs.

Und ich wünsche mir noch immer dass ATI ein R2xx-Profil für Cg baut...

tokugawa
2004-05-06, 23:23:31
Original geschrieben von sChRaNzA
Das meine ich ja auch nicht ganz so, ich gehe davon aus das es ist bei einem spiel bleiben wird... das ist es aber auch nciht, warum sollen spiele für eine grafikkartengruppe es optimiert werden?

Developer haben halt auch ihre Vorlieben.

Die werden halt schauen dass es möglichst schön und gut auf der Karte läuft auf der sie selber entwickeln und testen (ich nehme an bei Valve entwickeln die hauptsächlich auf ATI Karten), und den Rest halt "nur so, dass es zumindest einigermaßen läuft" (im Worst Case).

Für alle Karten optimieren (will heißen, die Schwächen aller Karten auf dem Markt umgehen) wäre sowieso Overkill.

Aber wenigstens optimieren "gscheite" Entwickler immerhin für die verbreitetste Hardware. Das erwarte ich mir zumindest vom John Carmack. Bei Valve und Gabe Newells Geschäftpolitik (wohl ein Relikt aus seiner Zeit bei Microsoft?) bin ich mir nicht so sicher, aber im Allgemeinen glaub ich kann sich kein großer Entwickler leisten, einen der "großen" im Grafikchipgeschäft zu vernachlässigen.

Ich denke Valve wird jetzt keine so großen Resourcen für Testing und Optimierung auf NVIDIA Hardware verbrauchen (bzw. durch den ATI-Support den sie ja haben, wird ATI denen wohl vor allem bei der ATI-Optimierung helfen), aber zumindest schauen dass es auf NVIDIA Hardware zumindest gut spielbar ist.

Und bei NVIDIA und id vermutlich ähnlich (obwohl von dem was ich weiß, NVIDIA wesentlich weniger "eigen-spezifischen" Developer-Support anbietet - das beeindruckt mich immer wieder, wie NVIDIA-Papers, Tools (wie Cg) usw. doch immer wieder erwähnen, wie das ganze auch gut auf ATI und anderer Hardware funktioniert, bzw. nicht einfach nur NVIDIA-spezifisch sind. Ich find das ziemlich fair und lobenswert, auch wenn NVIDIA in letzter Zeit immer öfter das "Unfair"-Image aufgestempelt bekommt).

-error-
2004-05-06, 23:35:01
Finde ich richtig so! Wenn Nvidia das macht soll ATI das auch machen.

ATI muss sich nicht alles gefallen lassen, diese Nvidiakampagne mit den Logo >Mean to be played< ist doch auch schon mehr als dreist, der normale Käufer glaubt das natürlich.

Nur zu dumm, das ATI in den meisten "nVidia optimieren Spielen" vorne liegt;D

ATI liegt in Sachen Marketing hinter Nvidia zurück, dass ist deren Problem.

Nvidia hat immer noch zvuiel Einfluss auf die Spielebranche, Zeit das sich das ändert.

Bei AMD würde ich mir das auch wünschen, nur dafür ist Intel einfach zu mächtig und finanziel gewaltig gestärkt --> David gegen Goliath.

Xinor
2004-05-06, 23:39:14
Original geschrieben von tokugawa
Stimme zu, aber was schon richtig ist: ATI hat mit OpenGL ziemliche Schwierigkeiten. Bin schon über so manche Sachen gestolpert, das fängt mit Bugs an (Absturz bei zu vielen Display Lists und mehreren Render Contexts bei Cat 3.8 uvm.) und hört bei seltsamen Abschweifungen bei einigen OpenGL-Verhalten (etwa "Default-Werte" für die States) auf.

Aber zugegebenermaßen ist es immer besser geworden, wenn der Trend weitergeht erreicht ATI's OpenGL Implementation sicher bald die Qualität von NVIDIAs.

Und ich wünsche mir noch immer dass ATI ein R2xx-Profil für Cg baut...

Hehehe, ich hab solche Probs net :D Mit nVidia hatte ich solche Probs auch net. Es liegt meist an dem User :D und den Einstellungen ^^ Aber es gibt Games wo es einfach Fehler gibt. Mir fällt keins ein, aber die gibts bestimmt :D

Colin MacLaren
2004-05-06, 23:40:22
Original geschrieben von MikBach
Sachlich falsch.

Die OGL-Performance hinkt immer hinter NV zurück, die neu Generaiton scheint dies eher zu verstärken als abzuschwächen.

Ferner hat ich mit einigen Spielen in den letzten Moanten massive Treiberprobleme (CoD, ET, SW:KotoR; NWN), und oh Wunder, alle sind OGL ;)

MikBach
2004-05-06, 23:42:23
Original geschrieben von Desire
Finde ich richtig so! Wenn Nvidia das macht soll ATI das auch machen.

ATI muss sich nicht alles gefallen lassen, diese Nvidiakampagne mit den Logo >Mean to be played< ist doch auch schon mehr als dreist, der normale Käufer glaubt das natürlich.

Nur zu dumm, das ATI in den meisten "nVidia optimieren Spielen" vorne liegt;D

ATI liegt in Sachen Marketing hinter Nvidia zurück, das ist deren Problem.

Nvidia hat immer noch zvuiel Einfluss, Zeit das sich das ändert.

Bei AMD würde ich mir das auch wünschen, nur dafür ist Intel eindach zu mächtig, David gegen Goliath.

Full Ack.

Wenn ich mir ansehe, welche Spiele von Nvidia besonders propagiert werden: FarCry, Painkiller usw. da fange ich manchmal an zu zweifeln, ob Nvidia wirklich den richtigen Weg gewählt hat.
Lügen bringen einen nicht wirklich weiter, da man mit der Zeit in Erklärungsnot kommt! Zumindest bei den "erfahrenen" Gamern.:)

MikBach
2004-05-06, 23:51:23
Original geschrieben von Colin MacLaren
Die OGL-Performance hinkt immer hinter NV zurück, die neu Generaiton scheint dies eher zu verstärken als abzuschwächen.

Was hast du an Fakten zu bieten?


http://www.xbitlabs.com/images/video/r420-2/cod_1600_candy.gif
http://www.xbitlabs.com/images/video/r420-2/rtcw_1600_candy.gif

Xinor
2004-05-07, 00:12:34
Original geschrieben von Colin MacLaren
Die OGL-Performance hinkt immer hinter NV zurück, die neu Generaiton scheint dies eher zu verstärken als abzuschwächen.

Ferner hat ich mit einigen Spielen in den letzten Moanten massive Treiberprobleme (CoD, ET, SW:KotoR; NWN), und oh Wunder, alle sind OGL ;)

Ich hab auch paar von den Games gezockt und oh Wunder, keine Probs :D Es liegt wohl an dir ^^

Und MikBach zeigts schon richtig. Die ATI Karten sind net so lahm unter OpenGl wie behauptet wird.

tokugawa
2004-05-07, 00:14:20
Original geschrieben von Xinor
Hehehe, ich hab solche Probs net :D Mit nVidia hatte ich solche Probs auch net. Es liegt meist an dem User :D und den Einstellungen ^^ Aber es gibt Games wo es einfach Fehler gibt. Mir fällt keins ein, aber die gibts bestimmt :D

Es liegt nicht am User in meinem Fall :D. Der Display List Bug ist tatsächlich im ATI Treiber (in 3.8 glaub ich) aufgetaucht. Und welche Einstellungen meinst du? Es gibt hier um offizielle ATI-GL-Treiber-Bugs! Da kann man nix mit Einstellungen machen (vor allem weil man als Programmierer ja die Einstellungen selbst implementiert...).

Und zwar in meinem Editortool, wo ich für die Viewports jeweils einen Render Context erstellt hab, und dann Display Lists für die Schrift, und egal ob gesharete Display LIsts oder nicht, beim Zerstören des Render Contexts tauchte dann ein Invalid Operation Fehler auf... und zwar innerhalb des ATI OpenGL Treibers (hab's debuggt). Das wurde offiziell gefixt.

Und dass bei einigen Treiberversionen bei ATI irgendwie die Default-Werte bei den OpenGL-Render-States irgendwie vom Standard abweichen, liegt sicher auch nicht an mir...

(Vielleicht hast du es gemerkt, aber ich spreche hier von der Entwickler-Seite aus)

tokugawa
2004-05-07, 00:19:14
Original geschrieben von MikBach
Full Ack.

Wenn ich mir ansehe, welche Spiele von Nvidia besonders propagiert werden: FarCry, Painkiller usw. da fange ich manchmal an zu zweifeln, ob Nvidia wirklich den richtigen Weg gewählt hat.
Lügen bringen einen nicht wirklich weiter, da man mit der Zeit in Erklärungsnot kommt! Zumindest bei den "erfahrenen" Gamern.:)

Ich seh absolut keinen Unterschied zwischen den Marketing-Kampagnen "Get in the Game" und "Way it's meant to be played".

Man darf die Sprüche nicht zu wörtlich nehmen, sind ja nur Marketingsprüche. Image ist halt doch alles, und nicht Durst.

Im Übrigen glaub ich, dass NVIDIA bei vielen der Spieleentwickler die so einen Sponsoring-Deal eingehen, ganz einfach einen besseren Ruf hat - was ich verstehen kann. Von Developer-Seite her hat NVIDIA halt (prozentuell gesehen) einen besseren Ruf - der auch verdient ist (man vergleiche mal die Resourcen auf http://developer.nvidia.com und http://www.ati.com/developer). ATI's Developer Support ist auch nicht schlecht, aber NVIDIAs ist halt schon wirklich grenzgenial.

tokugawa
2004-05-07, 00:20:03
Original geschrieben von Xinor
Ich hab auch paar von den Games gezockt und oh Wunder, keine Probs :D Es liegt wohl an dir ^^

Und MikBach zeigts schon richtig. Die ATI Karten sind net so lahm unter OpenGl wie behauptet wird.


Du bist offensichtlich kein Entwickler :) bzw. hast noch nie OpenGL programmiert.


EDIT: übrigens, die OpenGL-Treiber-Qualität schwankt immer wieder mit der ATI-Treiberversion... manche Versionen hatten seltsame Bugs, manche nicht. Die Fluktuation ist dabei höher als bei NVIDIA.

Zugegebenermaßen scheint der Catalyst 4.4 derzeit sehr ordentlich zu sein.

smockdogx
2004-05-07, 00:30:10
hatte beim 4.4 auch probs beim zocken einfach manschmal monitor schwarz wie als ob er aus wehre aber ton nach weiter hat nur noch rebot geholfen alte treiber druff und geht wieder hatten wohl nen bug drinen hab ich von mehren leuten gelesen
jeder macht halt mal fehler solange sie in beheben bin mit denn treiber aber sonst sehr sehr zufrieden

ati rult

ein bischen larmer is ati schon in opengel aber kann man net als schwäche bezeichnen :chainsaw:

MikBach
2004-05-07, 00:32:45
Original geschrieben von tokugawa
Ich seh absolut keinen Unterschied zwischen den Marketing-Kampagnen "Get in the Game" und "Way it's meant to be played".


Nein, bei ATI-Spielen ist ATI immer vorn, bei Nvidia sieht das anders aus.
Ausserdem hasse ich es, wenn jemand mir vorschreiben will, was ich darf/kann und was nicht(siehe FarCry Patch1.1). :madman:
Da ich paar Freunde habe, die sich eine FX geholt haben, kann ich das sehr gut beurteilen. :)

tokugawa
2004-05-07, 00:37:40
Original geschrieben von MikBach
Nein, bei ATI-Spielen ist ATI immer vorn, bei Nvidia sieht das anders aus.


Es ging auch nicht darum, sondern darum, ob der Werbespruch eine "Lüge" ist. Ich zeigte dir nur vor, dass Werbesprüche generell sehr ignorierbar sind. Belohn deine Neugier!

Original geschrieben von MikBach
Ausserdem hasse ich es, wenn jemand mir vorschreiben will, was ich darf/kann und was nicht(siehe FarCry Patch1.1). :madman:
Da ich paar Freunde habe, die sich eine FX geholt haben, kann ich das sehr gut beurteilen. :)

Ich weiß jetzt nicht genau worauf du anspielst. Wer will dir was vorschreiben was du kannst oder nicht?

smockdogx
2004-05-07, 00:43:39
fügt das farcry patch 1.1 eigentlich nicht nur eine save option ein dachte sonst macht das rein garnix ????
hatte der endwickler in einen interview mal gasagt
das es kein patch ist sondern nur save einfügt weil mansche zeitungen wegender nciht freien möglichkeit zu saven weniger punkte gegeben habe
oder ihre ihc mich?

tokugawa
2004-05-07, 00:46:06
Original geschrieben von smockdogx
fügt das farcry patch 1.1 eigentlich nicht nur eine save option ein dachte sonst macht das rein garnix ????
hatte der endwickler in einen interview mal gasagt
das es kein patch ist sondern nur save einfügt weil mansche zeitungen wegender nciht freien möglichkeit zu saven weniger punkte gegeben habe
oder ihre ihc mich?

Die Quicksave Option kommt irgendwann später noch...

smockdogx
2004-05-07, 00:47:15
oh ok ;D ergal macht doch ohne viel mehr spass=)
man ihr antwortet ja schnell

MikBach
2004-05-07, 00:55:39
Original geschrieben von tokugawa
Ich weiß jetzt nicht genau worauf du anspielst. Wer will dir was vorschreiben was du kannst oder nicht?

Der scheiss Patch 1.1 bei FarCry.
Mit 1.0 waren alle Effekte(PS2.x) bei Nvidia vorhanden. Jetzt soll das nicht mehr gehen? Warum?
Ob das jetzt Crytek verbrochen hat, oder Nvidia, ich weiss es nicht. Das TWIMTBP-Programm lässt böses ahnen. Ich weiss es aber nicht.
:)

tokugawa
2004-05-07, 01:11:12
Original geschrieben von MikBach
Der scheiss Patch 1.1 bei FarCry.
Mit 1.0 waren alle Effekte(PS2.x) bei Nvidia vorhanden. Jetzt soll das nicht mehr gehen? Warum?
Ob das jetzt Crytek verbrochen hat, oder Nvidia, ich weiss es nicht. Das TWIMTBP-Programm lässt böses ahnen. Ich weiss es aber nicht.
:)

Crytek natürlich. NVIDIA programmiert ja keine Zeile Code mit bei Far Cry. Das Sponsoring geht nicht so weit wie all diese dümmlichen Verschwörungstheorien die immer wieder in die Welt gesetzt werden (ich glaub ja auch nicht an Verschwörungen bei ATI und Valve).

Aber dass der Far Cry Patch 1.1 Probleme hat, und außerdem ein weiterer in Aussicht ist, ist sowieso klar.

Außerdem wartet wohl jeder auf die SM 3.0 Unterstützung...

MikBach
2004-05-07, 01:14:57
Original geschrieben von tokugawa
Crytek natürlich. NVIDIA programmiert ja keine Zeile Code mit bei Far Cry. Das Sponsoring geht nicht so weit wie all diese dümmlichen Verschwörungstheorien die immer wieder in die Welt gesetzt werden (ich glaub ja auch nicht an Verschwörungen bei ATI und Valve).

Aber dass der Far Cry Patch 1.1 Probleme hat, und außerdem ein weiterer in Aussicht ist, ist sowieso klar.

Außerdem wartet wohl jeder auf die SM 3.0 Unterstützung...

Darum geht es doch nicht!
Warum geht es mit 1.0 und mit 1.1 nicht?

tokugawa
2004-05-07, 01:24:00
Original geschrieben von MikBach
Darum geht es doch nicht!
Warum geht es mit 1.0 und mit 1.1 nicht?

Das fragst du besser Crytek.

Implementationstechnisch kann ich mir schon einige Szenarien vorstellen.

MikBach
2004-05-07, 01:28:33
Original geschrieben von tokugawa
Das fragst du besser Crytek.

Implementationstechnisch kann ich mir schon einige Szenarien vorstellen.

:O
Wie jetzt?
Du meinst bis zur V1.0 war Crytek gut, aber dann haben sie auf einmal 2 linke Hände zum proggen? ?(

Colin MacLaren
2004-05-07, 09:21:02
Original geschrieben von Xinor
Ich hab auch paar von den Games gezockt und oh Wunder, keine Probs :D Es liegt wohl an dir ^^

Und MikBach zeigts schon richtig. Die ATI Karten sind net so lahm unter OpenGl wie behauptet wird.

Mit den aktuellen Treibern funzt alles, aber eben nicht vor paar Monaten, wo ich diese Spiele zocken wollte. Da lief jeder Titel mit einer anderen Treiberversion, was dann gelinde gesagt auf einer LAN nicht gerade pratisch war. Meine Clankollegen mit NV-Kartne zocken CoD, ich mixe Treiber. 3.10 verursachte Grafikfehler, also 4.1 drauf, da leif aber ET wieder extrem lahm. Ich hab so ziemlich jeden offiziell gelisteten Bug mitnehmen dürfen. Ganz zu schweigen vom 16-Bit- und Gammaproblem.

Zu den Benchmarks:

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2094.png

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2100.png

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2114.png

Das sieht für mich durchaus nach einer Schwäche aus.

Die lächerlichen CPU-limitiereten 3D-Center Benchmarks mit einem P4 2.53 könnt Ihr gern stecken lassen :) So sehr ich die fachliche Kompetenz der Mitglieder hier achte, aber diese Karten mit solch einem Prozessor zu testen ist einfach nur sinnfrei.

Wer Lust hat:

Ich tausche meine 9800 Pro gern gegen eine FX5900.

bill
2004-05-07, 09:48:58
[B]
Ich tausche meine 9800 Pro gern gegen eine FX5900. Mit dem Gedanken beschäftige ich mich auch schon seit einigen Tagen.

bill

ShadowXX
2004-05-07, 10:09:43
Original geschrieben von Colin MacLaren
Mit den aktuellen Treibern funzt alles, aber eben nicht vor paar Monaten, wo ich diese Spiele zocken wollte. Da lief jeder Titel mit einer anderen Treiberversion, was dann gelinde gesagt auf einer LAN nicht gerade pratisch war. Meine Clankollegen mit NV-Kartne zocken CoD, ich mixe Treiber. 3.10 verursachte Grafikfehler, also 4.1 drauf, da leif aber ET wieder extrem lahm. Ich hab so ziemlich jeden offiziell gelisteten Bug mitnehmen dürfen. Ganz zu schweigen vom 16-Bit- und Gammaproblem.

Zu den Benchmarks:

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2094.png

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2100.png

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2114.png

Das sieht für mich durchaus nach einer Schwäche aus.

Die lächerlichen CPU-limitiereten 3D-Center Benchmarks mit einem P4 2.53 könnt Ihr gern stecken lassen :) So sehr ich die fachliche Kompetenz der Mitglieder hier achte, aber diese Karten mit solch einem Prozessor zu testen ist einfach nur sinnfrei.

Wer Lust hat:

Ich tausche meine 9800 Pro gern gegen eine FX5900.

Man sollte nie alles nach einem oder zwei reviews beurteilen...

Wenn du die die Benches auf XBitlabs die mit OGL gemacht sind z.B. anschaust, wirst du feststellen, das dort die Ergebnisse plötzlich ganz anders aussehen, speziell wenn die Bri-Optimierung ausgeschaltet ist.
(Und nein...unter OGL greift bei ATI die Stageoptimierung nicht, d.h. man muss nV Ergebnisse ohne Bri-Optimierung gegen die ATI Ergebnisse stellen).

Ich will jetzt nicht sagen, das die XBit-Test die besten der Welt sind, ich will damit nur andeuten, das die Benchmarks momentan noch seeeeehr verschieden ausschlagen.

Mal mehr pro ATI, mal mehr pro NV.....und das je nach Seite bei gleichen Games unterschiedlich..

Fast alle Benches im Netz sind für mich nur Hinweise, für welche Karte ich mich entscheiden würde, wenn SIe verfügbar wäre..

Der 3dc-Test ist deshalb noch mit der Beste, weil die Randbedingungen am besten herausgestellt werden...das fehlt oftmals bei anderen Tests...

Welche Karte wirklich King-Of-The-Hill ist, wissen wir erst, wenn die Reviewer diese mal länger als einen Tag behalten dürfen, diese gründlich durchgecheckt werden können und es halbwegs ordentliche Treiber gibt.

Also in ca. 1 bis 2 Monaten....bis dahin ist der Kauf in beide Richtungen ein "kleines" Risko...zumindest wenn es einen um den letzten Frame Vorsprung geht...

Momentan tendiere ich noch etwas in Richtung x800xt, da diese bei der Mehrzahl der D3D Benches unter 1280x1024 mit 4xAA/8xAF etwas führt und ich meine OGL-Games an 2 Fingern abzählen kann....das kann sich aber bis vernünftige Tests kommen im Prinzip je nach lust und laune stündlich ändern....

ow
2004-05-07, 10:41:39
.

tokugawa
2004-05-07, 10:54:11
Original geschrieben von MikBach
:O
Wie jetzt?
Du meinst bis zur V1.0 war Crytek gut, aber dann haben sie auf einmal 2 linke Hände zum proggen? ?(

Nein, das kann ganz andere Gründe haben.

tokugawa
2004-05-07, 10:57:47
Original geschrieben von ShadowXX
Man sollte nie alles nach einem oder zwei reviews beurteilen...

Wenn du die die Benches auf XBitlabs die mit OGL gemacht sind z.B. anschaust, wirst du feststellen, das dort die Ergebnisse plötzlich ganz anders aussehen, speziell wenn die Bri-Optimierung ausgeschaltet ist.
(Und nein...unter OGL greift bei ATI die Stageoptimierung nicht, d.h. man muss nV Ergebnisse ohne Bri-Optimierung gegen die ATI Ergebnisse stellen).

Ich will jetzt nicht sagen, das die XBit-Test die besten der Welt sind, ich will damit nur andeuten, das die Benchmarks momentan noch seeeeehr verschieden ausschlagen.

Mal mehr pro ATI, mal mehr pro NV.....und das je nach Seite bei gleichen Games unterschiedlich..

Fast alle Benches im Netz sind für mich nur Hinweise, für welche Karte ich mich entscheiden würde, wenn SIe verfügbar wäre..

Der 3dc-Test ist deshalb noch mit der Beste, weil die Randbedingungen am besten herausgestellt werden...das fehlt oftmals bei anderen Tests...

Welche Karte wirklich King-Of-The-Hill ist, wissen wir erst, wenn die Reviewer diese mal länger als einen Tag behalten dürfen, diese gründlich durchgecheckt werden können und es halbwegs ordentliche Treiber gibt.

Also in ca. 1 bis 2 Monaten....bis dahin ist der Kauf in beide Richtungen ein "kleines" Risko...zumindest wenn es einen um den letzten Frame Vorsprung geht...

Momentan tendiere ich noch etwas in Richtung x800xt, da diese bei der Mehrzahl der D3D Benches unter 1280x1024 mit 4xAA/8xAF etwas führt und ich meine OGL-Games an 2 Fingern abzählen kann....das kann sich aber bis vernünftige Tests kommen im Prinzip je nach lust und laune stündlich ändern....

Es gibt auch ganz andere Kriterien bei OpenGL als reine Geschwindigkeit (du hast recht, derzeit schaut's nach relativem Gleichstand aus).

Das wären z.B. die von mir erwähnten groben Bugs in einigen Catalyst Versionen (mit Abstürzen die ich so nie bei NVIDIA gesehen hab), bzw. gewisse Standard-Inkonformitäten (Default-Werte der GL State-Variablen).

ShadowXX
2004-05-07, 11:23:59
Original geschrieben von tokugawa
Es gibt auch ganz andere Kriterien bei OpenGL als reine Geschwindigkeit (du hast recht, derzeit schaut's nach relativem Gleichstand aus).

Das wären z.B. die von mir erwähnten groben Bugs in einigen Catalyst Versionen (mit Abstürzen die ich so nie bei NVIDIA gesehen hab), bzw. gewisse Standard-Inkonformitäten (Default-Werte der GL State-Variablen).

Da hast du natürlich auch Recht....von der Dev-Seite betrachtet gibt es mehr als Speed...(auch im professionellen Anwendungs-Sektor).

Und da hat nV definitiv wohl noch ein Plus...

Ich ging jetzt eben mehr von der Gamer-Seite aus, da diese Seite wohl die Mehrzahl der User hier betrifft.

Interessant finde ich, was nV trotz niedrigerem Takt so alles aus Ihren Pipes quetschen kann...fast wie bei Intel vs. AMD.

Momentan befriedigt mich irgendwie keiner der I-Net-Tests...
Die Ergebnisse schwanken extrem und teilweise habe ich das Gefühl als wenn bei den x800xt Ergebnissen theoretische Füllrate nicht mit dem was Rauskommt übereinstimmt..(extreme Bandbreitenlimitierung???)

Ich hätte am liebsten eine 6800UEE mit 500 GPU-Takt und 600MHz Speichertakt...dann müsste ich nicht lange überlegen, welche Karte ich kaufe...
So wie es im Moment ist, kann man (als Gamer zumindest) eigentlich nur Würfeln...

Ich hoffe das Leo mal alle Karten zusammenbekommt und dann noch ein Review auf die Menschheit loslässt...

Mr. Lolman
2004-05-07, 11:37:33
Original geschrieben von bill
Mit dem Gedanken beschäftige ich mich auch schon seit einigen Tagen.

bill


ROFL macht ruhig. Im Forum gibts einige Leute die von FX5900 zur 9800pro gewechselt sind, und die würden nie wieder tauschen wollen. BTW. 10% langsamer zu sein, im Bereich von 100fps, ist eine Schwäche? Naja wenn ihr meint. (V.A. wenn bei solchen Werten nicht einmal die min. fps klar sind, tendiert die tatsächliche Aussagekraft gegen Null.)

Beim Erscheinen der Fx5900 wurde immer damit argumentiert, dass es eh keine Ps2.0 Spiele gibt, und die Treiber das schon fixen werden. Was ist jetzt spricht momentan für eine FX5900? Eine OpenGL Schwäche seitens ATi, wo man mal 10% zurückliegt???

Dass die FX Treiber immernoch Optimierungen haben (ich trau mich wetten das selbst bei der neuen 6800 die TS Optimierung in UT2003/2004 aktiv ist), 2.0 Shader gegen 1.1 Shader ausgetauscht werden, die dann tw. auch nur Pointfilertering abbekommen, ist euch auch bekannt?

(Die heutigen News sind auch lustig: Da wird des Fartcry problem damit erklärt, dass NV das Spiel selbst einfach nicht patchen kann, und deswegen eine anwendungsspezifische Optimierung, welche auf den Dateinamen reagiert, einbauen musste?
Dementsprechend at ATi überhaupt keine applikationsspezifischen Routinen in ihren Treibern, oder wie? Unter dem Aspekt betrachtet, wirkt die Erkärung auf der 3DC Startseite allerdings etwas armseelig.)

/edit: Typos

LovesuckZ
2004-05-07, 12:09:40
Original geschrieben von dildo4u
naja zum teil ist das technologich bedingt HL2 is DX9 stärke von ati damals wie heute Doom3 Opengl lag und liegt Nvidia schon immer beide neuen karten haben ein großteil ihrer schwächen ausgebügelt Nvidia halt besonders die DX9 Shader schwäche der FX karten

Was hat ATi mit dem r420 bitte ausgebügelt?
Ahso, ATi's Staerke ist nicht mehr DX9, da hat Nvidia gewaltig "ausgebügelt". Nicht zu vergessen, dass, wenn FP16 zum Einsatz kommt, Nvidia deutlich schneller ist und das schon mit der 6800U. Unter FP32 sind sie zwar langsamer, aber immer noch sehr schnell.
Tja und im Gegensatz zum NV30, ist FP32 sogar geschwindigkeitsmaeßig nutzbar!

bill
2004-05-07, 12:27:05
Original geschrieben von Mr. Lolman
ROFL macht ruhig. (....)Ich wüßte nicht was es dich angeht wenn ICH mit MEINER Grafikkarte nicht zufrieden bin. Du kennst nicht meine Vorlieben, meine Spiele, eben alles auf was ich Wert lege. Wenn mir u.a. das AF und die verbugten Treiber nicht gefallen ist das ganz und gar meine Sache und nicht deine.

bill

Mr. Lolman
2004-05-07, 12:45:14
Original geschrieben von bill
Ich wüßte nicht was es dich angeht wenn ICH mit MEINER Grafikkarte nicht zufrieden bin. Du kennst nicht meine Vorlieben, meine Spiele, eben alles auf was ich Wert lege. Wenn mir u.a. das AF und die verbugten Treiber nicht gefallen ist das ganz und gar meine Sache und nicht deine.

bill

Wenn du schon schreibst, dass du mit deiner GraKa nicht zufrieden bist, musst du auch damit rechnen, dass sich die anderen User im Forum darüber Gedanken machen. Gottseidank ist 1984 grossteils noch Fiktion, so dass man auch negative Gedanken in geschriebener Form ins Forum stellen darf.

Wenn du wirklich der Meinung wärest, den Leuten im 3DC hätte deine Einstellung zu deiner GraKa nicht zu interessieren, dann hättest du auch nichts dazu gepostet.

Falls du nur denkst, mich im Speziellen ginge dies nichts an, dann tuts mir leid, dass wir uns nicht verstehen, aber als Abhilfe gitbs ja die Ignorelist, auf die du mich setzen kannst. :)

Und nun Schluss mit OT...

bill
2004-05-07, 13:08:07
Nein, du fühltest dich berufen, dein geliebtes Produkt deines Lieblingsherstellers ;) in einem langatmigen Posting zu rechtfertigen obwohl Niemand danach gefragt hatte. Wie willst du auch die persönlichen Erfahrungen eines Anderen nachvollziehen können.

Und als Flame-Ansatz war mein erster Kommentar nicht gedacht obwohl ich es schon hätte ahnen können, dass sich da gleich jemand auf den Schlips getreten fühlt. Vergiß es einfach, ich habe einen Fehler gemacht.

bill

Colin MacLaren
2004-05-07, 13:55:01
Original geschrieben von ShadowXX
Man sollte nie alles nach einem oder zwei reviews beurteilen...

Wenn du die die Benches auf XBitlabs die mit OGL gemacht sind z.B. anschaust, wirst du feststellen, das dort die Ergebnisse plötzlich ganz anders aussehen, speziell wenn die Bri-Optimierung ausgeschaltet ist.
(Und nein...unter OGL greift bei ATI die Stageoptimierung nicht, d.h. man muss nV Ergebnisse ohne Bri-Optimierung gegen die ATI Ergebnisse stellen).

Ich will jetzt nicht sagen, das die XBit-Test die besten der Welt sind, ich will damit nur andeuten, das die Benchmarks momentan noch seeeeehr verschieden ausschlagen.

Mal mehr pro ATI, mal mehr pro NV.....und das je nach Seite bei gleichen Games unterschiedlich..

Fast alle Benches im Netz sind für mich nur Hinweise, für welche Karte ich mich entscheiden würde, wenn SIe verfügbar wäre..

Der 3dc-Test ist deshalb noch mit der Beste, weil die Randbedingungen am besten herausgestellt werden...das fehlt oftmals bei anderen Tests...

Welche Karte wirklich King-Of-The-Hill ist, wissen wir erst, wenn die Reviewer diese mal länger als einen Tag behalten dürfen, diese gründlich durchgecheckt werden können und es halbwegs ordentliche Treiber gibt.

Also in ca. 1 bis 2 Monaten....bis dahin ist der Kauf in beide Richtungen ein "kleines" Risko...zumindest wenn es einen um den letzten Frame Vorsprung geht...

Momentan tendiere ich noch etwas in Richtung x800xt, da diese bei der Mehrzahl der D3D Benches unter 1280x1024 mit 4xAA/8xAF etwas führt und ich meine OGL-Games an 2 Fingern abzählen kann....das kann sich aber bis vernünftige Tests kommen im Prinzip je nach lust und laune stündlich ändern....

Achtung: Das ist jetzt meine ganz persönliche Meinung, bei der ich durchaus nachvollziehen kann, wenn man selbiges anders sieht, da sie eine extrem subjektive Sicht beschreibt ;)

Es ist wahr, daß die Mehrzahl der Games 3D-Titel sind. Allerdings ist mir aufgefallen, daß die Mehrzahl der Spiele, die mich und meine Clankollegen für längere Zeit begeistern konnten, OpenGL-Titel sind (Quake III, ET, NWN) oder zumindest in Bezug auf die Grafikleistung recht anspruchslos waren (WC3, AoEII:AoK :) , AoM). Far Cry z.B. empfinde ich persönlich als nette Grafikdemo, die ein paar Tage durchaus Spaß gemacht hab, aber nicht gerade lange fesseln konnte. Das einzige Spiel, was ich zur Zeit sehnsüchtig erwarte, ist btw. Doom3. Die beiden meistgespielten Multiplayer-Titel sind übrgigens CS und ET. Fällt Euch was auf ;)

Ferner bin ich, was Ati und OpenGL angeht mit schelchten Erfahrungen vorgeprägt. ICh hatte mir damals für 300EUR eine 9800Pro ergatttert, dafür meinen Server verscherbelt und zwei Wochen Lieferzeit abwarten müssen, und als die Karte endlich da war, als allererstes gleichmal ET und Jedi Academy abgecheckt. ET lief genauso schnell wie mit der GF4 Ti4200, JediAcademy mit aktivierten Dynamischen Leuchten und komplexen Schatten gar schlechter. Hinzu kommt, daß in der Periode von Catalyst 3.8 bis 4.2 irgendwie immer das Spiel mit dem aktuellen Treiber nicht korrekt lief, welches ich gerade zocken wollte (CoD funzte nicht, oder BF1942 produzierte Grafikfehler im Menu, selbiges bei Empires, AA wollte nicht in Spellforce, Softschatten in SW:KotoR aufgrund schelchter Performance auf Atikarten nicht verfügbar, im Cat4.1 grottige ET-PErformance, Gammabug, usw.).

AA und AF-Performance - Atis Domäne - interessieren mich nur am Rande. Wichtigstes Kaufkriterium überhaupt ist für mich neben bugfreien Treibern und guter OGL-Performance die Langlebigkeit einer Karte. Während man mit einer neuen Highend-Graka aktuelle Titel auch mit diesen bildverbessernden Maßnahmen zocken kann, bin ich nach ein paar Monaten, wenn die Anforderungen wieder gestiegen sind, genötigt, selbige Filter abzuschalten, denn der Punkt für eine aufrüstung ist bei mir immer dann erreicht, wenn ich einen Titel mit hohen (nicht höchsten!) Details in 800x600 nicht mehr flüssig (also mindestens 50fps) zocken kann, (Außnahmen nur wenn sich wirkliche Schnäppchen bieten).

Zur Shaderperformance:
Bzgl. der hochgelobten 2.0-Shaderperformance folgte die nächste Ernüchterung: Spellforce lief mit den komplexen DX9-Schatten unspielbar, Halo mit PS 2.0 ebenso, Far Cry geht gerade so, ist aber auch nicht wirklich flüssig. Wenn ich selbige Effekte deaktivierte, waren alls Titel ganz ordentlich spielbar. Bei Spellforce sahen logischerweise die Schatten nciht mehr so schön aus, was zu verschmerzen ist, Halo ist mit PS1.1 optisch vollkommen identisch und in Far Cry bemerkt man es auch nur an einigen Beleuchtungseffekten, die sich zwar schön im Screenshot-Vergleich machen, aber ingame eher untergehen.

Ergo: Wenn ich auch mit der 9800Pro PS2.0 nicht mit ordentlichen Frameraten einsetzen kann, und die Shader sowieso deaktivere, nützt mir die bessere, aber immer noch zu schwache PS2.0 der 9800POro im Vergleich zu einer FX5900 auch nichts, zumal die optischen Unterschiede ingame eher marginal ausfallen. Selbiges gilt für Shader- oder AF-Optimierungen. Wenn ich ingame, ohne explizit danach zu suchen, nicht davon merke, finde ich es eher positiv, ohne größere Einbußen in der Bildqualität ein paar Frames gewonnen zu haben.

Hinzu kommen Kleinigkeiten:

Z.B. muß ich jeden Treiber zweimal installieren, sonst bleiben in ET die Gammaeinstellungen wirkungslos. Bei einem Kollegen gibts mit dem Cat. 4.4 und seiner Radeon 9500Pro andauernd VPU-Recover-Fehler und Spiele landen einfach auf dem Desktop. Wenn ich beim ET-Zocken eine ICQ-Nachricht bekomme, flackert wie verrückt für 5 Sekunden der Bildschirm, das Spiel wird unkontrollierbar und das Bild wird extrem dunkel, so daß ich erstmal ins Menu muß, um die Gammawerte wider zu korrigieren. Bei NV-Karten wird einfach kurz die Nachricht eingeblendet, ein Klick ins Spiel und weiter gehts. Auch ist es nicht möglich, das Spiel über den Taskmanager zu minimieren, so daß ich jedes Mal in den Fenstermodus wechseln und entsprechende Ladezeiten in KAuf nehmen muß. Auch ist die Performance mit einem NForce2-Board in Verbindung mit einer Atikarte und Windows 2003 15% schlechter als unter 2k/XP, wohingegen meine GF4 Ti 4200 sogar noch ein paar Frames in Benchmarks unter 2k3 gewann. Der TV-Out produziert auch ein deutlich schlechteres Bild als auf meiner GF4 Ti bzw. gar der integrierte meiner GF4 MX-4000 im HTPC) Zugegeben, dies alles sind nur Kleinigkeiten, aber extrem nervig.

Ferner ist es doch verwunderlich, daß von 13 Clanmitgliedern 9 NVIDIA-Benutzer unterschiedlichen Computerwissens NIE Probleme mit ihren Karten hatten, während 2 der drei Ati-Besitzer andauernd mit bugveresuchten Treibern kämpfen, und der Verbliebene aus aus eben diesem Grund seit Erscheinen den Catalyst 3.7 draufläßt, was sicherlich auch nicht die Ideallösung darstellt.

Und aus genau diesen ganzen Gründen kauf ich mir nie wieder eine Atikarte ;), denn 75% der Zeit, die ich zock, zock ich unter OpenGL.

Mr. Lolman
2004-05-07, 17:07:31
Bill, du hast PM :)

ShadowXX
2004-05-07, 19:46:42
Original geschrieben von Colin MacLaren
Achtung: Das ist jetzt meine ganz persönliche Meinung, bei der ich durchaus nachvollziehen kann, wenn man selbiges anders sieht, da sie eine extrem subjektive Sicht beschreibt ;)

Es ist wahr, daß die Mehrzahl der Games 3D-Titel sind. Allerdings ist mir aufgefallen, daß die Mehrzahl der Spiele, die mich und meine Clankollegen für längere Zeit begeistern konnten, OpenGL-Titel sind (Quake III, ET, NWN) oder zumindest in Bezug auf die Grafikleistung recht anspruchslos waren (WC3, AoEII:AoK :) , AoM). Far Cry z.B. empfinde ich persönlich als nette Grafikdemo, die ein paar Tage durchaus Spaß gemacht hab, aber nicht gerade lange fesseln konnte. Das einzige Spiel, was ich zur Zeit sehnsüchtig erwarte, ist btw. Doom3. Die beiden meistgespielten Multiplayer-Titel sind übrgigens CS und ET. Fällt Euch was auf ;)

Ferner bin ich, was Ati und OpenGL angeht mit schelchten Erfahrungen vorgeprägt. ICh hatte mir damals für 300EUR eine 9800Pro ergatttert, dafür meinen Server verscherbelt und zwei Wochen Lieferzeit abwarten müssen, und als die Karte endlich da war, als allererstes gleichmal ET und Jedi Academy abgecheckt. ET lief genauso schnell wie mit der GF4 Ti4200, JediAcademy mit aktivierten Dynamischen Leuchten und komplexen Schatten gar schlechter. Hinzu kommt, daß in der Periode von Catalyst 3.8 bis 4.2 irgendwie immer das Spiel mit dem aktuellen Treiber nicht korrekt lief, welches ich gerade zocken wollte (CoD funzte nicht, oder BF1942 produzierte Grafikfehler im Menu, selbiges bei Empires, AA wollte nicht in Spellforce, Softschatten in SW:KotoR aufgrund schelchter Performance auf Atikarten nicht verfügbar, im Cat4.1 grottige ET-PErformance, Gammabug, usw.).

AA und AF-Performance - Atis Domäne - interessieren mich nur am Rande. Wichtigstes Kaufkriterium überhaupt ist für mich neben bugfreien Treibern und guter OGL-Performance die Langlebigkeit einer Karte. Während man mit einer neuen Highend-Graka aktuelle Titel auch mit diesen bildverbessernden Maßnahmen zocken kann, bin ich nach ein paar Monaten, wenn die Anforderungen wieder gestiegen sind, genötigt, selbige Filter abzuschalten, denn der Punkt für eine aufrüstung ist bei mir immer dann erreicht, wenn ich einen Titel mit hohen (nicht höchsten!) Details in 800x600 nicht mehr flüssig (also mindestens 50fps) zocken kann, (Außnahmen nur wenn sich wirkliche Schnäppchen bieten).

Zur Shaderperformance:
Bzgl. der hochgelobten 2.0-Shaderperformance folgte die nächste Ernüchterung: Spellforce lief mit den komplexen DX9-Schatten unspielbar, Halo mit PS 2.0 ebenso, Far Cry geht gerade so, ist aber auch nicht wirklich flüssig. Wenn ich selbige Effekte deaktivierte, waren alls Titel ganz ordentlich spielbar. Bei Spellforce sahen logischerweise die Schatten nciht mehr so schön aus, was zu verschmerzen ist, Halo ist mit PS1.1 optisch vollkommen identisch und in Far Cry bemerkt man es auch nur an einigen Beleuchtungseffekten, die sich zwar schön im Screenshot-Vergleich machen, aber ingame eher untergehen.

Ergo: Wenn ich auch mit der 9800Pro PS2.0 nicht mit ordentlichen Frameraten einsetzen kann, und die Shader sowieso deaktivere, nützt mir die bessere, aber immer noch zu schwache PS2.0 der 9800POro im Vergleich zu einer FX5900 auch nichts, zumal die optischen Unterschiede ingame eher marginal ausfallen. Selbiges gilt für Shader- oder AF-Optimierungen. Wenn ich ingame, ohne explizit danach zu suchen, nicht davon merke, finde ich es eher positiv, ohne größere Einbußen in der Bildqualität ein paar Frames gewonnen zu haben.

Hinzu kommen Kleinigkeiten:

Z.B. muß ich jeden Treiber zweimal installieren, sonst bleiben in ET die Gammaeinstellungen wirkungslos. Bei einem Kollegen gibts mit dem Cat. 4.4 und seiner Radeon 9500Pro andauernd VPU-Recover-Fehler und Spiele landen einfach auf dem Desktop. Wenn ich beim ET-Zocken eine ICQ-Nachricht bekomme, flackert wie verrückt für 5 Sekunden der Bildschirm, das Spiel wird unkontrollierbar und das Bild wird extrem dunkel, so daß ich erstmal ins Menu muß, um die Gammawerte wider zu korrigieren. Bei NV-Karten wird einfach kurz die Nachricht eingeblendet, ein Klick ins Spiel und weiter gehts. Auch ist es nicht möglich, das Spiel über den Taskmanager zu minimieren, so daß ich jedes Mal in den Fenstermodus wechseln und entsprechende Ladezeiten in KAuf nehmen muß. Auch ist die Performance mit einem NForce2-Board in Verbindung mit einer Atikarte und Windows 2003 15% schlechter als unter 2k/XP, wohingegen meine GF4 Ti 4200 sogar noch ein paar Frames in Benchmarks unter 2k3 gewann. Der TV-Out produziert auch ein deutlich schlechteres Bild als auf meiner GF4 Ti bzw. gar der integrierte meiner GF4 MX-4000 im HTPC) Zugegeben, dies alles sind nur Kleinigkeiten, aber extrem nervig.

Ferner ist es doch verwunderlich, daß von 13 Clanmitgliedern 9 NVIDIA-Benutzer unterschiedlichen Computerwissens NIE Probleme mit ihren Karten hatten, während 2 der drei Ati-Besitzer andauernd mit bugveresuchten Treibern kämpfen, und der Verbliebene aus aus eben diesem Grund seit Erscheinen den Catalyst 3.7 draufläßt, was sicherlich auch nicht die Ideallösung darstellt.

Und aus genau diesen ganzen Gründen kauf ich mir nie wieder eine Atikarte ;), denn 75% der Zeit, die ich zock, zock ich unter OpenGL.

Völlig nachvollziehbar und in Ordnung...

Es ging mir auch absolut nicht darum dir eine ATI aufschwatzen zu wollen...das liegt mir wirklich fern.

Es ging mir mehr im allgemeinen um die Test, die momentan im I-Net sind und IMHO nur eine augenblickliche Aufnahme darstellen...
Man sollte diese (wieder IMHO) noch nicht überbewerten, da die Tests meist in eile gemacht werden mussten und noch keine der beide Karten wirklich Grundlegend untersucht wurde..

Und in einer sache gebe ich dir definitiv recht...wenn dein Hauptaugenmerk auf OGL liegt bist du mit nV wohl besser beraten...
Auch wenn ATI dort inzwischen durchaus etwas aufgeholt hat...

Ich weiss wie gesagt selber noch nicht, welche von beiden ich diesmal holen werden...
Vorhin tendierte ich noch etwas zu ATI, im moment ist mir mehr nach nV...
Das wird diesmal wirklich ne Bauchentscheidung, wenn ich im Laden am Tresen stehe...

ironMonkey
2004-05-07, 20:19:41
Original geschrieben von ShadowXX
Völlig nachvollziehbar und in Ordnung...

Es ging mir auch absolut nicht darum dir eine ATI aufschwatzen zu wollen...das liegt mir wirklich fern.

Es ging mir mehr im allgemeinen um die Test, die momentan im I-Net sind und IMHO nur eine augenblickliche Aufnahme darstellen...
Man sollte diese (wieder IMHO) noch nicht überbewerten, da die Tests meist in eile gemacht werden mussten und noch keine der beide Karten wirklich Grundlegend untersucht wurde..

Und in einer sache gebe ich dir definitiv recht...wenn dein Hauptaugenmerk auf OGL liegt bist du mit nV wohl besser beraten...
Auch wenn ATI dort inzwischen durchaus etwas aufgeholt hat...

Ich weiss wie gesagt selber noch nicht, welche von beiden ich diesmal holen werden...
Vorhin tendierte ich noch etwas zu ATI, im moment ist mir mehr nach nV...
Das wird diesmal wirklich ne Bauchentscheidung, wenn ich im Laden am Tresen stehe...


Nimm die Karte wo besser aussieht;D ...


Du siehst es ja selbst im Netz das die Unterschied doch sehr gering sind und von daher kommts halt drauf an wie schon einige hier geschrieben haben was man so zockt.


Ich für meinen Teil werd mit ATI holen, nicht wegen der Leistung sondern weil die Karte klein ist und nicht ganz soviel Watt frisst, wenn dich die Punkte nicht Intressieren dann nimm was dir gefällt und fertig.


Gruß

smockdogx
2004-05-08, 00:31:20
also was habt ihr is doch keine schweche wenn man in opengl games 120 fps hat nur weil sagen wir mal nen nv karte 125 hat
:asshole:
hatte noch nie probs in opengl

und und der r420 hat noch vorteile 1 slot bruahct nur normales netzteil leise und gute aa und af performance bis zum ende