PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : fehlender "Grundskill"


=Floi=
2006-12-17, 01:50:37
Hallo
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/

kann man die 1900XT wirklich so einfach mit der 7950GT vergleichen?
ist die XT nicht näher am higend als die 7950GT an der 7900GTX?

625mhz zu 650mhz
550mhz zu 650 mhz
die 75mhz zwischen den 2 testkandidaten machen über 13% aus

hätte man nicht XTX gegen GTX antreten lassen sollen?


ich bin wohl auch ein bischen zu sehr NV fanboy aber der größte unterschied kommt nur durch den takt zu stande...
und hinterher fragt man sich dann warum die andere karte um fast diesen %satz schneller ist
ich wollte auch eine dikussion dazu anstoßen wer es nun besser gemacht hat
die mid range karte knapp unter den highend oder nv mit großen abstufungen wo der aufpreis zur gtx eher gerechtfertig ist


MFG
Floi

Tigerchen
2006-12-17, 07:33:56
Hallo
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/

kann man die 1900XT wirklich so einfach mit der 7950GT vergleichen?
ist die XT nicht näher am higend als die 7950GT an der 7900GTX?

625mhz zu 650mhz
550mhz zu 650 mhz
die 75mhz zwischen den 2 testkandidaten machen über 13% aus

hätte man nicht XTX gegen GTX antreten lassen sollen?


ich bin wohl auch ein bischen zu sehr NV fanboy aber der größte unterschied kommt nur durch den takt zu stande...
und hinterher fragt man sich dann warum die andere karte um fast diesen %satz schneller ist
ich wollte auch eine dikussion dazu anstoßen wer es nun besser gemacht hat
die mid range karte knapp unter den highend oder nv mit großen abstufungen wo der aufpreis zur gtx eher gerechtfertig ist


MFG
Floi

Die Preise sind der Masstab. Wie die Grafikkarten ihre fps pro €uro hinkriegen ist für den Endanwender bedeutungslos.

StefanV
2006-12-17, 08:33:59
Hallo
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/

kann man die 1900XT wirklich so einfach mit der 7950GT vergleichen?
ist die XT nicht näher am higend als die 7950GT an der 7900GTX?

625mhz zu 650mhz
550mhz zu 650 mhz
die 75mhz zwischen den 2 testkandidaten machen über 13% aus

hätte man nicht XTX gegen GTX antreten lassen sollen?
Nein denn man kann nicht nur den Takt miteinander vergleichen!!

Ganz ab davon, das die Pre G80 Chips einige Bauartbedingte gravierende Nachteile gegenüber den ATis hat, was man besonders an Oblivion sieht.
Und nein, es ist keine Absicht von den Programmierern, das die G7x so bescheiden abschneidet, das MUSS so sein, eben aufgrund dessen, was nV da so zusammengefriemelt hat (Tex Ops stallen Pipeline, bei ATi nicht)...

Gast
2006-12-17, 10:26:40
Ganz ab davon, das die Pre G80 Chips einige Bauartbedingte gravierende Nachteile gegenüber den ATis hatDu stellst es ja fast so dar, als sei NV unfähig vernünftige GPUs zu bauen. Die Nachteile der NV40/G70-basierten Chips sind keine Fehler, sondern bewusste Designentscheidungen und wie man sieht, war NV damit auch sehr erfolgreich.

Tigerchen
2006-12-17, 11:24:40
Du stellst es ja fast so dar, als sei NV unfähig vernünftige GPUs zu bauen. Die Nachteile der NV40/G70-basierten Chips sind keine Fehler, sondern bewusste Designentscheidungen und wie man sieht, war NV damit auch sehr erfolgreich.

Nepp kann durchaus erfolgreich sein. Fragt sich nur für wen.

SavageX
2006-12-17, 11:36:48
Nepp kann durchaus erfolgreich sein. Fragt sich nur für wen.


An welche bewusste Täuschung (Nepp) denkst Du da?

Gast
2006-12-17, 13:32:58
Nepp kann durchaus erfolgreich sein. Fragt sich nur für wen.


das NV40/G7x-design war verdammt effizient was den transistoraufwand angeht.

NV erreicht mit 100Mio transistoren weniger teilweise fast die leistung von ATI.

Gast
2006-12-17, 14:10:15
Nepp kann durchaus erfolgreich sein. Fragt sich nur für wen.
Ich kann mich da SavageXs Frage nur anschließen. In welcher Hinsicht ist das NV40-Design "Nepp"?

Tigerchen
2006-12-17, 14:43:39
An welche bewusste Täuschung (Nepp) denkst Du da?

Ich versuche nur dahinter zu kommen wie der Vorredner Erfolg misst. In Verkaufszahlen für den Produzenten oder in Nutzen für den Kunden. Beides Erfolge die sich durchaus diametral gegenüber stehen können.

deekey777
2006-12-17, 14:59:42
Hallo
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/

kann man die 1900XT wirklich so einfach mit der 7950GT vergleichen?
ist die XT nicht näher am higend als die 7950GT an der 7900GTX?

625mhz zu 650mhz
550mhz zu 650 mhz
die 75mhz zwischen den 2 testkandidaten machen über 13% aus

hätte man nicht XTX gegen GTX antreten lassen sollen?


ich bin wohl auch ein bischen zu sehr NV fanboy aber der größte unterschied kommt nur durch den takt zu stande...
und hinterher fragt man sich dann warum die andere karte um fast diesen %satz schneller ist
ich wollte auch eine dikussion dazu anstoßen wer es nun besser gemacht hat
die mid range karte knapp unter den highend oder nv mit großen abstufungen wo der aufpreis zur gtx eher gerechtfertig ist


MFG
Floi
Irgendwie verstehe ich nicht, was dieser Thread bewirken soll:
Zunächst gibt es einen Thread zum Artikel, wo alles geklärt wird: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=336735
Wenn dich dagegen nur stört, dass die 7950GT irgendwie ungerecht behandelt wurde, dann such dir einfach einen Test heraus, der deinen Ansichten entspricht.
Nein denn man kann nicht nur den Takt miteinander vergleichen!!

Ganz ab davon, das die Pre G80 Chips einige Bauartbedingte gravierende Nachteile gegenüber den ATis hat, was man besonders an Oblivion sieht.
Und nein, es ist keine Absicht von den Programmierern, das die G7x so bescheiden abschneidet, das MUSS so sein, eben aufgrund dessen, was nV da so zusammengefriemelt hat (Tex Ops stallen Pipeline, bei ATi nicht)...
Die Tex-Stalls werden von manchen so überdramatisiert, dass es nicht mehr lustig ist: So schlimm ist es gar nicht.
Das Design des G70 ist wirklich inwandfrei (bis auf die Branching-Performance im Pixel-Teil, die wiederum irrelevant ist).

Gast
2006-12-17, 15:16:50
Ich versuche nur dahinter zu kommen wie der Vorredner Erfolg misst. In Verkaufszahlen für den Produzenten oder in Nutzen für den Kunden. Beides Erfolge die sich durchaus diametral gegenüber stehen können.
Ich meinte in meinem Beitrag schon den Erfolg aus NVs Sicht. Aber auch die Kunden haben mit einer NV40/G70-basierten Grafikkarte in den meisten Fällen ein sehr gutes Produkt bekommen.

StefanV
2006-12-17, 15:28:56
Die Tex-Stalls werden von manchen so überdramatisiert, dass es nicht mehr lustig ist: So schlimm ist es gar nicht.
Das Design des G70 ist wirklich inwandfrei (bis auf die Branching-Performance im Pixel-Teil, die wiederum irrelevant ist).
Kommt drauf an, was der Progger nun will und wie er das Spiel programmiert hat...
An Oblivion (was eine enorme Shaderlast hat) sieht man z.B. wie stark die nV Karten wegbrechen können...

Das wirklich schlimme dabei ist eigentlich eher, das die Schuld bei so einem Verhalten bei den Programmierern gesucht wird und weniger akzeptiert wird, das es eine Bauartbedingte Einschränkung der 'alten' nV Chips ist...

Gast
2006-12-17, 15:38:45
Kommt drauf an, was der Progger nun will und wie er das Spiel programmiert hat...
An Oblivion (was eine enorme Shaderlast hat) sieht man z.B. wie stark die nV Karten wegbrechen können...



was aber nicht an der shaderleistung sondern am HierZ liegt.

Gast
2006-12-17, 15:45:03
was aber nicht an der shaderleistung sondern am HierZ liegt.
Das halte ich auch für wahrscheinlicher. Ansonsten wäre der R520 in Oblivion ja vollkommen unbrauchbar.

deekey777
2006-12-17, 15:47:24
was aber nicht an der shaderleistung sondern am HierZ liegt.
Und das ist die Stärke der Kanadier (wenn kein Programmierer dazwischen pfuscht).

Gast
2006-12-17, 15:48:33
Das halte ich auch für wahrscheinlicher. Ansonsten wäre der R520 in Oblivion ja vollkommen unbrauchbar.

Der R520 ist doch auch viel langsamer in innenlevels bei Oblivion wos auf Shaderstärke ankommt.

Coda
2006-12-17, 15:49:11
Oblivion hat aber ein ALU:TEX-Ratio von 10:1 laut Simulationen.

Man sieht ja auch das R580 dort deutlich schneller ist als R520. Wäre es nur HierZ könnte man den Effekt nicht beobachten.

Gast
2006-12-17, 15:56:06
Der R520 ist doch auch viel langsamer in innenlevels bei Oblivion wos auf Shaderstärke ankommt.
Ja, aber hier liegen G71 und R580 auch noch sehr nah beieinander. G71 bricht ja gerade in Gebieten mit viel Gras richtig ein und wird dann sogar vom R520 überholt, was bei sehr hoher Shaderlast nicht passieren dürfte.

LovesuckZ
2006-12-17, 15:58:26
Beides Erfolge die sich durchaus diametral gegenüber stehen können.


Inwieweit?
Wenn man sich den Mobilemarkt ansieht, dann sehen die Notebookhersteller eine Nachfrage nach Nvidiachips, demnach verlangt auch der Kunde nach leistungstarken Grafikkarten im Notebook. Und diese kann nur Nvidia zu einem vernünftigen Aufwand zur Verfügung stellen.

Coda
2006-12-17, 16:02:21
Ja, aber hier liegen G71 und R580 auch noch sehr nah beieinander. G71 bricht ja gerade in Gebieten mit viel Gras richtig ein und wird dann sogar vom R520 überholt, was bei sehr hoher Shaderlast nicht passieren dürfte.

Okay. Es ist wohl eine Mischung aus beidem was ATI bei Oblivion den massiven Vorteil verschaft.

=Floi=
2006-12-17, 16:09:24
manche haben mich wieder mal falsch verstanden :(
es geht auch irgendwo um die positionierung der einzelnen karten und weniger um den test an sich
ich wollte nur ausdrücken ob nicht die GTX mit der XTX zu vergleichen "fairer" gewesen wäre und der test dadurch objektiver


bitte lasst die diskussion um oblivion und AA
selbst wenn es geht, läuft es mies mit den alten karten
und deshalb ist da AA sowieso unbrauchbar

Spasstiger
2006-12-17, 16:18:47
ich wollte nur ausdrücken ob nicht die GTX mit der XTX zu vergleichen "fairer" gewesen wäre und der test dadurch objektiver
Tja, man nimmt, was man bekommt. Madkiller standen halt nur Testsamples von einer 7950 GT und einer X1900 XT zur Verfügung.

Das Thema wurde übrigens schon im zugehörigen Thread ausdiskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=336735.

Gast
2006-12-17, 17:18:42
bitte lasst die diskussion um oblivion und AA
selbst wenn es geht, läuft es mies mit den alten karten
und deshalb ist da AA sowieso unbrauchbar

mit TRMSAA ist es durchaus brauchbar, TRSSAA ist allerdings ziemlich unbrauchbar.

=Floi=
2006-12-17, 17:29:43
oder anders herum hätte nv der 7950 nicht auch 625mhz oder 600mhz geben sollen?

tokugawa
2006-12-17, 17:53:12
Kommt drauf an, was der Progger nun will und wie er das Spiel programmiert hat...
An Oblivion (was eine enorme Shaderlast hat) sieht man z.B. wie stark die nV Karten wegbrechen können...

Das wirklich schlimme dabei ist eigentlich eher, das die Schuld bei so einem Verhalten bei den Programmierern gesucht wird und weniger akzeptiert wird, das es eine Bauartbedingte Einschränkung der 'alten' nV Chips ist...

Jetzt tu nicht so als ob die X1900 nicht auch "wegbrechen könnte". Die X1900 ist nun auch nicht der Wunderchip der alles kann und unfehlbar ist.

Wessen "Schuld" es ist, muß analysiert werden. Ich glaube nicht dass du hier pauschal sagen kannst, wer hier verantwortlich ist. Eventuell liegt's auch an einer Verkettung an Umständen?

Wenn's aber rein darum ginge was ein Chip "nicht kann" und ein Programmierer auch nichts dafür kann, dann hätt ich zwei Dinge aufzulisten, die ich bei der X1900 für "bauartbedingte Fehler" halte:
- kein Vertex Texture Fetch (und nein, die Art wie Render-to-Vertexbuffer in DirectX auf ATIs reingepfrimelt worden ist halte ich nicht für eine Alternative)
- kein FP Filtering (könnte man als "HDR+Filtering" bezeichnen). Wäre nicht schwer zu umgehen indem man's selbst implementiert im Shader wie es das ATI SDK vorschlägt, aber wäre wieder eine Extrawurst.

Ich programmier jedenfalls um einiges lieber auf meiner 7950 GT, mit gutem Grund. Warum, hab ich schon im anderen Thread aufgeführt.

Gast
2006-12-17, 18:55:42
Leider hat man mal wieder ein Auslaufmodell, nämlich die X1900XT mit aktueller Hardware verglichen. Die X1900er Reihe wurde inzwischen durch die X1950er Reihe abgelöst. Und dort hätte man die X1950XT 256MB mit der 7950GT vergleichen müssen. Wäre zwar auch in vielen Spielen für Ati ausgegangen, aber halt nicht, wo es auf Vram ankommt. Ansonsten bleibt zu sagen, daß man immo so oder so nichts kaufen sollte, bis der R600 und D3D10 Mainstreamkarten erhältlich sind. Dann sollten sich die Preise für D3D10 Karten auch auf einem wirtschaflichem Niveau einpendeln (wirtschaftlich für den Kunden natürlich ;)).

tokugawa
2006-12-17, 19:16:12
Und Hand auf's Herz: schlecht sind beide Karten nicht.

Klar ist für jeden die eine oder andere besser, aber nur weil die ATI in vielen Spielen schneller ist, heißt das nicht dass die 7950 GT grottenschlecht wäre - im Gegenteil, für einige Nutzer mag sie sogar die bessere Alternative darstellen.

Gast
2006-12-17, 19:29:00
Und Hand auf's Herz: schlecht sind beide Karten nicht.

Klar ist für jeden die eine oder andere besser, aber nur weil die ATI in vielen Spielen schneller ist, heißt das nicht dass die 7950 GT grottenschlecht wäre - im Gegenteil, für einige Nutzer mag sie sogar die bessere Alternative darstellen.
Ja für 1 % entwickler so wei du.:rolleyes:Für gamer ist die X1900 Xt natürlich viel intressanter.

tokugawa
2006-12-17, 20:03:42
Ja für 1 % entwickler so wei du.:rolleyes:Für gamer ist die X1900 Xt natürlich viel intressanter.

Nicht unbedingt. Deine Aussage ist nicht generalisierbar. Gibt auch Leute die eine generelle ATI-Aversion haben aufgrund schlechter früherer Erfahrungen. Hat nichts mit Fanboytum zu tun, ist manchmal einfach eine persönliche Präferenz (dasselbe gibt's ja umgekehrt bei NVIDIA auch).

Kenn auch genug Leute, die zwar auch programmieren, aber jetzt nicht so intensiv mit Echtzeitgrafik, die aber trotzdem lieber eine NVIDIA wollen, auch aus demselben Grund, ganz einfach weil sie ATI nicht trauen aufgrund ihres Rufs oder doch persönliche schlechte Erfahrungen mit dem ATI-Treiber gemacht haben.

Sagen wir's so: es gibt sicher Leute, die mit einer 7950 GT genauso glücklich oder glücklicher wären; darunter nicht nur Entwickler.

Und sei es nur deswegen weil bei Person XYZ eine 7950 GT in einen Mini-PC reinpasst und die X1900XT nicht...
Und sei es nur deswegen weil Person XYZ das ATI-Proleten-Controlpanel (wozu Skins?) nicht mag.


Soviel ist die X1900XT nicht besser als dass man die 7950 GT als "grottenschlecht" bezeichnen könnte. Sie ist trotzdem eine gute Wahl; und wenn man gerade nach einer NVIDIA in diesem Preisbereich Ausschau hält, dann ist sie zu empfehlen.

Gast
2006-12-17, 21:05:58
Wäre nicht schwer zu umgehen indem man's selbst implementiert im Shader wie es das ATI SDK vorschlägt, aber wäre wieder eine Extrawurst.

warum macht ATI das nicht gleich selbst im treiber?

haifisch1896
2006-12-17, 23:15:36
Vielleicht weil früher sowas mal als Cheating abgetan wurde.

Coda
2006-12-18, 01:02:18
warum macht ATI das nicht gleich selbst im treiber?

Geht nicht. Das was ATI im SDK vorschlägt ist eine Hack und funktioniert im generellen Fall nicht.

Gast
2006-12-18, 11:29:29
Ja für 1 % entwickler so wei du.:rolleyes:Für gamer ist die X1900 Xt natürlich viel intressanter.Nein, die 7950GT kann auch für einen Nicht-Entwickler die bessere Karte sein. Zum Beispiel möchte ich nicht auf funktionierende Skalierungseinstellungen im Treiber verzichten. Das bietet zur Zeit nur Nvidia. Auch die Hybridmodi sind für Leute, die auch mal ältere Spiele spielen wollen, eine sehr feine Sache. Leider gibts diese zur Zeit beim G80 nicht mehr. Für die Leute, die neben ihrem Windows auch mal ein Linux booten wollen, bietet auch einzig NV einen vernünftigen Support. Dazu kommt noch, dass man die Multi-GPU-Fähigkeit der aktuellen ATI-Karten in die Tonne treten kann. Auch kommt es mir so vor als sei die Kompatibilität (vor allem was Transparenz-AA betrifft) bei meiner 7800GTX deutlich besser, aber das kann ich nicht belegen, ist also nur eine Beobachtung, die nicht unbedingt repräsentativ ist.

Es gibt also auch für Spieler, die nicht gleichzeitig Entwickler oder NV-Fanboys sind, Gründe eine Nvidia-Grafikkarte zu kaufen. Natürlich gibt es mindestens ebenso viele Gründe, die für eine ATI sprechen. Deshalb kann man nicht sagen "Karte X ist besser", sondern muss dies an den persönlichen Präferenzen festmachen.

aths
2006-12-18, 12:38:17
Genau. Man passt sich bei jeder Karte, die man hat, entsprechend an.

Mit der 6600 GT spielte ich WoW teilweise mit 4x Supersampling, um Alphatest-Kanten zu glättet. Mit der Radeon 9700 Mobile (was ja nur eine 9600 ist) ging dann auch AAA. Jetzt mit der 7600 GT nutze ich TAA-SS und 4xS-AA – womit die Bodentexturen endlich mal praktisch flimmerfrei sind, auch was die Schatten angeht. Hätte ich eine X1000-er Radeon, würde ich mich stattdessen über eine gleichmäßigere AF-Verteilung freuen, und vermutlich (je nach Performance) auch 6x AA (AAA) nutzen.

Tigerchen
2006-12-18, 19:59:58
Ich meinte in meinem Beitrag schon den Erfolg aus NVs Sicht. Aber auch die Kunden haben mit einer NV40/G70-basierten Grafikkarte in den meisten Fällen ein sehr gutes Produkt bekommen.

Was mich bei nV immer wieder ärgert ist daß tolle neue Features eingeführt werden bei denen sich dann im nachheinein herausstellt daß sie in der zunächst beworbenen Implementation nicht wirklich brauchbar sind.
Beispiel: GeForce FX- designt for Doom 3 (lol)
Branching auf 68xx - Schneckenlahm

GeForce Karten sind trotzdem nicht schlecht aber eben nie so gut wie man auf Grund der Checklistfeatures denkt.

Spasstiger
2006-12-18, 20:08:58
Beispiel: GeForce FX- designt for Doom 3 (lol)
Wo soll denn das bitte stehen, dass die GeForce FX für Doom 3 designt wurde? Außerdem ist eine GeForce FX 5950 Ultra in Doom 3 schneller als eine Radeon 9800 XT, vor allem bei aktiviertem AA.
Doom 3 wurde ursprünglich ja auf einer GeForce 1 konzipiert. Die erste öffentliche Live-Präsentation auf der E3 2002 lief allerdings auf einer Radeon 9700 Pro (Vorserienmodell) und das direkt nach Erscheinen der GeForce 4 Ti. Und zum Erscheinen der FX 5900 ist ID Software auf eben jene Karten umgestiegen.

Begeisterte Äußerungen seitens ID Software hörte man aber erst zur GeForce 6800 Ultra, welche in Doom 3 ja auch wirklich verdammt schnell war.

aths
2006-12-18, 20:10:03
Wo soll denn das bitte stehen, dass die GeForce FX für Doom 3 designt wurde? Außerdem ist eine GeForce FX 5950 Ultra in Doom 3 schneller als eine Radeon 9800 XT, vor allem bei aktiviertem AA.
Doom 3 wurde ursprünglich ja auf einer GeForce 1 konzipiert. Die erste öffentliche Live-Präsentation auf der E3 2002 lief allerdings auf einer Radeon 9700 Pro (Vorserienmodell). Und zum Erscheinen der FX 5900 ist ID Software auf eben jene Karten umgestiegen.Es gibt Leute, mit denen kann man nicht diskutieren. Die meinen schon alles zu wissen und sind deshalb nicht bereit, Neues aufzunehmen. Könnte ja sein, dass es nicht ins Weltbild passt.


warum macht ATI das nicht gleich selbst im treiber?Weils nicht geht. Theoretisch könnte ATI z. B. im Pixelshader Filterung von FP-Texturen via Shader-Code simulieren, jedoch nur maximal trilineare Filterung. SM3 erfordert aber bis zu 16x AF im Pixelshader.

deekey777
2006-12-18, 20:18:13
Wo soll denn das bitte stehen, dass die GeForce FX für Doom 3 designt wurde? Außerdem ist eine GeForce FX 5950 Ultra in Doom 3 schneller als eine Radeon 9800 XT, vor allem bei aktiviertem AA.
Doom 3 wurde ursprünglich ja auf einer GeForce 1 konzipiert. Die erste öffentliche Live-Präsentation auf der E3 2002 lief allerdings auf einer Radeon 9700 Pro (Vorserienmodell). Und zum Erscheinen der FX 5900 ist ID Software auf eben jene Karten umgestiegen.

Begeisterte Äußerungen seitens ID Software hörte man aber erst zur GeForce 6800 Ultra, welche in Doom 3 ja auch wirklich verdammt schnell war.

Die D3-Engine wurde der Welt auf einem PowerMac G4 mit einer Geforce 3 auf MacExpo in Tokyo Februar 2001 gezeigt (zusammen mit der Tischlampe Junior in Echtzeit).:) Ich hoffe, niemand kommt jetzt auf die Idee zu behaupten, dass Doom 3 auf den PowerMac G4 optimiert ist und die x86 das Nachsehen hat.

Branching auf 68xx - Schneckenlahm
Sieht man in jedem Spiel. Dabei ist das statische Branching alles andere als langsam, und das dynamische Branching im Vertex-Teil schneller als bei der Konkurrenz.

Spasstiger
2006-12-18, 20:22:56
Die D3-Engine wurde der Welt auf einem PowerMac G4 mit einer Geforce 3 auf MacExpo in Tokyo Februar 2001 gezeigt (zusammen mit der Tischlampe Junior in Echtzeit).:) Ich hoffe, niemand kommt jetzt auf die Idee zu behaupten, dass Doom 3 auf den PowerMac G4 optimiert ist und die x86 das Nachsehen hat.
Stimmt, das hab ich ja ganz vergessen. Die E3-2002-Demo ist mir aber aufgrund "gewisser Umstände" besser im Gedächtnis haften geblieben. War auch fast die erste 3D-Anwendung, die mein damals neuer Rechner mit Radeon 9700 zu futtern bekommen hat. Und da musste ich schon grinsen, als ich in Foren las, wie schlecht es bei anderen auf den eben erst teuer erworbenen GeForce 4 Ti 4600 Karten lief. ATI wurde da noch nicht so ernst genommen. Ach, das waren Zeiten ... ;)
Und zum Glück hab ich die Dell-Kiste genommen, sonst wär ich nie auf die Idee gekommen, mir ne ATI zu holen. Der PCGH-Test der Radeon 9700 Pro hat sich halt damals eher so gelesen, als ob die Karte in relevanten Einstellungen nicht schneller sei als eine GeForce 4 Ti 4600.
Mit dem neuen Rechner wurde dann 1280x960, 4xAA, 16:1 AF meine relevante Einstellung. ;)

aths
2006-12-19, 13:21:52
Die D3-Engine wurde der Welt auf einem PowerMac G4 mit einer Geforce 3 auf MacExpo in Tokyo Februar 2001 gezeigt (zusammen mit der Tischlampe Junior in Echtzeit).:) Ich hoffe, niemand kommt jetzt auf die Idee zu behaupten, dass Doom 3 auf den PowerMac G4 optimiert ist und die x86 das Nachsehen hat.

Sieht man in jedem Spiel. Dabei ist das statische Branching alles andere als langsam, und das dynamische Branching im Vertex-Teil schneller als bei der Konkurrenz.... und das Pixelshader-Branching im NV40/G70 immer noch besser als gar kein Branching im Pixelshader.

Madkiller
2006-12-19, 15:28:40
Hallo
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/

kann man die 1900XT wirklich so einfach mit der 7950GT vergleichen?
ist die XT nicht näher am higend als die 7950GT an der 7900GTX?

625mhz zu 650mhz
550mhz zu 650 mhz
die 75mhz zwischen den 2 testkandidaten machen über 13% aus

hätte man nicht XTX gegen GTX antreten lassen sollen?


Also zum Einen: Das hier ist ein 7950GT vs X1900XT Vergleich der nichts über 7900GTX vs X1900XTX aussagt. Weswegen ich von solchen Übertragungen nicht viel halte.
Zum anderen: Du hast nur die Grafikchiptaktraten gegeneinander verglichen. Warum nicht den RAM-Takt? Da wäre die Differenz nicht mehr bei über 13%, sondern nur noch bei über 7%.
Noch was: Warum eigentlich die X1900XTX gegen die 7900GTX vergleichen? Der Gegenpart zur 7900GTX ist IMHO wenn dann schon die X1950XTX (jeweils schnellste SingleChip Karte dieser Generation). Und die Taktraten-Differenz zwischen X1900XT vs X1950XTX ist größer, als die zwischen 7950GT vs 7900GTX.

Tigerchen
2006-12-19, 15:45:36
Wo soll denn das bitte stehen, dass die GeForce FX für Doom 3 designt wurde? Außerdem ist eine GeForce FX 5950 Ultra in Doom 3 schneller als eine Radeon 9800 XT, vor allem bei aktiviertem AA.
Doom 3 wurde ursprünglich ja auf einer GeForce 1 konzipiert. Die erste öffentliche Live-Präsentation auf der E3 2002 lief allerdings auf einer Radeon 9700 Pro (Vorserienmodell) und das direkt nach Erscheinen der GeForce 4 Ti. Und zum Erscheinen der FX 5900 ist ID Software auf eben jene Karten umgestiegen.

Begeisterte Äußerungen seitens ID Software hörte man aber erst zur GeForce 6800 Ultra, welche in Doom 3 ja auch wirklich verdammt schnell war.

Die Begeisterung kam vor allem von dem allseits bekannten Autor dieser Zeilen. Da wurde im Vorfeld Stimmung gemacht die sich am Ende nicht rechtfertigen ließ. Und sowas zieht sich wie ein roter oder besser grüner Faden durch viele Artikel/Posts von aths :

Bezüglich des Features-Sets um DirectX9 und Vertex und Pixel Shader zeigt sich die GeForceFX der Radeon 9700 schon jetzt als weit überlegen, auch wenn wir insbesondere die erweitere Programmierbarkeit (dieser Teil, welcher über die Mindestforderungen von DirectX9 hinausgeht) wirklich nur als reine Zugabe ohne praktischen Nutzen zu Lebzeiten des Chips sehen
http://www.3dcenter.de/artikel/2002/11-19_c.php

nVidia hat auch einige selbsterstellte Benchmarks veröffentlicht, welches jenes Bild der klaren Überlegegenheit der GeForceFX bestätigen sollen:
http://www.3dcenter.de/artikel/2002/11-19_b.php

Sowas veröffentlicht aths, der Mann der für alles Neue offen ist.
Hier die Werte einer anderen Seite die ein wenig anders aussehen.

http://www.tweakpc.de/hardware/tests/graka/doom3_performance/s05.php?benchmark=doom3hq

Aber hier bestätigt aths immerhin mal daß nV mitunter ein Featureset ohne praktischen Wert für den typischen Gamer bietet. Und darum gehts ja in meiner nun bestrittenen Kernaussage.


Bezüglich des Features-Sets um DirectX9 und Vertex und Pixel Shader zeigt sich die GeForceFX der Radeon 9700 schon jetzt als weit überlegen, auch wenn wir insbesondere die erweitere Programmierbarkeit (dieser Teil, welcher über die Mindestforderungen von DirectX9 hinausgeht) wirklich nur als reine Zugabe ohne praktischen Nutzen zu Lebzeiten des Chips sehen
http://www.3dcenter.de/artikel/2002/11-19_c.php

aths! Du glaubst wirklich daran daß die 6800er bei dynamischem branching oder HDR befriedigend schnell ist?

Coda
2006-12-19, 16:09:13
Tigerchen, ich gebe dir ja prinzipiell recht, aber du übertreibst es auf deine Art und Weise auch.

LovesuckZ
2006-12-19, 16:25:58
Du glaubst wirklich daran daß die 6800er bei [...] HDR befriedigend schnell ist?

Tja, hier haben wir ein Paradoxon.
Ohne die Fähigkeit für HDR gäbe es weniger Anwendungen, welches es umsetzen und deine Kritik demnach unangebracht.

Gast
2006-12-19, 16:35:02
aths! Du glaubst wirklich daran daß die 6800er bei dynamischem branching oder HDR befriedigend schnell ist?Was ist denn deiner Meinung nach besser: Langsames dyn. Branching im Pixelshader oder gar keins?

Und ja, es gibt durchaus Anwendungen bzw. Spiele in denen man mit einem NV40 vollkommen flüssig HDR-Rendering genießen darf.

Gast
2006-12-19, 16:49:12
nVidia hat auch einige selbsterstellte Benchmarks veröffentlicht, welches jenes Bild der klaren Überlegegenheit der GeForceFX bestätigen sollen:
http://www.3dcenter.de/artikel/2002/11-19_b.php

Sowas veröffentlicht aths, der Mann der für alles Neue offen ist.
Hier die Werte einer anderen Seite die ein wenig anders aussehen.

http://www.tweakpc.de/hardware/tests/graka/doom3_performance/s05.php?benchmark=doom3hq

Du solltest deine aths-Bashings nicht so offensichtlich schlecht recherchiert durchführen. Das 3dc-Preview stammt vom November 2002 - mit einer Doom3-BETA. Zu dieser Zeit, wie allgemein in der Vorveröffentlichungsphase, hatte Ati zwischenzeitlich immer wieder mit Performance-Problemen bei der D3-Engine zu kämpfen - ich kann mich an eine Treiberversion erinnern, die durchgehend nur 10 Fps schaffte.

Das Tweak-PC-Review entstand mit der finalen Version von Doom3 - die kam wann genau noch gleich auf den Markt? Außerdem muss Tweak-PC eine Special-Edition zur Verfügung gestanden haben - wissen wir doch alle, dass Doom3 sicherlich kein DX9-Game ist.

robbitop
2006-12-19, 17:02:04
Der Nachteil in Oblivion liegt vermutlich daran, dass es AFAIK rein auf ATI Karten entwickelt wurde. Das war bei HL2/D3 ebenfalls so.

Ich persönlich glaube nicht daran, dass das EarlyZ eine Grafikkarte bremsen soll.
Die G70 schafft pro Takt immerhin 64 Pixel zu verwerfen.
Ein gerendertes Pixel braucht bei Oblivion allerdings (bei hohen Settings) mehrere 100 Takte (kann sich ja jeder aus der Auflösung und der Framerate ausrechnen). Das limitiert vieleicht in Need for Speed 3 aber in Oblivion...?
Die Radeon schafft pro Takt zwar 256 Pixel zu verwerfen, aber auch nur wenn ein solches Tile komplett nicht sichtbar ist, ansonsten ist der Takt "verschwendet" und das nächste Tile beträgt 64 Pixel und wenn das nicht funktioniert uswusf....

StefanV
2006-12-19, 17:14:22
Der Nachteil in Oblivion liegt vermutlich daran, dass es AFAIK rein auf ATI Karten entwickelt wurde. Das war bei HL2/D3 ebenfalls so.
Warum sollte es das?! :| :|


Ich persönlich glaube nicht daran, dass das EarlyZ eine Grafikkarte bremsen soll.
Die G70 schafft pro Takt immerhin 64 Pixel zu verwerfen.
Ein gerendertes Pixel braucht bei Oblivion allerdings (bei hohen Settings) mehrere 100 Takte (kann sich ja jeder aus der Auflösung und der Framerate ausrechnen). Das limitiert vieleicht in Need for Speed 3 aber in Oblivion...?
Die Radeon schafft pro Takt zwar 256 Pixel zu verwerfen, aber auch nur wenn ein solches Tile komplett nicht sichtbar ist, ansonsten ist der Takt "verschwendet" und das nächste Tile beträgt 64 Pixel und wenn das nicht funktioniert uswusf....
Und der Rest??
Schau dir einfach mal Morrowind an, das hat auch kein Software HSR, warum hat Tokugawa letztens 'irgendwo' mal erläutert...

robbitop
2006-12-19, 17:21:32
Warum sollte es das?! :| :|
Warum das so abgelaufen ist, weiß ich doch nicht.


Und der Rest??
Schau dir einfach mal Morrowind an, das hat auch kein Software HSR, warum hat Tokugawa letztens 'irgendwo' mal erläutert...
Welcher Rest? Klar ist R580 schneller. Das liegt an verschiedenen Dingen. Aber so brachial wie in Oblivion ist es selten.

In Morrowind ist eine R5xx also brachial schneller als eine G71? Hast du Benches?

StefanV
2006-12-19, 17:30:17
Warum das so abgelaufen ist, weiß ich doch nicht.

Ach, wie das so oft der Fall ist:
Man hat eine Idee, man führt sie aus, das führt zu einem Ergebnis.
Dann schaut man noch, obs auch wirklich auf allem läuft, was soll und wenns das dann tut, ists OK.

Wie die Performance dann ausschaut, interessiert NIEMANDEN, von denen die das programmiert haben, etwas gegenteiliges zu behaupten ist schon fast üble Nachrede...

€dit: Achso: GITG und TWIMTBP ist auch nicht wirklich mehr als Sponsoring fürs Logo, das beim Spielstart eingeblendet wird...

Welcher Rest? Klar ist R580 schneller. Das liegt an verschiedenen Dingen. Aber so brachial wie in Oblivion ist es selten.

Hm, welcher Rest?!
z.B. das Oblivion ein Alu:Tex Verhältnis von 10:1 haben soll, das die Radeons seit je her HierZ haben, die nVidias erst seit G80, welches hier, in diesem Falle, wo man sich das Software HSR gespart hat (warum? siehe Tokugawa) doch einiges bringt...

Was man übrigens auch schön sieht, wenn man sich die G80 Benches anschaut...

In Morrowind ist eine R5xx also brachial schneller als eine G71? Hast du Benches?
Such doch mal Benches im Internet, du wärst erstaunt, wie groß der Unterschied ist..

Banshee18
2006-12-19, 17:34:26
Schafft man es bei Morrowind mit so schnellen Karten überhaupt, das CPU limit "auszuhebeln"? Vor allem auf einer ATi, ohne SS?

Gast
2006-12-19, 18:19:07
Warum sollte es das?! :| :|

Weil man dabei andere Dinge beachten kann/muss/sollte, als wenn man auf Nv entwickelt. Du hast so viele Postings hier im Forum - liest du auch mal, was andere geschrieben haben?

Madkiller
2006-12-19, 18:24:58
Schafft man es bei Morrowind mit so schnellen Karten überhaupt, das CPU limit "auszuhebeln"? Vor allem auf einer ATi, ohne SS?
Hm, was meinst du mit dem aushebeln?
Wenn die CPU limitiert führt auch ne schnellere GraKa nicht zu mehr fps.

Gast
2006-12-19, 18:27:47
Der Nachteil in Oblivion liegt vermutlich daran, dass es AFAIK rein auf ATI Karten entwickelt wurde. Das war bei HL2/D3 ebenfalls so.

Ich persönlich glaube nicht daran, dass das EarlyZ eine Grafikkarte bremsen soll.
Die G70 schafft pro Takt immerhin 64 Pixel zu verwerfen.
Ein gerendertes Pixel braucht bei Oblivion allerdings (bei hohen Settings) mehrere 100 Takte (kann sich ja jeder aus der Auflösung und der Framerate ausrechnen). Das limitiert vieleicht in Need for Speed 3 aber in Oblivion...?
Die Radeon schafft pro Takt zwar 256 Pixel zu verwerfen, aber auch nur wenn ein solches Tile komplett nicht sichtbar ist, ansonsten ist der Takt "verschwendet" und das nächste Tile beträgt 64 Pixel und wenn das nicht funktioniert uswusf....
Es liegt irgendwie am Gras und dass die Geforce damit nicht klarkommt. Selbes Phänomen in Gothic 3. Schalte da Gras ab und beide sind sich ziemlich ähnlich.

StefanV
2006-12-19, 18:36:20
Weil man dabei andere Dinge beachten kann/muss/sollte, als wenn man auf Nv entwickelt. Du hast so viele Postings hier im Forum - liest du auch mal, was andere geschrieben haben?
Und woher weiß man, das sie überhaupt irgendwas beachtet haben und nicht einfach alles ignoriert haben und nicht einfach 'drauf los geschrieben' haben, ohne überhaupt irgendwelchen 'Optimierungsregeln' zu folgen?!

Ich denke nicht, das die Progger überhaupt die Zeit/Lust haben, sich diese 'Optimierungs Guidelines' anzuschauen geschweige denn überhaupt beachten...

Gast
2006-12-19, 18:36:55
Hm, was meinst du mit dem aushebeln?
Wenn die CPU limitiert führt auch ne schnellere GraKa nicht zu mehr fps.
Ein Setting schaffe, in dem sich die Grafikkarte als Limit erweist. Entweder durch massives AA/AF oder durch reines Supersampling.

Gast
2006-12-19, 18:37:51
Und woher weiß man, das sie überhaupt irgendwas beachtet haben und nicht einfach alles ignoriert haben und nicht einfach 'drauf los geschrieben' haben, ohne überhaupt irgendwelchen 'Optimierungsregeln' zu folgen?!

Ich denke nicht, das die Progger überhaupt die Zeit/Lust haben, sich diese 'Optimierungs Guidelines' anzuschauen geschweige denn überhaupt beachten...
Und ich denke, dass die Progger von ihren Chefs eine Vorgabe bekommen, dass das Spiel auch auf alten Gurken noch laufen muss. Das funktioniert nur selten ohne Optimierung.

StefanV
2006-12-19, 19:03:41
Und ich denke, dass die Progger von ihren Chefs eine Vorgabe bekommen, dass das Spiel auch auf alten Gurken noch laufen muss. Das funktioniert nur selten ohne Optimierung.
Du sagst es selbst, es muss laufen, WIE ist egal!
Meist ist damit gemeint, das es nicht abschmiert und es ein Bild gibt, und wenns 'ne Dia Show ist, egal, läuft ja :devil:

Wozu sollt man da irgendwas optimieren wollen?!
Das kostet nur Zeit und Geld -- beides hat man nicht wirklich...

ScottManDeath
2006-12-19, 19:35:43
€dit: Achso: GITG und TWIMTBP ist auch nicht wirklich mehr als Sponsoring fürs Logo, das beim Spielstart eingeblendet wird...



Mööp, Einspruch. ;) TWIMTBP ist schon ein bischen mehr als nur Logo zeigen. Der Developer Support hat verschiedenen Umfang, z.B. bekommen die Devs Tools zum Optimieren bzw konkrete Tips und Hilfestellungen je nach Titel und Relevanz des Titels. Mitunter läuft auch noch mehr....

Banshee18
2006-12-19, 19:39:20
Ein Setting schaffe, in dem sich die Grafikkarte als Limit erweist. Entweder durch massives AA/AF oder durch reines Supersampling.
Genau das meine ich. Wahrscheinlich ist Morrowind noch in 2560x1600, 6xAA, 16xAF CPU-limitiert auf einem R580. Okay, das ist vielleicht übertrieben, aber solche Auflösungen kann sowieso kaum jemand nutzen.

Wechselbalg
2006-12-19, 19:40:48
Ein Setting schaffe, in dem sich die Grafikkarte als Limit erweist. Entweder durch massives AA/AF oder durch reines Supersampling.

Wobei das bei Morrowind extrem schwierig werden dürfte. Selbst meine X800 Pro bekomme ich da schon kaum klein und da haben R580 und G71 noch um einiges mehr Dampf.

EDIT: Man sollte nicht zu lange tippen. ^^

Demirug
2006-12-19, 19:47:11
Und woher weiß man, das sie überhaupt irgendwas beachtet haben und nicht einfach alles ignoriert haben und nicht einfach 'drauf los geschrieben' haben, ohne überhaupt irgendwelchen 'Optimierungsregeln' zu folgen?!

Ich denke nicht, das die Progger überhaupt die Zeit/Lust haben, sich diese 'Optimierungs Guidelines' anzuschauen geschweige denn überhaupt beachten...

Ich lese die Dinger.

Mööp, Einspruch. ;) TWIMTBP ist schon ein bischen mehr als nur Logo zeigen. Der Developer Support hat verschiedenen Umfang, z.B. bekommen die Devs Tools zum Optimieren bzw konkrete Tips und Hilfestellungen je nach Titel und Relevanz des Titels. Mitunter läuft auch noch mehr....

Naja ich hatte bisher eher den Eindruck das TWIMTBP und die Beachtung durch den DevSupport nicht zwingend zusammenhängen. Vor allem weil TWIMTBP wohl eher über den Publisher zu laufen scheint.

robbitop
2006-12-19, 19:57:15
z.B. das Oblivion ein Alu:Tex Verhältnis von 10:1 haben soll, das die Radeons seit je her HierZ haben, die nVidias erst seit G80, welches hier, in diesem Falle, wo man sich das Software HSR gespart hat (warum? siehe Tokugawa) doch einiges bringt...
Der G80 hat einen hirarchischen Z Puffer? Seit wann das denn? :|
Was hat denn das ALU:Tex Verhältnis mit dem HirZ zu tun?

Ja bei hoher Shaderlast ist generell R5xx besser. Die ALU0 wird im G70 oftmals durch Perspektivkorrektur, Texture Fetches und anderem "blockiert". Hinzu kommt die Kopplung von Texturfilterung und aritmetischer Berechnung.
Summa summarum ist die R5xx Pipeline natürlich deutlich rechenkräftiger und flexibler. Dafür aber auch um einiges teurer.



Such doch mal Benches im Internet, du wärst erstaunt, wie groß der Unterschied ist..
Ich habe dich um einen Link gebeten, der deine These unterstützt.

ScottManDeath
2006-12-19, 22:40:43
Ich lese die Dinger.



Naja ich hatte bisher eher den Eindruck das TWIMTBP und die Beachtung durch den DevSupport nicht zwingend zusammenhängen. Vor allem weil TWIMTBP wohl eher über den Publisher zu laufen scheint.


OK, mit den ganzen High Level Marketing Sachen hatte ich nicht viel zu tun. Ich weiß nur welchen Umfang der DevSupport bei einigen Titeln hatte, die auch in dem TWIMTBP Programm waren. Es kann durchaus sein, das das nur Zufall war.

aths
2006-12-20, 13:34:36
Aber hier bestätigt aths immerhin mal daß nV mitunter ein Featureset ohne praktischen Wert für den typischen Gamer bietet. Und darum gehts ja in meiner nun bestrittenen Kernaussage.Mit selektivem Zitieren kann man alles beweisen oder widerlegen. Wer entwickelt die Spiele? Wer hat den Nutzen davon? Ist es irgendwie schädlich, mehr Features auf der GPU zu haben?

Bei der FX sollte man Performance und Featureset nicht zusammenwürfeln. Die geringe Pixelshader-2-Performance macht das erweiterte Featureset zum Beispiel nicht überflüssig (à la "kann man sowieso nicht nutzen") sondern im Gegenteil notwendig, um überhaupt noch das herausholen zu können, was drin ist.

Immer wieder führe ich gerne das Beispiel an, bei dem einer meiner Mitstudenten einen Shader nicht in voller Qualität auf seiner Radeon laufen lassen konnte, weil die nur Pixelshader 2.0 bot. Er hatte sich nicht auf Kraft irgendwas ausgedacht, was unbedingt mehr braucht als ATIs Pixelshader-Implementation, sondern hatte Probleme zu lösen die einfach mehr Funktionalität benötigten. Da waren offensichtlich schon andere vor ihm an diesem Punkt und haben Sachen wie Gradienten-Berechnung verlangt. Ohne Nachfrage von Entwicklerseite hätte es NV nicht schon in die GeForce FX eingebaut. Zwar würde dieser spezielle Shader erst auf der GeForce 6 der Shader "in voller Performance" laufen. Das macht das Featureset der GF FX nicht unwichtiger. Etwas zu haben ist besser, als es nicht zu haben; selbst wenn man es dann nicht ein einziges mal benutzt. Doch wer weiß das schon vorher?

aths! Du glaubst wirklich daran daß die 6800er bei dynamischem branching oder HDR befriedigend schnell ist?Das ist keine Glaubensfrage und hängt wie so oft im Leben davon ab. Pixelshader 3.0 erfordert nun mal dynamic Branching im Pixelshader, also musste NV es auch einbauen. Es gibt auch Situationen, wo es die Performance steigern kann. Stellt man beim Testen fest, dass dynamic branching die Gesamtperformance runterzieht, nutzt man es eben nicht. Es gibt aber (auch für Nicht-Spiele-Zwecke) trotzdem viele sinnvolle Anwendungsmöglichkeiten dafür. Es ist nicht nur für NV preiswerter, alles in einen Chip zu stecken, sondern auch für den Endkunden, der dann keine Exklusiv-Entwicklung mitbezahlen muss. Zumal NV die SM3-Specs schon mit dem NV40 voll erfüllte, der R580 hingegen streng genommen noch immer nicht. Was ist nun besser? Sich mittels Lücken in der Spec rauswinden (Vertex Texturing melden, aber keine gültigen Texturformate dafür) oder die Spec zu erfüllen? (Texture-Fetches beim NV40/G70 funktionieren nur bei bestimmten Texturformaten, nur ohne Filterung, und trotzdem nicht in berauschender Performance. Doch welcher Spieler hat dadurch Nachteile?)

Filterung von FP-Texturen ist ein Feature, was mit Shader 4 ohnehin kommen würde (das war damals schon klar) – also ist es doch nicht schlecht, wenn der NV40 schon mal FP16-Texturen filtern kann. Was das für HDR-Rendering erforderliche Tonemapping übrigens beschleunigt, sofern man vom FP-Rendertarget MIP-Stufen zur Mittelwertberechnung bildet. Feautures werden ja nicht eingebaut, um eine lange Featureliste aufzuweisen. Sondern weil Entwickler danach gefragt haben. Und die fragen nicht danach, um anschließend schlaue Bücher zu schreiben, sondern um die nächsten Spiele zu programmieren.

Tigerchen
2006-12-20, 15:15:24
Was ist denn deiner Meinung nach besser: Langsames dyn. Branching im Pixelshader oder gar keins?


Ein bilinearer Filter ist auch besser als gar keiner. Komisches Argument was ihr da bringt.

Tigerchen, ich gebe dir ja prinzipiell recht, aber du übertreibst es auf deine Art und Weise auch.

Wie man in den Wald ruft so schallt es heraus.

Tigerchen
2006-12-20, 15:23:40
Du solltest deine aths-Bashings nicht so offensichtlich schlecht recherchiert durchführen. Das 3dc-Preview stammt vom November 2002 - mit einer Doom3-BETA. Zu dieser Zeit, wie allgemein in der Vorveröffentlichungsphase, hatte Ati zwischenzeitlich immer wieder mit Performance-Problemen bei der D3-Engine zu kämpfen - ich kann mich an eine Treiberversion erinnern, die durchgehend nur 10 Fps schaffte.

Das Tweak-PC-Review entstand mit der finalen Version von Doom3 - die kam wann genau noch gleich auf den Markt? Außerdem muss Tweak-PC eine Special-Edition zur Verfügung gestanden haben - wissen wir doch alle, dass Doom3 sicherlich kein DX9-Game ist.

Darum geht es nicht. Es geht darum daß im Vorfeld Erwartungen geweckt werden die sich letztlich als nicht berechtigt erweisen. Da sollte man, unabhängig von dem was ATI so treibt, schon mal drauf achten.

Gaestle
2006-12-20, 15:36:44
Darum geht es nicht. Es geht darum daß im Vorfeld Erwartungen geweckt werden die sich letztlich als nicht berechtigt erweisen. Da sollte man, unabhängig von dem was ATI so treibt, schon mal drauf achten.


Wo genau weckt hier jemand in diesem Thread Erwartungen, die nicht erfüllt werden können?

Da Du es anscheinend ganz genau nehmen möchtest, bitte ich Dich, nicht nur alte Postings und Artikel von aths wieder aufzuwärmen, sondern eventuell auch mal neuere Posting von ihm anzusehen. Dann wirst Du vielleicht festellen, dass sich die Schreibe von aths deutlich entschäft hat und sie auf gewisse Art "relativer" geworden ist.

Im Übrigen finde ich es herzerfrischend überflüssig, wie hier durch anscheinende Starsinnigkeit und Nachtreten ein Thread geprengt zu werden droht. Jeder, der sich für die Materie interessiert, sollte wissen, dass viele Features (herstellerunabhängig) in der ersten Generation oft nur als Checklistenfeatures realisiert werden. Auch wenn diese nicht sehr potent laufen, laufen sie wenigstens überhaupt. Das war beispielsweise mit EMBM bei Matrox, dem AA bei der Kyro oder dem "anisotropen" Filter bei der R200 nicht anders, wie beim T&L der ersten Geforce.

BTW: Ich nutze HDR in Oblivion mit einer 6800nU und ich freue mich, dass ich es kann, weil ich es in bestimmten Situationen als große Bereicherung der Ambient-Beleuchtung ansehe (z.B. bei "weichem" Spätnachmittagslicht, was ohne HDR nicht so gut rüberkommt).

Gast
2006-12-20, 15:56:21
Ein bilinearer Filter ist auch besser als gar keiner.Richtig.Komisches Argument was ihr da bringt.Was ist daran komisch? Hätte man deiner Meinung nach früher auf den bilinearen Filter verzichten sollen, weil man noch kein 16x AF bieten konnte?

tokugawa
2006-12-22, 19:47:51
Zu dynamic branching muß ich sagen dass Entwickler lieber "früher dafür langsam" hatten als "später dafür schnell".

Dem Spieler ist das natürlich egal, aber wie immer wäre - hätte NVIDIA irgendwie darauf verzichtet und dafür erst später und schnell rausgebracht wie ATI - dafür die Gesamtentwicklung verzögert worden.


Es ist schon gut wenn Features früh gebracht werden (auch wenn noch nicht allzu performant). Dadurch können die Entwickler schon damit was machen, und sobald es erste Grafikkarten mit Feature X-"aber schnell" gibt, gibt's auch schon Software dafür - die ursprünglich auf der Hardware mit Feature X-"aber langsam" entwickelt wurde.

Henne-Ei-Problem. Die Spieler wollen alle Eier, aber denken nie an die Hennen.



Spasstiger hat natürlich recht:
NVIDIA brachte fast immer früher Features, die aber oft nicht performant waren, ATI ist vorsichtiger (konservativer?) und bringt Features oft erst dann wenn es Software dafür gibt (Ausnahmen gibt's, wie damals Shader Model 2.0).

Wenn man aber die Scheuklappen des gemeinen Gamers ablegt, muß man dafür NVIDIA eher loben, weil ATI sahnt in diesem Fall quasi die Lorbeeren ab, die NVIDIA mitgeholfen hat, dass sie überhaupt entstehen (Software muß eben auf Hardware entwickelt werden, die es unterstützt).

Ob ATIs Unternehmensstrategie "klüger" ist in Bezug darauf, das Unternehmensrisiko zu minimieren, wage ich nicht zu beurteilen. Sicher, diese konservative Strategie bringt ATI sicher weniger in Probleme wie NVIDIA mit der GeForce FX damals; aber vom Fortschrittsaspekt, der mir zumindest sehr wichtig ist, ist ATI dafür eher ein Bremser.

Odal
2006-12-23, 00:02:13
Zu dynamic branching muß ich sagen dass Entwickler lieber "früher dafür langsam" hatten als "später dafür schnell".

Dem Spieler ist das natürlich egal, aber wie immer wäre - hätte NVIDIA irgendwie darauf verzichtet und dafür erst später und schnell rausgebracht wie ATI - dafür die Gesamtentwicklung verzögert worden.


Es ist schon gut wenn Features früh gebracht werden (auch wenn noch nicht allzu performant). Dadurch können die Entwickler schon damit was machen, und sobald es erste Grafikkarten mit Feature X-"aber schnell" gibt, gibt's auch schon Software dafür - die ursprünglich auf der Hardware mit Feature X-"aber langsam" entwickelt wurde.

Henne-Ei-Problem. Die Spieler wollen alle Eier, aber denken nie an die Hennen.



Spasstiger hat natürlich recht:
NVIDIA brachte fast immer früher Features, die aber oft nicht performant waren, ATI ist vorsichtiger (konservativer?) und bringt Features oft erst dann wenn es Software dafür gibt (Ausnahmen gibt's, wie damals Shader Model 2.0).

Wenn man aber die Scheuklappen des gemeinen Gamers ablegt, muß man dafür NVIDIA eher loben, weil ATI sahnt in diesem Fall quasi die Lorbeeren ab, die NVIDIA mitgeholfen hat, dass sie überhaupt entstehen (Software muß eben auf Hardware entwickelt werden, die es unterstützt).

Ob ATIs Unternehmensstrategie "klüger" ist in Bezug darauf, das Unternehmensrisiko zu minimieren, wage ich nicht zu beurteilen. Sicher, diese konservative Strategie bringt ATI sicher weniger in Probleme wie NVIDIA mit der GeForce FX damals; aber vom Fortschrittsaspekt, der mir zumindest sehr wichtig ist, ist ATI dafür eher ein Bremser.

ich glaube auch nicht das das jemand bzw. tigerchen bestreitet.....features müssen in hardware da sein damit jemand dafür software entwickeln kann

aber wir haben hier halt die 2 Fronten Entwickler und Anwender....

nur das die Anwender mit abstand der grösste teil aller grafikkarten besitzten menschen darstellt...

nun natürlich profitieren anwender davon indirekt das entwickler mit featurereicher hardware (welche in speziellen fällen auch langsam sein mag) ausgestattet ist nur deswegen müssen sie die gleiche hardware nicht zwangsweise selbst besitzen...bzw. ähnlich featurebehaftete hardware erst deutlich zeitversetzt....

im prinzip wäre die sache so aufzuklären das sich entwickler halt die hardware mit den meisten features ordern (am besten aber die beider ihvs) und anwender einfach die schnellste für zum kaufzeitpunkt verfügbare software...

meistens sollten anwender dann was anderes kaufen wie entwickler...
wie es sich beim G80/R600 verhällt muss man dann im vergleich sehen welcher besser für entwickler oder besser für anwender oder mal besser für beide ist ;)

letzteres wäre zumindest ein anlass das sich in ein paar monaten hier in einem ähnlichen thread alle lieb haben können ;)

tokugawa
2006-12-29, 00:37:32
Es redet sowieso niemand davon, den Anwendern die Hardware aufzuschwatzen nur aufgrund von Features, die eher für Entwickler (und somit nur indirekt für Anwender) relevant sind.

Aber so Aussagen wie "Karte X ist ja total unnütz, weil sie Feature Y hat" kommen immer wieder vor, und gegen diese sollte man halt vehement vorgehen.

LovesuckZ
2006-12-29, 01:50:32
meistens sollten anwender dann was anderes kaufen wie entwickler...


Diese Logik kurbelt wenigsten den Hardwaremarkt an.
Nagut, die r4xx User wissen ja, was es bedeutet, auf Bildqualität oder gar ganze Spiele verzichten zu müssen, weil ihre Hardware schnell aber nicht aktuell war.

Tigerchen
2006-12-29, 14:15:05
Es redet sowieso niemand davon, den Anwendern die Hardware aufzuschwatzen nur aufgrund von Features, die eher für Entwickler (und somit nur indirekt für Anwender) relevant sind.
.

Doch genau das wird getan und das ist mein Kritikpunkt. Es wird getan als ob man jetzt ganz schnell die neueste Grafikchip-Generation bräuchte weil schon morgen die ganzen neuen Spiele mit den neuen spektakulären Effekten kommen. Tja und wenn dann die HDR-Spiele (was mir immer noch nicht gefällt) kommen wird ganz schnell klar daß die 6600 Karte die mal genau für sowas gekauft wurde doch nicht reicht. Also neu kaufen. Am besten ne D3D10 Karte. Wegen der Zukunftssicherheit und damit die Entwickler sich freuen. Und 2 Jahre später.....D3D10 Spiele da und die Karte ist wieder total veraltet. So treibt der dumme Anwender den technischen Fortschritt voran und zahlt sich dumm und dusselig. Für Nerds kein Problem. Für viele andere aber schon. Ich zahl jedenfalls keine 600,-€ oder 1200,-€ für SLI-Grafik der neuesten Generation.

Tigerchen
2006-12-29, 14:16:35
Diese Logik kurbelt wenigsten den Hardwaremarkt an.
Nagut, die r4xx User wissen ja, was es bedeutet, auf Bildqualität oder gar ganze Spiele verzichten zu müssen, weil ihre Hardware schnell aber nicht aktuell war.

Und die FX5200 User erstmal weil deren Hardware aktuell aber nicht schnell genug war und ist.

LovesuckZ
2006-12-29, 14:28:12
Und die FX5200 User erstmal weil deren Hardware aktuell aber nicht schnell genug war und ist.


Die 5200 war auch keine High-End Karte und passt in den Vergleich nicht rein.
Wobei, Spiele, die eine Karte benötigen, welche mindesten SM2.0 untersützt, sie starten lässt.

Tigerchen
2006-12-29, 17:06:40
Die 5200 war auch keine High-End Karte und passt in den Vergleich nicht rein.
Wobei, Spiele, die eine Karte benötigen, welche mindesten SM2.0 untersützt, sie starten lässt.

Passt sehr gut rein weil die Werbung auch von Leuten wie dir einen Vorteil für den Anwender suggerierte. Immerhin habt ihr ja den Featureset über die Praxistauglichkeit gestellt.

Coda
2006-12-29, 17:30:26
Mal ein Gegenbeispiel: Die Radeon 9700 Pro war auch die erste D3D9-Karte und war trotzdem sehr lange brauchbar (und auch alles davon).

Was redest du? Wer sagt dass es bei G80 und R600 nicht auch so ist?

AnarchX
2006-12-29, 17:34:57
Mal ein Gegenbeispiel: Die Radeon 9700 Pro war auch die erste D3D9-Karte und war trotzdem sehr lange brauchbar (und auch alles davon).

Lag das nicht eher daran, dass man wegen der GeForceFX-Serie etwas Rücksicht nehmen musste?

Coda
2006-12-29, 17:48:09
Meiner Ansicht nach nicht - das Ding hat einfach eine solide Pixelpipeline ohne komische Eigenarten bei dem was sie kann (Im Gegensatz zu NV3x und NV4x). In Spielen wie HL² wurde auf die FX nur insofern Rücksicht genommen dass sie DX8 zu fressen bekam.

Selbst Oblivion ist ja auf R300 noch halbwegs spielbar wenn man kompromisbereit ist.

Bisher hab ich bei G80 noch keinen "Feature-Showstopper" gefunden wie dyn. branching/TMU-Stalls bei NV4x/G7x oder PS2.x allg. auf NV3x.

Tigerchen geht davon aus das jegliche neuen Feature per-se erstmal unbrauchbar sind für die Generation in der sie eingeführt wurden - was einfach nicht stimmt (mal abgesehen von Low-End, was selbst beim Release schon zu lahm ist).

Gast
2006-12-29, 17:59:23
Bisher hab ich bei G80 noch keinen "Feature-Showstopper" gefunden wie dyn. branching/TMU-Stalls bei NV4x/G7x oder PS2.x allg. auf NV3x. Vielleicht wirkt G8x auch einfach nur so fantastisch, weil ATI damit beschäftigt ist, auf die Ziele von AMD umzustellen, statt mit nV (mindestens) gleich zu ziehen. Wenn man mit einer Next-Gen Radeon Microbenchmarks gegen G80 machen könnte würden vielleicht Schwächen der Direct3D10-Implementierung nach Bauart "nVidia, Version 1.0" viel eher sichtbar werden. Ich erinnere nur mal an http://www.3dcenter.org/artikel/cinefx/index5.php <- So etwas ist ja mangels G80-Konkurrenz derzeit gar nicht möglich.

tokugawa
2006-12-29, 18:16:53
Doch genau das wird getan und das ist mein Kritikpunkt. Es wird getan als ob man jetzt ganz schnell die neueste Grafikchip-Generation bräuchte weil schon morgen die ganzen neuen Spiele mit den neuen spektakulären Effekten kommen. Tja und wenn dann die HDR-Spiele (was mir immer noch nicht gefällt) kommen wird ganz schnell klar daß die 6600 Karte die mal genau für sowas gekauft wurde doch nicht reicht. Also neu kaufen. Am besten ne D3D10 Karte. Wegen der Zukunftssicherheit und damit die Entwickler sich freuen. Und 2 Jahre später.....D3D10 Spiele da und die Karte ist wieder total veraltet. So treibt der dumme Anwender den technischen Fortschritt voran und zahlt sich dumm und dusselig. Für Nerds kein Problem. Für viele andere aber schon. Ich zahl jedenfalls keine 600,-€ oder 1200,-€ für SLI-Grafik der neuesten Generation.



Dann zahl's halt nicht, zwingt dich keiner dazu.

Von meiner Seite kam nie eine Empfehlung an gewöhnliche Anwender, eine Karte nur aufgrund von neuen Features (die nicht sofort nutzbar sind) zu kaufen. Das kannst du also zumindest mir nicht vorwerfen. Wirf das lieber den konkreten Leuten vor, die sowas tatsächlich behauptet haben.

Ich wehre mich halt nur dagegen, wenn Leute einen Chip als unnütz bezeichnen aufgrund der vorhandenen Features, bloß weil die nicht performant nutzbar sind.

Der indirekte Vorteil für Anwender über die Entwickler besteht trotzdem; nur ist das keine Kaufempfehlung für Anwender, sondern bloß ein Appell daran, ein wenig die Scheuklappen aufzumachen.


Und die FX5200 User erstmal weil deren Hardware aktuell aber nicht schnell genug war und ist.



Passt sehr gut rein weil die Werbung auch von Leuten wie dir einen Vorteil für den Anwender suggerierte. Immerhin habt ihr ja den Featureset über die Praxistauglichkeit gestellt.


Die FX5200 hat niemand jemals mit gutem Gewissen empfohlen, nicht mal wegen der Features.

Wie du sicher weißt, fehlt der ja einige Teile der NV3x Pipeline in Bezug auf Floating-Point-Unterstützung. Ähnliches gilt übrigens für die 6200 und 7300GS. Somit sind diese Karten leider auch für Entwickler nicht besonders spannend (oder zumindest weniger spannend als die jeweils nächsthöheren Angebote; nicht jeder Entwickler tüftelt mit Floating-Point-Rendering rum). Hätten sie tatsächlich die komplette Pipeline der großen Brüder, wär sie zumindest als "billige Testkarte" für Entwickler interessant.

Obwohl diese Low-End-Karten als untere Grenze für Spiele-Entwickler durchaus Beachtung findet, speziell für Spielgenres wo's eben nicht so auf Grafiktechnik ankommt (Adventures oder Low-Budget etwa). Nicht jedes Spiel ist so wie Crysis :)

Somit hat es durchaus auch eine Relevanz für den Casual Gamer und den Entwickler von Casual Games; schon allein aufgrund der Marktdurchdringung.

Jeder der wirklich mehr mit Grafik macht (sei es als Konsument oder als Entwickler), weiß ja zumindest genug, um zu wissen was diese Low-End-Karten können, bzw. nicht können.



Jedenfalls sehe ich jetzt nicht den großen Skandal à la "Oh ihr habt mir damals eine FX5200 empfohlen und ich war so dumm sie tatsächlich zu kaufen!!!".

Tigerchen
2006-12-29, 18:17:04
Meiner Ansicht nach nicht - das Ding hat einfach eine solide Pixelpipeline ohne komische Eigenarten bei dem was sie kann (Im Gegensatz zu NV3x und NV4x). In Spielen wie HL² wurde auf die FX nur insofern Rücksicht genommen dass sie DX8 zu fressen bekam.

Selbst Oblivion ist ja auf R300 noch halbwegs spielbar wenn man kompromisbereit ist.

Bisher hab ich bei G80 noch keinen "Feature-Showstopper" gefunden wie dyn. branching/TMU-Stalls bei NV4x/G7x oder PS2.x allg. auf NV3x.

Tigerchen geht davon aus das jegliche neuen Feature per-se erstmal unbrauchbar sind für die Generation in der sie eingeführt wurden - was einfach nicht stimmt (mal abgesehen von Low-End, was selbst beim Release schon zu lahm ist).

Bei der R9700 wurde ja vorgeführt wie man neue Features und Praxistauglichkeit unter einen Hut kriegt. So stell ich mir das eben vor.

Coda
2006-12-29, 18:41:22
Und was lästerst du dann jetzt schon gegen G80, wo das noch gar nicht ersichtlich ist?

So etwas ist ja mangels G80-Konkurrenz derzeit gar nicht möglich.

Man kann sehr wohl auch ohne Konkurenz Leistungsmessungen durchführen. Und G8x hat bisher keine Schwachpunkte bei bestimmten Ops oder andere Merkwürdigkeiten.

tokugawa
2006-12-29, 19:43:45
Bei der R9700 wurde ja vorgeführt wie man neue Features und Praxistauglichkeit unter einen Hut kriegt. So stell ich mir das eben vor.


Aber wenn du ehrlich bist, kann man auch beim R300 in Form der 9700 Pro einiges bemängeln (winkelabhängiges AF etwa; oder Absolutes-Minimum-Spec SM2.0, wobei das erst zu Zeiten der 9800 Pro allmählich ein Problem wurde, zumindest für mich, aber da besaß ich noch eine 9500 Pro und ärgerte mich über die SM2.0-Beschränktheit). Es ist also komisch wieso du das nur beim G80 tust; und beim G80 noch dazu ohne konkrete Dinge anzukreiden.

Gast
2006-12-29, 23:26:46
Passt sehr gut rein weil die Werbung auch von Leuten wie dir einen Vorteil für den Anwender suggerierte. Immerhin habt ihr ja den Featureset über die Praxistauglichkeit gestellt.


Battlefield 2 benötigt mindesten PS1.4, um zu starten. Dank er Abwärstkompartibilität vom DX Modell, untersützt die 5200 PS1.4.
GF3 und GF4 (ausgenommen GF4MX) User mussten dagegen in die Röhre schauen, trotz der stärkeren Karte.
Abgesehen davon war das Konkurrenzprodukt, die 9200, nicht gerade überzeugend und wertete die 5200 sogar noch auf.

Tigerchen
2006-12-30, 06:46:00
Battlefield 2 benötigt mindesten PS1.4, um zu starten. Dank er Abwärstkompartibilität vom DX Modell, untersützt die 5200 PS1.4.
GF3 und GF4 (ausgenommen GF4MX) User mussten dagegen in die Röhre schauen, trotz der stärkeren Karte.
Abgesehen davon war das Konkurrenzprodukt, die 9200, nicht gerade überzeugend und wertete die 5200 sogar noch auf.

BF2 ist bestimmt ein Heidenspaß auf der 5200. ATI`s Grafikkarten unterhalb der 9500 waren für mich schon immer indiskutabel. Bilineares AF mit der 8500? Unterirdisch. Da war nV um Welten besser.

Gast
2006-12-30, 11:07:48
Und die FX5200 User erstmal weil deren Hardware aktuell aber nicht schnell genug war und ist.


und X300-user weil die hardware nicht schnell genug war und nicht aktuell war.

Gast
2006-12-30, 11:13:43
Bei der R9700 wurde ja vorgeführt wie man neue Features und Praxistauglichkeit unter einen Hut kriegt. So stell ich mir das eben vor.


ja, wenn man sehr wenige features hinzufügt funktioniert das natürlich wunderbar, wobei man ATI imo nicht vorwerfen kann bei der 9700 zu wenig features eingeführt zu haben, sondern viel mehr viel zu lange auf diesem techlevel geblieben zu sein

haifisch1896
2006-12-31, 13:50:16
Man kann ATI auch nicht vorwerfen, nur die Mindestvorgaben für DX9 erfüllt zu haben. Schließlich war es ATIs erste DX9-Reihe, die sie rausbrachten.

Und letztendlich zählt meiner Meinung nach sowieso nur die Performance. Denn was will ich zum Zeitpunkt einer neuen Technik mit Features, die noch gar nicht genutzt werden. Wie lange dauerte es denn, bis DX9 in Spielen wirklich Standart wurde? Lang genug, dass der Refresh schon draußen war und selbst heute ist der Wechsel noch nicht bei allen Games/Genres vollzogen und D3D10 ist da.

tokugawa
2006-12-31, 17:21:05
Man kann ATI auch nicht vorwerfen, nur die Mindestvorgaben für DX9 erfüllt zu haben. Schließlich war es ATIs erste DX9-Reihe, die sie rausbrachten.

Und letztendlich zählt meiner Meinung nach sowieso nur die Performance. Denn was will ich zum Zeitpunkt einer neuen Technik mit Features, die noch gar nicht genutzt werden. Wie lange dauerte es denn, bis DX9 in Spielen wirklich Standart wurde? Lang genug, dass der Refresh schon draußen war und selbst heute ist der Wechsel noch nicht bei allen Games/Genres vollzogen und D3D10 ist da.

Nein, es zählt eben nicht nur die Performance.

Wie ich schon in einem früheren Posting hier ausgeführt habe, ist es wichtig, dass Features früh eingeführt werden, selbst mit mittelmäßiger Performance. Denn das ist die Vorraussetzung, dass diese Features dann überhaupt ihren Weg in die Software finden.

Ohne Hardware keine Software, ohne Software keine Hardware, mit der Philosophie "nur Performance zählt" hätten wir heute wohl noch Voodoo1/2-Featureset mit heutiger Performance.

Natürlich heißt das nicht, dass Features für die Endanwender direkt etwas bringen, aber dafür indirekt, und das sollten die Endanwender auch im Hinterkopf behalten. Ich finde es außerordentlich kurzsichtig zu denken "ach, die Features bringen mir ja direkt nichts, deswegen sind diese generell unwichtig". Das stimmt nicht! Sie bringen dem Endanwender vielleicht direkt nichts, aber das nimmt nichts von der Wichtigkeit der Features!

Letztendlich warten die Endanwender ja auch auf die Software, die die Features ausnutzt, sind also von den Entwicklern abhängig. Da kann man nicht gleichzeitig sagen dass die Features unnötig sind, denn worauf sollten die Entwickler dann die Software entwickeln?

aths
2006-12-31, 19:07:51
Ich finde es eigentlich sehr gut, wenn eine neue Generation in allen Segmenten angeboten wird. Dann kann man als Spieler über die Performance skalieren. Interessanterweise machen die zusätzlichen Features die Einsteiger-Grafikkarte als Gesamtprodukt nur unwesentlich teurer.

Was die 5200 angeht finde ich nach wie vor, dass das für eine große Zielgruppe ein sehr gutes Produkt war. Die DX9-Fähigkeit ist nur ein Pluspunkt unter vielen. Der MPC erlaubt zum Beispiel Shader zur Video-Nachbearbeitung zu nutzen, für sowas ist die DX9-Leistung der FX 5200 auch ausreichend. Die 5200 hat zudem Nview, vielfältige 2D-Optionen, kann passiv gekühlt werden, zieht relativ wenig Strom und war ihrerzeit für den Gelegenheitsspieler der nicht die neuesten Actionkracher spielt auch ausreichend. Was ich nicht gut finde ist, dass die 64-Bit-Version auch 5200 genannt wurde. Die hätte 5100 oder 5000 genannt werden sollen, damit man dem Gelegenheitsspieler einfach sagen könnte: "Wenn Nvidia, dann 5200 oder höher." So muss man umständlich von Speicherinterfacebreite sprechen. Und der PC-Händler dreht dem unbedarften Kunden lieber die 10 € billigere, aber 40% langsamere 64-Bit-Gurke an.

Tigerchen
2007-01-01, 07:59:34
Ich finde es eigentlich sehr gut, wenn eine neue Generation in allen Segmenten angeboten wird. Dann kann man als Spieler über die Performance skalieren. Interessanterweise machen die zusätzlichen Features die Einsteiger-Grafikkarte als Gesamtprodukt nur unwesentlich teurer.

Was die 5200 angeht finde ich nach wie vor, dass das für eine große Zielgruppe ein sehr gutes Produkt war. Die DX9-Fähigkeit ist nur ein Pluspunkt unter vielen. Der MPC erlaubt zum Beispiel Shader zur Video-Nachbearbeitung zu nutzen, für sowas ist die DX9-Leistung der FX 5200 auch ausreichend. Die 5200 hat zudem Nview, vielfältige 2D-Optionen, kann passiv gekühlt werden, zieht relativ wenig Strom und war ihrerzeit für den Gelegenheitsspieler der nicht die neuesten Actionkracher spielt auch ausreichend. Was ich nicht gut finde ist, dass die 64-Bit-Version auch 5200 genannt wurde. Die hätte 5100 oder 5000 genannt werden sollen, damit man dem Gelegenheitsspieler einfach sagen könnte: "Wenn Nvidia, dann 5200 oder höher." So muss man umständlich von Speicherinterfacebreite sprechen. Und der PC-Händler dreht dem unbedarften Kunden lieber die 10 € billigere, aber 40% langsamere 64-Bit-Gurke an.

The GeForce™ FX 5200 and GeForce PCX 5300 GPUs deliver best-in class performance and features at a great price. With a GeForce FX or PCX mainstream GPU inside your PC, you can experience cinematic-quality effects, studio-quality color, and the industry-leading performance and rock-solid driver stability you expect from NVIDIA. The only DirectX 9 compatible GPUs in their class, the GeForce FX 5200 and GeForce PCX 5300 models are engineered for compatibility with the latest gaming and multimedia software.
http://www.sparkle.com.tw/product.asp?id=12

Geworben wurde aber mit solchen Schlagworten. Kein Wort davon daß bei DX9 Spielen automatisch der DX8 Renderpfad gewählt wurde. Ist es so undenkbar für dich das da ganz andere Erwartungen beim normalen Konsumenten geweckt wurden?
Besonders irre finde ich ja daß ihr immer auf die Entwickler verweist die ja angeblich erst auf Grund der enormen Verbreitung der FX5200 begannen DX9 Titel zu produzieren. Und genau diese Entwickler haben darauf geachtet daß bloß kein Titel im DX9 Modus läuft. Total normal oder?

Gast
2007-01-01, 11:30:04
Geworben wurde aber mit solchen Schlagworten.Dass die Werbetexte der Hersteller sowohl bei Low-End-FX5200 als auch bei der High-End-8800GTX praktisch immer die gleichen sind, ist doch nun wirklich nichts neues. Das praktiziert auch nicht nur Nvidia so. Guck dir mal den Karton einer X300SE an, da wird auch mit High-Definition-Gaming und ähnlichen Schlagwörtern um sich geworfen.

Tigerchen
2007-01-01, 15:02:36
Dass die Werbetexte der Hersteller sowohl bei Low-End-FX5200 als auch bei der High-End-8800GTX praktisch immer die gleichen sind, ist doch nun wirklich nichts neues. Das praktiziert auch nicht nur Nvidia so. Guck dir mal den Karton einer X300SE an, da wird auch mit High-Definition-Gaming und ähnlichen Schlagwörtern um sich geworfen.

Stimmt. Würde sowas auch nicht mit der Kneifzange anfassen.

tokugawa
2007-01-01, 17:19:37
The GeForce™ FX 5200 and GeForce PCX 5300 GPUs deliver best-in class performance and features at a great price. With a GeForce FX or PCX mainstream GPU inside your PC, you can experience cinematic-quality effects, studio-quality color, and the industry-leading performance and rock-solid driver stability you expect from NVIDIA. The only DirectX 9 compatible GPUs in their class, the GeForce FX 5200 and GeForce PCX 5300 models are engineered for compatibility with the latest gaming and multimedia software.
http://www.sparkle.com.tw/product.asp?id=12

Geworben wurde aber mit solchen Schlagworten. Kein Wort davon daß bei DX9 Spielen automatisch der DX8 Renderpfad gewählt wurde. Ist es so undenkbar für dich das da ganz andere Erwartungen beim normalen Konsumenten geweckt wurden?
Besonders irre finde ich ja daß ihr immer auf die Entwickler verweist die ja angeblich erst auf Grund der enormen Verbreitung der FX5200 begannen DX9 Titel zu produzieren. Und genau diese Entwickler haben darauf geachtet daß bloß kein Titel im DX9 Modus läuft. Total normal oder?


Das lässt sich natürlich nicht verallgemeinern. Es gab eine kleine Handvoll Triple-A-Titel die das so handhabten, und die FX5200 "speziell" behandelten.

Das Gros der Spiele hatte aber keine Spezialbehandlung der FX5200 implementiert.

Außerdem entstand der Werbetext ja noch bevor sich herauskristallisierte dass einige Entwickler für die FX5200 oder die FX generell den "DX8-Pfad" forcierten. Prinzipiell ist der Werbetext ja nicht falsch, man kann deutlich herauslesen dass sie mit "best in class" durchaus versuchen deutlich zu machen dass es kein absoluter Knüller ist, sondern nur innerhalb des Segments der FX5200.

LovesuckZ
2007-01-01, 18:06:19
Besonders irre finde ich ja daß ihr immer auf die Entwickler verweist die ja angeblich erst auf Grund der enormen Verbreitung der FX5200 begannen DX9 Titel zu produzieren. Und genau diese Entwickler haben darauf geachtet daß bloß kein Titel im DX9 Modus läuft. Total normal oder?


Welche Titel?
Bis auf (alle) Spiele mit der von ATi gekauften HL2 Engine, kenne ich keine, die die 5200 auf den DX8 Pfad beschränken.

tokugawa
2007-01-01, 18:13:07
Außerdem gibt's hier genug Entwickler die genau das bestätigen können: dass die Marktpenetration der Low-End-DX9-Lösungen schon beigetragen hat dazu dass man DX9 überhaupt entwickelt hat.

Selbst jene wenige Entwickler die dann etwa die FX5200 auf DX8 beschränkten, taten dies erst am Ende der Entwicklungszeit (macht vorher entwicklungstechnisch keinen Sinn). Und da stand die ganze DX9-Engine schon.

Außerdem: welche Entwickler außer einige wenige konnten sich überhaupt leisten wirklich "DX8"-Pfade einzubauen? War doch vielmehr einfach DX9 mit Shader Model 1.x Shadern (was nicht äquivalent ist zu "DX8").

haifisch1896
2007-01-01, 23:08:03
Selbst wenn es so ist, wo ist dabei die Problematik?
Lieber flüssiges Spielen mit nicht so schmucker Optik/unspektakuläreren Effekten als eine richtig hübsche Diashow.
Die 5200 musste nunmal mit wenig Power auskommen, aber für die Leute, die diese Karte bewusst(!) gekauft haben, bot sie das, was gebraucht wurde.

Natürlich gibts auch Leute wie meinen Ex-Chef, der für 90!!!€ im September 2005 eine 9200SE zum Spielen gekauft haben, aber das steht auf nem anderen Blatt. Musste einfach mal lästern.

tokugawa
2007-01-01, 23:22:33
Was war denn überhaupt die Konkurrenz der FX 5200 damals?

Ist ja nicht gesagt dass sie schneller wäre wenn sie weniger Features hätte (wie bei der GeForce 4 MX - wo's ja eigentlich dann genau dafür Kritik hagelte dass sie eben nicht so viel konnte).

Und wenn ich die Wahl hab zwischen einer FX5200 die kein DX9 kann und trotzdem nicht schneller ist, und einer FX5200 die DX9 kann, dann nehm ich doch die DX9-Features "for free" dazu, egal ob die konkret was bringen oder nicht, oder?

Insofern...

Coda
2007-01-01, 23:34:28
Welche Titel?
Bis auf (alle) Spiele mit der von ATi gekauften HL2 Engine, kenne ich keine, die die 5200 auf den DX8 Pfad beschränken.

Das tut echt weh...

aths
2007-01-02, 00:42:52
Was war denn überhaupt die Konkurrenz der FX 5200 damals?

Ist ja nicht gesagt dass sie schneller wäre wenn sie weniger Features hätte (wie bei der GeForce 4 MX - wo's ja eigentlich dann genau dafür Kritik hagelte dass sie eben nicht so viel konnte).

Und wenn ich die Wahl hab zwischen einer FX5200 die kein DX9 kann und trotzdem nicht schneller ist, und einer FX5200 die DX9 kann, dann nehm ich doch die DX9-Features "for free" dazu, egal ob die konkret was bringen oder nicht, oder?

Insofern...Früher argumentierte ich auch z. B., dass man T&L nicht bräuchte. (Implikation: Deshalb würde die GeForce Quatsch sein.) Doch das macht natürlich Grakas mit T&L nicht schlechter, zumal T&L genutzt werden kann – aber nicht muss. (Dass ich FSAA à la VSA-100 viel sinnvoller finde als T&L ist eine andere Frage. Jedenfalls ist bei zwei gleichen Grafikkarten, die sich nur darin unterscheiden dass die eine T&L hat, die mit T&L natürlich vorzuziehen.)

Dass die GF2 MX so lange erfolgreich blieb fand ich nicht so toll ('weil sie die Einführung von DX8-Spiele aufhält'), und dass das Leben der Architektur mit der GF"4" MX noch verlängert wurde, fand ich noch weniger toll. (Dreiste Namensgebung, und zu spätes Release. Höchstens noch als Office-Grafik zu gebrauchen obwohl die DX7-Performance nicht schlecht ist. Ich wollte endlich "geshaderte" Oberflächen sehen.) Dann kam mit der FX 5200 endlich eine Art "GF2 MX mit allen Features", also Multisampling-AA, 8x AF und sogar Shader Model 2. Die Frage, wie viele 5200-Besitzer DX9-Shader wirklich brauchen ist zwar berechtigt, aber man ist in jedem Falle flexibler wenn man die Features hat (man muss sie ja nicht anwenden) als wenn man sie nicht hat.

Zumal es mehr Anwendungsmöglichkeiten für DX9-Shader gibt als nur Spiele. Ich sehe nicht ein, dass immer das Argument der "Spieletauglichkeit" herangezogen wird – für damalige Highendspiele war die FX 5200 natürlich nicht zu gebrauchen aber dafür war sie auch nicht gedacht und sie kostete auch nicht so viel wie eine passable Gamer-Karte. Wer macht einem Opel Kadett den Vorwurf, dass er nicht mit einem Audi Quattro mithalten kann?

Bis dato war zwar jede DX9-Karte (von ATI) grundsätzlich auch gut für Spiele aller Art geeignet. Doch die FX-Serie war für DX9-Spiele insgesamt nicht besonders sinnvoll, während Nvidia groß von Cinematic Computing u. ä. fantasierte – die Echtzeitkomponente wurde erst mit der NV4x-Serie nachgeliefert. Jedenfalls kann man nicht aus der Tatsache, dass alle DX9-GPUs von ATI für Spiele ok waren ableiten, dass auch Nvidia in jede DX9-GPU volle (DX9-) Spieltauglichkeit einbauen müsse. Man kann Nvidia nur vorhalten, dass sie bei der Implementierung der vielen sinnvollen Feautures, die über SM 2.0 hinausgehen, eine im Vergleich zu ATI ziemlich maue PS2-Grundperformance lieferten. Wenn ich mich recht entsinne, war die Radeon 9700 bei DX9-Pixelshadern 4-6x so schnell wie die ach so tolle FX5800 ("Engineered with a passion for perfection." "Powered by pure adrenaline". Richtiger wäre "Engineered with a passion for delays.", "Powered by pure noise".)

"In its class" war die 5200 natürlich unübertroffen – Kunststück, da es die einzige Karte ihrer Klasse war. Schade finde ich nur, dass der NV34 keine Z-Compression unterstützte. Nvidia hat aber auch als direkte Gamingkarte erst die 5600 vermarktet.

Wenn ich mich recht entsinne hatte Demirug mal ausgemessen, dass selbst die 64-Bit-5200 ca. 100x so schnell ist wie der Refrast (auf damaligen CPUs.) Dank CineFX konnten auch lange Shader mit FP32-Genauigkeit und unbegrenzt vielen Dependent-Read-Ebenen ausgeführt werden, für den einen oder anderen sicherlich interessant. Es ergibt aber keinen Sinn, für jeden einzelnen Zweck einen einzelnen Grafikchip zu designen. Die "FX 5200 ohne Shader" gabs von Nvidia in Form des NV17, die mit Shader wurde nicht speziell als Gamerkarte vermarktet. Insofern kann man NV da keinen Vorwurf draus basteln. Auch bei ATI tragen die mit den Werbesprüchen ordentlich dick auf.

Lange Rede, kurzer Sinn, ich finde es sehr gut wenn innerhalb einer Modellpalette über die Performance skaliert wird, aber die Features der Großen auch von den Kleinen geboten werden. Nvidia hat dies ja zum Beispiel bei der GF6 nicht komplett durchgehalten (der 6200 fehlt einiges.)

robbitop@work
2007-01-02, 09:25:38
Das tut echt weh...
Ein bisschen überspitzt ausgedrückt vieleicht, aber sonst ist es doch recht nah an der Wahrheit.

StefanV
2007-01-02, 10:39:34
Ein bisschen überspitzt ausgedrückt vieleicht, aber sonst ist es doch recht nah an der Wahrheit.Absolutely not!

Dieser Kommentar von LS ist ziemlich arg daneben, glaubst wirklich, das Valve auf ATi optimiert hat und nicht nur das Geld genommen hat, damit ATi damit etwas werben kann?!

Wer sowas unterstellt, dem unterstelle ich mal unwissenheit oder das böse Wort mit F, das hier nicht geduldet ist...

Gast
2007-01-02, 11:30:22
Absolutely not!

Dieser Kommentar von LS ist ziemlich arg daneben, glaubst wirklich, das Valve auf ATi optimiert hat und nicht nur das Geld genommen hat, damit ATi damit etwas werben kann?!

Wer sowas unterstellt, dem unterstelle ich mal unwissenheit oder das böse Wort mit F, das hier nicht geduldet ist...


Absolutely not!!

ATI hat Geld bezahlt, damit der schon existierende mixed mode (SM1.x & 2.x)Pfad aus dem endgültigen Spiel gestrichen wurde, denn der mm Pfad hätte gezeigt, dass Nvidias GFFX dem R300 von ATI bei gleicher Bildqualität leistungsmässig absolut ebenbürtig sind.

reunion
2007-01-02, 12:25:27
Der Nachteil in Oblivion liegt vermutlich daran, dass es AFAIK rein auf ATI Karten entwickelt wurde. Das war bei HL2/D3 ebenfalls so.


Der Nachteil ist wohl eher die verhältnismäßig niedrige Shaderpower der G7x-Generation. Denn ein G80 zieht jeden R580 in Oblivion um den Faktor zwei davon, einzig die G7x-Gen schwächelt, wie übrigend auch in NFS:C, Anno1701, Gothic III, Battlefield 2142, und mach anderen Spielen, die eine hohe arithmetische Leistung verlangen.

StefanV
2007-01-02, 12:26:20
Absolutely not!!

ATI hat Geld bezahlt, damit der schon existierende mixed mode (SM1.x & 2.x)Pfad aus dem endgültigen Spiel gestrichen wurde, denn der mm Pfad hätte gezeigt, dass Nvidias GFFX dem R300 von ATI bei gleicher Bildqualität leistungsmässig absolut ebenbürtig sind.
Hast du dafür auch Belege?!

Oder wärs nicht ev. logischer, das man einfach irgendwann keinen Bock mehr hatte bzw eingesehen hat, das das auch nichts mehr bringt?!

Denn auch mit SM1.4 würd ich nicht wirklich behaupten wollen, das eine FX einer R300 ebenbürtig ist, ganz im Gegenteil!

Was du nicht vergessen solltest, ist das die FX auch nicht soo schlecht war, wenn man sie mit der Radeon 9600 PRO II vergleicht, was ja nicht unpassend ist, da ja beide nur ein Quad haben :devil:

Ok, die 9600 ist meist schneller, wenn Shader im Spiel sind...

Odal
2007-01-02, 12:58:47
Diese Logik kurbelt wenigsten den Hardwaremarkt an.
Nagut, die r4xx User wissen ja, was es bedeutet, auf Bildqualität oder gar ganze Spiele verzichten zu müssen, weil ihre Hardware schnell aber nicht aktuell war.

nun selbst bei meiner deutlich schnelleren x1950pro müsste ich ohne das hdr feature auf kaum etwas verzichten....denn derzeit ist mangels hdrr spielen kein game welches davon gebrauch macht auf meiner platte...

auf bildqualität musste ich bei meiner X800 hauptsächlich wegen des winkelabhängigen AF verzichten.

Diese Logik kurbelt schon den hardwaremarkt an da der DAU sich vom Marketing leiten lässt und nicht das kauft was er braucht. Aber in wohlinformierteren Kreisen wie Hardwareforen sollte man doch nicht gleicher DAU Art verfallen und Dinge wegen eines Checklistenfeatures propagieren welche ansonsten qualitativ minderwertiger sind was Spielbarkeit von Spielen anbelangt.

Die 5200 war auch keine High-End Karte und passt in den Vergleich nicht rein.
Wobei, Spiele, die eine Karte benötigen, welche mindesten SM2.0 untersützt, sie starten lässt.

Das stimmt so nicht. Ich weiß jetzt leider nicht mehr die konkreten Beispiele aber es gab durchaus Spiele die nicht liefen weil die zusammenarbeit mit der FX5200 verweigert wurde. Meistens war dies ein Zwang des Spiels wegen der unterirdischen Spieleleistung.

robbitop@work
2007-01-02, 13:05:50
Der Nachteil ist wohl eher die verhältnismäßig niedrige Shaderpower der G7x-Generation. Denn ein G80 zieht jeden R580 in Oblivion um den Faktor zwei davon, einzig die G7x-Gen schwächelt, wie übrigend auch in NFS:C, Anno1701, Gothic III, Battlefield 2142, und mach anderen Spielen, die eine hohe arithmetische Leistung verlangen.
In Innenszenen würde ich dir bei Oblivion ja zustimmen. Aber die Außenszenen haben relativ wenig Shaderlast. (siehe R520 vs R580)

Oblivion wie auch HL2 sind nunmal ATI optimiert. Das ist im 3dcf wie auch im B3D Forum nachzulesen. Andersherum dasselbe Spiel mit der Doom3 Engine. Das ist heutzutage völlig normal und nennt sich DevRel mit ein wenig Sponsoring. Bei Doom3 kommen allerdings wenige komplexe Shader vor, so dass es für das Catalyst Team ein Leichtes war, die Shader durch geeignetere zu ersetzen (probiert mal AI low vs AI = off in Doom 3).

Was in heutigen Spielen genau bremst weiß ich auch nicht. Es wird eine Mischung aus vielen Komponenten sein. Ein möglicherweise nicht zu unterschätzender Nachteil ist, dass die Radeon Quads als MIMD verschaltet sind, während die G7x Quads noch als SIMD arbeiten. Das könnte u.U. zu größerem Verschnitt führen. Hinzu kommt natürlich noch eine ganze Menge anderes Zeugs (Tempregister, kopplungsbedingte Stalls, in Reihe Fürung der ALUs ect).

Im Endeffekt ist R580 der schnellere und flexiblere Chip. Der Punch pro Transistor oder auch pro Watt ist allerdings relativ zum G71 relativ mies.
ATI scheint in den letzten Jahren zu viel auf High End zu setzen, während NV dort maximal konurrenzfähig ist, aber in allen anderen Märkten die bessere Lösung bietet und abkassiert.

Als Endkunde und Spieler habe ich mir natürlich (gleich nach Erscheinen) die R580 gekauft ;)

StefanV
2007-01-02, 13:17:41
Oblivion wie auch HL2 sind nunmal ATI optimiert.
DAS hier, ist ziemlicher Blödsinn!!

Denn ersteinmal hat Oblivion, wie auch Morrowind, keinerlei Software HSR (warum, siehe Tokugawa, kurz: machts Bearbeiten des Contents einfacher) zum anderen:
Hast du irgendwelche BELEGE das es so ist, wie du sagst oder schließt du das nur daraus, das es auf ATi Hardware besser läuft?!

Oder könnte es nicht auch sein, das die entsprechende Architektur den Code, den es vorgesetzt bekommt, besser verarbeitet?!

Das ist im 3dcf wie auch im B3D Forum nachzulesen.
Da ist auch nachzulesen, das den Entwicklern die Performance auf den Karten am Allerwertesten vorbei geht und sie hauptsächlich darauf achten, das ihre Vision so einigermaßen lauffähig implementiert ist!

Am Anfang steht die Idee, dann fängt man an, was dann am Schluss rauskommt, ist was anderes, wenns denn nun auf irgendwas besser läuft, dann ist das eben so.

Den Entwicklern aber absicht zu unterstellen ist schon fast dreist...


Andersherum dasselbe Spiel mit der Doom3 Engine.
Auch da nicht!

Wie einen weiter oben:
Am Anfang stand die Idee, dann schlägt man den Weg ein, was denn nun besser läuft, tja nu, hat man mal...
Zumal den ATi Karten ja auch 'irgendwas' zur Stencil Filterung fehlt, was der eigentliche Grund für die nicht so gute Performance ist.
Auch hier ist die Architektur der Grund für die Performance...

Der einzige Unterschied der hier bestehen könnte ist, das nV frühzeitig wusste, das Doom3 stark auf Stencil Schatten setzt, so dass sie ihre Hardware entsprechend entwickeln konnten...

Das ist heutzutage völlig normal und nennt sich DevRel mit ein wenig Sponsoring.

Und du glaubst das wirklich?!
Schonmal dran gedacht, das das vielleicht 'nur' eine besondere Zusammenarbeit zwischen dem Spieleprogger und dem Hardwarehersteller ist?!




Bei Doom3 kommen allerdings wenige komplexe Shader vor, so dass es für das Catalyst Team ein Leichtes war, die Shader durch geeignetere zu ersetzen (probiert mal AI low vs AI = off in Doom 3).
Bei Doom3 ist die Art und Weise wie die Schatten dargestellt werden, der Grund dafür, das die ATi Karten nicht soo gut abschneiden.
Das ist aber bei ALLEN Spielen, die diese Art von Schatten benutzen so!!

Eine besondere Optimierung seitens nV sehe ich nicht, eher umgekehrt: nV hat die Hardware eher für Stencil Schatten optimiert als JC Doom für nV Karten!


Im Endeffekt ist R580 der schnellere und flexiblere Chip.

Wenn du es selbst weißt, warum unterstellst du dann irgendwelchen Entwicklern pro irgendwas zu sein?!
Meinst nicht auch, das sie nur pro Geld sind?!
Oder einfach nur wollen, das sie ihre Ideen verwirklichen können?!

Man könnt jetzt fies sein und von austoben sprechen...


Und mal ehrlich:
Welcher Entwickler Firma hat schon die Zeit etwas _WIRKLICH_ zu optimieren?!
Kostet Zeit, Zeit kostet Geld, Geld hat man nicht also lässt mans idR.
Und wenns auf irgendwas nicht so gut läuft, pech.
Hauptsache es läuft.

Odal
2007-01-02, 13:25:31
Früher argumentierte ich auch z. B., dass man T&L nicht bräuchte. (Implikation: Deshalb würde die GeForce Quatsch sein.) Doch das macht natürlich Grakas mit T&L nicht schlechter, zumal T&L genutzt werden kann – aber nicht muss. (Dass ich FSAA à la VSA-100 viel sinnvoller finde als T&L ist eine andere Frage. Jedenfalls ist bei zwei gleichen Grafikkarten, die sich nur darin unterscheiden dass die eine T&L hat, die mit T&L natürlich vorzuziehen.)


Wir haben hier im Prinzip zwei Aussagen.

Einmal das ein Feature eine Grafikkarte nicht schlechter macht. Und die zweite Aussage ist die das eine schlechte Grafikkarte durch noch soviele Features einer guten Grafikkarte im Hinblick auf Spieltauglichkeit nicht das Wasser reichen kann (=> Praxisbezogen bleiben).

Nun könnte man zwar argumentieren das mit GraKa X spiel S sich starten lässt (zwar ruckelruckel aber es startet) und mit Graka Y spiel S nicht starten weil Feature F fehlt. Solang die Grakas X,Y aus ähnlicher Epoche sind und Spiel S auf GraKa X überhaupt noch für einen sehr sehr leidensfähigen Spieler gerade so zufriedenstellend läuft wird das nicht der Fall sein das Spiel s auf Graka Y nicht mehr läuft (aufgrund des Feature mangels).

Zwischen beiden Aussagen besteht im Prinzip kein Widerspruch, wodurch auch die Diskussionsgrundlage entzogen wird. Man muss blos mal eine beidseitige Betrachtung der Dinge vornehmen.

Odal
2007-01-02, 13:36:34
Oblivion wie auch HL2 sind nunmal ATI optimiert. Das ist im 3dcf wie auch im B3D Forum nachzulesen. Andersherum dasselbe Spiel mit der Doom3 Engine. Das ist heutzutage völlig normal und nennt sich DevRel mit ein wenig Sponsoring.

Das ist so nicht richtig. Im Prinzip hast du die Ursache schon im zweiten Teil deines Postings angeschnitten ohne es zu merken. Die R580 Architektur ist einfach flexibler als die G71 Architektur. NVidia ist für ihren Entwicklersupport in den Softwareschmieden berühmt und berüchtigt, ATI geniesst dagegen eher den zweifelhaften Ruf wenig Entwicklersupport zu leisten. Leistet NVidia mal keinen guten Entwicklersupport bei einem Projekt kommt möglicherweise DX9 Code heraus der dem G71 nicht so gut schmeckt. Der R580 schluckt dagegen fast alles problemlos (bzgl. performance) also ist das Problem eher darin zu sehen das NV zu wenig Entwicklersupport geleistet hat bei bestimmten Projekten.

robbitop@work
2007-01-02, 13:57:00
Das ist so nicht richtig. Im Prinzip hast du die Ursache schon im zweiten Teil deines Postings angeschnitten ohne es zu merken. Die R580 Architektur ist einfach flexibler als die G71 Architektur. NVidia ist für ihren Entwicklersupport in den Softwareschmieden berühmt und berüchtigt, ATI geniesst dagegen eher den zweifelhaften Ruf wenig Entwicklersupport zu leisten. Leistet NVidia mal keinen guten Entwicklersupport bei einem Projekt kommt möglicherweise DX9 Code heraus der dem G71 nicht so gut schmeckt. Der R580 schluckt dagegen fast alles problemlos (bzgl. performance) also ist das Problem eher darin zu sehen das NV zu wenig Entwicklersupport geleistet hat bei bestimmten Projekten.

Das Problem ist zu vielschichtig, um es auf einzelne Ursachen abzuwälzen. Eine Ursache ist immer, die Optimierung der Spiele auf gewisse Hardware.
Dass gewisse Spiele einseitig optimiert sind, ist Fakt. Das stand ewig in der Presse und auch Spieleeentwickler wie Demirug haben das schon bestätigt. Bei B3d laufen noch ein paar mehr hochdekorierte Entwickler herum.
Ich habe keine Lust über Fakten zu diskutieren.

NVIDIA hat die schwächeren Pipelines durch eine höhere Anzahl dieser einigermaßen Kaschiert.

Dass TES4 nichtmal Portale/Antiportale nutzen, möchte ich ernsthaft bezweifeln. Das sind Grundregeln für die Entwicklung von Spielen.


Das ist aber bei ALLEN Spielen, die diese Art von Schatten benutzen so!!
FEAR nutzt ebenfalls Stencil Schatten. Hier sieht die Sache wieder anders aus.


Eine besondere Optimierung seitens nV sehe ich nicht, eher umgekehrt: nV hat die Hardware eher für Stencil Schatten optimiert als JC Doom für nV Karten!
Du bist relativ uninformiert und dennoch von deiner Meinung überzeugt. Eine gute Mischung :up:
Carsten Spille hat zusammen mit Demiurg die Shaderoptimierung von NV entdeckt und konnten diese auch deaktivieren. Im Nachfolgetreiber hat NV das unterbunden.

Zu den Stencilschatten: spätestens ab 2xMS liegen NV Karten mit ATI Karten gleich auf in der Stencilrate.

Und mal ehrlich:
Welcher Entwickler Firma hat schon die Zeit etwas _WIRKLICH_ zu optimieren?!
Kostet Zeit, Zeit kostet Geld, Geld hat man nicht also lässt mans idR.
Wenn man dafür Geld vom jeweilgen IHV bekommt: gar kein Problem.
Siehe die SM3 und SM2b Patches für Far Cry (auch das ist dank Demirug belegt -> das 2x verkaufte Pferd).

tokugawa
2007-01-02, 18:05:13
Eine besondere Optimierung seitens nV sehe ich nicht, eher umgekehrt: nV hat die Hardware eher für Stencil Schatten optimiert als JC Doom für nV Karten!


Es war beides. Um die speziellen Extensions der NV zu nutzen die Stencil Schatten abseits von den "automatischen" Beschleunigungsmaßnahmen zu nutzen hat man bei id Software natürlich diese Extensions explizit ansprechen müssen. Somit kann man durchaus auch von Optimierung in Richtung NV sprechen.


Und mal ehrlich:
Welcher Entwickler Firma hat schon die Zeit etwas _WIRKLICH_ zu optimieren?!
Kostet Zeit, Zeit kostet Geld, Geld hat man nicht also lässt mans idR.
Und wenns auf irgendwas nicht so gut läuft, pech.
Hauptsache es läuft.

Ich finde das eine ziemlich arge Unterstellung, die ich aus meiner Praxis nicht nachvollziehen kann. Eine Art der Optimierung wird immer gemacht, nämlich die, die auch am meisten bringt: die algorithmische (besser Algorithmen). Was weniger bringt aber viel mehr Zeit kostet, relativ gesehen, ist das Jagen jedes einzelnen Rechenzyklus. Das zahlt sich dann vernünftig gesehen auch nicht mehr aus.

Aber "_wirklich_ optimieren" ist meiner Ansicht nach sowieso das, was bereits gemacht wird.

Übrigens ist es nicht so das Oblivion gar kein "HSR" bzw. Culling hat. Immerhin Frustum Culling wird sicher gemacht. Alles weitere wird wohl auf die GPU verschoben (Early-Z und ähnliches). Eventuell wäre Oblivion ein Erstkandidat für die praktische Anwendung von Coherent Hierarchical Culling gewesen, wenn deren Datenstruktur mitspielt.


NVidia ist für ihren Entwicklersupport in den Softwareschmieden berühmt und berüchtigt, ATI geniesst dagegen eher den zweifelhaften Ruf wenig Entwicklersupport zu leisten. Leistet NVidia mal keinen guten Entwicklersupport bei einem Projekt kommt möglicherweise DX9 Code heraus der dem G71 nicht so gut schmeckt.


Naja, NVIDIA bietet auch guten "passiven" Entwicklersupport, also einfach Resourcen, Papers, und Tools auf deren Developer-Homepage. D.h. selbst wenn sie keinen aktiven Entwicklersupport leisten, ist deren Auswahl an Resourcen immer noch vorzüglich. Von "berüchtigt" würd ich absolut nicht sprechen, ich glaube man kann getrost den NV-Dev-Support (der etwa auch an die Unis geht, und da steht ja kein kommerzielles Interesse im Vordergrund) als einwandfrei bezeichnen.


Der R580 schluckt dagegen fast alles problemlos (bzgl. performance) also ist das Problem eher darin zu sehen das NV zu wenig Entwicklersupport geleistet hat bei bestimmten Projekten.

Meiner Erfahrung nach ist es gar nicht so krass wie du darstellst. Zumindest in meiner Engine gibt's kaum Unterschiede zwischen meiner X1900XT und GeForce 7950GT in Bezug auf Performance. Und es wird zumindest an einer Stelle dynamic Branching verwendet.

Die wirkungsvollsten Optimierungen (auf algorithmischer Ebene) bringen sowieso meistens beiden Architekturen etwas.

deekey777
2007-01-02, 18:15:06
Ich will jetzt keinen Krieg anheizen, aber richtig lesen sollte man schon:
Welche Titel?
Bis auf (alle) Spiele mit der von ATi gekauften HL2 Engine, kenne ich keine, die die 5200 auf den DX8 Pfad beschränken.
Ich habe etwas mehr gefettet als Coda. Diese Aussage tut echt weh. Entweder hat da jemand ein schlechtes Erinnerungsvermögen (ATi hat sechs oder sieben Mio US-$ für die HL2-Gutscheine+Werbung mit HL2 gezahlt und nicht für die Source-Engine*) oder da geht's Auge um Auge ("wenn du flamest, flame ich dagegen").


*Was soll ATi mit der Engine? Auch gibt es mehrere auf der Source-Engine basierende Spiele, die das TWIMTBP-Logo haben.
-------------------------------------------------------------------------------------------------------
Hier gibt es was zu FEAR: Graphics Technologies in Games: F.E.A.R. (http://www.digit-life.com/articles2/video/tech_fear.html)

LovesuckZ
2007-01-02, 18:20:13
Ich will jetzt keinen Krieg anheizen, aber richtig lesen sollte man schon

Und vorallen nichts aus dem Kontext reizen.


Besonders irre finde ich ja daß ihr immer auf die Entwickler verweist die ja angeblich erst auf Grund der enormen Verbreitung der FX5200 begannen DX9 Titel zu produzieren. Und genau diese Entwickler haben darauf geachtet daß bloß kein Titel im DX9 Modus läuft. Total normal oder?

Das war nur Sarkasmus.
Da Tigerchen von Valve sprach (andere Hersteller sind mir nich bekannt, die die 5200 hinsichtlich ihres SM Sets beschränken), tat ich dies auch.

StefanV
2007-01-02, 19:26:03
Ich finde das eine ziemlich arge Unterstellung, die ich aus meiner Praxis nicht nachvollziehen kann. Eine Art der Optimierung wird immer gemacht, nämlich die, die auch am meisten bringt: die algorithmische (besser Algorithmen). Was weniger bringt aber viel mehr Zeit kostet, relativ gesehen, ist das Jagen jedes einzelnen Rechenzyklus. Das zahlt sich dann vernünftig gesehen auch nicht mehr aus.

Aber "_wirklich_ optimieren" ist meiner Ansicht nach sowieso das, was bereits gemacht wird.
Ja, ok, die allgemeinen Optimierungen, die immer etwas gemacht werden, da hast sicher recht.
Es ist aber idR nicht so, das man auf einen bestimmten Hersteller optimiert, ganz im Gegenteil...

tokugawa
2007-01-02, 19:50:23
Ja, ok, die allgemeinen Optimierungen, die immer etwas gemacht werden, da hast sicher recht.
Es ist aber idR nicht so, das man auf einen bestimmten Hersteller optimiert, ganz im Gegenteil...

Ja, dafür bleibt meist keine Zeit. Kann sich ein Entwickler nur leisten wenn es dafür ein Budget gibt, ich kann mir schon vorstellen dass es manche Entwickler gibt, die auch schon mal "bezahlt" wurden. Ist natürlich nur Spekulation.


Um den Bogen wieder zurück auf die FX5200 zu schließen: damit sagst du ja prinzipiell eh auch, dass die FX5200 für die Entwicklung von DX9-Software förderlich war. Da ja man nicht auf einen bestimmten Hersteller, daher auch nicht auf ein bestimmtes Produkt (etwa die FX5200) optimiert in der Regel.

Insofern war die Marktpenetration aufgrund der FX5200 sicher ein Kriterium dafür dass viele Hersteller gesagt haben "so, jetzt können wir DX9 vorraussetzen".

Odal
2007-01-02, 20:22:50
Insofern war die Marktpenetration aufgrund der FX5200 sicher ein Kriterium dafür dass viele Hersteller gesagt haben "so, jetzt können wir DX9 vorraussetzen".

Das denk ich nicht, denn Features und Performance müssen hand in hand gehen. Ein Hersteller kann kaum bei den Minimalanforderungen DX9 Grafikkarte ab FX5200 schreiben wenn sein Produkt auf dieser mit < 10FPS läuft. Ok er kann es aber es ist ein betrügerisches Werben da ein Spiel mit <10FPS im Regelfall nicht spielbar ist.

tokugawa
2007-01-02, 21:11:45
Das denk ich nicht, denn Features und Performance müssen hand in hand gehen. Ein Hersteller kann kaum bei den Minimalanforderungen DX9 Grafikkarte ab FX5200 schreiben wenn sein Produkt auf dieser mit < 10FPS läuft. Ok er kann es aber es ist ein betrügerisches Werben da ein Spiel mit <10FPS im Regelfall nicht spielbar ist.

Es ist gar nicht so schwer zu skalieren im Prinzip. Die FX5200 muß ja nur in 640x480 die Performance liefern, bei Minimaleinstellungen. Das bringt man relativ leicht hin.


Außerdem ist das was du schreibst nicht wirklich Bezug nehmend auf das was ich schrieb. Es ist ziemlich Faktum dass die FX5200 den generellen Durchbruch von DX9 in der Software beschleunigt hat, was nicht so wäre wenn die FX5200 nach dem Modell der GeForce 4 MX eine nicht nur Performance- sondern auch Feature-mäßig kastrierte Karte gewesen wäre.


Vor allem vergißt du eins: das mit den 10 fps erkennt man als Entwickler erst am Ende der Entwicklung. Ich schrieb aber vom Anfang, nämlich die Entscheidung "OK, entwickeln wir ein Spiel auf DX9-Basis". Hier wird die installierte Basis beobachtet, und da hat die FX5200 sehr geholfen.

Dann, später, am Ende der Entwicklung, hat man vielleicht erkannt dass die FX5200 sehr langsam ist. Aber dann kann man immer noch runterskalieren (Models/LODs, Texturen, Shader, Auflösung).

aths
2007-01-03, 04:26:58
Wir haben hier im Prinzip zwei Aussagen.

Einmal das ein Feature eine Grafikkarte nicht schlechter macht. Und die zweite Aussage ist die das eine schlechte Grafikkarte durch noch soviele Features einer guten Grafikkarte im Hinblick auf Spieltauglichkeit nicht das Wasser reichen kann (=> Praxisbezogen bleiben).

Nun könnte man zwar argumentieren das mit GraKa X spiel S sich starten lässt (zwar ruckelruckel aber es startet) und mit Graka Y spiel S nicht starten weil Feature F fehlt. Solang die Grakas X,Y aus ähnlicher Epoche sind und Spiel S auf GraKa X überhaupt noch für einen sehr sehr leidensfähigen Spieler gerade so zufriedenstellend läuft wird das nicht der Fall sein das Spiel s auf Graka Y nicht mehr läuft (aufgrund des Feature mangels).

Zwischen beiden Aussagen besteht im Prinzip kein Widerspruch, wodurch auch die Diskussionsgrundlage entzogen wird. Man muss blos mal eine beidseitige Betrachtung der Dinge vornehmen.Ja, eben.

Die FX 5200 wird bei ihrer geringen Grundleistung natürlich nicht zur DX9-Gamerkarte, nur weil sie DX9 kann (während sich mit der 128-Bit-Version "DX8-Games" durchaus spielen lassen.) Daraus kann man aber nicht folgern, dass DX9 nur aus Marketinggründen eingebaut wurde. Dass der eine oder andere Käufer denkt "Die hat DX9 und das haben die bestimmt nicht umsonst eingebaut, sondern um DX9-Spiele zu zocken" wird natürlich von Nvidia bewusst so gelassen. Aber ist das schlimmer, als Lowend-Grakas mit viel Speicher auszustatten um den Noob zu locken?

Liszca
2007-01-03, 05:53:50
BF2 ist bestimmt ein Heidenspaß auf der 5200. ATI`s Grafikkarten unterhalb der 9500 waren für mich schon immer indiskutabel. Bilineares AF mit der 8500? Unterirdisch. Da war nV um Welten besser.


kann es sein das du deinfähnchen so ein wenig nach dem wind drehst? erst jammerst wegen features die nicht praxistauglich sind, dann macht ati ein praxistaugliches af, und dir passts immer noch nicht, was willst du?

Gast
2007-01-03, 11:17:59
Das AF einer 8500 ist allenfalls gut für den Titel "schlechteste Texturfilterqualität aller Zeiten", praxistauglich ist daran überhaupt nichts.

Rhönpaulus
2007-01-03, 11:55:16
ja das superschnelle af der 8500 war so grauenhaft das mich jeder damalige gforce-user anstaunte und ich nur noch in bestimmten games den trilinearen filter überhaupt als bandingfreie alternative nutzte.
zur ihrer zeit war diese karte für gamer ein sehr guter partner.
je nach game fallen die bilinearen mipmapübergänge mehr oder weniger deutlich sichtbar auf und der hohe grad an anisotropie für die wichtigen bodentexturen war damals eine augenweide gegenüber dem trilinearen filter.
je mehr hochauflösende texturen das game nutzte desto stärker wurden die filtermängel sichtbar.
sersam 1 und 1+ waren die ersten games bei denen das banding deutlich störend wirkte weil großflächig detailreiche texturen zum einsatz kahmen.
die karte war aber schnell genug um in diesen games einfach mit 8x af und angepaßten lod das banding weit in die ferne zu rücken so das es überhaupt nur noch an entfernten mauern erkennbar war.
aus heutiger sicht ist das natürlich unterste filterqualität aber die sehr hohe performance war dabei auch ein wichtiger faktor denn sie machte diese hochoptimierten filter jederzeit und in hohen auflösungen einsetzbar.

aths
2007-01-03, 14:14:56
die karte war aber schnell genug um in diesen games einfach mit 8x af und angepaßten lod das banding weit in die ferne zu rücken so das es überhaupt nur noch an entfernten mauern erkennbar war.
aus heutiger sicht ist das natürlich unterste filterqualität aber die sehr hohe performance war dabei auch ein wichtiger faktor denn sie machte diese hochoptimierten filter jederzeit und in hohen auflösungen einsetzbar.Eine Bildqualitätsmaßname sollte schon das Bild verbessern – und nicht an anderer Stelle wieder verschlechtern. Das ATI-AF auf der Radeon 8500 ist zwar besser, als gar kein AF zu haben. Man kann ja weiterhin einfach den trilinearen Filter nutzen wenn man will, oder eben sehr stark winkelabhäniges bilineares AF. Doch nur weil man ein Feature auch in hohen Auflösungen nutzen kann wird es damit nicht gleich sinnvoll.

Teilweise verbessert selbst das AF der Radeon 256 die Grafik. Aber insgesamt halte ich das "16x AF" der ersten Radeon-Generationen für eine Spielerei denn für ein nutzbringendes Feature.

Gast
2007-01-03, 14:37:47
ja das superschnelle af der 8500 war so grauenhaft das mich jeder damalige gforce-user anstaunte und ich nur noch in bestimmten games den trilinearen filter überhaupt als bandingfreie alternative nutzte.
zur ihrer zeit war diese karte für gamer ein sehr guter partner.
je nach game fallen die bilinearen mipmapübergänge mehr oder weniger deutlich sichtbar auf und der hohe grad an anisotropie für die wichtigen bodentexturen war damals eine augenweide gegenüber dem trilinearen filter.



Das AF der Radeon flimmert grauenhaft, da ist jeder trilineare Filter ohne AF vorzuziehen. Und das Banding fällt sehr wohl auf durch die winkelabhängige LOD Berechnung.

Gast
2007-01-03, 14:39:13
Teilweise verbessert selbst das AF der Radeon 256 die Grafik..

Nie und nimmer. Die Verschlechterung wiegt jede Verbesserung bei weitem wieder auf, so dass unterm Strich nur eine schlechtere BQ übrig bleibt.

haifisch1896
2007-01-03, 19:55:59
Aber ist das schlimmer, als Lowend-Grakas mit viel Speicher auszustatten um den Noob zu locken?

Nicht zwingend. Aber pervers ist es, unbedachte Käufer mit den TC-Karten zu locken, mit bis zu 256MB Speicher.

Gast
2007-01-04, 10:34:46
Nicht zwingend. Aber pervers ist es, unbedachte Käufer mit den TC-Karten zu locken, mit bis zu 256MB Speicher.Naja, wenn sich ein Käufer vor dem Kauf nicht informiert, ist er imho selbst schuld. Wenn ich mir etwas kaufen will, wovon ich keine Ahnung habe, informiere ich mich vorher oder kaufe eben im Fachgeschäft (also kein MM u.ä.) und lasse mich dort beraten.

haifisch1896
2007-01-04, 23:10:18
Wie wahrscheinlich 90% der 3DCF-User. Aber Otto Normalverbraucher dürfte sichlieber "gut" beraten lassen.

Tigerchen
2007-01-05, 14:56:37
Ja, dafür bleibt meist keine Zeit. Kann sich ein Entwickler nur leisten wenn es dafür ein Budget gibt, ich kann mir schon vorstellen dass es manche Entwickler gibt, die auch schon mal "bezahlt" wurden. Ist natürlich nur Spekulation.


Um den Bogen wieder zurück auf die FX5200 zu schließen: damit sagst du ja prinzipiell eh auch, dass die FX5200 für die Entwicklung von DX9-Software förderlich war. Da ja man nicht auf einen bestimmten Hersteller, daher auch nicht auf ein bestimmtes Produkt (etwa die FX5200) optimiert in der Regel.

Insofern war die Marktpenetration aufgrund der FX5200 sicher ein Kriterium dafür dass viele Hersteller gesagt haben "so, jetzt können wir DX9 vorraussetzen".

Dann ist es ja doch recht erstaunlich daß ohne so ein Produkt wie weiland die 5200 so einige Toptitel für D3D10 entwickelt werden. (Hellgate, Alan Wake, Crysis) Alles potentielle Blockbuster die im Jahre 2007 auf eine Handvoll D3D10 Beschleuniger treffen werden.

AnarchX
2007-01-05, 15:00:27
Dann ist es ja doch recht erstaunlich daß ohne so ein Produkt wie weiland die 5200 so einige Toptitel für D3D10 entwickelt werden. (Hellgate, Alan Wake, Crysis) Alles potentielle Blockbuster die im Jahre 2007 auf eine Handvoll D3D10 Beschleuniger treffen werden.


Alan Wake D3D10? Ich glaube du verwechselst da etwas mit der Zwangslimitierung auf Vista, die hier nix mit D3D10 zu tun hat.
Auch die anderen Titel sind eher Games die nur den reinen D3D10-Speedup durch Passreduktion mitnehmen, als das sie von Anfang an für D3D10 entwickelt wurden.

Tigerchen
2007-01-05, 17:35:51
Alan Wake D3D10? Ich glaube du verwechselst da etwas mit der Zwangslimitierung auf Vista, die hier nix mit D3D10 zu tun hat.
Auch die anderen Titel sind eher Games die nur den reinen D3D10-Speedup durch Passreduktion mitnehmen, als das sie von Anfang an für D3D10 entwickelt wurden.

Vollkommen wurscht. Hier wird Zeit und Geld für eine kaum vorhandene Infrastruktur investiert.

AnarchX
2007-01-05, 17:45:13
Vollkommen wurscht. Hier wird Zeit und Geld für eine kaum vorhandene Infrastruktur investiert.


Und? Die Unternehmen werden schon wissen warum sie es tun und Geld verschwenden wird man hier wohl kaum(bzw. bekommt man Finanzierungen dieser Arbeiten von ausserhalb;)).

Alan Wake ist eben hauptsächlich eine XBox360-Titel, mit welchem der Publisher Microsoft durch die Vista-Beschränkung eben noch die Verkäufe seines neuen OS pushen will. ;)

Coda
2007-01-05, 18:39:58
Alan Wake hat ne Vista-Beschränkung? :|

Quelle?

Gast
2007-01-05, 18:51:40
Alan Wake hat ne Vista-Beschränkung? :|

Quelle?In dem Spiel „Alan Wake”, welches exklusiv für auf Windows Vista basierenden PCs und Xbox 360 erhältlich sein wirdhttp://www.computerbase.de/news/software/spiele/actionspiele/2006/dezember/alan_wake_2008/

AnarchX
2007-01-05, 18:54:34
Alan Wake hat ne Vista-Beschränkung? :|

Noch nichts davon gehört? Ging vor einiger Zeit dochmal die Runde:
In dem Spiel „Alan Wake”, welches exklusiv für auf Windows Vista basierenden PCs und Xbox 360 erhältlich sein wird, schlüpfen Spieler in die Rolle von Alan Wake, einem Bestsellerautor von Suspense-Romanen, der in ein kleines Dorf flüchtet, um dort dem mysteriösen Verschwinden seiner Verlobten auf die Spur zu kommen.
http://www.computerbase.de/news/software/spiele/actionspiele/2006/dezember/alan_wake_2008/
http://www.gbase.ch/pc/news/3113/26282.html
http://www.demonews.de/kurznachrichten/index.php?shortnews=8175

Insgesamt ein doch geschickter Schachzug von M$(welcher mir dank MSDNAA aber egal ist;) ).

Übrigens ist es auch noch auf CPUs mit mindestens 2 Threads beschränkt(P4s mit HT und eben DCs).

Tigerchen
2007-01-05, 19:07:36
Und? Die Unternehmen werden schon wissen warum sie es tun und Geld verschwenden wird man hier wohl kaum(bzw. bekommt man Finanzierungen dieser Arbeiten von ausserhalb;)).


Aha. Aber warum brauchte man weiland so unheimlich viele FX5200 um sich zu überwinden DX9 Titel zu machen wenn es heute auch ohne eine Schwemme an Super-Billig DX10 Grafikkarten geht?

Gast
2007-01-05, 19:28:21
Aha. Aber warum brauchte man weiland so unheimlich viele FX5200 um sich zu überwinden DX9 Titel zu machen wenn es heute auch ohne eine Schwemme an Super-Billig DX10 Grafikkarten geht?


Alan Wake kommt frühsten 2008. Bis dahin wird es schon eine "eine Schwemme an Super-Billig DX10 Grafikkarten" geben.

tokugawa
2007-01-05, 20:00:35
Dann ist es ja doch recht erstaunlich daß ohne so ein Produkt wie weiland die 5200 so einige Toptitel für D3D10 entwickelt werden. (Hellgate, Alan Wake, Crysis) Alles potentielle Blockbuster die im Jahre 2007 auf eine Handvoll D3D10 Beschleuniger treffen werden.


Du gehst irgendwie immer von absoluten Triple-A-Titeln aus... du solltest allerdings eher in der Masse des Marktes sehen.

Das was du listest können sich "normale" Entwickler (etwa 98% aller Studios weltweit) nicht leisten. Diese Titel die du listest, dahinter stehen schon genug Motivationen, diese "D3D10-Only" oder "Vista-Only" zu machen (und selbst wenn's "nur" Microsoft ist, die dahinterstehen).

Das ist doch die absolute Minderheit.


Vollkommen wurscht. Hier wird Zeit und Geld für eine kaum vorhandene Infrastruktur investiert.


Die werden schon wissen warum.

Normale Studios können sich das nicht leisten.


Aha. Aber warum brauchte man weiland so unheimlich viele FX5200 um sich zu überwinden DX9 Titel zu machen wenn es heute auch ohne eine Schwemme an Super-Billig DX10 Grafikkarten geht?


Weil du von den wenigen Absoluten High-Budget-Triple-A-Titeln ausgehst, die es weltweit gibt, und diese auf die Tausenden Produktionen umlegst, die keine Super-High-Budget-Blockbuster sind. Darin liegt der Denkfehler.

Diese Triple-A-Titel die du listest kann man ruhig als "Early-Adopter" bezeichnen. Da ist das Geld dahinter, die können sich das leisten. Und mit diesen Beispielen hast du im Prinzip auch begründet warum "Features früh in Hardware zu implementieren" sinnvoll ist (analog zu SM 3.0 bei NV40). Early Adopters brauchen diese neuesten Features in High-End-Hardware - da ist Performance auch eher zweitrangig, weil sich diese Early Adopters sicher sein können dass bis zum Release es genug performante Hardware geben wird.

Für kleine und mittlere Studios ist das dagegen ein nicht zu verachtendes Risiko.

Tigerchen
2007-01-06, 16:32:01
Du gehst irgendwie immer von absoluten Triple-A-Titeln aus... du solltest allerdings eher in der Masse des Marktes sehen.

Das was du listest können sich "normale" Entwickler (etwa 98% aller Studios weltweit) nicht leisten. Diese Titel die du listest, dahinter stehen schon genug Motivationen, diese "D3D10-Only" oder "Vista-Only" zu machen (und selbst wenn's "nur" Microsoft ist, die dahinterstehen).

Das ist doch die absolute Minderheit.



Die werden schon wissen warum.

Normale Studios können sich das nicht leisten.



Weil du von den wenigen Absoluten High-Budget-Triple-A-Titeln ausgehst, die es weltweit gibt, und diese auf die Tausenden Produktionen umlegst, die keine Super-High-Budget-Blockbuster sind. Darin liegt der Denkfehler.

Diese Triple-A-Titel die du listest kann man ruhig als "Early-Adopter" bezeichnen. Da ist das Geld dahinter, die können sich das leisten. Und mit diesen Beispielen hast du im Prinzip auch begründet warum "Features früh in Hardware zu implementieren" sinnvoll ist (analog zu SM 3.0 bei NV40). Early Adopters brauchen diese neuesten Features in High-End-Hardware - da ist Performance auch eher zweitrangig, weil sich diese Early Adopters sicher sein können dass bis zum Release es genug performante Hardware geben wird.

Für kleine und mittlere Studios ist das dagegen ein nicht zu verachtendes Risiko.


Dann halten wir also mal fest. Damals wie heute brauchten die großen Studios keine Schwemme an billigen Grafikkarten die als Checklistfeature den jeweils höchsten Technologielevel beherrschten um sich zu überwinden neueste Effekte zu realisieren.
Nur die kleinen Studios brauchen das angeblich für ihre B-Spiele auf die wir ja alle so warten. Nun ja, was soll man angesichts solch verblüffender Argumentation noch schreiben?:confused:

tokugawa
2007-01-06, 18:36:06
Dann halten wir also mal fest. Damals wie heute brauchten die großen Studios keine Schwemme an billigen Grafikkarten die als Checklistfeature den jeweils höchsten Technologielevel beherrschten um sich zu überwinden neueste Effekte zu realisieren.
Nur die kleinen Studios brauchen das angeblich für ihre B-Spiele auf die wir ja alle so warten. Nun ja, was soll man angesichts solch verblüffender Argumentation noch schreiben?:confused:


Du hast irgendwie ein komisches Verständnis.

Die Studios, die ich als "Mehrheit" bezeichne, machen keine B-Spiele, sondern durchaus auch Triple-A-Titel.

Aber hinter denen steckt keine Multimillionendollar-Maschinerie, wie es bei den absoluten Top-Playern der Fall ist. Mal abgesehen davon dass diese Top-Player oft auch "Middleware-Produzenten" sind, also ihre Engines dann etwa weiterlizensieren. Wieviele Studios in der Welt machen das?

Die Titel, die du erwähnt hast, sind eine Handvoll, an ein, zwei Händen abzählbar. Das sind nicht nur große Studios (bzw. nicht mal unbedingt große Studios), aber da steckt viel mehr Geld dahinter als bei den Spielen die selbst Spieler wie du normalerweise zocken.

Die Mehrheit der Spiele, die selbst du zockst, sind Spiele, welche von Studios gemacht worden sind, die ein solches Risiko nicht unbedingt eingehen wollen. Das sind nicht unbedingt B-Titel! (wer hat jemals von B-Titeln gesprochen?)



Wenn alles, was nicht ein supergehyptes Multimillionendollar-Projekt ist, wo man versucht mit dem Titel gleich eine Middleware zu verkaufen oder eine Plattform (D3D10 etwa, oder die Xbox) zu pushen durch Exklusivität, gleich ein B-Projekt wär, dann wären wohl Titel wie Gothic 3, Anno 1701, Oblivion, u.ä. B-Titel :P



Also nochmal, es gibt mehrere Arten von Entwicklern:
A) welche, die irgendwelche Verträge haben für Exklusivität (für Konsole oder sonstige Plattformen)
B) welche, die Middleware produzieren (die müssen natürlich früh anfangen, eine Engine mit neuesten Features zu schreiben, denn wenn sie fertig sind damit, gibt es bereits eine Schwemme an Billighardware)
C) welche, die diese Middleware lizensieren - das können die erst wenn die Middleware fertig ist, und das werden die auch erst dann machen, wenn die entsprechende Hardware verbreitet ist
D) welche, die keine Middleware lizensieren und daher das Risiko der Hardware-Marktdurchdringung stärker analysieren müssen - die fangen überhaupt erst dann an, wenn die Hardware-Marktsituation so gegeben ist, dass man sagen kann, "so, jetzt mach ma eine Engine mit Feature X"


Im Prinzip gibt's also beides.

Und im Prinzip deutet das eben auf zwei Conclusios hin:
- Hardwarefeatures früh (wie SM 3.0) ist gut, selbst wenn nicht so performant. Entwickler vom Typ A und B können die brauchen. Zu sagen die Hardware wäre unnütz, da sie SM 3.0-Titel später sowieso nicht mehr flüssig darstellen kann, ist daher Bullshit.
- Hardwarefeatures billig ist gut zur Förderung von Verbreitung bestimmter Hardwarefeatures. Entwickler vom Typ C und D achten auf das. Zu sagen Billighardware wäre irrelevant für die Marketing-Entscheidungen von Entwicklern des Typs C und D ist also ebenfalls Bullshit.

Rhönpaulus
2007-01-06, 19:04:09
neue werkzeuge (für die entwickler) sind aber nur dann zu gebrauchen wenn sie auch was taugen und nicht alles was taugt hat auch eine daseinsberechtigung.
;)

tokugawa
2007-01-06, 19:36:48
neue werkzeuge (für die entwickler) sind aber nur dann zu gebrauchen wenn sie auch was taugen und nicht alles was taugt hat auch eine daseinsberechtigung.
;)

Und was hast du für konkrete Beispiele?

Ich hab jedenfalls mal die NV40 erwähnt, bei der einige kurzsichtige Leute geschrien haben dass die SM3-features "nutzlos" wären, aber es ist halt Faktum dass die NV40 durchweg verwendet wurde um SM3-Engines zu entwickeln.

haifisch1896
2007-01-06, 23:24:57
Welcher auch sonst? Die Radeons sind ja erst ab der X1000-Familie in der Lage, welche eine Generation später kam (meine ich zumindest).
Der nV40 war längst da.

tokugawa
2007-01-06, 23:42:28
Welcher auch sonst? Die Radeons sind ja erst ab der X1000-Familie in der Lage, welche eine Generation später kam (meine ich zumindest).
Der nV40 war längst da.

Jo, genau. Es ist meiner Ansicht nach auch so klar, trotzdem sieht man immer wieder Aussagen wie "SM3.0 bei der NV40 war doch nutzlos!".

Tigerchen
2007-01-07, 08:16:10
Jo, genau. Es ist meiner Ansicht nach auch so klar, trotzdem sieht man immer wieder Aussagen wie "SM3.0 bei der NV40 war doch nutzlos!".

Das hat gar keiner geschrieben. Ich jedenfalls nicht auch wenn es so einige so sehen wollen.

Zu deinen "Tripple A-Titeln". Es ist mir völlig egal wer wieviel Geld verbrät. Darum gings mir doch gar nicht und das weißt du auch. Eure Behauptung ohne billige D3D9 Basis gäbs auch keine technisch weiterentwickelten D3D9 Spiele habe ich jedenfalls wiederlegt. Das ist nur ein Märchen um nicht ganz so dumm dazustehen wenn ich euch an eure FX5x00 Lobhudelei von einst erinnere.

tokugawa
2007-01-07, 18:05:30
Das hat gar keiner geschrieben. Ich jedenfalls nicht auch wenn es so einige so sehen wollen.

Zu deinen "Tripple A-Titeln". Es ist mir völlig egal wer wieviel Geld verbrät. Darum gings mir doch gar nicht und das weißt du auch. Eure Behauptung ohne billige D3D9 Basis gäbs auch keine technisch weiterentwickelten D3D9 Spiele habe ich jedenfalls wiederlegt. Das ist nur ein Märchen um nicht ganz so dumm dazustehen wenn ich euch an eure FX5x00 Lobhudelei von einst erinnere.


Du hast gar nix widerlegt, sondern ich hab dir ziemlich genau die Realität gezeigt. Vielleicht gehst du mal auf die einzelnen Punkte ein (speziell den Punkt mit den verschiedenen Arten von Entwicklern).

Speziell die Art, die Middleware wie etwa die UnrealEngine lizensiert zu einem Zeitpunkt wo entsprechende Hardware verbreitet ist (während die UnrealEngine selbst schon früher entwickelt wurde von einem Entwickler anderer Art), ist doch einleuchtend.

hendrik@zweitrechner
2007-01-07, 21:52:26
Jo, genau. Es ist meiner Ansicht nach auch so klar, trotzdem sieht man immer wieder Aussagen wie "SM3.0 bei der NV40 war doch nutzlos!".

Wobei diese Aussagen, wie wir wissen, qualitativer Sch... sind.

Schließlich lassen sich mit diesem Shadermodell bestimmte Shader einfacher und schneller darstellen.
Der Bloom-Effekt zum Bleistift.
Geht zwar auch mit SM2-HW, aber nur auf SM3 macht es geschwindigkeitsmäßig wirklich Sinn.

Gaestle
2007-01-08, 13:18:35
Aha. Aber warum brauchte man weiland so unheimlich viele FX5200 um sich zu überwinden DX9 Titel zu machen wenn es heute auch ohne eine Schwemme an Super-Billig DX10 Grafikkarten geht?



- weil DX9 im Vergleich zu DX8 ein größerer Fortschritt ist, als DX10 zu DX9 (was vor allem ein Speedupgrade zu DX9 darstellt)

- weil die Engines (angeblich) im Grunde nur DX9 sind und der DX10 Pfad aus Marketinggründen drangepappt wird

- weil DX10 Vista-Only ist und Microsoft bei der Einführung eines neuen OS alle Hilfe in Anspruch nimmt, die machbar ist

- weil es aus den genannten Gründen in diesem speziellen Fall gar nicht um die Hardware-Basis geht, die ja durch die noch zusätzlich notwendig vorhandene Software noch weiter eingeengt wird, sondern um anderes (Stichwort: Marketing, neues OS)

Und vielleicht (ganz am Rande) rechnen die Publisher auch damit, dass
a) bis zum tatsächlichen Release noch einige Zeit vergeht (denn "heute", am 08.01.07, ist noch gar nix in DX10 verfügbar)
und
b) bis dahin beide Hersteller eine vollständige DX10-Produkt-Palette bis hinunter zum Low-End zumindest anbieten...


Eure Behauptung ohne billige D3D9 Basis gäbs auch keine technisch weiterentwickelten D3D9 Spiele habe ich jedenfalls wiederlegt.


Sorry, aber ich habe es nirgends gefunden. IMHO hast Du drei Beispiele genannt (die sich zudem NICHT auf DX9 beziehen, sondern auf DX10), von denen eines anscheinend nicht zutreffend ist. Wo ist da jetzt eine schlüssige Widerlegung?

Tigerchen
2007-01-08, 15:03:13
- weil DX9 im Vergleich zu DX8 ein größerer Fortschritt ist, als DX10 zu DX9 (was vor allem ein Speedupgrade zu DX9 darstellt)

- weil die Engines (angeblich) im Grunde nur DX9 sind und der DX10 Pfad aus Marketinggründen drangepappt wird

- weil DX10 Vista-Only ist und Microsoft bei der Einführung eines neuen OS alle Hilfe in Anspruch nimmt, die machbar ist

- weil es aus den genannten Gründen in diesem speziellen Fall gar nicht um die Hardware-Basis geht, die ja durch die noch zusätzlich notwendig vorhandene Software noch weiter eingeengt wird, sondern um anderes (Stichwort: Marketing, neues OS)

Und vielleicht (ganz am Rande) rechnen die Publisher auch damit, dass
a) bis zum tatsächlichen Release noch einige Zeit vergeht (denn "heute", am 08.01.07, ist noch gar nix in DX10 verfügbar)
und
b) bis dahin beide Hersteller eine vollständige DX10-Produkt-Palette bis hinunter zum Low-End zumindest anbieten...



Sorry, aber ich habe es nirgends gefunden. IMHO hast Du drei Beispiele genannt (die sich zudem NICHT auf DX9 beziehen, sondern auf DX10), von denen eines anscheinend nicht zutreffend ist. Wo ist da jetzt eine schlüssige Widerlegung?

Deine Argumente sind vor allem Spekulationen. Wie soll man Spekulationen wiederlegen?
Vor allem dein letzter Punkt mit der vollständigen DX10 Palette bis zum Release des Spiele gilt natürlich auch für D3D9.
Den Schwachsinn der Startschuß für die D3D9 Spieleentwicklung fiel zusammen mit der Entwicklung der FX5200 wiederlegst du damit selber.

Weitere D3D10 Titel:
Shadowrun, Halo 2 (einziger Titel bei dem ich Marketinggründe unterstelle), Age of Conan, Eve online

tokugawa
2007-01-08, 19:05:16
Deine Argumente sind vor allem Spekulationen. Wie soll man Spekulationen wiederlegen?
Vor allem dein letzter Punkt mit der vollständigen DX10 Palette bis zum Release des Spiele gilt natürlich auch für D3D9.
Den Schwachsinn der Startschuß für die D3D9 Spieleentwicklung fiel zusammen mit der Entwicklung der FX5200 wiederlegst du damit selber.


Das kommt auf den Entwickler an. Wie gesagt, für die Mehrheit der Studios trifft das zu.


Weitere D3D10 Titel:
Shadowrun, Halo 2 (einziger Titel bei dem ich Marketinggründe unterstelle), Age of Conan, Eve online


Marketing ist immer dabei. Das ist bittere Realität in der Spielebranche. Wenn man sich für einen reinen D3D10-Titel (ohne extra Renderpfad, oder eigenen DX9-Build) entscheidet, hat das durchaus Marketing-Entscheidungscharakter.

Im Übrigen hat das nichts zu tun mit der Situation wie es damals mit DX9 war, welches ja nicht exklusiv für ein bestimmtes Windows war.

Du hast daher gar nichts widerlegt. Arbeitest du in der Spielebranche? Ich glaube nicht, denn sonst würde dir meine Ausführung einleuchten.

Coda
2007-01-08, 19:54:48
Shadowrun, Halo 2 (einziger Titel bei dem ich Marketinggründe unterstelle), Age of Conan, Eve online

Ich glaub nicht das Halo D3D10 benützt. Das wäre sinnlos und aufwändig. Das dongelt sich mit irgendwas anderem an Vista.

deekey777
2007-01-08, 19:59:05
Ich glaub nicht das Halo D3D10 benützt. Das wäre sinnlos und aufwändig. Das dongelt sich mit irgendwas anderem an Vista.
Zumindest ist keine D3D10-Grafikkarte vorausgesetzt. Nur Vista und eine DX9-Grafikkarte.

Gaestle
2007-01-09, 10:46:58
Den Schwachsinn der Startschuß für die D3D9 Spieleentwicklung fiel zusammen mit der Entwicklung der FX5200 wiederlegst du damit selber.


Ich habe nirgends die Behauptung gefunden, dass die Entwicklung von D3D mit Erscheinen der FX5200 begann, sondern immer die Behauptung, dass die Entwicklung für ein Techlevel erst mit Erscheinen von entsprechender HW (und sei es nur als High-End-Modell) im größeren Stil ins Rollen kommt. Des Weiteren habe ich gelesen, dass die gute Durchdringung mit entsprechender HW eine wesentliche Voraussetzung für den Release von Spielen mit entsprechendem Techlevel auf breiter Front ist. Einzelner Vorreiter (wie etwa HDR bei FarCry) gibt es natürlich trotzdem immer.

Wenn Du aber die Zeit berücksichtigst, die ein Spiel zur Entwicklung benötigt (ich gehe jetzt mal von 24 Monaten aus), so ist diese i.d.R. ausreichend, um vom ersten HW-Produkt eines gewissen Techlevels (zu Beginn der Entwicklungszeit des Spiels) ausgehend, bis zum tatsächlichen Release der Software eine gewisse Durchdringung mit entsprechender HW im Gesamtmarkt vorzufinden. Dann ist zwar die ursprüngliche HW schon wieder fast ad acta gelegt, denn was zu Beginn der Entwicklungszeit High-End-HW war, ist zum Releasezeitpunkt Budget-HW. Aber ohne die grundsätzlich Verfügbarkeit von HW eines Techlevels (egal wie teuer und langsam) wäre die Umsetzung in Software nicht in der Form vorangeschritten.

Aus diesem Grund ist es ja in meinen Augen eben nicht nur für die Entwickler wichtig, dass ein Feature prinzipiell erstmal in Hardware vorhanden ist (egal wie langsam es auch sein mag), auch wenn der Konsument erst zwei Jahre und ein bis zwei Hardware-Evolutionsstufen später den Effekt auch tatsächlich lauffähig sieht. Diese Sichtweise setzt natürlich voraus, dass man eben auch einen Blick über den unmittelbar sofort eintretenden Eigennutzen beim Kauf neuer Hardware wirft.

Was die anderen Sachen angeht: natürlich sind sie für mich ganz persönlich im Grunde Spekulation, weil ich selber nicht Programmiere. Allerdings habe ich Vertrauen in bestimmte Member hier im Forum, die vor allem durch sehr detaillierte Sachkenntnis und nicht vorhanden Polemik ins Auge stechen.

tokugawa
2007-01-10, 03:33:42
Mal abgesehen ist das ja nicht nur Spekulation: ich seh ja aus meinem Arbeitsalltag, dass für "normale" Entwickler des traditionellen Publisher-DevStudio-Modells (wo der Publisher quasi der zahlende Kunde des Developer Studios ist) die Marktdurchdringung eine wichtige Frage ist.

Und wenn sie keine wichtige Frage ist, bzw. wenn man bewußt sein Produkt auf einige wenige exkusiviert, hat das Marketing und die Chefetage ebenfalls hundertprozentig eine Begründung dafür.


Zu sagen dass eine Marktdurchdringung an DX9-Hardware (die eben durch günstigere Produkte geschieht) keinen Einfluß hat auf Entscheidungen bei Entwicklern ist jedenfalls unglaublich kurzsichtig. Ich sehe es irgendwie als logisch an, dass eine Marktdurchdringung eine solche Entscheidung als ein wichtiger Faktor (natürlich nicht der einzige, das sagt ja keiner!) beeinflußt - und die Realität gibt mir auch recht.