PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ATI low tech ist ...


Seiten : 1 [2] 3 4

aths
2004-10-21, 16:38:25
wenn man es so betrachtet hast du natürlich recht, nur sieht es für mich so aus, als sei die allgemein anerkannte begrifflichkeit sm x.0. sm 1.x geht ja auch nicht, da vs und ps version nicht übereinstimmen. für mich meint jemand mit sm 1.0 auch ps 1.0, 1.1, 1.3, 1.4 und vs 1.1. Wozu dann noch das ".0"?

Betrachten wir PS und VS-Generation als ein Modell, haben wir 1.1 / 1.1, 1.3 / 1.1 und 1.4 /1.1. (1.3 / 2.0 bei Parhelia nur auf dem Papier. Welchen VS der 3DLabs-Chip für PS 1.2 hat, weiß ich nicht.) – also Shader Model 1.

Dann gibts 2.0 / 2.0 (R300), 2.x 2_A / 2.x 2_A (FX), und 2.X 2_B / 2.0 (R420) sowie 3.0 / 3.0 (N40.) – Shader Model 2 und 3. Ich sehe jetzt keinen Grund, 2.0 oder 3.0 zu sagen, da SM 2 deutlich mehr umfasst als 2.0.
der nv40 kann ja afaik auch mehr dinge im ps und vs, als in dx9c mit sm 3.0 als minimalbedingung vorgesehen ist.Das einzige was mir da einfiele wäre der maximale Instruction Count.

aths
2004-10-21, 17:03:48
Hi

Die wären. ???

Gruss LabberlippeToggle "On top" per Tastenkombination. (Trotz zwei Bildschirmen ist der Platz auf dem Deskop endlich. Da erleichtert es die Arbeit, gewisse Dinge wie z. B. Trillian-Chatfenster im Vordergrund zu behalten.)

Toggle Fullscreen-Zoom per Tastenkombination. (Lustigerweise sieht der Zoom z. B. beim Videofenster besser aus, als wenn man das Video im Player selbst zoomt. Außerdem nutze ich den Zoom um diese laufend zu klein geratenen Bilder und Grafiken im Web besser zu sehen.)

Quasar
2004-10-21, 17:13:57
ich will ja nicht kleinlich sein, aber ich glaube du meinst philantrop

edit: endlich hat sich die diskussion hier etwas zum normalen bekehrt, ohne dass sich die IHV-jünger gegenseitig die köpfe einschlagen.
Ja, im Deutschen hat sich das wohl eher sorum eingebürgert. Thx. :)

DrumDub
2004-10-21, 17:20:42
Wozu dann noch das ".0"?

Betrachten wir PS und VS-Generation als ein Modell, haben wir 1.1 / 1.1, 1.3 / 1.1 und 1.4 /1.1. (1.3 / 2.0 bei Parhelia nur auf dem Papier. Welchen VS der 3DLabs-Chip für PS 1.2 hat, weiß ich nicht.) – also Shader Model 1.

Dann gibts 2.0 / 2.0 (R300), 2.x 2_A / 2.x 2_A (FX), und 2.X 2_B / 2.0 (R420) sowie 3.0 / 3.0 (N40.) – Shader Model 2 und 3. Ich sehe jetzt keinen Grund, 2.0 oder 3.0 zu sagen, da SM 2 deutlich mehr umfasst als 2.0.

hast ja recht. nur so macht die terminologie sinn. sm 2 sieht nur so langweilig aus. sm 2.0 war da irgendwie cooler. ;D

golem macht auch richtig: Neben dem Shader Model 2 nutzt der 3DMark05 auch das bisher nur von Nvidias GeForce-6-Grafikchipserie unterstützte Shader Model 3.
http://www.golem.de/0409/33869-2.html


Das einzige was mir da einfiele wäre der maximale Instruction Count.
wenigstens eine sache. ich wusste doch, da war was. ;)

Labberlippe
2004-10-21, 17:25:01
Toggle "On top" per Tastenkombination. (Trotz zwei Bildschirmen ist der Platz auf dem Deskop endlich. Da erleichtert es die Arbeit, gewisse Dinge wie z. B. Trillian-Chatfenster im Vordergrund zu behalten.)

Toggle Fullscreen-Zoom per Tastenkombination. (Lustigerweise sieht der Zoom z. B. beim Videofenster besser aus, als wenn man das Video im Player selbst zoomt. Außerdem nutze ich den Zoom um diese laufend zu klein geratenen Bilder und Grafiken im Web besser zu sehen.)

Hi

Mit Hydravision sollte Toggle On Top gehen.

Fullscreen, weiss ich nicht, müsste es probieren.
Allerdings sind das nicht Features die ich benötige.

Gruss Labberlippe

AlfredENeumann
2004-10-21, 17:33:15
Wir haben beim NB hersteller geguckt aber wir hatten schon den Aktuellsten
ist HP gewesen glaub ich.


Ums kurz zu machen. Für den Treibersupport ist der Notebookhersteller verantwortlich. Basta.
Wenn du damit zocken willst, nimm den aktuellen OMEGA.

AlfredENeumann
2004-10-21, 17:37:41
Um kundenfreundlich zu sein und Endkund zufrieden zustellen.
Damit die ihr Produkte im vollen umfang genutzen werden können.

Was zum Teufel soll daran Kundenfreundlich sein, wenn ich als Käufers eines Notebooks auf 10 verschiedene Internetseiten schauen soll nur um einen Herstellersupport zu erhalten?

Bei Notebooks, genauso wie bei Mainboards ist der Hersteller des Produktes für den Support zuständig, damit der Endkunde alles (Treiber und Softwareupdates) alles aus einer Hand bekommt.

betasilie
2004-10-21, 18:00:40
Dieser Meinung ist ATI nur, weil sie ihren R400 nicht zustande brachten. Genau so war NV zu R200-Zeiten der "Meinung", dass man PS.1.4 nicht bräuchte.
OK, aber im Grunde war es ja auch auch so, dass PS1.4 nie richtig zum Einsatz und somit relativ "unnötig" war, so sehr er technologisch auch interessant war.

Wobei Du antürlich Recht hast, dass ATI SM3.0 nur runtermacht, weil sie es noch nciht haben. Aber wenn ATI auch SM3.0 Hardware hätte, würde es meiner Meinung nach nichts daran ändern, dass SM3.0 erstmal relativ unwichtig ist für den Anwender in Hinblick auf mindestens 18 Monate ist, ob ATI da nun in ihrer Highendklasse SM3.0 hat und vermarktet, oder nicht.

W00t. Für micht gibts mehr als nur Pielchen (das S mit Absicht weggelassen.)

Was bei ATI im Zusammenhang mit den 512 Slots nervt ist eben die umständliche Programmierung – mit 3.0 sind die Programme oft kürzer. 512 Instruktionen werden in Pielchen zwar auf absehbare Zeit kein wahrnehmbares Limit darstellen. Die arithmetische Rohleistung des R420 ist im Vergleich zum NV40 trotz Taktunterschied aber nicht so gut. Hinzu kommt dann noch die bessere Effizienz durch 3_0 (bzw. 2_A.)
Da will ich dir mal nicht widersprechen. Mir geht es auch eher um die Notwendigkeit. Dass SM3.0 für die Entwickler Vorteile bietet, ist wohl umunstößlich.

Nur haben deswegen ATI User Nachteile? ... Ich denke eher nicht, weil die installierte Basis von SM3.0 Produkten schlichtweg zu klein ist, was sich vor 2006 auch wohl nicht ändern wird.

Daher wird wohl auch auf längere Sicht, selbst wenn ATI mit einem SM3.0-R520 im 1.Q.05 kommt, SM2.0 das Maß aller Dinge bleiben und SM2_x-Karten nicht wirklich als low tech abgestempelt werden können, so sehr SM3.0 auch für die Entwickler von Vorteil wäre.

aths
2004-10-21, 18:16:57
hast ja recht. nur so macht die terminologie sinn. sm 2 sieht nur so langweilig aus. sm 2.0 war da irgendwie cooler. ;DIch n4p hab früher auch gerne "SM 3.0" geschrieben. Bis mich der Rolf eines besseren belehrte.

aths
2004-10-21, 18:24:10
OK, aber im Grunde war es ja auch auch so, dass PS1.4 nie richtig zum Einsatz und somit relativ "unnötig" war, so sehr er technologisch auch interessant war.Beim 1.4-er sehe ich in erster Linie, was damit im Gegensatz zum 1.3-er alles machbar ist. Kurz gesagt, eine Menge. Die Phase erlaubt eine Fülle Effekte singlepass zu rendern. Außerdem bietet ATIs Implementierung Overbright Lighting.

Wobei Du antürlich Recht hast, dass ATI SM3.0 nur runtermacht, weil sie es noch nciht haben. Aber wenn ATI auch SM3.0 Hardware hätte, würde es meiner Meinung nach nichts daran ändern, dass SM3.0 erstmal relativ unwichtig ist für den Anwender in Hinblick auf mindestens 18 Monate ist, ob ATI da nun in ihrer Highendklasse SM3.0 hat und vermarktet, oder nicht.NV geht mit SM3 jetzt auch in die Mittelklasse und mit der 6200 in das Entrylevel-Segment. Angenommen, ATI hätte das auch anzubieten. Dann würden 3.0-Shader eher eingesetzt, um pro Pipe und Takt mehr Performance zu gewinnen. Neue Effekte wären als Option wohl ebenso eher in Spielen zu finden.

Marketingtechnisch verständlich, doch insgesamt nicht gerade nützlich sind ATIs Bemühungen, Entwickler jetzt von 3.0 abzuhalten.

Nur haben deswegen ATI User Nachteile? ... Ich denke eher nicht, weil die installierte Basis von SM3.0 Produkten schlichtweg zu klein ist, was sich vor 2006 auch wohl nicht ändern wird.

Daher wird wohl auch auf längere Sicht, selbst wenn ATI mit einem SM3.0-R520 im 1.Q.05 kommt, SM2.0 das Maß aller Dinge bleiben und SM2_x-Karten nicht wirklich als low tech abgestempelt werden können, so sehr SM3.0 auch für die Entwickler von Vorteil wäre. "SM2-Effekte" sind seit über zwei Jahren möglich. Für viele Spiele wird das auch heute noch ausreichen, schon deshalb weil das Mittelklassesegment erst langsam die notwendige Rohpower bietet, um überhaupt 2.0 ausnutzen zu können. Wer auf dem letzten Stand der Technik sein und in jedem Fall alle Effekte sehen will, könnte sich 2005 mit einer 2.0-Karte anschmieren.

betasilie
2004-10-21, 19:21:32
Beim 1.4-er sehe ich in erster Linie, was damit im Gegensatz zum 1.3-er alles machbar ist. Kurz gesagt, eine Menge. Die Phase erlaubt eine Fülle Effekte singlepass zu rendern. Außerdem bietet ATIs Implementierung Overbright Lighting.
Wir müssen jetzt mal unterscheiden. Man kann von unnütz reden aus technologischer Sicht und aus Sicht der Marktverbreitung.

PS1.4 war selbstverständlich sehr fortschrittlich in Vergleich zu PS1.1/1.3, aber da der Marktführer PS1.4 ausgelassen hat, war er ziemlich unnütz, bis zur Zeiten PS2.0-Hardware.

NV geht mit SM3 jetzt auch in die Mittelklasse und mit der 6200 in das Entrylevel-Segment. Angenommen, ATI hätte das auch anzubieten. Dann würden 3.0-Shader eher eingesetzt, um pro Pipe und Takt mehr Performance zu gewinnen. Neue Effekte wären als Option wohl ebenso eher in Spielen zu finden.
Ja, das ist natürlich eine feiner Gegenzug von NV, der ATI tatsächlich unter Druck setzen könnte. Aber auch mit den neuen Midsegment-Karten von NV, sehe ich für 2005 keinen relevanten Marktanteil an SM3.0 auf uns zukommen, der die Studios dazu treiben wird SM3.0 exzessive einzusetzen. ... Jedenfalls nicht in dem Maße, dass schnelle SM2_x Hardware irgendwelche nennenswerte Nachteile hätte.

Die 6200 interessiert mich da erstmal weniger, da ich nicht davon ausgehe, dass diese keine performanten Shadereinheiten haben wird, ganz wie bei der FX5200.


Marketingtechnisch verständlich, doch insgesamt nicht gerade nützlich sind ATIs Bemühungen, Entwickler jetzt von 3.0 abzuhalten.
Ja, das sind die unfeinen Mittel in der Branche, die mich auch zur Weißglut bringen, wenn natürlich auch aus ATIs Sicht verständlich. Trotzdem muss ich jetzt nochmal nachfragen, wo und auf welchem Wege ATI da vorgeht.

Auf der anderen Seite könnte man da natürlich auch NV vorwerfen, dass sie mit aller Gewalt die Publisher dazu überreden wollen, ein paar Effekte zu generieren, die auf ihrer Hardware besser aussehen sollen, obwohl es eigentlich auch auf auf ATI-Hardware machbar wäre. Das wäre auch unfein.

"SM2-Effekte" sind seit über zwei Jahren möglich. Für viele Spiele wird das auch heute noch ausreichen, schon deshalb weil das Mittelklassesegment erst langsam die notwendige Rohpower bietet, um überhaupt 2.0 ausnutzen zu können.
Genau so sehe ich das auch. Wir kommen jetzt langsam in den Bereich, wo SM2.0 erstmal durch ausreichend Rohpower massiver eingesetzt werden kann, und das werden wir imho auch in 2005 erstmal sehen, bis es 2006 bei aktuellen Toptiteln mit vollen Details mit Sm2_x wohl langsam knapp werden wird.


Wer auf dem letzten Stand der Technik sein und in jedem Fall alle Effekte sehen will, könnte sich 2005 mit einer 2.0-Karte anschmieren.
Nun, meine Maxime lautet da komplett anders:
Wer auf Geschwindigkeit bei topaktuellen Spielen im Jahr 2005 steht und in jedem Fall alle Effekte sehen will, solange NV sich nicht welche für ihr Marketing erkauft, ist mit einer R420 Karte bestimmt voll auf der Höhe der Zeit.

Lieber eine performante SM2.x Hardware, als eine weniger performante SM3.0 Hardware, da auch in 2005 SM2.0 Rohpower das A&O sein wird.

MikBach
2004-10-21, 20:35:47
Marketingtechnisch verständlich, doch insgesamt nicht gerade nützlich sind ATIs Bemühungen, Entwickler jetzt von 3.0 abzuhalten.
Was hält die Entwickler davon ab?
Auch wenn der R420 SM3 beherschen würde, müssten die Entwickler SM2 berücksichtigen, weil man sich an der am Markt befinlichen Basis orientieren muss. Und ich glaube, dass auch 2005 noch mehr SM2 Karten befinden werden als SM3 Karten.
Ich wäre sogar froh, wenn Entwickler möglichst schnell mit SM3 anfangen, da wir nachprüfen könnten, ob die dem NV40 nachgesagt Mehrperformance durch das SM3 wirklich Realität ist oder nur graue Theorie.
BTW warum proggen die Entwickler nicht für SM2 und SM3. Bei FarCry(und nicht nur) gehts doch.

"SM2-Effekte" sind seit über zwei Jahren möglich. Für viele Spiele wird das auch heute noch ausreichen, schon deshalb weil das Mittelklassesegment erst langsam die notwendige Rohpower bietet, um überhaupt 2.0 ausnutzen zu können. Wer auf dem letzten Stand der Technik sein und in jedem Fall alle Effekte sehen will, könnte sich 2005 mit einer 2.0-Karte anschmieren.
Das sehe ich genauso wie beta. Auf 2006 könnten wir uns vielleicht einigen, aber 2005 nie im Leben.

PS danke, dass du dein Avatar geändert hast. Ist jetzt netter anzusehen. :)

Jesus
2004-10-21, 20:40:03
AA ist nicht möglich wenn ein 64-Bit-Framebuffer genutzt wird. Andere "HDR-Features" wie FP-Texturfilterung vertragen sich bestens mit AA, sofern ein übliches 32-Bit-Rendertarget genutzt wird.


Currently HDR can be enabled when AA is set on.
But there is no support of multisampled float-point render targets by video cards (nVidia) and turning HDR and AA on causes weird screen effects. Make sure you use HDR (r_HDRRendering parameters)in Very High Quality with AA set off.


-CryTek.

Backet
2004-10-21, 20:56:19
Als ich heute morgen den Thread gesehen habe, dachte ich , das der Schrott hofentlich schnell zugemacht wird. Ich dachte, das der Thread nicht diskussionsfähig ist.
Und jetzt komm ich hier hin und der hat 14 Seiten.

Da kann ich nur eins zu sagen. Der Threradstarteer hat gewonnen. Pech gehabt

Quasar
2004-10-21, 20:58:08
Zwischenzeitlich ist das Niveau allerdings von "unterirdisch" auf nur noch "mies" gestiegen... :)

aths
2004-10-21, 21:01:48
Wir müssen jetzt mal unterscheiden. Man kann von unnütz reden aus technologischer Sicht und aus Sicht der Marktverbreitung.

PS1.4 war selbstverständlich sehr fortschrittlich in Vergleich zu PS1.1/1.3, aber da der Marktführer PS1.4 ausgelassen hat, war er ziemlich unnütz, bis zur Zeiten PS2.0-Hardware.Ja. Aber nur mit Grausen erinnere ich mich an Diskussionen hier im 3dcf, wo gegen den PS.1.4 alles mögliche ins Feld geführt wurde – ohne dass ein Verständnis, was dieser Shader zu leisten imstande ist, auch nur ansatzweise gegeben war. Außerdem wurde vom R200 auch PS.1.3 hervorragend unterstützt – im Gegensatz zur GF4 Ti hielt sich der R200 an die Empfehlung von Microsoft, mit mindestens 12 Bit pro Komponente zu rechnen. (Verlangt werden nur 9 Bit.)

Die Entwicklungsressourcen für den 1.4-er sind auch keineswegs verschwendet, man erkennt sie im 2.0-er wieder. Ohne 1.4 keine flinken 2.0-Shader. Es hat zwei Jahre gebraucht, ehe der selbsternannte Technologieführer NV etwas effizienteres dagegensetzen konnte. Beim R200 schadete der 1.4-er kein bisschen, beim R300 profitierte kurz- oder langfristig jeder Käufer, auch der Nvidia-Fan, da NV40 die eigentliche Revanche ist.

Ja, das ist natürlich eine feiner Gegenzug von NV, der ATI tatsächlich unter Druck setzen könnte. Aber auch mit den neuen Midsegment-Karten von NV, sehe ich für 2005 keinen relevanten Marktanteil an SM3.0 auf uns zukommen, der die Studios dazu treiben wird SM3.0 exzessive einzusetzen. ... Jedenfalls nicht in dem Maße, dass schnelle SM2_x Hardware irgendwelche nennenswerte Nachteile hätte.

Die 6200 interessiert mich da erstmal weniger, da ich nicht davon ausgehe, dass diese keine performanten Shadereinheiten haben wird, ganz wie bei der FX5200.Ob auch die 6200 "superskalare" Pipes bzw. das "kostenlose" NRM_PP hat, weiß ich noch nicht. Ausschließen würde ich das nicht.

Ja, das sind die unfeinen Mittel in der Branche, die mich auch zur Weißglut bringen, wenn natürlich auch aus ATIs Sicht verständlich. Trotzdem muss ich jetzt nochmal nachfragen, wo und auf welchem Wege ATI da vorgeht.In Entwicklungspapieren wird von 3.0 abgeraten. Angeblich sei es zu langsam implementiert. Verschwiegen wird, dass viele Dinge die der 3.0 dem 2_B-Profil voraus hat, im sehr performant implementiert sind.

Auf der anderen Seite könnte man da natürlich auch NV vorwerfen, dass sie mit aller Gewalt die Publisher dazu überreden wollen, ein paar Effekte zu generieren, die auf ihrer Hardware besser aussehen sollen, obwohl es eigentlich auch auf auf ATI-Hardware machbar wäre. Das wäre auch unfein.Allerdings. Nvidias 2.0-3.0-Vergleich mit Far Cry halte ich für eine Frechheit erster Güte.

Ob sich das fein geriffelte Wasser à la Pacific Fighters (nicht MoH - Pacific Assault wie vorhin fälschlicherweise geschrieben) auch so einfach ohne VS 3.0 realisieren lässt, weiß ich nicht.

Genau so sehe ich das auch. Wir kommen jetzt langsam in den Bereich, wo SM2.0 erstmal durch ausreichend Rohpower massiver eingesetzt werden kann, und das werden wir imho auch in 2005 erstmal sehen, bis es 2006 bei aktuellen Toptiteln mit vollen Details mit Sm2_x wohl langsam knapp werden wird.Mark Rein sagte mal: 'People underestimate what we can do in short term, and overestimate what we can do in long term.'

Imo wird es schon 2005 bei Top-Titeln mit 2.0 2_0 knapp. 2.x 2_B bietet da deutlich größere Reserven. Hier bleibt allerdings der Vorteil kürzerer Shader dank 3.0 3_0.

Nun, meine Maxime lautet da komplett anders:
Wer auf Geschwindigkeit bei topaktuellen Spielen im Jahr 2005 steht und in jedem Fall alle Effekte sehen will, solange NV sich nicht welche für ihr Marketing erkauft, ist mit einer R420 Karte bestimmt voll auf der Höhe der Zeit.Das sehe ich weniger optimistisch. NV wird es vermutlich gelingen, den einen oder anderen 3.0-exklusiven Effekt zu fördern, unabhängig davon ob jener Effekt prinzipiell auch mit 2.x 2_B realisierbar wäre. Doch es gibt auch "neue Effekte", das kann ATI noch hundert mal abstreiten, dadurch wird es nicht richtiger.

Der NV-Entwicklersupport ist zumindest was viel versprechende Studios angeht offenbar sehr gut. Bei Morrowind wurde nachträglich das Pixelshader-Wasser draufgepappt. In einigen Spielen ein oder zwei 3.0-exklusive Grafikeffekte im Jahre 2005 halte ich im Bereich des leicht denkbaren.

Lieber eine performante SM2.x Hardware, als eine weniger performante SM3.0 Hardware, da auch in 2005 SM2.0 Rohpower das A&O sein wird.Was Füllrate angeht, bringt R420 (aufgrund des Taktes) mehr. Was arithmetische Pixelshader-Rechenleistung angeht, bringt NV40 (vereinfacht gesagt aufgrund des superskalaren Designs) mehr.

Gast
2004-10-21, 21:18:05
Kann man den Thread bitte schließen? Wenn nicht, werde ich demnächst auch mal einen "Warum Ferrari low tech ist" Thread starten. Das hat nichts mit einer vernünftigen Diskussion zu tun. Der Threadersteller wollte sich wahrscheinlich mal etwas aufspielen und einen auf 3D-Guru machen. :) Die Argumentationen sind doch wohl völliger Schwachsinn. Mal zusammengefasst:

a) Bei nVidia sieht der Desktop "bunter" aus.
b) nVidia bietet eine Shadertechnologie an, welche im Moment von einem einzigen Spiel unterstützt wird.
c) Eine weitere Technologie, welche sich wohl maximal 3% der PC-Benutzer leisten werden (800-1000€ alleine für die Grafikkarte :-/). Wobei man auch betonen sollte, dass nVidia SLI nicht "erfunden" hat. 3dfx hat SLI schon vor 6 Jahren eingeführt.
d) Guter Treibersupport. Wohl die beste Argumentation an sich, aber nicht korrekt.

Black-Scorpion
2004-10-21, 21:22:26
3dfx hat SLI schon vor 6 Jahren eingeführt.
3dfx SLI ist aber was anderes wie nVidia SLI

MikBach
2004-10-21, 21:27:20
Kann man den Thread bitte schließen? Wenn nicht, werde ich demnächst auch mal einen "Warum Ferrari low tech ist" Thread starten. Das hat nichts mit einer vernünftigen Diskussion zu tun. Der Threadersteller wollte sich wahrscheinlich mal etwas aufspielen und einen auf 3D-Guru machen. :) Die Argumentationen sind doch wohl völliger Schwachsinn. Mal zusammengefasst:

a) Bei nVidia sieht der Desktop "bunter" aus.
b) nVidia bietet eine Shadertechnologie an, welche im Moment von einem einzigen Spiel unterstützt wird.
c) Eine weitere Technologie, welche sich wohl maximal 3% der PC-Benutzer leisten werden (800-1000€ alleine für die Grafikkarte :-/). Wobei man auch betonen sollte, dass nVidia SLI nicht "erfunden" hat. 3dfx hat SLI schon vor 6 Jahren eingeführt.
d) Guter Treibersupport. Wohl die beste Argumentation an sich, aber nicht korrekt.
Und dein Posting gehört in die Spalte "Postings, die die Welt nicht braucht" :rolleyes:
Wenn du dieser Diskussion nichts abgewinnen kannst, dann beteilige dich bitte nicht daran.
Die Diskussion ist gerade erst vernünftig geworden und auf einem hohen Niveau.

robbitop
2004-10-21, 21:36:40
NV44 wird gewiss eine NV40 Pipeline haben. Aber eben nur eine Quadpipeline statt 4.
Das sollte für DX9 Spiele noch immer gut reichen. Shadertechnisch sollte man knappp schneller pro Takt als eine RV350 sein. Reine Speku. Aber angesichts der Skallierbarkeit und Modulierbarkeit der NV4x Linie liegt der Schluss nahe.
Ist nur die Frage ob er wenigstens 4 ROPs bekommt.

Mr. Lolman
2004-10-21, 21:47:06
Zwischenzeitlich ist das Niveau allerdings von "unterirdisch" auf nur noch "mies" gestiegen... :)


Dann zieh ich es wieder ein bisschen runter. ;)


Was für Probleme habt ihr alle mit einer niveauvollen "Fanboydiskussion". In diesem Thread wird kaum geflamed. Die Disksussionen sind sachlich und niemand hackt auf dem anderen rum. Was sollen dann die Wertungen wie "unterirdisch" und "mies", wenn der Thread sich in Anbetracht des Initialposts wohl besser entwickelt hat, als man es zunächst angenommn hätte.

IMO sind solche Äusserungen nur ein Indiz für ein persönliches Problem mit dem Topic. Und in dem Fall hält man sich besser raus, bevor man den Thread nur weiter schreddert.

Vielleicht sind das alles auch nur zur Auflockerung bestimmte, lustig gemeinte Aussagen, die ihr Ziel allerdings verfehlt haben. In diesem Fall wäre es jedoch angebracht, den Humor auf der Spielwiese zu lassen.

Thx

Quasar
2004-10-21, 21:55:26
Möchtest du ein paar (Links zu) Postings hier, die nicht so niveauvoll sind, wie du darstellst?

flatbrain
2004-10-21, 21:58:56
Möchtest du ein paar (Links zu) Postings hier, die nicht so niveauvoll sind, wie du darstellst?

Ach kommt schon, belasst den Thread aktuell so wie er ist und lasst die Streitereien einfach sein... imo ist die momentane Qualität gar nicht so schlecht , wenn man 1 - 2 Postings gekonnt ignoriert ;) !

cu flatbrain

MikBach
2004-10-21, 22:07:23
LEUTE, lasst diese Diskussion nicht wieder abdriften, bitte. Entweder sagt was zum Thema oder gar nichts. Danke. :)

Das sehe ich weniger optimistisch. NV wird es vermutlich gelingen, den einen oder anderen 3.0-exklusiven Effekt zu fördern, unabhängig davon ob jener Effekt prinzipiell auch mit 2.x 2_B realisierbar wäre. Doch es gibt auch "neue Effekte", das kann ATI noch hundert mal abstreiten, dadurch wird es nicht richtiger.
3.0-exklusive Grafikeffekte im Jahre 2005 halte ich im Bereich des leicht denkbaren.
Wäre nicht gerade fein von den Entwicklern, wenn sie den ATI Usern Effekte vorenthalten, die darstellbar sind. Auch wenn das mit geringerer Performane verbunden wäre. Jeder kann dann entscheiden, ob er mit einer geringeren Auflöung und vollen Effekten spielen will, oder aber ihn die Effekte nicht interessiern und er will volle Power.

Aths, welche Effekt soll man sich vorstellen, die mit dem R420 nicht machbar sind? Ich stehe da zu Zeit bisschen auf dem Schlauch. :)

Was Füllrate angeht, bringt R420 (aufgrund des Taktes) mehr. Was arithmetische Pixelshader-Rechenleistung angeht, bringt NV40 (vereinfacht gesagt aufgrund des superskalaren Designs) mehr.
Ist denn Füllrate auf einmal nicht mehr wichtiger als die aritmethische Leistung?

Quasar
2004-10-21, 22:09:48
Ist denn Füllrate auf einmal nicht mehr wichtiger als die aritmethische Leistung?
Ich vermute mal, das hängt mit der Länge der Shader zusammen. Je länger ein Shader und je hochklassiger ein bestimmter Effekt (hoffentlich :|) desto mehr schwindet die Bedeutung von Texelfüllrate und desto mehr nimmt die Bedeutung von arithmetischer Leistung zu.

Ich bin sicher, das wußtest du aber bereits.

Mr. Lolman
2004-10-21, 22:10:40
Wäre nicht gerade fein von den Entwicklern, wenn sie den ATI Usern Effekte vorenthalten, die darstellbar sind.

Früher oder später wird das automatisch kommen. Und NV braucht da wahrscheinlich nicht mal allzuviel beitragen.

Mr. Lolman
2004-10-21, 22:12:00
Ich vermute mal, das hängt mit der Länge der Shader zusammen. Je länger ein Shader und je hochklassiger ein bestimmter Effekt (hoffentlich :|) desto mehr schwindet die Bedeutung von Texelfüllrate und desto mehr nimmt die Bedeutung von arithmetischer Leistung zu.


Demnach müsste sich er Abstand zw. ATi und NV in Zukunft deutlich zu gunsten des NV40 wenden, oder?

/edit: AFAIK performt der NV40 beim Rubydemo vergleichsweise mies (sofern sich das mit neueren Treibern nicht schon wieder geändert hat), und da limitiert ja eindeutig die arithmetische Leistung. Gibts dafür ne Erklärung?

MikBach
2004-10-21, 22:15:19
Ich vermute mal, das hängt mit der Länge der Shader zusammen. Je länger ein Shader und je hochklassiger ein bestimmter Effekt (hoffentlich :|) desto mehr schwindet die Bedeutung von Texelfüllrate und desto mehr nimmt die Bedeutung von arithmetischer Leistung zu.

Ich bin sicher, das wußtest du aber bereits.
Die Frage ist nur wie lang die Shader sein müssen. FarCry benutzt Shader mit einer Länge, die an die 100 Instruktionen geht, und ATI ist schneller oder gleichwertig.
Wie lang müssen die Shader sein?
200 Instruktionen?
Ich glaube kaum, dass wir im nächsten Jahr Spiele mit solcher Shaderlänge bewundern dürfen.
Was mich aber mehr interessiert sind die Effekte, welche angeblich ATI mit 2.B nicht mehr darstellen können wird.

MikBach
2004-10-21, 22:16:38
Früher oder später wird das automatisch kommen. Und NV braucht da wahrscheinlich nicht mal allzuviel beitragen.
Ja, in 3 Jahren vielleicht.

Quasar
2004-10-21, 22:16:47
Eigentlich limitiert in der Ruby-Demo eher die Auslagerung der Texturen über den AGP.
Mit älteren Treibern, die noch keinen 3dc-Hack hatten, kam auch eine X800Pro selten in die 20er-FPS.

=)

MikBach
2004-10-21, 22:18:45
Eigentlich limitiert in der Ruby-Demo eher die Auslagerung der Texturen über den AGP.
Mit älteren Treibern, die noch keinen 3dc-Hack hatten, kam auch eine X800Pro selten in die 20er-FPS.

=)
Wow, dann scheint 3dc mehr zu bringen als SM3. ;D

Quasar
2004-10-21, 22:19:04
Je länger ein Shader und je hochklassiger ein bestimmter Effekt.
Entschuldigt, wenn ich mich selbst zitiere, aber ihr lest ja schon wieder nur das, was ihr lesen wollt.

Wenn ich nun einen Shader bastele, der meinetwegen 100 Instruktionen hat, aber nichts weiter tut, als ein DX7-Multi-Texturing Setup zu ersetzen.... ;)

Quasar
2004-10-21, 22:19:54
Wow, dann scheint 3dc mehr zu bringen als SM3. ;D
Das meinte ich mit dem Kommentar bezgl. des Niveaus.... :rolleyes:

Aber ja, in der Ruby-Demo bringt 3dc mehr als SM3. =)

robbitop
2004-10-21, 22:23:25
man sollte keine ATi Demo nutzen um sowas zu ermitteln.
Far Cry soll laut Demirug gar nicht mal mehr durch die PS limitiert sein bei den HighEnd NV4x/R4xx. Wobei ich nicht weiss, ob die Aussage inzw noch aktuell ist.
Vieleicht ists die Füllrate oder die Geometrieleistung. 33% mehr Chiptakt können bei Geometrie und PS Output eine bedeutende Rolle spielen.

MikBach
2004-10-21, 22:23:51
Entschuldigt, wenn ich mich selbst zitiere, aber ihr lest ja schon wieder nur das, was ihr lesen wollt.

Wenn ich nun einen Shader bastele, der meinetwegen 100 Instruktionen hat, aber nichts weiter tut, als ein DX7-Multi-Texturing Setup zu ersetzen.... ;)
Du spielst also darauf an, dass Material Shader auf einer NV40 Karte schneller laufen sollten?
Das will ich erstmal sehen.

MikBach
2004-10-21, 22:27:15
Das meinte ich mit dem Kommentar bezgl. des Niveaus.... :rolleyes:

Oh man, war doch nur Spass, den Smilie hast du aber gesehen? :)

Mr. Lolman
2004-10-21, 22:29:26
Eigentlich limitiert in der Ruby-Demo eher die Auslagerung der Texturen über den AGP.
Mit älteren Treibern, die noch keinen 3dc-Hack hatten, kam auch eine X800Pro selten in die 20er-FPS.

=)


Ok, dann limitiert bei NV40 Karten die Texturauslagerung, was heisst, dass es zw. den verschiedenen Ausflösungs/AA/AF - Stufen deutliche Leistungsunterschiede geben muss. Was wiederum heisst, dass AA mehr reinknallt, und die 6800GT irgendein Problem mit dem AGP Texturing haben muss, weil meine R300 mit 4xAA/AF an einer Stelle bei der Rubydemo 22fps erreicht, wo sich ne 6800GT ohne AA/AF mit 25fps zufrieden geben muss.

Aus meiner GraKa ists nämlich ne eindeutige arithmetische Limitierung weil die Auflösung (& AA/AF) in Relation zur Performance fast wurscht ist.

Mr. Lolman
2004-10-21, 22:36:44
man sollte keine ATi Demo nutzen um sowas zu ermitteln.



Warum denn? Ok, jetzt gibts den 3dmark05, aber ansonsten kenn ich nix was die neue Generation halbwegs auslastet, und auch auf beiden Karten rennt.

robbitop
2004-10-21, 22:43:41
Warum denn? Ok, jetzt gibts den 3dmark05, aber ansonsten kenn ich nix was die neue Generation halbwegs auslastet, und auch auf beiden Karten rennt.
Weil ein IHV seine Demo sicher irgendwie an die HW anpasst (Stärken und Schwächen) und ausserdem 3dc zum Einsatz kommt.

Nutzt 3DMark05 denn schon so lange Shader?
Ausserdem replacen beide IHVs die Shader im 05er sicherlich schon. Es müsste was selbstgeschriebenes sein. Warum macht tb nicht mal einen Shader in den Shadermark, der so richtig schön lang ist?

reunion
2004-10-21, 22:52:29
Weil ein IHV seine Demo sicher irgendwie an die HW anpasst (Stärken und Schwächen) und ausserdem 3dc zum Einsatz kommt.


Also das Dawn-Demo lieft damals auf R3xx-Karten deutlich schneller :naughty:

Mr. Lolman
2004-10-21, 22:52:47
Weil ein IHV seine Demo sicher irgendwie an die HW anpasst (Stärken und Schwächen) und ausserdem 3dc zum Einsatz kommt.
Schon klar. Nur brachte ich die Rubydemo im Zusammenhang mit meiner R300. Die wird von meinem IHV garnicht unterstützt, sondern rennt nur, weil jemand sich die Mühe gemacht hat, die ganzen langen- zu vielen kleinen Multipassshader zu zerlegen. Was ja der Performance auch nicht unebdingt zuträglich sein dürfte. 3dc kommt daher bei mir auch nicht zum Einsatz. Das Einzige was nicht passt, ist ein Shader von Rubys Augen (die auf der besagte 22fps <> 25fps Szene garnichtmal zu sehen sind) welcher auf R3x0 Karten nicht 1:1 dargestellt werden kann.

Dass ne x800 beide Karten nochmal deutlich im regen stehen lässt, wundert einem eh kaum. Nur im Zusammenhang mit ner R300 wunderts mich, was da konkret limitiert. Vielleicht macht ja mal jemand ein kleines Rubydemoperformance Review. Wär sehr interessant wie sich die Karten verhalten, mal mit Colourless' Shaderreplacement, und mal ohne...

Nutzt 3DMark05 denn schon so lange Shader?
Ausserdem replacen beide IHVs die Shader im 05er sicherlich schon. Es müsste was selbstgeschriebenes sein. Warum macht tb nicht mal einen Shader in den Shadermark, der so richtig schön lang ist?Ich glaub, über kurz oder lang wird eh alles replaced werden... tb könnte das schon mal testen, aber richtig praxisrelevant wär so ein Vergleich, eben ob der Shaderreplacementsache, ohnehin nicht.

Mr. Lolman
2004-10-21, 22:54:27
Also das Dawn-Demo lieft damals auf R3xx-Karten deutlich schneller :naughty:

Stimmt, das war schon beeidruckend. (Auch wenn nicht 100% das gleiche gerendert wurde)

Schade, das Nalu nicht so geil ist, wie Dawn, sonst wär sie wahrscheinlich auch schon gewrappt ;)

MikBach
2004-10-21, 23:02:04
Weil ein IHV seine Demo sicher irgendwie an die HW anpasst (Stärken und Schwächen).
Schwierig zu sagen. IMO ist die Hardware der R420 so nahe an dem DX9 Standard angelehnt, dass ein unabhängiger Progger der nahe an dem DX9 Standard(Dx9 Minimalanspruch, was die R420 sicherlich ist - ausser Shaderlänge und 32 Temp Register)zum gleichen Ergebiss kommen würde.

Nutzt 3DMark05 denn schon so lange Shader?
Ausserdem replacen beide IHVs die Shader im 05er sicherlich schon. Es müsste was selbstgeschriebenes sein. Warum macht tb nicht mal einen Shader in den Shadermark, der so richtig schön lang ist?
Das mit dem Shader in Shadermark finde ich klasse.

MikBach
2004-10-21, 23:05:10
Also das Dawn-Demo lieft damals auf R3xx-Karten deutlich schneller :naughty:
Das kann man nicht vergleichen. Die Fx-Serie bietet eine so unterirdische PS Leistung, dass es kein Wunder war, auch wenn die Shader dem NV3x richtig zubereitet serviert wurden. ;)

aths
2004-10-21, 23:09:19
c) Eine weitere Technologie, welche sich wohl maximal 3% der PC-Benutzer leisten werden (800-1000€ alleine für die Grafikkarte :-/).Die 6600 GT sollte mittelfristig für 230 € das Stück zu bekommen sein.

aths
2004-10-21, 23:10:27
Demnach müsste sich er Abstand zw. ATi und NV in Zukunft deutlich zu gunsten des NV40 wenden, oder?

/edit: AFAIK performt der NV40 beim Rubydemo vergleichsweise mies (sofern sich das mit neueren Treibern nicht schon wieder geändert hat), und da limitiert ja eindeutig die arithmetische Leistung. Gibts dafür ne Erklärung?Woher weißt du, dass da die arithmetische Pixelshaderleistung limitiert?

MikBach
2004-10-21, 23:13:14
Woher weißt du, dass da die arithmetische Pixelshaderleistung limitiert?
Weil lange Shader verwendet werden.

aths
2004-10-21, 23:13:37
Wäre nicht gerade fein von den Entwicklern, wenn sie den ATI Usern Effekte vorenthalten, die darstellbar sind. Auch wenn das mit geringerer Performane verbunden wäre. Jeder kann dann entscheiden, ob er mit einer geringeren Auflöung und vollen Effekten spielen will, oder aber ihn die Effekte nicht interessiern und er will volle Power.Das finde ich bezüglich Far Cry und Half Live 2 auch, wo bestimmte DX9-Grafikkarten wie DX8-Grafikkarten behandelt werden.


Aths, welche Effekt soll man sich vorstellen, die mit dem R420 nicht machbar sind? Ich stehe da zu Zeit bisschen auf dem Schlauch. :)Zum Beispiel alle Effekte die darauf angewiesen sind, dass der Vertexshader auf Texturen zugreifen kann. Bei 2.0 kann man etliche Daten als Konstanten speichern, aber Texturen bieten da doch deutlich mehr Daten pro Vertexshader.

Ist denn Füllrate auf einmal nicht mehr wichtiger als die aritmethische Leistung?Das Verhältnis verschiebt sich immer mehr Richtung Arithmetik. Funktionen zu berechnen ist nun mal genauer als sie per Lookup aus einer Textur zu holen.

aths
2004-10-21, 23:18:26
Schwierig zu sagen. IMO ist die Hardware der R420 so nahe an dem DX9 Standard angelehnt, dass ein unabhängiger Progger der nahe an dem DX9 Standard(Dx9 Minimalanspruch, was die R420 sicherlich ist - ausser Shaderlänge und 32 Temp Register)zum gleichen Ergebiss kommen würde.Andersherum – der DirectX9-Minimalstandard wurde de fakto anhand der R300-Specs festgelegt.

Ergebnis bitte nur mit einem s schreiben. Außer bitte mit ß schreiben.


Das kann man nicht vergleichen. Die Fx-Serie bietet eine so unterirdische PS Leistung,... und überirdische PS-Features, dass die R420 XT PE (lt. ATI "Ultra High End" und "High Definition") zu 500+ € shaderfeaturemäßig der FX 5200 zu ca. 60 € deutlich unterlegen ist.

Mr. Lolman
2004-10-21, 23:19:12
Woher weißt du, dass da die arithmetische Pixelshaderleistung limitiert?

Ich glaub es nur zu wissen, da die Performance ziemlich unabhängig von der Auflösung sowie vom AA/AF ist.

aths
2004-10-21, 23:19:57
Weil lange Shader verwendet werden.Wie lang sind die im Schnitt?

aths
2004-10-21, 23:22:00
Ich glaub es nur zu wissen, da die Performance ziemlich unabhängig von der Auflösung sowie vom AA/AF ist.Das könnte dann ebensogut CPU-Limtierung sein.

MikBach
2004-10-21, 23:26:53
Zum Beispiel alle Effekte die darauf angewiesen sind, dass der Vertexshader auf Texturen zugreifen kann. Bei 2.0 kann man etliche Daten als Konstanten speichern, aber Texturen bieten da doch deutlich mehr Daten pro Vertexshader.
Sorry, aber damit kann ich nichts anfangen.
Kannst dir irgendwelche konkreten Effekt wie z.B. Glass Refraction nennen.

Das Verhältnis verschiebt sich immer mehr Richtung Arithmetik. Funktionen zu berechnen ist nun mal genauer als sie per Lookup aus einer Textur zu holen.
Aber auch schneller?
Die Füllrate dürfte erstmal eine längere Zeit limitieren.

Mr. Lolman
2004-10-21, 23:28:55
Das könnte dann ebensogut CPU-Limtierung sein.

In dem Fall wohl kaum.

/edit:

Nicht nur weil Grafikdemos äußerst selten CPU limitiert sind, sondern weil die Rubydemo auch noch wunderbar mit dem GPU Takt skaliert...

MikBach
2004-10-21, 23:34:44
Andersherum – der DirectX9-Minimalstandard wurde de fakto anhand der R300-Specs festgelegt.
Was habe ich geschrieben? R420; welcher um die von mir erwähnten Goodies erweitert wurde.

Ergebnis bitte nur mit einem s schreiben. Außer bitte mit ß schreiben.
Werde demnächst daran denken.

... und überirdische PS-Features, dass die R420 XT PE (lt. ATI "Ultra High End" und "High Definition") zu 500+ € shaderfeaturemäßig der FX 5200 zu ca. 60 € deutlich unterlegen ist.
ROFL.
Features die aufgrund schlechter Performance nicht dargestellt werden können?
Siehe HL2.
Unter welchem Pfad läuft die FX5200?
Richtig im 8.0 Pfad, weil der 8.1 Pfad schon zu viel des Guten wäre.

-error-
2004-10-21, 23:35:53
ATI hillft Jordan auf die Sprünge :biggrin:

ATI unterstützt Jordan Grand Prix

Bereits Ende Juli spekulierten wir über einen möglichen Einstieg von ATI als Sponsor in der Formel 1. Gestern gab man nun in einer Pressemitteilung bekannt, dass ATI das Jordan Grand Prix Team mit den neusten FireGL Grafikkarten für das "3D Auto-Design" versorgen wird.

Die Renderingpower der FireGL wird auch dringend benötigt, denn durch die anhaltenden Probleme mit einem Motor für das Jahr 2005, ist die Entwicklung für den nächstjährigen Jordan etwas ins Stocken geraten.
In einem Interview gab Eddie Jordan an: „Das es fast zu spät sei, ein ausgeklügeltes Auto um einen neuen Motor herumzubauen.“

“In addition to meeting our technical requirements, the FireGL board’s compatibility with software applications was crucial,” said Adrian Collinson, a Jordan IT analyst involved in developing the new CAD system. “In making our decision, we were looking for performance, stability and value-for-money. We have all of those with FireGL.”

Quelle: Pressemitteilung

hmx
2004-10-21, 23:44:26
@Mikbach

Ich glaube für Displacementmapping braucht der VS zugriff auf die Texturen.

MikBach
2004-10-21, 23:47:30
Wie lang sind die im Schnitt?
Das ist ja der Witz an der Sache.
Man braucht für die heutigen Effekte nicht wirklich über 100 Instruktionen lange Shader.
Und lange Shader mit einer theoretischen Anwendung zu proggen um die Performance zu beweisen ist vielleicht auch nicht der richtige Weg.

Was braucht man für Effekte um das SM2 zum umkippen zu bringen?

aths
2004-10-21, 23:50:31
Sorry, aber damit kann ich nichts anfangen.
Kannst dir irgendwelche konkreten Effekt wie z.B. Glass Refraction nennen.Nein, die möglichen Effekte überlasse ich deinem analytischen Denken sowie deiner Kreativität.

Aber auch schneller?
Die Füllrate dürfte erstmal eine längere Zeit limitieren.In HL2 wird es wohl noch so sein. Wie es in anderen kommenden Engines konkret aussieht, weiß ich nicht. Sofern es sich dabei nicht um Engines handelt die schon etliche Jahre in Entwicklung sind, erwarte ich verstärkte Arithmetiklastigkeit.

aths
2004-10-21, 23:52:19
In dem Fall wohl kaum.

/edit:

Nicht nur weil Grafikdemos äußerst selten CPU limitiert sind, sondern weil die Rubydemo auch noch wunderbar mit dem GPU Takt skaliert...Wenn die Demo kaum mit der Auflösung skaliert, wie kann sie dann mit dem GPU-Takt skalieren?

CPU-limitiert und GPU-Takt bitte mit Bindestrich schreiben.

aths
2004-10-21, 23:53:10
Das ist ja der Witz an der Sache.
Man braucht für die heutigen Effekte nicht wirklich über 100 Instruktionen lange Shader.
Und lange Shader mit einer theoretischen Anwendung zu proggen um die Performance zu beweisen ist vielleicht auch nicht der richtige Weg.

Was braucht man für Effekte um das SM2 zum umkippen zu bringen?Meine Frage hast du leider nicht beantwortet. Erst das eine, dann das andere, kthx.

Mr. Lolman
2004-10-21, 23:53:47
Was braucht man für Effekte um das SM2 zum umkippen zu bringen?

Das ist die große Frage. AFAIK sind HW generierte Mipmaps von Shadern, so ein Knackpunkt. (Aber da könnte man immernoch ein SW Fallback verwenden)

IMO ist die aktuelle SM3 Generation nicht leistungsfähig genug, um Shader die mit SM2 und anderen Fallbacks nur mehr unzufriedenstellend laufen würden, mit annehmbarer Performance darzustellen. (Jetzt auf ne Spielesituation bezogen) Einen einzelnen Shader, der den Radeons das Genick bricht, kann man sicher mehr oder weniger leicht aus dem Handgelenk schütteln.

Das ist für den Spieler dann aber eher irrelevant.

Mr. Lolman
2004-10-21, 23:55:42
Wenn die Demo kaum mit der Auflösung skaliert, wie kann sie dann mit dem GPU-Takt skalieren?


Vielleicht indem ne Limitierung der arithmetischen Pixelshaderleistung vorliegt?


CPU-limitiert und GPU-Takt bitte mit Bindestrich schreiben.Rechtschreibregel, oder aths Duden? Aber ok, ich werd dran denken.

/edit: Momentmal: "aths Duden" oder "aths-Duden"? Ich bin verwirrt. Ich werd wohl besser schlafen gehen. *g* n8

aths
2004-10-21, 23:59:23
Was habe ich geschrieben? R420; welcher um die von mir erwähnten Goodies erweitert wurde.... welche einerseits vergleichsweise einfach zu implementieren sind und andererseits die am ehesten störenden Limits beseitigt. Clever von ATI. Gleich auf SM3 zu gehen (und noch viel mehr Limits fallen zu lassen) ist aus meiner Sicht natürlich deutlich besser.

ROFL.Features die aufgrund schlechter Performance nicht dargestellt werden können?
Siehe HL2.OMGLOL:

Jeder kann dann entscheiden, ob er mit einer geringeren Auflöung und vollen Effekten spielen will, oder aber ihn die Effekte nicht interessiern und er will volle Power.

Unter welchem Pfad läuft die FX5200?
Richtig im 8.0 Pfad, weil der 8.1 Pfad schon zu viel des Guten wäre.Gibt es den "8.1-Pfad" überhaupt noch? Und meintest du nicht vorhin Jeder kann dann entscheiden, ob er mit einer geringeren Auflöung und vollen Effekten spielen will, oder aber ihn die Effekte nicht interessiern und er will volle Power.

Mal unter uns, manchmal denke ich wie du:Und dein Posting gehört in die Spalte "Postings, die die Welt nicht braucht" :rolleyes:
[...]
Die Diskussion ist gerade erst vernünftig geworden und auf einem hohen Niveau.Wenn's geht, würde ich da gerne weiter machen, thx.

aths
2004-10-22, 00:06:01
Vielleicht indem ne Limitierung der arithmetischen Pixelshaderleistung vorliegt? Die skaliert genau so mit dem Takt wie die Füllrate. Wenn etwas mit dem GPU-Takt skaliert muss es zwangsläufig auch mit der Auflösung skalieren – es sei denn, die Applikation hängt arg an der Speicherbandbreite. Dann skaliert es mit der Auflösung aber kaum mit dem GPU-Takt.
Rechtschreibregel, oder aths Duden? aber ok, ich werd dran denken.

/edit: Momentmal: "aths Duden" oder "aths-Duden"? Ich bin verwirrt. Ich werd wohl besser schlafen gehen. *g* n8"aths-Duden". Ich erlaube mir mal, völlig OT (kommt auch nicht wieder vor) noch einen anderen Satz zu berichtigen: Das ist die große Frage. AFAIK sind HW-generierte Mipmaps von Shadern so ein Knackpunkt. (Aber da könnte man immernoch einen SW-Fallback verwenden) (Kein Komma nach "Shadern")

aths
2004-10-22, 00:12:57
@Mikbach

Ich glaube für Displacementmapping braucht der VS zugriff auf die Texturen.Konkret für dynamisches Displacementmapping.

robbitop
2004-10-22, 00:17:13
Schon klar. Nur brachte ich die Rubydemo im Zusammenhang mit meiner R300.
Und was ist ein R420? Eigentlich fast nur ein R300 ;)


Also das Dawn-Demo lieft damals auf R3xx-Karten deutlich schneller

Lag am geringen aritmetische Output beim NV3x.



----

eine echte OnChip Tesslation mit neuer Geometrie ala PPP wäre das, was es endlich mal geben sollte. NV wollte diesen Prozessor schon im "ursprünglichen" NV30 verbauen..was dann doch zu ambitioniert war.

hmx
2004-10-22, 00:49:44
@aths

Ist das die Variante, welche für Landschaften gebraucht wird?

aths
2004-10-22, 01:04:09
@aths

Ist das die Variante, welche für Landschaften gebraucht wird?Hrnjein. DM kann unterschiedlich eingesetzt werden. Presampled DM (mindestens ab R300) ist besser als gar nichts. Dynamisches DM ist besser als presampled. NV40 kann zwar dynamisches DM, dies allerdings nur mir einer umständlichen Methode, die afaik zunächst die Render-to-Vertexbuffer-Fähigkeit (übrigens seit NV30 vorhanden) nutzt. Texturfilterung im Vertexshader gibts auch mit dem NV40 noch nicht, was aber sinnvoll wäre (bis einschließlich trilinear.) Man kann die Filterung im Vertexshader auch "von Hand" programmieren, was natürlich starke VS-Last erzeugt. Solange der VS noch genügend Luft hat, wird das Spiel dadurch natürlich nicht langsamer.

Dynamisches DM ist vielseitig verwendbar und entlastet auf der anderen Seite den Vertexshader auch wieder. Allerdings fürchte ich, dass Landschaften erst dann "gedisplacementmappt" werden, wenn das praktisch alle Karten vernünftig unterstützen – denn ich sehe Probleme, Landschafts-DM in eine "normale" Engine zu integrieren.

hmx
2004-10-22, 02:17:46
Aha danke.

Tja auf DM warte ich schon ne ganze weile (hab schon vor der Parhelia irgendwann als ich ne Voodoo1 hat davon gehört). Diese eckigen Landschaften stören mich schon seit es 3D Beschleunigung für Spiele gibt...

betasilie
2004-10-22, 02:45:28
Dynamisches DM ist vielseitig verwendbar und entlastet auf der anderen Seite den Vertexshader auch wieder. Allerdings fürchte ich, dass Landschaften erst dann "gedisplacementmappt" werden, wenn das praktisch alle Karten vernünftig unterstützen – denn ich sehe Probleme, Landschafts-DM in eine "normale" Engine zu integrieren.
Das ist wohl ein bekanntes Problem. Terrain durch DM zu erzeugen, bedeutet die Aufgabe herkömmlicher Terrainengines, was also erst in ein paar Jahren der Fall sein wird und kann.

DM wird daher in nächster Zeit wohl ausschließlich zur Detailgestaltung eingesetzt werden, was ja auch schonmal einen riesigen Sprung bedeuten würde. Detailpolygone kann man nie genug haben. =)

(del676)
2004-10-22, 08:23:28
Als ATI X800 Pro Besitzer muß ich mal was loswerden.
nVidia bezeichnet sich ja als "High-Tech" Führer, und teilweise stimmt das sogar.

A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...

B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.

C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.

D) Linux-Treiber, auch in 64-Bit. Was ATI mit dem Beta 2 Treiber für 64-bit AMD64 abgeliefert hat ist ja fast peinlich. Linux-Support ist bei nVidia vorbildlich.


ATI steht sehr gut da wenn es um reine GPU-Leistung geht.
Aber das "Drumherum" ist doch sehr vernachlässigt worden.

Wenn man die Firmengeschichte von ATI kennt, dann haben die nach einer technischen Glanzleistung immer die nächste Zeit im Märchenschlaf verbracht.

Edit: Dies ist weder eine Trollerei noch Flameversuch sondern nur meine seit langem innerlich aufgestaute Meinung.


A: ja, hat mir bei der ATI auch ein bisschen gefehlt

B: WAYNE - PS3 interessiert mich soviel die die 3DC Komprimierung - nämlich 0,0

C: WAYNE² - ATI hatte irgendwann mal irgendwo ne Dual Chip 9800 - hat auch keine Sau interessiert

D: naja, die nv linux treiber sind leider auch nur mehr marginal besser, aber nicht weil die von ati besser geworden sind, sondern die von nv schlechter :(
(mit dem letzten treiberrelease isses wieder ein bisschen besser geworden)

E: Warum ATI kein LowTech is: weil die eine verdammt schnelle GPU haben (und das seit 9700Pro DURCHGEHEND) und Treiber die bei fast jedem Spiel SCHNELL UND STABIL laufen

Quasar
2004-10-22, 08:38:39
Du spielst also darauf an, dass Material Shader auf einer NV40 Karte schneller laufen sollten?
Das will ich erstmal sehen.
Ich spiele auf gar nichts an, ich habe lediglich die Antwort auf die Frage zu aths' These gegeben. =)

Quasar
2004-10-22, 08:41:02
Aus meiner GraKa ists nämlich ne eindeutige arithmetische Limitierung weil die Auflösung (& AA/AF) in Relation zur Performance fast wurscht ist.
Ist das so? ;)

Gerade die Auflösung sollte die Arithmetik stärker fordern, da ja mehr Pixel mit den aufwendigen Berechnungen versehen werden müssen (und eben "per pixel"). Für mich sieht das, ohne deine Ergebnisse genauer zu kennen, ebenfalls nach Limitierung durch AGP-Texturing aus - bei einer 128MB-Karte noch mehr, weil ja ~280MB durch die Gegend geschoben werden wollen (und das evtl. sogar mehrmals pro Frame).

Tjell
2004-10-22, 10:32:13
Ich spiele auf gar nichts an, ich habe lediglich die Antwort auf die Frage zu aths' These gegeben. =)
Kein Apostroph nach "aths". ;) //STREICHEN WIR DIESEN SATZ HIER... :sneak:

Mal die Gegenfrage zur angenommen Nicht-Leistungsfähigkeit des NV40 unter SM3.0:
Warum sollte ATI mit ihrer ersten SM3.0-Karte nicht genauso unter diesem gemutmaßten Problem leiden? Ich hoffe mal, daß sich die Kanadier in diesem Punkt genauso auf den Hosenboden setzen und so schnell wie möglich den derzeitigen Technolgierückstand aufholen, wie es nVIDIA in Bezug auf SM2.0-Leistung getan hat. Es wird nicht reichen, einfach nur SM3.0 zu implementieren und dann im jetzigen Entwicklungstempo weiterzumachen.

LZ
2004-10-22, 10:40:33
Kein Apostroph nach "aths". ;)

Mal die Gegenfrage zur angenommen Nicht-Leistungsfähigkeit des NV40 unter SM3.0:
Warum sollte ATI mit ihrer ersten SM3.0-Karte nicht genauso unter diesem gemutmaßten Problem leiden?

Laengere Entwicklungszeit und verbesserte Fertigungsprozesse und -tools.

Quasar
2004-10-22, 10:41:11
Kein Apostroph nach "aths". ;)


Oh, aber ja doch!

"Tjell These" oder "Tjells These" - was ist richtig? ;)

Und da aths auf "s" endet....
(Ich bin vor der Schlechtschreibreform mit der Schule fertig geworden...)

Phoenix03
2004-10-22, 10:49:05
.inf-Auszug Omega 2.5.44 (war der Einzige, den ich noch auf der Platte habe)

gut das der geht das werd ich gleich mal an mein Kollegen weiter geben der wird ich freuen danke

Tjell
2004-10-22, 10:49:26
Zitat von Quasar
Oh, aber ja doch!

"Tjell These" oder "Tjells These" - was ist richtig? ;)

Und da aths auf "s" endet....
(Ich bin vor der Schlechtschreibreform mit der Schule fertig geworden...)

------

Ich schäme mich ja schon!
Die Schlechtschreibreform, dank Zwang zu eben jener durch meinen Arbeitgeber, hat keinen guten Einfluß auf mein geschriebenes Deutsch. ;(
Und hey! Ich bin schon ein ganzes Weilchen aus der Schule raus, also bitte keine unterschwelligen Unterstellungen, ich wäre eines dieser anglizismenliebenden Legastheniker-Kiddies. :D

flatbrain
2004-10-22, 11:00:03
gut das der geht das werd ich gleich mal an mein Kollegen weiter geben der wird ich freuen danke

Vers. 2.5.90 unterstützt auch die Karte, Download:
http://www.omegadrivers.net/

cu flatbrain

aths
2004-10-22, 19:57:47
Mal die Gegenfrage zur angenommen Nicht-Leistungsfähigkeit des NV40 unter SM3.0:
Warum sollte ATI mit ihrer ersten SM3.0-Karte nicht genauso unter diesem gemutmaßten Problem leiden? Weil ATI für SM3 eine neue Architektur entwickeln kann. NV40 ist in vielen Teilen eine stark verbesserte NV30-Architektur.

Gast
2004-10-22, 21:10:49
Um Mrlolmans Frage zu beantworten:
Wenn es mit dem GPU-Takt skaliert, Auflösung und AA/AF aber schnurzegal sind, wird wohl - unglaublich aber wahr - der VS limitieren.

Jesus
2004-10-23, 01:21:14
Weil ATI für SM3 eine neue Architektur entwickeln kann. NV40 ist in vielen Teilen eine stark verbesserte NV30-Architektur.

lol?
Gute nAcht.

Edit: >2.53 Pro mille

Ailuros
2004-10-23, 07:44:31
Laengere Entwicklungszeit und verbesserte Fertigungsprozesse und -tools.

Wann begann denn die Entwicklung von R520 und wann von NV40?

Welche "Tools" genau? Irgendwelche standhafte Kleinigkeiten?

Das mit dem Fertigungsprozess ist mir schon teilweise klar, aber R520 wird sich ja wohl eher gegen NV50 beweisen muessen oder andersrum. Genau deshalb hab ich auch irgendwie das Gefuehl dass die beiden auch keinen besonders grossen Unterschied von einander haben werden was die Veroeffentlichung betrifft...

Ailuros
2004-10-23, 07:46:14
lol?
Gute nAcht.

Edit: >2.53 Pro mille

Wo genau hat er unrecht? Es wird doch wohl nicht besonders viel Muehe kosten ein paar Erlaeuterungen in einen Post zu tippen oder?

robbitop
2004-10-23, 08:52:21
Wo genau hat er unrecht? Es wird doch wohl nicht besonders viel Muehe kosten ein paar Erlaeuterungen in einen Post zu tippen oder?
bei dem Alkoholpegel schon :D

deekey777
2004-10-23, 10:26:22
Wo genau hat er unrecht? Es wird doch wohl nicht besonders viel Muehe kosten ein paar Erlaeuterungen in einen Post zu tippen oder?


Bei mir, obwohl nüchtern, hat es auch etwas gedauert, bis ich aths' Posting kapiert hatte. ;(

Quasar
2004-10-23, 11:06:38
Um Mrlolmans Frage zu beantworten:
Wenn es mit dem GPU-Takt skaliert, Auflösung und AA/AF aber schnurzegal sind, wird wohl - unglaublich aber wahr - der VS limitieren.

Das wäre auch eine Möglichkeit, ja. :)
Leider habe ich momentan keine Daten zum Vertexaufkommen und den Shadern....

Jesus
2004-10-23, 12:31:53
Wo genau hat er unrecht? Es wird doch wohl nicht besonders viel Muehe kosten ein paar Erlaeuterungen in einen Post zu tippen oder?

Naja die "Erläuterungen" waren da, aber ich hab sie dann nach 5 Minuten und nochmaligem Lesen dann doch wieder entfernt (soweit ich weiss) ;)

Ailuros
2004-10-23, 13:38:49
Naja die "Erläuterungen" waren da, aber ich hab sie dann nach 5 Minuten und nochmaligem Lesen dann doch wieder entfernt (soweit ich weiss) ;)


Neben dem Passwort, sollte Leo demnaechst auch einen Alkotest beim Eingang einfuehren *kicher* :D

Tigerchen
2004-10-23, 15:03:00
... und überirdische PS-Features, dass die R420 XT PE (lt. ATI "Ultra High End" und "High Definition") zu 500+ € shaderfeaturemäßig der FX 5200 zu ca. 60 € deutlich unterlegen ist.


Könntest du bitte aufhören diesen Stuß immer und immer wieder zu verbreiten. Ich dachte zu zählst dich zu den seriösen Onlinejournalisten. Hast du da wirklich solche billige Polemik nötig?

LovesuckZ
2004-10-23, 16:30:04
Könntest du bitte aufhören diesen Stuß immer und immer wieder zu verbreiten. Ich dachte zu zählst dich zu den seriösen Onlinejournalisten. Hast du da wirklich solche billige Polemik nötig?


Und koenntest du aufhoeren, die Wahrheit zu verdraengen?
Immerhin ist die 500€ Karte nicht in der Lage, Shader auszufuehren, welche mit dem 2.a profil compiliert wurden.

Wishnu
2004-10-23, 16:42:37
Und koenntest du aufhoeren, die Wahrheit zu verdraengen?
Immerhin ist die 500€ Karte nicht in der Lage, Shader auszufuehren, welche mit dem 2.a profil compiliert wurden.

Fein, dann sitze ich also mit meiner 5200 da und habe genügend Zeit, 2.a zu bewundern, da die Frames gerade mal so reintröpfeln.

Wieso kommt eigentlich nicht einer der beiden Firmen auf die Idee die Shaderlange auf bspw. 100 Mio zu erhöhen? Damit wäre doch der technische Vorsprung erst einmal gesichert, oder? Die Konsumenten hätten dann die einfache Wahl zwischen high- (also 100Mio Instruktionen) und lowend (ein paar tausend Instruktionen). Wer dann noch lowend kauft, wäre halt selber schuld.

Quasar
2004-10-23, 16:45:20
Wishnu,
das war doch der Ausgangspunkt, auf den aths geantwortet hat und den AFAIK auch niemand in Frage stellt.

Wishnu
2004-10-23, 16:47:50
Sicher, aber was habe ich von einer theoretisch überlegenen Technik?
Ich wollte ja nur noch einmal betonen, dass das doch recht irrelevant ist, wer nun mehr auf dem Papier zu bieten hat. Die Frage muss doch heissen, in wieweit das überhaupt sinnvoll ist.
Der Konsument hat doch nichts davon, dass seine FX5200 mehr als 2.0 kann.
Das macht sich halt gut in der Werbung und dient eher der Irreführung zugünsten des Herstellers, als dem Verbraucher.

Quasar
2004-10-23, 16:52:07
Nein, die Frage muss lauten: Was wäre die Alternative.

Alternative 1:
Mir reicht das kleinere Featureset der Radeons. Da diese das auch noch schneller abarbeiten können, erübrigt sich hier weitere Diskussion.

Alternative 2:
Ich brauche (aus welchen Gründen auch immer) das erweiterte Featureset. Hier lautet dann die Frage, ob ich die Berechnungen, auf die es mir ankommt, per Grafikkarte oder per CPU schneller durchführen kann.

Wishnu
2004-10-23, 16:54:11
Das ist aber doch schon wieder viel zu speziell. 99.9% der Käufer stellt sich diese Frage nicht.

Quasar
2004-10-23, 17:01:02
Tut mir leid wenn 99,9% der Käufer so engstirnig sind.

edit:
...und nicht nachdenken, was sie wollen.
Komischerweise scheint das bei Automobilen deutlich besser zu funktionieren.

aths
2004-10-23, 17:11:34
[COLOR="#000088"]
Könntest du bitte aufhören diesen Stuß immer und immer wieder zu verbreiten. Ich dachte zu zählst dich zu den seriösen Onlinejournalisten. Hast du da wirklich solche billige Polemik nötig?Das ist kein Stuss, das ist die andere Seite der Medaillie.

aths
2004-10-23, 17:23:23
Fein, dann sitze ich also mit meiner 5200 da und habe genügend Zeit, 2.a zu bewundern, da die Frames gerade mal so reintröpfeln.Mit 2_0 wäre die 5200 keineswegs schneller als mit 2_A. Für Spiele halbwegs brauchbare Leistung gibts nur bis Version 1.3.

Wieso kommt eigentlich nicht einer der beiden Firmen auf die Idee die Shaderlange auf bspw. 100 Mio zu erhöhen? Damit wäre doch der technische Vorsprung erst einmal gesichert, oder? Die Konsumenten hätten dann die einfache Wahl zwischen high- (also 100Mio Instruktionen) und lowend (ein paar tausend Instruktionen). Wer dann noch lowend kauft, wäre halt selber schuld.NV40 setzt hardwareseitig in der Tat keine Grenze, das tut nur die DirectX-API (bzw. der verfügbare Speicher.) Da der NV40 immerhin bis zu 2048 MB adressieren kann, ... :)

Tigerchen
2004-10-23, 18:08:10
Fein, dann sitze ich also mit meiner 5200 da und habe genügend Zeit, 2.a zu bewundern, da die Frames gerade mal so reintröpfeln.

Wieso kommt eigentlich nicht einer der beiden Firmen auf die Idee die Shaderlange auf bspw. 100 Mio zu erhöhen? Damit wäre doch der technische Vorsprung erst einmal gesichert, oder? Die Konsumenten hätten dann die einfache Wahl zwischen high- (also 100Mio Instruktionen) und lowend (ein paar tausend Instruktionen). Wer dann noch lowend kauft, wäre halt selber schuld.

Aber ehrlich. Wenn Features nur dazu da sind um auf bunten Kartons zu glänzen kann man auch besser ganz drauf verzichten.

Jesus
2004-10-23, 18:26:46
NV40 setzt hardwareseitig in der Tat keine Grenze, das tut nur die DirectX-API (bzw. der verfügbare Speicher.) Da der NV40 immerhin bis zu 2048 MB adressieren kann, ... :)

jo, wie immer rein theoretisch. Wie das ganze dann in der Praxis performancemässig abgeht bei so langen Shadern ist schon wieder ne andere Frage...

aths
2004-10-23, 18:46:47
jo, wie immer rein theoretisch. Wie das ganze dann in der Praxis performancemässig abgeht bei so langen Shadern ist schon wieder ne andere Frage...Nicht jede Applikation muss mit 60 fps laufen. Verglichen mit CPU-basiertem Rendering beschleunigt der NV40 erheblich, und bietet dabei (abgesehen von NaN) Kompatibilität mit IEEE754-FP32. Außerdem beinhaltet SM3 ja gerade, dass ein langer Shader nicht in Gänze abgearbeitet werden muss.

Wishnu
2004-10-23, 18:54:46
Tut mir leid wenn 99,9% der Käufer so engstirnig sind.

edit:
...und nicht nachdenken, was sie wollen.
Komischerweise scheint das bei Automobilen deutlich besser zu funktionieren.

Ich denke mal es geht hier weniger darum, dass sie es nicht wollten, sondern es schlichtweg nicht brauchen, weil sie persönlich keinen weiteren Nutzen daraus ziehen können.

Mit 2_0 wäre die 5200 keineswegs schneller als mit 2_A. Für Spiele halbwegs brauchbare Leistung gibts nur bis Version 1.3.


Das ist ja der springende Punkt.
Laut Marketing ist eine FX5200 hightech, weil sie ja DX9 in Hardware kann. Eine GF4 hingegen gehört zum alten Eisen, da nur DX8.
In der Praxis wird der Spieler allerdings immer mehr von der GF4 haben, als von der FX5200.


NV40 setzt hardwareseitig in der Tat keine Grenze, das tut nur die DirectX-API (bzw. der verfügbare Speicher.) Da der NV40 immerhin bis zu 2048 MB adressieren kann, ... :)

Aus der Sicht eines Programmieres bestimmt wunderbar und notwendig, damit er sich eben auch in ein paar JAhren diesbezüglich keine Sorgen machen muss. Das will ich ja nicht bestreiten. Der normale Zocker hat davon aber eben nicht viel. ;)

StefanV
2004-10-23, 18:57:04
Das ist kein Stuss, das ist die andere Seite der Medaillie.
Nujo, nur ist die 60€ FX5200 auch etwas langsamer und an anderer Stelle Rückständig (Color Compression, nur 4 Pipes und ein 128bit Speicherinterface, meist nur 64bit), das ganze bei maximal 200MHz, nicht selten gar weniger...

Die FX5200 kann man, so man denn will, auch als Technologiebremse sehen...

aths
2004-10-23, 19:04:01
Nujo, nur ist die 60€ FX5200 auch etwas langsamer und an anderer Stelle Rückständig (Color Compression, nur 4 Pipes und ein 128bit Speicherinterface, meist nur 64bit), das ganze bei maximal 200MHz, nicht selten gar weniger...

Die FX5200 kann man, so man denn will, auch als Technologiebremse sehen...Bekommt man für 60 € mehr Technologie bei besserer Performance?

mapel110
2004-10-23, 19:06:50
Bekommt man für 60 € mehr Technologie bei besserer Performance?

nö, aber wesentlich mehr Performance bei vernachlässigbarem technoligischen Rückstand.
:)

btw 4 Pipes bei 5200er? hab ich was verpasst?

Quasar
2004-10-23, 19:18:18
Ich denke mal es geht hier weniger darum, dass sie es nicht wollten, sondern es schlichtweg nicht brauchen, weil sie persönlich keinen weiteren Nutzen daraus ziehen können.

Wenn ein informierter Käufer keinen Nutzen für sich darin sieht, spricht ja nichts dagegen, wenn er sich für ein Produkt entscheidet, das eher seinen Anforderungen entspricht - im Gegenteil ist das sogar sehr zu begrüßen.
Allerdings sehe ich nicht, wie dadurch mein Argument entkräftet wird.

Dumm und kurzsichtig ist allerdings, beständig die persönliche Sicht der Dinge in die große weite Welt zu projizieren und sie als allgemeingültig zu verkaufen.

Quasar
2004-10-23, 19:20:41
nö, aber wesentlich mehr Performance bei vernachlässigbarem technoligischen Rückstand.
:)
Ich sag's mal so:
Was nützt mir eine tolle Addiermaschine, wenn ich dividieren will?

StefanV
2004-10-23, 19:20:54
Bekommt man für 60 € mehr Technologie bei besserer Performance?
'ne TI4800SE gibts für etwas mehr als 60€, eine 9550 ebenso.

Mehr Technologie nicht unbedingt, aber deutlich mehr nutzbare Performance.

€dit:

Und wenn man SEHR VIEL GLÜC hat, bekommt man für wenig mehr eine FX5900 :rolleyes:

deLuxX`
2004-10-23, 19:23:57
Ja klar hat die FX5200 4 pipes. Selbst die neue Low-end Karte 6200 hat nur pipes(Obwohl auf ihr noch dank NV43 noch 8 pipes physikalisch vorhanden sind).

Wishnu
2004-10-23, 19:24:29
Dumm und kurzsichtig ist allerdings, beständig die persönliche Sicht der Dinge in die große weite Welt zu projizieren und sie als allgemeingültig zu verkaufen.

Wer im Steinhaus sitzt, sollte nicht mit Gläsern werfen...oder so ähnlich. ;)

Quasar
2004-10-23, 19:31:10
Wer im Steinhaus sitzt, sollte nicht mit Gläsern werfen...oder so ähnlich. ;)

Vielen Dank, aber im Gegensatz zu anderen akzeptiere ich jedermanns Gründe sich für oder gegen ein Produkt zu entscheiden und spreche diesen nicht jegliche Relevanz ab. =)

Jesus
2004-10-23, 19:39:57
Ich sag's mal so:
Was nützt mir eine tolle Addiermaschine, wenn ich dividieren will?

nur sind das keine Addiermaschinen sondern in erster Linie 3D Beschleuniger. Was nützt es mir wenn ich etwas zwar darstellen kann, aber mehr nicht ?

Quasar
2004-10-23, 19:47:18
Ach komm schon Jesus - du willst mir nicht erzählen, daß du diese Analogie nicht kapiert hast.

Wishnu
2004-10-23, 19:59:01
Hm, Du bekommst hier zwar eine Maschine, die zusätzlich noch dividieren kann, dafür beschränkt sich diese Fähigkeit aber nur auf ein paar ausgesuchte Zahlen.
Trotzdem steht dick "Dividiermaschnine" drauf.

Jesus
2004-10-23, 20:04:25
Ach komm schon Jesus - du willst mir nicht erzählen, daß du diese Analogie nicht kapiert hast.

Addiermaschine = z.b. veraltete R3xx (SM2.0)
Addier und Dividiermaschine = moderne Nv3x (SM2.0a)

wenn nein isses mir auch herzlich egal, ansonsten schliess ich mich meinem Vorredner an ;)

Wishnu
2004-10-23, 20:10:15
Vielen Dank, aber im Gegensatz zu anderen akzeptiere ich jedermanns Gründe sich für oder gegen ein Produkt zu entscheiden und spreche diesen nicht jegliche Relevanz ab. =)

Ich habe doch 0.01% übrig gelassen. ;)

mapel110
2004-10-23, 20:14:01
Ich sag's mal so:
Was nützt mir eine tolle Addiermaschine, wenn ich dividieren will?

was nützt mir die fähigkeit zu dividieren, wenn es ewig dauert, bis das ergebnis geliefert wird(fps) und nur unzureichend stellen hinter dem Komma geliefert werden (auflösung). :)

Quasar
2004-10-23, 20:15:53
Es geht nicht um veraltet, schnell oder langsam sondern schlicht darum, das geeignete Werkzeug für die jeweilige Aufgabe zu haben. :rolleyes:

edit:
mapel110,
eben darum geht es nicht nur. :)

Jesus
2004-10-23, 20:17:57
Es geht nicht um veraltet, schnell oder langsam sondern schlicht darum, das geeignete Werkzeug für die jeweilige Aufgabe zu haben. :rolleyes:

nur leider gibt es die Aufgabe gar nicht.

mapel110
2004-10-23, 20:18:37
Ja klar hat die FX5200 4 pipes. Selbst die neue Low-end Karte 6200 hat nur pipes(Obwohl auf ihr noch dank NV43 noch 8 pipes physikalisch vorhanden sind).

hm, da hatte ich gerade was völlig anderes im kopp. dachte, 5200er hätte 2x1 pipes oder so. aber stimmt anscheinend mit den 4 pipes bzw 2x2.

nur leider gibt es die Aufgabe gar nicht.

hart, aber treffend :D

Quasar
2004-10-23, 20:20:51
Natürlich gibt es sie. =)

aths
2004-10-23, 23:58:53
nö, aber wesentlich mehr Performance bei vernachlässigbarem technoligischen Rückstand.Ja, der Kunde hat die Wahl zwischen mehr Performance oder mehr Features. Bei meiner Ti 4600 nervte mich die Einschränkung auf DX8 jedenfalls zusehens. Die Radeon 9600 brachte dann DX9-Support, aber hatte natürlich auch spürbar weniger Leistung in DX7- und 8-Spielen.

Die 5200 spielt aber ohnehin nicht in dem Feld, das für leistungsbewusste 3D-Spieler infrage kommt. An 2D-Funktionen wird soweit mir bekannt alles geboten, was die restliche FX-Familie auch hat. Der Konkurrent von ATI war (oder ist noch?) preislich gesehen eher die 9200, und wenn die auch in dem einen oder anderen Spiel etwas schneller ist, halte ich die 5200 für das bessere Gesamtpaket.

Früher gabs in einer Grafikfamilie von NV eigentlich nur zwei Stufen: Performance und Mainstream. Mit der FX wurde das auf drei Stufen aufgefächert: 5800 (später 5900) für die Leistungsbewussten, 5600 (später 5700) für den Mainstream, die 5200 als Einstiegsmodell. Das wird natürlich grundsätzlich keine Karte sein, die genug Leistung für anspruchsvolle Spieler bietet.

Dass die X800 "weniger DirectX9" kann, das dafür eine Größenordnung schneller, als die 5200, halte ich für eine nüchterne Feststellung.
btw 4 Pipes bei 5200er? hab ich was verpasst?Die 5200 kann pro Takt bis zu 4 Pixel rendern, jedenfalls so lange keine DirectX9-Pixelshader genutzt werden.

Ailuros
2004-10-24, 01:10:43
Ja klar hat die FX5200 4 pipes. Selbst die neue Low-end Karte 6200 hat nur pipes(Obwohl auf ihr noch dank NV43 noch 8 pipes physikalisch vorhanden sind).


Was heisst bei Euch genau "pipes"? NV34 hat 2 SIMD Kanaele und 4 TMUs.

6200 hat 4 SIMD Kanaele und 8 TMUs.

DH[ger]
2004-10-24, 01:13:08
Boa, wie hier um den heißen Brei geredet wird. Kann denn nicht mal einer jetzt Clip und klar zusammenwassen, wie lange SM 2.0 noch zum anspruchsvollem zocken taugt?????

Xmas
2004-10-24, 01:17:08
6200 hat 4 SIMD Kanaele und 8 TMUs.
Wie kommst du darauf?

Ailuros
2004-10-24, 01:30:33
Dass die X800 "weniger DirectX9" kann, das dafür eine Größenordnung schneller, als die 5200, halte ich für eine nüchterne Feststellung.

Kein Einwand gegen die Perspektive in relativem Sinn, aber dx9.0 (SM2.0+/NV3X, SM3.0/NV4x) in das Value/low-end zu implementieren verbleibt fuer mich nur ein Marketing-technischer Schachzug, der natuerlich auch erfolgreich war im vorigen Jahr.

Gegen sowas kann ja auch ATI nicht reagieren wenn man selbst im ultra high end Segment SM2.0+ erreicht.

Mir waere es lieber wenn eine 6200 keine SM3.0 Komplianz haben wuerde und stattdessen Farben- und Z-Kompression und etwas hoehere Fuellrate als einfaches Beispiel.

Ailuros
2004-10-24, 01:31:14
Wie kommst du darauf?

4 TMUs. Ich wollte gerade editieren.

aths
2004-10-24, 01:44:13
Kein Einwand gegen die Perspektive in relativem Sinn, aber dx9.0 (SM2.0+/NV3X, SM3.0/NV4x) in das Value/low-end zu implementieren verbleibt fuer mich nur ein Marketing-technischer Schachzug, der natuerlich auch erfolgreich war im vorigen Jahr.

Gegen sowas kann ja auch ATI nicht reagieren wenn man selbst im ultra high end Segment SM2.0+ erreicht.Die Strategie, alle Features zu bieten und via Performance abzustufen finde ich jedenfalls besser, als lange noch alte Technik mitzuschleifen – siehe GF4 MX.

Mir waere es lieber wenn eine 6200 keine SM3.0 Komplianz haben wuerde und stattdessen Farben- und Z-Kompression und etwas hoehere Fuellrate als einfaches Beispiel.Sowas heißt dann 5600 (bzw. 5700.)

Eine Karte die 6xxx heißt, sollte imo auf jeden Fall SM3 bieten.

Ailuros
2004-10-24, 02:17:49
Die Strategie, alle Features zu bieten und via Performance abzustufen finde ich jedenfalls besser, als lange noch alte Technik mitzuschleifen – siehe GF4 MX.

Nur marginal bessere oder etwa gleiche Leistung bei der NV34 im Vergleich zu einer GF4MX war aber auch nicht gerade ideal. Das Problem dass ich aber in dem Fall dann einsehen kann, ist dass man den Vergleich zu einer 5600 total verpatzt haette, die auch kein besonderer Leistungs-Meister war.

Sowas heißt dann 5600 (bzw. 5700.)

Eine Karte die 6xxx heißt, sollte imo auf jeden Fall SM3 bieten.

Dann nennt man sie eben etwas anderes als 6xxx, falls das das Problem sein sollte. Und ja ich weigere mich auch einzusehen wieso high end Features im low-end theoretisch nach vorne treiben sollten. Selbst wenn ich die Leistung und Effizienz zur Seite schiebe, hilft es gleich gar nichts wenn die andere Haelfte des Markts sich immer noch mit SM2.0 herumwaerkelt.

NVIDIA musste einen Weg finden sich durch die NV3x Aera gegen die Ueberlegenheit ATI´s im high end zu wehren und die Skalierung der high end features in die unterste Spalte war eine gute Idee. Erfolgreiche Rezepte werden auch meistens behalten, ueberhaupt wenn die Konkurrenz nicht mithalten kann was Features betrifft.

LovesuckZ
2004-10-24, 08:48:04
Das ist ja der springende Punkt.
Laut Marketing ist eine FX5200 hightech, weil sie ja DX9 in Hardware kann. Eine GF4 hingegen gehört zum alten Eisen, da nur DX8.
In der Praxis wird der Spieler allerdings immer mehr von der GF4 haben, als von der FX5200.


Die 5200 wurde von nvidia nie als "4TI" Killer beworben.
Also kann man sie nicht auf dieser Schiene vergleichen.

Der normale Zocker hat davon aber eben nicht viel. ;)

Hat er in Zukunft, da der Entwicklung aufgrund des SM2.a/3.0 bessere Leistung bei gleichen Shadern gegenüber den Sm2.0/PS2.b erreicht.
Aber ist okay, wie andere wirst du wohl auch diesen Vorteil in Zukunft nicht einsetzen... ;)

nur sind das keine Addiermaschinen sondern in erster Linie 3D Beschleuniger. Was nützt es mir wenn ich etwas zwar darstellen kann, aber mehr nicht ?

Im Gegensatz zur CPU ist die 5200 noch schneller.
Was bringt mir Schnelligkeit, wenn der geschriebene Shader aufgrund technologischer Rueckstaendigkeit nicht ausgefuehrt werden kann?


was nützt mir die fähigkeit zu dividieren, wenn es ewig dauert, bis das ergebnis geliefert wird(fps) und nur unzureichend stellen hinter dem Komma geliefert werden (auflösung).

Und was macht der jenige, der Addieren und Dividieren moechte?
Ist es nicht besser eine etwas langsamere dafuer aber vielsichtigere "Rechnenmaschine" zu haben, die auch etwas "exotische" Rechenaufgaben uebernehmen kann?
Im Umkehrschluss bedeutet das, dass man jede Rechnung erstmal auf eine Addition umstellen muss, bevor sie ausgefuehrt werden kann.
Klingt schwierig...

LovesuckZ
2004-10-24, 08:49:36
Nur marginal bessere oder etwa gleiche Leistung bei der NV34 im Vergleich zu einer GF4MX war aber auch nicht gerade ideal.

Gleiche Leistung bei geringerer Kompartibilitaet findest du "Ideal" aus Sicht der GF4MX?

robbitop
2004-10-24, 08:52:08
@aths
bist du dir sicher, dass NV34 4 Farbwerte/Takt schreiben kann (ohne PS Code)?
Diese Fähigkeit besaß IIRC nur NV31.
1 Pipeline sollte pro Takt 1 Farbwert +1 Alphablending +1Z Test schaffen.
Somit besitzen NV31/34 eigentlich nur 2 Pipelines. Die Fähigkeit, die TMUs anders zu verschalten, sollte noch keine 4 Pipelines ausmachen.

Jesus
2004-10-24, 11:23:00
Und was macht der jenige, der Addieren und Dividieren moechte?
Ist es nicht besser eine etwas langsamere dafuer aber vielsichtigere "Rechnenmaschine" zu haben, die auch etwas "exotische" Rechenaufgaben uebernehmen kann?

Nein.
Es stellt sich dann so dar: Ihr ( FX...) könnte dann zwar super dividieren, aber wir (r3xx) bekommen dasselbe Ergebnis in dem wir einfach etwas mehr addieren, allerdings im Endeffekt immer noch schneller als eure Division (rein hypothetisch ;) ).

LovesuckZ
2004-10-24, 13:21:20
Nein.
Es stellt sich dann so dar: Ihr ( FX...) könnte dann zwar super dividieren, aber wir (r3xx) bekommen dasselbe Ergebnis in dem wir einfach etwas mehr addieren, allerdings im Endeffekt immer noch schneller als eure Division (rein hypothetisch ;) ).

Aeh, nein das ist (mal wieder) falsch.
Außer du kannst mir erklaeren, wie man eine Division durch eine Addition ersetzen koennte.

Jesus
2004-10-24, 13:29:01
Aeh, nein das ist (mal wieder) falsch.
Außer du kannst mir erklaeren, wie man eine Division durch eine Addition ersetzen koennte.

vielleicht solltest du nochmal lesen was ich geschrieben habe (das in Klammern dahinter auch) und dann nochmal tief durchatmen und nachdenken...

Wishnu
2004-10-24, 14:31:42
Hat er in Zukunft, da der Entwicklung aufgrund des SM2.a/3.0 bessere Leistung bei gleichen Shadern gegenüber den Sm2.0/PS2.b erreicht.
Aber ist okay, wie andere wirst du wohl auch diesen Vorteil in Zukunft nicht einsetzen... ;)



Wenn ich aths richtig verstanden habe, bringt sm2.a in Sachen Performance ja keine Vorteile gegenüber 2.0.
Und ob ich nun bei einer 6200 dank sm3.0 statt 10fps nun 11fps habe, macht den Kohl auch nicht fett. Da würden andere Maßnahmen wohl mehr bringen.

Überhaupt birgt für mich eine Geschwindigkeitssteigerung durch sm3.0 keine Vorteile gegenüber einem höheren Grundtakt, wie das bspw. bei Ati der Fall ist. Wo ist der Unterschied, ob ich nun bspw. 10% Mehrleistung durch sm3.0 oder einen höheren Takt erreiche?
Sm3.0 macht für mich also erst Sinn, wenn ich damit Dinge erreichen kann, die jenseits einer Geschwindigkeitssteigerung liegen.

LovesuckZ
2004-10-24, 14:58:26
vielleicht solltest du nochmal lesen was ich geschrieben habe (das in Klammern dahinter auch) und dann nochmal tief durchatmen und nachdenken...

Mir ist nicht bewusst, dass der R420 das 2.a Profil ausfuehren kann...

Ailuros
2004-10-24, 15:02:01
Gleiche Leistung bei geringerer Kompartibilitaet findest du "Ideal" aus Sicht der GF4MX?

Nein. Was viele von Euch mit Absicht uebersehen wollt, ist die Tatsache dass ich als Verbraucher erwarte dass ein neues Modell zumindest um eine gesunde Marge schneller sein wird als der Vorgaenger.

Es fehlt den Dingern einfach zu viel an Pixel-Processing Staerke. Etwa gleiches galt auch im Mainstream-Segment wo eine mainstream GF4Ti mit Leichtigkeit durch die doppelt so vielen TMUs gegen eine NV31 kompensiert hat.

Falls Dir das alles uebertrieben erscheinen sollte, dann schau Dir nochmal genau den Unterschied in Leistung vergleichsmaessig zwischen NV31 und NV43 heute an. Eine 6600GT kann ihre Vorgaenger mit Leichtigkeit wegfegen, wozu eben eine 5600 im Vergleich zu einer Ti4200 nicht unbedingt faehig war; den Platz nahm dann eher nach einiger Zeit eine 5900XT ein.

Ailuros
2004-10-24, 15:04:50
@aths
bist du dir sicher, dass NV34 4 Farbwerte/Takt schreiben kann (ohne PS Code)?
Diese Fähigkeit besaß IIRC nur NV31.
1 Pipeline sollte pro Takt 1 Farbwert +1 Alphablending +1Z Test schaffen.
Somit besitzen NV31/34 eigentlich nur 2 Pipelines. Die Fähigkeit, die TMUs anders zu verschalten, sollte noch keine 4 Pipelines ausmachen.

NV31 = 2*2 oder 4*1
NV34 = 2*2

aths
2004-10-24, 15:49:38
@aths
bist du dir sicher, dass NV34 4 Farbwerte/Takt schreiben kann (ohne PS Code)?
Diese Fähigkeit besaß IIRC nur NV31.
1 Pipeline sollte pro Takt 1 Farbwert +1 Alphablending +1Z Test schaffen.
Somit besitzen NV31/34 eigentlich nur 2 Pipelines. Die Fähigkeit, die TMUs anders zu verschalten, sollte noch keine 4 Pipelines ausmachen.Wenn ich mich richtig erinnere, hatte Quasar das mal (mit 4 px/clk) gemessen.

aths
2004-10-24, 15:54:13
Wenn ich aths richtig verstanden habe, bringt sm2.a in Sachen Performance ja keine Vorteile gegenüber 2.0.Da hast du mich falsch verstanden. Profil 2_0 bringt der 5200 keinen Vorteil gegenüber Profil 2_A, eher im Gegenteil.

Sm3.0 macht für mich also erst Sinn, wenn ich damit Dinge erreichen kann, die jenseits einer Geschwindigkeitssteigerung liegen.Pacific Fighters soll Displacementmapping für die Wasserdarstellung nutzen. Ob die 6200 genügend Rohpower für das Spiel hat, weiß ich aber nicht.

aths
2004-10-24, 15:56:27
Falls Dir das alles uebertrieben erscheinen sollte, dann schau Dir nochmal genau den Unterschied in Leistung vergleichsmaessig zwischen NV31 und NV43 heute an. Eine 6600GT kann ihre Vorgaenger mit Leichtigkeit wegfegen, wozu eben eine 5600 im Vergleich zu einer Ti4200 nicht unbedingt faehig war; den Platz nahm dann eher nach einiger Zeit eine 5900XT ein.Die 5800 ist schneller als die Ti 4600, die 5600 schneller als die GF4 MX, die 5200 hat etwa GF4 MX-Leistung.

Der GF4 Ti-Konkurrent war die 5800, später 5900, nicht 5600 oder 5700.

Ailuros
2004-10-24, 16:30:43
Die 5800 ist schneller als die Ti 4600, die 5600 schneller als die GF4 MX, die 5200 hat etwa GF4 MX-Leistung.

Der GF4 Ti-Konkurrent war die 5800, später 5900, nicht 5600 oder 5700.

Νein eben nicht. NV25 =! nur Ti4600. Ti4200 war eher mainstream und hatte schon vom Launch-Preis ueberhaupt nichts zu tun mit high end Modellen und Preisen wie NV30.

Ausser es gab 500$ Ti4200 die ich offensichtlich verpasst habe.

Ich kann Dir auch andere Titel fuer 5200 und 5600 finden, so wie Looser(tm) und LooserUltra(tm).

StefanV
2004-10-25, 00:38:55
Die 5800 ist schneller als die Ti 4600, die 5600 schneller als die GF4 MX, die 5200 hat etwa GF4 MX-Leistung.

Der GF4 Ti-Konkurrent war die 5800, später 5900, nicht 5600 oder 5700.
Im Sub100€ Bereich waren vor einiger Zeit einige recht interessante und starke Karten.

z.B. die Radeon 9100 aka 8500.
AFAIR dürfte es auch die TI4200 für um die 100€ gegeben haben.

Die FX5200 und 5600 waren somit also sehr schlechte Nachfolger, die 9600 war da schon besser, zumindest teilweise und sie ist nicht dramatisch langsamer als die 9100...

aths
2004-10-25, 01:12:14
Νein eben nicht. NV25 =! nur Ti4600. Ti4200 war eher mainstream und hatte schon vom Launch-Preis ueberhaupt nichts zu tun mit high end Modellen und Preisen wie NV30.

Ausser es gab 500$ Ti4200 die ich offensichtlich verpasst habe.

Ich kann Dir auch andere Titel fuer 5200 und 5600 finden, so wie Looser(tm) und LooserUltra(tm).Die 4400 wurde von der 5800 abgelöst, die 4600 von der 5800 Ultra. Eine "FX 4200" gabs nicht.

Die 5600 Ultra müsste bei aktiviertem AA und bilinearem AF allerdings an Ti 4200-Leistung herankommen.

betasilie
2004-10-25, 01:14:36
Die 4400 wurde von der 5800 abgelöst, die 4600 von der 5800 Ultra. Eine "FX 4200" gabs nicht.
Was ist das denn für eine Logik? :|

aths
2004-10-25, 01:18:38
Im Sub100€ Bereich waren vor einiger Zeit einige recht interessante und starke Karten.

z.B. die Radeon 9100 aka 8500.
AFAIR dürfte es auch die TI4200 für um die 100€ gegeben haben.Iirc kam die Ti 4200 zu ihren Glanzzeiten ca. 160, später 130 €.

Die 9100 wurde irgendwie kaum verkauft ... im Gegensatz zur 9000 und 9200.
Die FX5200 und 5600 waren somit also sehr schlechte Nachfolger, die 9600 war da schon besser, zumindest teilweise und sie ist nicht dramatisch langsamer als die 9100...Im Vergleich mit der 9600 sehen die kleinen FXe alt aus, das ist klar wenn man die großen vergleicht und sieht, dass (zumindest in DX9-Spielen) die 5800 kein Licht gegen die 9700 sieht. 5600 und 5200 wurden kaum als 9600-Konkurrenten designt, die 5700 kam zu spät (und war zu teuer.)

aths
2004-10-25, 01:20:01
Was ist das denn für eine Logik? :|Meine. 4600 entspricht "NV25 Ultra" und wurde vom NV30 Ultra abgelöst.

hmx
2004-10-25, 01:24:11
Wenn ich aths richtig verstanden habe, bringt sm2.a in Sachen Performance ja keine Vorteile gegenüber 2.0.
Und ob ich nun bei einer 6200 dank sm3.0 statt 10fps nun 11fps habe, macht den Kohl auch nicht fett. Da würden andere Maßnahmen wohl mehr bringen.

Überhaupt birgt für mich eine Geschwindigkeitssteigerung durch sm3.0 keine Vorteile gegenüber einem höheren Grundtakt, wie das bspw. bei Ati der Fall ist. Wo ist der Unterschied, ob ich nun bspw. 10% Mehrleistung durch sm3.0 oder einen höheren Takt erreiche?
Sm3.0 macht für mich also erst Sinn, wenn ich damit Dinge erreichen kann, die jenseits einer Geschwindigkeitssteigerung liegen.

Die 10% Mehrleistung einer xtpe machen den Braten ebensowenig Fett...

Ailuros
2004-10-25, 02:07:57
Die 4400 wurde von der 5800 abgelöst, die 4600 von der 5800 Ultra. Eine "FX 4200" gabs nicht.

Die 5600 Ultra müsste bei aktiviertem AA und bilinearem AF allerdings an Ti 4200-Leistung herankommen.

Die Anzahl der Modelle hat sich seit der NV3x Linie um einiges gesteigert, aber mainstream bleibt mainstream und low-end eben low-end.

NV25 war in etwa aehnlichem Sinn ein Refresh wie NV35 war; unter der Logik fand die Ti4200 einen etwa wuerdigen Nachfolger in der Form einer 5900XT.

5600 und 5200 wurden kaum als 9600-Konkurrenten designt, die 5700 kam zu spät (und war zu teuer.)

Als 9500/9500PRO Konkurrenz waren sie wohl auch nicht gerade designt.

Verbleibt also die Frage fuer was genau entwickelt wurden und eben auch warum sie sich so gut verkauft haben (ueberhaupt NV34).

Logischerweise wuerde ich erwarten dass ATI vielleicht in der Zukunft auch ihre Strategie in die Richtung mit zukuenftigen Generationen aendert, ich empfinde nichtdestotrotz das Ganze generell als HW-Verschwendung am Ende.

aths
2004-10-25, 04:02:38
Die Anzahl der Modelle hat sich seit der NV3x Linie um einiges gesteigert, aber mainstream bleibt mainstream und low-end eben low-end.Ja, da widerspreche ich auch nicht. Doch produktpolitisch verstehe ich die Entscheidung, nicht ständig eine "Ti 4200" herauszubringen. In gleicher Tradition stehen auch GF3 Ti 200 und FX 5900 XT. Das sind jeweils recht kurzfristig realisierbare Lösungen, um auf das bessere Konkurrenzprodukt mit einem preiswerten Midrange-Modell zu reagieren. NV würde weniger verdienen, wenn sie ständig ein nur leicht niedriger getaktetes Highend-Modell so preiswert anböten.


Als 9500/9500PRO Konkurrenz waren sie wohl auch nicht gerade designt.

Verbleibt also die Frage fuer was genau entwickelt wurden und eben auch warum sie sich so gut verkauft haben (ueberhaupt NV34). NV31 ist imo noch der traurigste Chip, bzw. der Chip der zu dieser Zeit am wenigsten gebraucht wurde. Weil es die 9600 gab. Als NV die NV30-Serie entwickelte rechneten sie wohl nicht mit der 9600. Stellt man sich den Markt ohne starke ATI-Konkurrenz vor, hätte auch die 5600 guten Absatz gefunden. Das ist ja das gute daran, dass es wenigstens ein bisschen Konkurrenz gibt: Mehr Auswahl für den Kunden bzw. mehr Leistung zum gleichen Preis.

Logischerweise wuerde ich erwarten dass ATI vielleicht in der Zukunft auch ihre Strategie in die Richtung mit zukuenftigen Generationen aendert, ich empfinde nichtdestotrotz das Ganze generell als HW-Verschwendung am Ende.Dazu werde ich irgendwann mal 'ne Kolumne schreiben.

Gast
2004-10-25, 08:13:47
NVIDIA musste einen Weg finden sich durch die NV3x Aera gegen die Ueberlegenheit ATI´s im high end zu wehren und die Skalierung der high end features in die unterste Spalte war eine gute Idee.

Ja und nein.
Ich glaube nicht, daß man auch einen so 'simplen' Chip wie den nV34 innert 9-10 Monaten entwickeln kann. Das Runterschleifen des kompletten Featuresets in den Mainstream muss IMO schon vorher festgestanden haben.

q@w
2004-10-25, 08:17:06
Nein.
Es stellt sich dann so dar: Ihr ( FX...) könnte dann zwar super dividieren, aber wir (r3xx) bekommen dasselbe Ergebnis in dem wir einfach etwas mehr addieren, allerdings im Endeffekt immer noch schneller als eure Division (rein hypothetisch ;) ).
Ohne die "reine Hypothese" müsstet "ihr" auf die CPU ausweichen - es hatte schon seinen Grund, warum ich nicht Multiplikation (Multi-Pass Shader für "überlange" Instruktionsfolgen via F-Buffer) sondern Division (FP32-Präzision bsw.) geschrieben habe.

Und ich vermute, daß selbst eine FX5200 in vielen solcher Fälle schneller als eine CPU ist - ziemlich sicher aber in der Frage "bang for the buck". =)

q@w
2004-10-25, 11:07:12
Νein eben nicht. NV25 =! nur Ti4600. Ti4200 war eher mainstream und hatte schon vom Launch-Preis ueberhaupt nichts zu tun mit high end Modellen und Preisen wie NV30.


Von der GF4 Ti gab es zunächst auch nur die 4400 und 4600, also High-End und High-End minus ein bisschen Takt. Die Ti4200 kam mit einiger Verzögerung (IIRC war breite Verfügbarkeit erst im Spätsommer gegeben).
Diese Dreiteilung gab es bei der FX zugegeben erst wieder mit der 5900 (der 5800 fehlte das "300/300MHz"-Modell) - aber da halt auch ein Einsteigermodell um/unter 200EUR.

Aber is scho recht, verkennbar sind die Kritikpunkte an der FX-Reihe sicherlich nicht, wobei ich die 5600-Modelle persönlich am wenigsten ansprechend/sinnvoll empfinde, da sie weder Fisch noch Fleisch darstellen.

Gast
2004-10-25, 11:41:09
Und ich vermute, daß selbst eine FX5200 in vielen solcher Fälle schneller als eine CPU ist - ziemlich sicher aber in der Frage "bang for the buck". =)

und welche Fälle wären das?

Wishnu
2004-10-25, 11:52:27
Die 10% Mehrleistung einer xtpe machen den Braten ebensowenig Fett...

Lies bitte nochmal genau, was ich geschrieben habe...

q@w
2004-10-25, 13:12:06
und welche Fälle wären das?
steht doch da. :)

Ailuros
2004-10-25, 16:52:20
Ja und nein.
Ich glaube nicht, daß man auch einen so 'simplen' Chip wie den nV34 innert 9-10 Monaten entwickeln kann. Das Runterschleifen des kompletten Featuresets in den Mainstream muss IMO schon vorher festgestanden haben.

Die 9-10 Monate gelten nur fuer NV30. Wann wurde NV34 genau vorgestellt? Es war schon sehr frueh in 2003 klar dass es Probleme mit low-k 130nm geben wird bei NV....

Quasar
2004-10-25, 18:43:27
Die 9-10 Monate gelten nur fuer NV30. Wann wurde NV34 genau vorgestellt? Es war schon sehr frueh in 2003 klar dass es Probleme mit low-k 130nm geben wird bei NV....
Sorry, ich verstehe nicht, was du mir damit sagen willst.

Was ich meinte war, daß 9-10 Monate vor dem Sommer 2003 ((endgültige) Vorstellung des nV34 IIRC, aber laß es von mir aus auch Frühling gewesen sein) absehbar war, daß man in DX9-Titeln meist nicht im High-End mit ATi mithalten konnte.
Die Zeitspanne von da an wäre zu kurz, um einen Chip für die von dir genannte Strategie zu entwickeln und zur großvolumigen Produktion zu führen.
IMO muss diese Strategie mind. seit Mitte, eher Anfang 2002 festgestanden haben.

Ailuros
2004-10-25, 19:21:47
Sorry, ich verstehe nicht, was du mir damit sagen willst.

Was ich meinte war, daß 9-10 Monate vor dem Sommer 2003 ((endgültige) Vorstellung des nV34 IIRC, aber laß es von mir aus auch Frühling gewesen sein) absehbar war, daß man in DX9-Titeln meist nicht im High-End mit ATi mithalten konnte.
Die Zeitspanne von da an wäre zu kurz, um einen Chip für die von dir genannte Strategie zu entwickeln und zur großvolumigen Produktion zu führen.
IMO muss diese Strategie mind. seit Mitte, eher Anfang 2002 festgestanden haben.

Stimmt, nur habe ich mich mal wieder vertippt....

(eigener Quark)

Es war schon sehr frueh in 2003 klar dass es Probleme mit low-k 130nm geben wird bei NV....

2003 haette 2002 heissen sollen. NV30 kam Q1 2002 ins Labor, das erste Silizium zeigte sich als total unbrauchbar an; danach wechselte man auf normales 130nm, pappte noch ein paar Transistoren drauf um 500MHz auf NV30 erreichen zu koennen usw. usw.

Mitte Sommer hiess es inoffiziell in etwa: "...R300 wird gross und heiss werden wird aber leider frueher ankommen; die Zeit koennen wir ausnutzen um ein paar wichtige Aenderungen vornehmen um den Schaden zu kompensieren".

Das meisste oben klebte schon in meinem eigenen Puzzle damals zusammen, nur eben mit Ausnahme dass 5800U der gigantische Heizofen am Ende war LOL.

Quasar
2004-10-25, 19:27:35
Ja, wenn es wirklich so früh klar war, daß 0,13µ-lowK für nVidia erstmal gegessen sein würde und gleichzeitig schon intern verläßliche Leistungsprognose für den R300 bekannt waren (davon gehe ich mal aus), dann könnte der nV34 tatsächlich als Reaktion auf die sich abzeichnende Niederlage im Performance-Kronen-Rennen entwickelt sein.

Ailuros
2004-10-25, 19:32:59
Von der GF4 Ti gab es zunächst auch nur die 4400 und 4600, also High-End und High-End minus ein bisschen Takt. Die Ti4200 kam mit einiger Verzögerung (IIRC war breite Verfügbarkeit erst im Spätsommer gegeben).
Diese Dreiteilung gab es bei der FX zugegeben erst wieder mit der 5900 (der 5800 fehlte das "300/300MHz"-Modell) - aber da halt auch ein Einsteigermodell um/unter 200EUR.

Aber is scho recht, verkennbar sind die Kritikpunkte an der FX-Reihe sicherlich nicht, wobei ich die 5600-Modelle persönlich am wenigsten ansprechend/sinnvoll empfinde, da sie weder Fisch noch Fleisch darstellen.

Die Dreiteilung wie Du sie nennst treffen wir ja heute wieder bei der NV40 an. Dass die NV4x Familie ein viel zu grosse Anzahl von Modellen hat ist ein anderes Kapitel, aber hier kann man sich auch nicht generell ueber die Leistung der jeweiligen Modelle beschweren.

Um das Ganze noch klarer zu machen, irgendwo ist mir die NV43 Familie fast schon ueberfluessig. 6800 und 6800LE werden heute zu mainstream Preisen verkauft und NV41 haette locker den mittleren Markt repraesentieren koennen.

Hier kaeme noch die Frage was ich als Laie mir fuer Value/low-end erdenken koennte. "Quasi"-6600 Varianten mit einem quad, 4 ROPs, Colour+Z Kompression drinlassen und stinknormale zwei oder drei VS2.0+ Einheiten von der vorigen Generation.

Gast
2004-10-26, 09:01:27
Um das Ganze noch klarer zu machen, irgendwo ist mir die NV43 Familie fast schon ueberfluessig. 6800 und 6800LE werden heute zu mainstream Preisen verkauft und NV41 haette locker den mittleren Markt repraesentieren koennen.

6800/Le kosten ueber 200€. Zu teuer für den "Mainstreammarkt".
Eine 6600 bekommt man fuer 120€, eine GT schon für 180€.
Leider nur für PCI-E, aber Inno hat ja schon eine Karte mit HSI Chip vorgestellt.

Hier kaeme noch die Frage was ich als Laie mir fuer Value/low-end erdenken koennte. "Quasi"-6600 Varianten mit einem quad, 4 ROPs, Colour+Z Kompression drinlassen und stinknormale zwei oder drei VS2.0+ Einheiten von der vorigen Generation.

Wieviel mehr Transistoren benoetigt dann wirklich die Branchunit und die Moeglichkeit im VS texturen "zu filtern"?
Aus meiner Sicht nicht mehr als für FP - Blending und Filterung. Daher wohl der Grund, dieses aus dem NV44 zu "entfernen".

LovesuckZ

robbitop
2004-10-26, 10:28:06
Wieviel mehr Transistoren benoetigt dann wirklich die Branchunit und die Moeglichkeit im VS texturen "zu filtern"?
Aus meiner Sicht nicht mehr als für FP - Blending und Filterung. Daher wohl der Grund, dieses aus dem NV44 zu "entfernen".

LovesuckZ

Das weiss wohl nur NVIDIA selbst.
In der NV40 Pipeline kam jedoch nicht der gesamte Teil fürs Branchin neu hinzu. Das meiste war bereits im NV30 vorhanden. Die Pipeline konnte schon damals Quads zu beliebigenen Zeitpunkten hinausschieben und durch neue ersetzen. Lediglich die Möglichkeit unnerhalb der Pipeline den Programmpointer zu verändern fehlte noch. Insofern kann man das mit "Branchinunit" kaum trennen. Ausserdem hat nur 1 von 6VS die möglichkeit zu filtern. Er ist an ein Array von 4 TMUs angeschlossen. Dies war nötig um SM3 Comliance für NV40 zu bekommen. Die restlichen VS haben diese Möglichkeit aus Transistorgründen nicht. Scheint also recht transistoraufwändig zu sein.

FP16 Filterung ist IIRC lediglich eine Änderung der TMUs. Das könnte auf 16 TMUs schon eine Menge Transistoren kosten, aber beim NV44 auf nur 4?
Naja aber ich denke man versucht wie im NV43 zu sparen, wo man nur kann.
Z-/Colorcompression (beim NV43 nur in der deaktivierten 6200er Version), ROPs usw. Kleinvieh macht auch Mist :-)

aths
2004-10-26, 12:02:43
Ausserdem hat nur 1 von 6VS die möglichkeit zu filtern.Jeder VS kann filtern.

Er ist an ein Array von 4 TMUs angeschlossen.Ob das ein "Array" ist, weiß ich nicht. Man könnte auch mit nur einer einzigen echten TMU die erforderlichen vier TMUs (virtuell) zur Verfügung stellen. Wie viele physikalische VS-TMUs der NV44 hat, weiß ich nicht, vermutlich aber weniger als 4.

Scheint also recht transistoraufwändig zu sein.Im VS sollte alles mit FP32 gerechnet werden. Da braucht man vermutlich FP32-TMUs. Klingt aufwändig, aber da der NV40 im VS nur Point Filtering (also gar keine Filterung) beherrscht, scheint mir das nicht so sehr aufwändig. Außerdem gibts im VS keine Unit die ich im NV40-Artikel "Tex" nenne, welche das LOD berechnet. Eine VS-"TMU" muss einfach aus einer Textur an einer bestimmten Koordinate ein ungefiltertes Texel lesen und ins FP32-Format konvertieren.

Es könnte natürlich sein, dass die "vier" TMUs im NV40 in Wahrheit eine TMU sind, die pro Takt immer vier Texel im Block lesen und falls man ein Texel davon nicht braucht, Pech gehabt, warten. Allerdings würde das gegen die MIMD-Philosophie verstoßen, so dass ich doch sehr hoffe, dass die vier TMUs unabhängig sind.

Naja aber ich denke man versucht wie im NV43 zu sparen, wo man nur kann.
Z-/Colorcompression (beim NV43 nur in der deaktivierten 6200er Version), ROPs usw. Kleinvieh macht auch Mist :-)Herkömmliche ROPs sollten gar nicht mal so teuer sein. Nur NV40 und NV43 (bzw. NV41) haben FP-fähige ROPs, NV44 beherrscht kein FP-Blending. (Hoffentlich ist wenigstens Ultra Shadow aktiv, so dass mit den 4 ROPs ohne Color pro Takt 8 Z/Stencil-Tests gemacht werden können.)

Z- und Colorcompression sind vom Transistorcount her wahrscheinlich teurer als gedacht. Andererseits zeigte die GeForce4 MX 440, was ein Chip mit Z- (und ohne Color-) Compression an Rohleistung bringt: Mehr, als man angesichts der technischen Daten minus erwartete Effizienz vermuten würde.

aths
2004-10-26, 12:04:48
Hier kaeme noch die Frage was ich als Laie mir fuer Value/low-end erdenken koennte. "Quasi"-6600 Varianten mit einem quad, 4 ROPs, Colour+Z Kompression drinlassen und stinknormale zwei oder drei VS2.0+ Einheiten von der vorigen Generation.1 Quad ist für Midrange zu wenig. 2 Quads auf Basis des NV40 wird auf Dauer zu teuer.

Warum nur VS Profil 2_A? Damit fällt das wichtige SM3-Label weg – der erste "SM3-Effekt" den wir je in einem Spiel sehen, könnte ausgerechnet auf den VS_3_0 zurückgreifen.

Melbourne, FL
2004-10-26, 13:32:10
1 Quad ist für Midrange zu wenig. 2 Quads auf Basis des NV40 wird auf Dauer zu teuer.

Warum nur VS Profil 2_A? Damit fällt das wichtige SM3-Label weg ? der erste "SM3-Effekt" den wir je in einem Spiel sehen, könnte ausgerechnet auf den VS_3_0 zurückgreifen.

So geschehen bei Pacific Fighters: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=178791

Alexander

Ailuros
2004-10-26, 18:43:29
1 Quad ist für Midrange zu wenig. 2 Quads auf Basis des NV40 wird auf Dauer zu teuer.

Warum nur VS Profil 2_A? Damit fällt das wichtige SM3-Label weg – der erste "SM3-Effekt" den wir je in einem Spiel sehen, könnte ausgerechnet auf den VS_3_0 zurückgreifen.


Bitte mein Zitat nochmal genauer durchlesen; da steht klipp und klar low-end drin. Was die 2 quads fuer mainstream betrifft, siehe zukuenftiges NV41 und da steht die Loesung schon drin; es gibt nur eine logische Erklaerung dass LE es vom Anfangs nur geplanten OEM jetzt auch noch in den Retail Markt schaffte: groessere als erwartete Verfuegbarkeit. Anstatt einen chip einzustampfen ist es stets besser diesen immer noch verkaufen zu koennen. NV41 wird nicht ausschliesslich aus 3 quad Modellen bestehen.

Von dem abgesehen hab mir nicht allzu viele Hoffnungen (ueberhaupt was Latenzen betrifft) fuer low-end chips und solchen Effekten. Das noch unter dem Licht dass Intel's integrierter Mist wohl gleich gar nichts hat was VS betrifft. Da sind VS2.0extended Einheiten ein Ueber-Luxus vergleichsmaessig.

Ailuros
2004-10-26, 18:48:40
6800/Le kosten ueber 200€. Zu teuer für den "Mainstreammarkt".
Eine 6600 bekommt man fuer 120€, eine GT schon für 180€.
Leider nur für PCI-E, aber Inno hat ja schon eine Karte mit HSI Chip vorgestellt.

Was man bezahlt bekommt man auch.


Wieviel mehr Transistoren benoetigt dann wirklich die Branchunit und die Moeglichkeit im VS texturen "zu filtern"?
Aus meiner Sicht nicht mehr als für FP - Blending und Filterung. Daher wohl der Grund, dieses aus dem NV44 zu "entfernen".

LovesuckZ

VS3.0 MIMDs sind mit Sicherheit ungeheuer billig. Deshalb kann sich ATI auch leisten gleich 6 VS2.0+ (SIMD) Einheiten im Mainstream Markt stehen zu lassen oder?

Jesus
2004-10-26, 19:01:04
So geschehen bei Pacific Fighters: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=178791

Alexander

stimmt, dass man damit dann mit <20 fps rumdümpelt mit ner 500 Euro karte ist ne andere Frage;) (bei FC 1.3 HDR ähnlich krasser Performance Verlust ... )

Schöne neue SM3.0 Welt :rolleyes:


Nichts für ungut :smile:


/Soviel also zur "Darstellbarkeit" dieser neuen Effekte. Man bedenke dabei das da nur jeweils ein neuer SM3 Effekt benutzt wurde.

Ailuros
2004-10-26, 19:11:06
Z- und Colorcompression sind vom Transistorcount her wahrscheinlich teurer als gedacht. Andererseits zeigte die GeForce4 MX 440, was ein Chip mit Z- (und ohne Color-) Compression an Rohleistung bringt: Mehr, als man angesichts der technischen Daten minus erwartete Effizienz vermuten würde.

GF4MX hat auch weniger gemeinsam mit einer wahren NV2x Pipeline am Ende. Wenn ich mich auf das heutige low-end Segment oder der vorigen Generation beziehe, dann mein ich bei Gott nicht DX7-ohnedependanttexturereads-Niveau.

Man kann in dem Segment entweder mit veralteten Mist ankommen, oder mit einer grossen Mehrzahl der high end features. Beide erscheinen mir zu uebertrieben; das was ich vorschlage ist eine kluge Balance zwischen den beiden Extremen, wo es an Funktionalitaeten fuer die Lebenszeit dieser Karten nicht fehlen wird, aber auch nicht durch die HW-Verschwendung fuer die extra Features die finale Leistung zu stark untermauert wird.

IMHO hatten stets high end Features auf Grafik-chips Zwecke wie (nur Beispiele) in Consolen verwendet zu werden (lange Lebenszeit ergo eine absolute Notwendigkeit) oder im Retail High-End Segment wo Entwickler diese als Entwicklungs-Platformen fuer zukuenftige Spiele u.a. benutzen koennen.

Was genau high end Features fuer einen Zweck auf Karten haben die nichtmal die Kraft haben einfachere Pixel auf den Bildschirm zu zaubern ist mir persoenlich fremd.

robbitop
2004-10-26, 19:12:59
stimmt, dass man damit dann mit <20 fps rumdümpelt mit ner 500 Euro karte ist ne andere Frage;) (bei FC 1.3 HDR ähnlich krasser Performance Verlust ... )

Schöne neue SM3.0 Welt :rolleyes:


Nichts für ungut :smile:


/Soviel also zur "Darstellbarkeit" dieser neuen Effekte. Man bedenke dabei das da nur jeweils ein neuer SM3 Effekt benutzt wurde.

was hat HDR mit SM3 zu tun?
Und besser es zu können mit wenig Performance, als es gar nicht zu können. Wer weiss, vieleicht ist die Umsetzung derzeit einfach nur ineffizient.

aths
2004-10-26, 19:16:12
Bitte mein Zitat nochmal genauer durchlesen; da steht klipp und klar low-end drin.Sry k thx.

Für Lowend brauchts allerdings keine Z/Color-Compression.

Von dem abgesehen hab mir nicht allzu viele Hoffnungen (ueberhaupt was Latenzen betrifft) fuer low-end chips und solchen Effekten. Das noch unter dem Licht dass Intel's integrierter Mist wohl gleich gar nichts hat was VS betrifft. Da sind VS2.0extended Einheiten ein Ueber-Luxus vergleichsmaessig.Gegenüber integrierte Intel-Grafiken sollte auch eine 128-bittige FX 5200 schon gut, eine 5600 luxeriös sein. (5600-er gibts mit 128 Bit RAM-Anbindung afaik ab ca. 80 €.)

Ailuros
2004-10-26, 19:16:50
stimmt, dass man damit dann mit <20 fps rumdümpelt mit ner 500 Euro karte ist ne andere Frage;) (bei FC 1.3 HDR ähnlich krasser Performance Verlust ... )

Schöne neue SM3.0 Welt :rolleyes:


Nichts für ungut :smile:


/Soviel also zur "Darstellbarkeit" dieser neuen Effekte. Man bedenke dabei das da nur jeweils ein neuer SM3 Effekt benutzt wurde.

Es ist noch zu frueh fuer solche Schlussvolgerungen; ueberhaupt wenn es zu CryTek kommt (nein hat nichts mit merkwuerdigen Konspirationstheorien zu tun).

Wenn ich aber jetzt wieder sage dass einfacheres HDR fuer alle dx9.0 Karten moeglich gewesen waere mit aehnlichen Resultaten und hoeherer Geschwindigkeit, werde ich wohl wieder gegen die Wand genagelt....

Ailuros
2004-10-26, 19:17:54
was hat HDR mit SM3 zu tun?
Und besser es zu können mit wenig Performance, als es gar nicht zu können. Wer weiss, vieleicht ist die Umsetzung derzeit einfach nur ineffizient.

Beta Stadium und die Kerle sind immer noch am lernen.....

aths
2004-10-26, 19:19:30
stimmt, dass man damit dann mit <20 fps rumdümpelt mit ner 500 Euro karte ist ne andere Frage;) (bei FC 1.3 HDR ähnlich krasser Performance Verlust ... )

Schöne neue SM3.0 Welt :rolleyes:


Nichts für ungut :smile:


/Soviel also zur "Darstellbarkeit" dieser neuen Effekte. Man bedenke dabei das da nur jeweils ein neuer SM3 Effekt benutzt wurde.Wie schnell wohl die Radeon X800 TX PE mit diesen Effekten wäre ...?

Overbright Lighting ist in gewissen Grenzen bereits mit der Radeon 8500 machbar. Mit SM3 hat das nichts zu tun, NV40 stellt die aktuell marktbeste HDR-Performance nicht mittels SM3-Fähigkeit, sondern durch seine dedizierten FP-Units zur Verfügung. SM3 kann zusätzlich genutzt werden, um die Performance gegenüber eine SM2-Implementierung zu verbessern.

Ailuros
2004-10-26, 19:24:47
Sry k thx.

Für Lowend brauchts allerdings keine Z/Color-Compression.

In dem gesamten Bild (von top to bottom) dass ich versuchte zu illustrieren vielleicht schon.

Gegenüber integrierte Intel-Grafiken sollte auch eine 128-bittige FX 5200 schon gut, eine 5600 luxeriös sein. (5600-er gibts mit 128 Bit RAM-Anbindung afaik ab ca. 80 €.)

Freut mich dass Du die Busbreite hier betonst; denn Intel's Sch**** ist auch wesentlich billiger als eine 5200. Es ging nur um den minimalsten Standard im Markt und zu dem mit den hoechsten Verkaufszahlen ueberhaupt in dieser Preisklasse.

Nun rechne mal ATI, Intel und die paar strauebigen Prozentuale der anderen zusammen und sag mir warum und wieso NVIDIA mit high end Features im low-end Segment einen Unterschied machen soll.

Ich benutze diese Punkte nicht allzu gerne und wuenschte mir dass viele Sachen anders waeren (wie z.B. dass Intel ihre Grafik-abteilung dicht macht und von den anderen Beiden einfach cores lizenziert), aber ich kann einfach keine Scheuklappen zur Realitaet tragen.

Quasar
2004-10-26, 19:27:06
es gibt nur eine logische Erklaerung dass LE es vom Anfangs nur geplanten OEM jetzt auch noch in den Retail Markt schaffte: groessere als erwartete Verfuegbarkeit.

Netter Euphemismus. :)

aths
2004-10-26, 19:29:04
Was genau high end Features fuer einen Zweck auf Karten haben die nichtmal die Kraft haben einfachere Pixel auf den Bildschirm zu zaubern ist mir persoenlich fremd.Wenn es um besonders sinnvolle Hardware geht, hätte es viele Karten nie geben dürfen, im Gegenzug fehlten etliche Produkte. Zudem kann man immer erst im Nachhinein sagen, was das beste gewesen wäre. NV konnte zum Zeitpunkt des NV34-Designs noch nicht wissen, dass sich Longhorn so verspäten würde. Für den Fall, dass MS schneller gearbeitet hätte, hätte sich NV mit dem NV34 im DX9-Niedrigpreismarkt bereits einen guten Namen gemacht.

Natürlich ist der NV34 nicht in der Lage, hochkomplexe oder großflächig angewendete SM2-Shader in Echtzeit zu rendern. Für den einen oder anderen Effekt, der mit DX8 nicht realisierbar wäre, reicht es aber.

betasilie
2004-10-26, 19:30:03
stimmt, dass man damit dann mit <20 fps rumdümpelt mit ner 500 Euro karte ist ne andere Frage;) (bei FC 1.3 HDR ähnlich krasser Performance Verlust ... )

Schöne neue SM3.0 Welt :rolleyes:


Nichts für ungut :smile:


/Soviel also zur "Darstellbarkeit" dieser neuen Effekte. Man bedenke dabei das da nur jeweils ein neuer SM3 Effekt benutzt wurde.
Besonders wo dieses achso tolle SM3.0 Wasser auch mit SM2.0 darstellbar ist (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2377971&postcount=26), wenn NV nicht dafür hinblättert irgendwelche Effekte auf SM3.0-only zu realisieren. ... Sowas hat nicht mit technischem Fortschritt zu tun, sondern nur mit Marketingmanipulation, wie man es von NV gewohnt ist.

aths
2004-10-26, 19:31:28
Besonders wo dieses achso tolle SM3.0 Wasser auch mit SM2.0 darstellbar ist (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2377971&postcount=26), wenn NV nicht dafür hinblättert irgendwelche Effekte auf SM3.0-only zu realisieren. ... Sowas hat nicht mit technischem Fortschritt zu tun, sondern nur mit Marketingmanipulation, wie man es von NV gewohnt ist.Ist es wirklich dieses Wasser oder nur ein auf dem ersten Blick ähnlicher Effekt?

aths
2004-10-26, 19:34:32
Nun rechne mal ATI, Intel und die paar strauebigen Prozentuale der anderen zusammen und sag mir warum und wieso NVIDIA mit high end Features im low-end Segment einen Unterschied machen soll.Eine DX8-"FX 5200" würde dann Technologiebremse genannt werden. Hätte NV, um eine Handvoll Transistoren zu sparen, in die FX 5200 nur den DX9-Minimalstandard implementieren sollen? Schneller wäre sie damit nicht geworden, aber gewissermaßen inkompatibel zur restlichen FX-Welt.

Gast
2004-10-26, 19:35:14
Hrn, die Pacific Fighters Engine läst das Water auf Stufe 3 nur unter OpenGL zu (kann man sicher auch unter DX aktivieren aber die Engine is wohl "angestaubt"), nix mit SM2 da geht nix mit Vertextexturen.

Das das Wasser schön wellig bei dem Patrol Boat ausschaut ist sicher KEIN neuer Effekt, den gibts in Everquest2 auch, aber Pacific Fighters bietet ne Wassertextur auf den Wellen, das ist es worums geht, und von Performance war in dem angegebenen Link nix zu lesen.

Gast
2004-10-26, 19:36:50
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=178791&page=4&pp=20
Seite 4 des Threads, da sieht man "echte" PF Bilder mit Vertex Texture Effect.

robbitop
2004-10-26, 19:38:23
man kann VIELES auch anders machen.
Viele Effekte hätte man zur NV30 Zeit auch mit FX12 realisieren können. Denn FX12 konnte NV30 sehr sehr schnell ausführen (ich weiss noch wie man damals deshalb rumgeschriehen hat)

Jesus
2004-10-26, 19:38:57
Wie schnell wohl die Radeon X800 TX PE mit diesen Effekten wäre ...?.

darum gehts nicht, es geht darum dass diese schönen neuen Features nur allzu oft in den Himmel gelobt wurden und jetzt wieder einmal von der Realität eingeholt wurden.


Overbright Lighting ist in gewissen Grenzen bereits mit der Radeon 8500 machbar. Mit SM3 hat das nichts zu tun, NV40 stellt die aktuell marktbeste HDR-Performance nicht mittels SM3-Fähigkeit, sondern durch seine dedizierten FP-Units zur Verfügung. SM3 kann zusätzlich genutzt werden, um die Performance gegenüber eine SM2-Implementierung zu verbessern.

eh, FarCry 1.3 "HDR" = Overbright Lightning ?

Sorry aber rthrbl (oder so) sieht auch nicht anders aus, läuft aber mit PS2.0 und auch sehr gut auf ATI Karten (das mag andere Gründe haben).

aths
2004-10-26, 19:44:19
darum gehts nicht, es geht darum dass diese schönen neuen Features nur allzu oft in den Himmel gelobt wurden und jetzt wieder einmal von der Realität eingeholt wurden.Wird eine Engine gleich für vernünftiges HDR designt, ist bessere Performance zu erwarten. Wichtig ist imo der Punkt, dass die R420 (die ja über "Umwege" dazu auch in der Lage ist) in jedem Fall langsamer als NV40 wäre.

Vielleicht glaubst du ja eines Tages doch mal, dass die -zig Millionen Transistoren, die der NV40 mehr hat, nicht nur dazu sind, um auf Featurelisten neue Dinge schreiben zu können, sondern dass diese Transistoren dazu gedacht sind, benutzt zu werden. Immerhin bietet der NV40 an neuen Features nur Dinge, die so oder so Standard werden – und keine "Nebenzweige" à la TruForm.

eh, FarCry 1.3 "HDR" = Overbright Lightning ?Lighting bitte ohne "n" nach dem t. Lightning wäre das Blitzen, du meinst Lighting, die Beleuchtung.

Sorry aber rthrbl (oder so) sieht auch nicht anders aus, läuft aber mit PS2.0 und auch sehr gut auf ATI Karten (das mag andere Gründe haben).rthdribl (Real-Time, High Dynamic Range, Image-Based Lighting) rendert ein Objekt (oder wenige) und muss nicht nebenbei noch eine ganze Spielwelt innerhalb des Sichtwinkels rendern.

Jesus
2004-10-26, 19:44:46
..., und von Performance war in dem angegebenen Link nix zu lesen.

doch, man scrolle rechts, und schon sieht man den Fraps counter und 19fps (1024x768 4xAA) ohne das was los ist auf dem Bild...

Jesus
2004-10-26, 19:48:40
Wird eine Engine gleich für vernünftiges HDR designt, ist bessere Performance zu erwarten.


lol, Jetzt sind wieder die "unfähigen" Entwickler daran Schuld. Seltsamerweise bei PF auch...


Lighting bitte ohne "n". Lightning wäre das Blitzen, du meinst Lighting, die Beleuchtung.


stimmt sorry. Allerdings beantwortet das meine Frage nicht...


rthdribl (Real-Time, High Dynamic Range, Image-Based Lighting) rendert ein Objekt (oder wenige) und muss nicht nebenbei noch eine ganze Spielwelt innerhalb des Sichtwinkels rendern.

so hiess das ja ;)

Gast
2004-10-26, 19:55:46
Ist es wirklich dieses Wasser oder nur ein auf dem ersten Blick ähnlicher Effekt?
Ist das jetzt wichtig ob man die mathematische Equivalenz oder die subjektiv gleiche BQ hinkriegt?

Quasar
2004-10-26, 19:59:11
Ist das jetzt wichtig ob man die mathematische Equivalenz oder die subjektiv gleiche BQ hinkriegt?
Kommt drauf an, welcher Fanboygruppe man angehört und welches Jahr man schreibt.... könnte man fast denken. ;)
Allerdings ist es für eine Simulation, die naturgemäß mehr CPU-Ressourcen benötigt, als manch ein andere Genre, schon sinnvoll, die CPU nicht auch noch zusätzliche Wasserpolygone schaufeln zu lassen.

Ailuros
2004-10-26, 20:07:40
Wenn es um besonders sinnvolle Hardware geht, hätte es viele Karten nie geben dürfen, im Gegenzug fehlten etliche Produkte. Zudem kann man immer erst im Nachhinein sagen, was das beste gewesen wäre. NV konnte zum Zeitpunkt des NV34-Designs noch nicht wissen, dass sich Longhorn so verspäten würde. Für den Fall, dass MS schneller gearbeitet hätte, hätte sich NV mit dem NV34 im DX9-Niedrigpreismarkt bereits einen guten Namen gemacht.

Natürlich ist der NV34 nicht in der Lage, hochkomplexe oder großflächig angewendete SM2-Shader in Echtzeit zu rendern. Für den einen oder anderen Effekt, der mit DX8 nicht realisierbar wäre, reicht es aber.

NV34 fuer Longhorn? Ach ja es war in 2002 wohl klar dass Longhorn soooo schnell ankommen wird deshalb sind ja heutige high end Karten wohl schon WGF-kompliant und ich habe es wohl verpasst. :|

Wann wurde das Konzept des heutigen NV40 erfasst und wieso hat dann dieser keinen Geometrie Shader?

IMHO ist NV34 eine Entscheidung die zur Zeit des Entwicklungsprozess/Problemen des NV30 eintraf und damals war es NV sehr wohl bekannt dass Longhorn doch nicht vor der Tuer steht.

NVIDIA nimmt an mehr meetings zwischen IHVs und M$ statt als jede andere Firma (ueberhaupt wenn es zu API Definierung kommt).

Ailuros
2004-10-26, 20:10:06
Eine DX8-"FX 5200" würde dann Technologiebremse genannt werden. Hätte NV, um eine Handvoll Transistoren zu sparen, in die FX 5200 nur den DX9-Minimalstandard implementieren sollen? Schneller wäre sie damit nicht geworden, aber gewissermaßen inkompatibel zur restlichen FX-Welt.

Die Technologiebremse ist schon da und das von der Mehrzahl des Markts. Mir ist eben ein Leistungsvorreiter im low-end Markt lieber als ein langsamer Feature-Vorreiter.

Ailuros
2004-10-26, 20:15:34
Vielleicht glaubst du ja eines Tages doch mal, dass die -zig Millionen Transistoren, die der NV40 mehr hat, nicht nur dazu sind, um auf Featurelisten neue Dinge schreiben zu können, sondern dass diese Transistoren dazu gedacht sind, benutzt zu werden. Immerhin bietet der NV40 an neuen Features nur Dinge, die so oder so Standard werden – und keine "Nebenzweige" à la TruForm.

Zum ersten Teil stimme ich zwar voll zu, aber zum fettgedruckten Satz kann ich nur an NV20-HOS erinnern. NVIDIA ist bei weitem und das sogar von Anfang an ihrer Geschichte nicht frei von Fehlschlaegen wenn es zu Features kommt.

Beide IHVs gehen logischerweise keine Risikos mehr ein (oder eben so wenig wie moeglich) und man kann es in den letzten paar Generationen auch sehen.

Jesus
2004-10-26, 20:21:27
Kommt drauf an, welcher Fanboygruppe man angehört und welches Jahr man schreibt.... könnte man fast denken. ;)

nö, das ist wieder so ähnlich wie mit addieren und dividieren ;)


Allerdings ist es für eine Simulation, die naturgemäß mehr CPU-Ressourcen benötigt, als manch ein andere Genre, schon sinnvoll, die CPU nicht auch noch zusätzliche Wasserpolygone schaufeln zu lassen.

Die Frage ist ob das die Cpu nicht auch hätte machen können, vielleicht sogar schneller (recht viel langsamer geht es eh nicht mehr), denn in dem 19fps Bild ist nicht gerade viel los (boot, flugzeug?), da wird die CPU auch nicht mehr gefordert werden.

betasilie
2004-10-26, 20:35:39
Ist es wirklich dieses Wasser oder nur ein auf dem ersten Blick ähnlicher Effekt?
Es ist ein Wasser, was anders realisiert wird, aber im Endeffekt das selbe Resultat bringt. ... Natürlich ist es nicht das SM3.0 Wasser aus PF, das sollte wohl klar sein, da es nicht nach SM3.0 verlangt.

Und genau da liegt der Punkt. SM3.0-only Effekte werden wir in absehbarer Zeit nur sehen, wenn NV dafür bezahlt, um ein bischen Werbung machen zu können. Nur ist das sicherlich kein Fortschritt, sondern schlicht Marketing, solange andere Titel quasi gleiche Resultate mit vernünftiger performance mit SM2.0 realisieren.

aths
2004-10-26, 20:38:19
Zum ersten Teil stimme ich zwar voll zu, aber zum fettgedruckten Satz kann ich nur an NV20-HOS erinnern. NVIDIA ist bei weitem und das sogar von Anfang an ihrer Geschichte nicht frei von Fehlschlaegen wenn es zu Features kommt.

Beide IHVs gehen logischerweise keine Risikos mehr ein (oder eben so wenig wie moeglich) und man kann es in den letzten paar Generationen auch sehen.Japp, auch NV hat sich in der Vergangenheit mit proprietären Dingen, die zudem nicht zuende gedacht (bzw. nur halbherzig implementiert wurden) blamiert.

betasilie
2004-10-26, 20:42:32
Die Technologiebremse ist schon da und das von der Mehrzahl des Markts. Mir ist eben ein Leistungsvorreiter im low-end Markt lieber als ein langsamer Feature-Vorreiter.
Full Ack. Leider sind manche Leute so Featureversessen, dass sie alles andere völlig aus den Augen verlieren.

Jesus
2004-10-26, 20:42:32
Und genau da liegt der Punkt. SM3.0-only Effekte werden wir in absehbarer Zeit nur sehen, wenn NV dafür bezahlt, um ein bischen Werbung machen zu können. Nur ist das sicherlich kein Fortschritt, sondern schlicht Marketing, solange andere Titel quasi gleiche Resultate mit vernünftiger performance mit SM2.0 realisieren.

ich würde sogar etwas weiter gehen, es ist eine Art Verschwendung. Das wär ungefähr so als wenn ich mein Auto nur im 4ten Gang fahren würde, weil es nen neun Motor gibt der schneller geht, obwohl ich im 5ten auch so schnell mit dem alten fahrn könnte...

Ich finde man sollte die vorhandene Technologie erstmal ausreizen bevor man sich auf ein neues Terrain stürtzt. Aber leider wird das wohl nicht mehr passieren, denn es ist ja schon seit je her Gang und Gebe einfach die HW alle paar Jahre komplett wegzuschmeissen anstatt die vorhandenen Mittel in der SW richtig zu nutzen. (siehe Spielekonsolen, minus xbox ;) )

aths
2004-10-26, 20:43:32
lol, Jetzt sind wieder die "unfähigen" Entwickler daran Schuld. Seltsamerweise bei PF auch...Halten wir zunächst fest, dass es schon jetzt Grafikeffekte gibt, die auf dem R420 nicht zu sehen sind, jedoch auf dem NV40. Damit bleibt als Pro für R420 weiterhin, dass die Leistung in den aktuellen Spielen meist höher liegt, als beim vergleichbar teuren NV40-Pendant. Der NV40 hingegen wird wohl schon deutlich vor 2006 Effekte zeigen, die dem R420 verwehrt bleiben.

Die endgütltige Performance bei den neuen Effekten ist nicht überragend. Immerhin hat man die Wahl zwischen Leistung oder Effekt.

Spiele-Programmierer können erst seit einigen Monaten Erfahrung sammeln, wie man den NV40 ausnutzen kann. Mit steigender Erfahrung wird der optische Gewinn im Verhältnis zum Leistungsverlust sicher steigen, oder meinst du nicht?

stimmt sorry. Allerdings beantwortet das meine Frage nicht...HDR heißt "High Dynamic Range." Damit kann man u. a. Overbright Lighting machen.

aths
2004-10-26, 20:44:17
Ist das jetzt wichtig ob man die mathematische Equivalenz oder die subjektiv gleiche BQ hinkriegt?Soweit ich das bisher sehe, ist der Effekt bei PC besser (da realistischer und höher aufgelöst.)

aths
2004-10-26, 20:46:33
NV34 fuer Longhorn? Ach ja es war in 2002 wohl klar dass Longhorn soooo schnell ankommen wird deshalb sind ja heutige high end Karten wohl schon WGF-kompliant und ich habe es wohl verpasst. :| Für Tier2-Effekte brauchts nur DX9. Die NV30-Entwicklung inkl. der Familien-Gestaltung begann imo schon 2001.


Wann wurde das Konzept des heutigen NV40 erfasst und wieso hat dann dieser keinen Geometrie Shader? Was ist ein "Geometrie-Shader"?

IMHO ist NV34 eine Entscheidung die zur Zeit des Entwicklungsprozess/Problemen des NV30 eintraf und damals war es NV sehr wohl bekannt dass Longhorn doch nicht vor der Tuer steht.Imo wurde die NV30-Familie (inkl. dem NV35-Refresh) schon 2001 geplant.

NVIDIA nimmt an mehr meetings zwischen IHVs und M$ statt als jede andere Firma (ueberhaupt wenn es zu API Definierung kommt).Da hätte ich die Frage, wieso FX12 in SM2 keine Rolle mehr spielt.

Black-Scorpion
2004-10-26, 20:48:16
Vielleicht glaubst du ja eines Tages doch mal, dass die -zig Millionen Transistoren, die der NV40 mehr hat, nicht nur dazu sind, um auf Featurelisten neue Dinge schreiben zu können, sondern dass diese Transistoren dazu gedacht sind, benutzt zu werden. Immerhin bietet der NV40 an neuen Features nur Dinge, die so oder so Standard werden – und keine "Nebenzweige" à la TruForm.
Gehört für dich der VP auch in die Kategorie?
Denn den hat ja afaik außer nVidia auch noch keiner gesehen.

Sorry, aber deine Lobeshymnen auf alles was nVidia macht sind manchmal wirklich nicht auszuhalten.

aths
2004-10-26, 20:49:08
Die Technologiebremse ist schon da und das von der Mehrzahl des Markts. Mir ist eben ein Leistungsvorreiter im low-end Markt lieber als ein langsamer Feature-Vorreiter.Nah.

Einen Leistungsvorreiter würde es geben, wenn Otto Normalverbraucher in der Lage wäre, die Leistung einer Grafikkarte einschätzen zu können. Stattdessen muss es 8xAGP (oder heute PCIe) sein, es muss viel RAM drauf sein usw.

Stellen wir uns eine GF4MX mit DX8-Support und 4x AGP vor. Wie hätte die sich verkauft im Vergleich zu einer 8x AGP-Karte mit 128 MB RAM und DX9-Unterstützung (sprich, 64-Bit-5200?)

Jesus
2004-10-26, 20:50:50
Spiele-Programmierer können erst seit einigen Monaten Erfahrung sammeln, wie man den NV40 ausnutzen kann. Mit steigender Erfahrung wird der optische Gewinn im Verhältnis zum Leistungsverlust sicher steigen, oder meinst du nicht?

Glaub ich ehrlich gesagt nicht, denn wenn man noch mehr Effekte ( HDR, VS, ka... ) miteinander kombiniert wird die Leistung sicher nicht besser ... Jetzt gibts ja wie gesagt erstmal zum reinschnuppern nur jeweils einen kleinen neuen Effekt bei 2 Spielen und die scheinen dem nv40 schon gewaltige Kopfschmerze zu bereiten.


HDR heißt "High Dynamic Range." Damit kann man u. a. Overbright Lighting machen.

also ist 3dmark05 GT1 HDR ? oder SW: Battlefront?

aths
2004-10-26, 20:51:36
Es ist ein Wasser, was anders realisiert wird, aber im Endeffekt das selbe Resultat bringt. ... Natürlich ist es nicht das SM3.0 Wasser aus PF, das sollte wohl klar sein, da es nicht nach SM3.0 verlangt.

Und genau da liegt der Punkt. SM3.0-only Effekte werden wir in absehbarer Zeit nur sehen, wenn NV dafür bezahlt, um ein bischen Werbung machen zu können. Nur ist das sicherlich kein Fortschritt, sondern schlicht Marketing, solange andere Titel quasi gleiche Resultate mit vernünftiger performance mit SM2.0 realisieren.Erst sagst du, es sei anderen Wasser. Dann ist es "quasi das gleiche Resultat".

Bist du dir sicher (so scheint es mir jedenfalls) dass der NV40 prinzipiell zu schwach ist, um Effekte zu rendern, die dem R420 in Echtzeit verwehrt bleiben?

aths
2004-10-26, 20:53:45
Gehört für dich der VP auch in die Kategorie?
Denn den hat ja afaik außer nVidia auch noch keiner gesehen.... und meine Fragen an NV bezüglich Video-Darstellung (die gar nicht mal den VP betreffen) bleiben unbeantwortet. Schwache Leistung, zumal man erst lang und breit die großartigen Vorteile erklärte.

Sorry, aber deine Lobeshymnen auf alles was nVidia macht sind manchmal wirklich nicht auszuhalten.Meinst du denn im Gegensatz zu mir, dass die -zig Millionen zusätzlichen Transistoren (die das Design schwer hochtaktbar machen) nur aus Marketinggründen vorhanden sind?

aths
2004-10-26, 20:55:26
. edit: DP

LovesuckZ
2004-10-26, 20:56:33
Glaub ich ehrlich gesagt nicht, denn wenn man noch mehr Effekte ( HDR, VS, ka... ) miteinander kombiniert wird die Leistung sicher nicht besser ... Jetzt gibts ja wie gesagt erstmal zum reinschnuppern nur jeweils einen kleinen neuen Effekt bei 2 Spielen und die scheinen dem nv40 schon gewaltige Kopfschmerze zu bereiten.

Und?
Jeder soll frei entscheiden koennen, wie er sein Hobby gestaltet.
Das der geneigte ATi user natuerlich den technologischen Stillstand (aber nur jetzt, versteht sich)fordert, kann ich akeptieren.
Doch sollte man dem NV40 user die freie Wahl lassen, wie er ein Spiel gamen moechte. Und nicht hier und jetzt die Anwendung von Effekten, die auf der Konkurenzkarte nicht oder noch deutlich langsamer darstellbar waere, zu Verhindern.
Seid doch froh darueber, wenn ATi sich dem Technologiefuehrer anschließt, gibt es wenigsten schon Software.
Aber Neid und Missgunst ist ja ein wichtiger Faktor fuer unsere Gesellschaft. Dabei hatte jeder die freie Wahl bei seiner Entscheidung für die geeignete Grafikkarte.

aths
2004-10-26, 20:57:56
Glaub ich ehrlich gesagt nicht, denn wenn man noch mehr Effekte ( HDR, VS, ka... ) miteinander kombiniert wird die Leistung sicher nicht besser ... Jetzt gibts ja wie gesagt erstmal zum reinschnuppern nur jeweils einen kleinen neuen Effekt bei 2 Spielen und die scheinen dem nv40 schon gewaltige Kopfschmerze zu bereiten.Der VS arbeitet (so gut wie) unabhängig vom PS. Limitiert der Pixelshader, kann man problemlos die VS-Last erhöhen, ohne dass das negative Auswirkungen auf die Performance hat. Ebenso geht es andersrum.

Meine Frage, ob du annimmst, dass die Entwickler mit steigender Erfahrung den NV40 in Zukunft besser ausnutzen, hast du noch nicht beantwortet.

also ist 3dmark05 GT1 HDR ? oder SW: Battlefront?Kein einziger 3DMark-Test nutzt irgendwo "HDR-IB Lighting". Zwischendurch kann es durchaus mal über den Wertebereich von 1 hinausgehen. Und genau das meint man mit Overbright Lighting.

Jesus
2004-10-26, 20:59:06
Meine Frage, ob du annimmst, dass die Entwickler mit steigender Erfahrung den NV40 in Zukunft besser ausnutzen, hast du noch nicht beantwortet.


doch etwas weiter oben ;)

betasilie
2004-10-26, 20:59:25
Soweit ich das bisher sehe, ist der Effekt bei PC besser (da realistischer und höher aufgelöst.)
Was deiner Meinung nach natürlich an SM3.0 liegt? :rolleyes:

PT Boats SM2.0:
http://games.tiscali.cz//images/ptboats/bngc.jpg
http://games.tiscali.cz//images/ptboats/bng4.jpg
http://games.tiscali.cz//images/ptboats/bng5.jpg


Und hier das achso tolle SM3.0 Wasser aus PF:
http://ml-computer.de/Pics/grab3.jpg



Wenn sich hier was unterschiedet im Resultat, dann sicherlich nicht durch SM3.0, sondern schlicht weil eine anderes Team das Wasser designed hat und durch die schlechtere Qualität der PT-Boats Bilder.

aths
2004-10-26, 21:02:10
doch etwas weiter oben ;)Deine Antwort war, dass der NV40 heute "gewaltige Kopfschmerzen" hätte. Daraus folgerst du gleich, dass es auch in Zukunft nichts wird? Demnach müsstest du auch folgern, dass der R420 kein 3Dc zu sehen bekommt – denn atm gibt es sogar null Spiele (0<2), welche das unterstützen.

aths
2004-10-26, 21:03:15
Wenn sich hier was unterschiedet im Resultat, dann sicherlich nicht durch SM3.0, sondern schlicht weil eine anderes Team das Wasser designed hat und durch die schlechtere Qualität der PT-Boats Bilder.Wenn das ein Fakt ist ("sicherlich"), begründe ihn. Wenn es eine Meinung ist, formuliere das bitte auch so.

Ich vertrete im Moment die Meinung, dass das PF-Wasser "besser" ist.

Jesus
2004-10-26, 21:04:33
Und?
Jeder soll frei entscheiden koennen, wie er sein Hobby gestaltet.
Das der geneigte ATi user natuerlich den technologischen Stillstand (aber nur jetzt, versteht sich)fordert, kann ich akeptieren.
Doch sollte man dem NV40 user die freie Wahl lassen, wie er ein Spiel gamen moechte. Und nicht hier und jetzt die Anwendung von Effekten, die auf der Konkurenzkarte nicht oder noch deutlich langsamer darstellbar waere, zu Verhindern.
Seid doch froh darueber, wenn ATi sich dem Technologiefuehrer anschließt, gibt es wenigsten schon Software.
Aber Neid und Missgunst ist ja ein wichtiger Faktor fuer unsere Gesellschaft. Dabei hatte jeder die freie Wahl bei seiner Entscheidung für die geeignete Grafikkarte.

toll was du mir da alles Unterstellst :) Leider habe ich weder R420 noch NV40, also kann ich kaum darauf neidisch sein und ich werde mir wohl auch keinen von beiden kaufen, darum gehts auch gar nicht. Ich mag es nur nicht wenn blind alle Vorteile einer Seite beleuchtet werden, ohne auch mal die Nachteile zu betrachten, die ja jetzt langsam zum Vorschein kommen.
Auch fände ich es Kacke wenn ich mir ne 500 euro Karte kaufen würde, um die neuesten Spiele mit der bestmöglichen Qualität spielen zu können, aber das bereits jetzt nicht mehr möglich ist. Dafür brauch ich keine 500 euro auszugeben, geht auch mit meiner alten Karte ;) (Effekte hin oder her).

Die ersten PS2.0 Effekte (Morrowind) waren auch nicht so lahm wie das jetzt.

Jesus
2004-10-26, 21:07:25
Deine Antwort war, dass der NV40 heute "gewaltige Kopfschmerzen" hätte. Daraus folgerst du gleich, dass es auch in Zukunft nichts wird? Demnach müsstest du auch folgern, dass der R420 kein 3Dc zu sehen bekommt – denn atm gibt es sogar null Spiele (0<2), welche das unterstützen.

Meine Antwort war das es bereits bei wenigen (eins) neuen Effekten so ist. Also folgere ich daraus dass es bei mehreren (besser sichtbaren) nicht unbedingt schneller werden wird.

3dc wird von FC unterstützt.

Ausserdem meinte ich das:

Ich finde man sollte die vorhandene Technologie erstmal ausreizen bevor man sich auf ein neues Terrain stürtzt. Aber leider wird das wohl nicht mehr passieren, denn es ist ja schon seit je her Gang und Gebe einfach die HW alle paar Jahre komplett wegzuschmeissen anstatt die vorhandenen Mittel in der SW richtig zu nutzen. (siehe Spielekonsolen, minus xbox ;) )

= natürlich wird im Laufe der Zeit noch etwas rausgeholt, sei es durch bessere Programmierung oder Treiber, das ändert aber nicht an dem was ich oben schon geschrieben habe ( mehr Effekte != bessere Leistung)

Ich vertrete im Moment die Meinung, dass das PF-Wasser "besser" ist.

kaum verwunderlich :rolleyes:

LovesuckZ
2004-10-26, 21:11:17
Ich mag es nur nicht wenn blind alle Vorteile einer Seite beleuchtet werden, ohne auch mal die Nachteile zu betrachten, die ja jetzt langsam zum Vorschein kommen.

Die freie Entscheidungsfaehigkeit sollte eins der wichtigsten Güter in einer Demokratie seien.
Und als Negativpunkt zaehlt sicherlich nicht, dass man die Auswahl hat mit oder ohne u spielen.

Auch fände ich es Kacke wenn ich mir ne 500 euro Karte kaufen würde, um die neuesten Spiele mit der bestmöglichen Qualität spielen zu können, aber das bereits jetzt nicht mehr möglich ist. Dafür brauch ich keine 500 euro auszugeben, geht auch mit meiner alten Karte ;) (Effekte hin oder her).

Zur Zeit gibt es die "bestmögliche Qualität" nur auf dem NV40, es ist sozusagen ein "kostenloser" Pluspunkt gegenueber der Konkurenzkarte.
Ich kann die selbe Qualitaet und eine aehnliche Geschwindigkeit haben oder eine bessere Qualitaet mit geringerer Leistung erhalten.
Freie Wahl.

Black-Scorpion
2004-10-26, 21:15:02
... und meine Fragen an NV bezüglich Video-Darstellung (die gar nicht mal den VP betreffen) bleiben unbeantwortet. Schwache Leistung, zumal man erst lang und breit die großartigen Vorteile erklärte.
Nur das du das nie ungefragt geschrieben hättest.
Und eine schwache Leistung ist noch sehr Milde ausgedrückt.
Zumal damit immernoch auf der Seite geworben wird.
http://www.nvidia.de/page/specs_gf6.html
Das wäre mal eine Kolumne wert. ;)
Meinst du denn im Gegensatz zu mir, dass die -zig Millionen zusätzlichen Transistoren (die das Design schwer hochtaktbar machen) nur aus Marketinggründen vorhanden sind?
Habe ich das gesagt?
Sicher werden die nicht aus langeweile verbaut.
Nur das auch bei nVidia nicht alles Gold ist was glänzt.

aths
2004-10-26, 21:15:30
Meine Antwort war das es bereits bei wenigen (eins) neuen Effekten so ist. Also folgere ich daraus dass es bei mehreren (besser sichtbaren) nicht unbedingt schneller werden wird. Ok.

Von den Screenshots her bin ich von FarCrys HDR-Lighting übrigens nicht sonderlich begeistert (wirkt mir irgendwie aufgesetzt.) Ganz stark vereinfacht gesagt, wird "echtes" HDR-IBL die Leistung des NV40 halbieren, Ausnahmen sind bestimmte Shadertechiken die die Grundleistung ohnehin stark drücken, so dass am Ende erst recht nicht mehr viel übrig bleibt. Außerdem geht Antialiasing nicht mehr.

Trotz allem ist NV40 ein Chip, mit dem HDR-IBL in Spielen in Echtzeit möglich ist, wie Far Cry beweist.

3dc wird von FC unterstütz.Habe ich dann überlesen. Was bringts der Radeon?

Ausserdem meinte ich das:

Ich finde man sollte die vorhandene Technologie erstmal ausreizen bevor man sich auf ein neues Terrain stürtzt. Aber leider wird das wohl nicht mehr passieren, denn es ist ja schon seit je her Gang und Gebe einfach die HW alle paar Jahre komplett wegzuschmeissen anstatt die vorhandenen Mittel in der SW richtig zu nutzen. (siehe Spielekonsolen, minus xbox ;) )Mit SM3 kann man einige SM2- (sogar einige DX8-) Effekte verschnellern, insofern sollte man imo auf SM3 so früh wie möglich setzen und da nicht erst warten, bis man alles mit SM2 gemacht hat, was mit SM2 irgendwie gehen würde.

Auch sehe ich keinen Grund, zu warten, HDR-IBL oder Vertex Texturing zu nutzen, nur weil R420 das gar nicht oder nicht mehr in Echtzeit bringen kann. Je früher experimentiert wird, desto mehr Titel mit vernünftigen Effekten wenn es (auch von ATI) bessere SM3-HW gibt als den NV40.

Jesus
2004-10-26, 21:17:41
Zur Zeit gibt es die "bestmögliche Qualität" nur auf dem NV40, es ist sozusagen ein "kostenloser" Pluspunkt gegenueber der Konkurenzkarte.
Ich kann die selbe Qualitaet und eine aehnliche Geschwindigkeit haben oder eine bessere Qualitaet mit geringerer Leistung erhalten.
Freie Wahl.

Naja HDR + AA und AF wären bestmögliche Quaität, oder VS Wellen mit >50 fps. Kommt halt drauf an ob man auf schöne Slideshows steht oder flüssige Grafik. Alternativ kann man natürlich auf 640x480 spielen, was das ganze aber wieder ad absurdum führen würde...

Wenn die Karte das schon kann, dann erwarte ich dass es auch gut läuft, sonst kann ich getrost darauf verzichten (langsam tun sich parallelen auf... :rolleyes: ) Aber das muss jeder selber wissen ;)

betasilie
2004-10-26, 21:19:02
Ich vertrete im Moment die Meinung, dass das PF-Wasser "besser" ist.
Und so wie ich dich einschätze natürlich weil SM3.0 drauf steht. :rolleyes: Gibt es eigentlich einen Thread wo Du nicht versuchst SM3.0 in den Himmel zu heben?

Natürlich ist einer der beiden Wassereffekte subjektiv schlechter, als der andere. Darum geht es aber nicht, sondern darum, dass ein quasi gleiches Resultat auch mit SM2.0 möglich ist. Wer nun das Wasser in deinen Augen "schöner" hinbekommen hat, ist da völlig nebensächlich.

Rein technisch jedenfalls beweisen die Bilder, dass für das SM3.0-Wasser in PF, was ja sowieso auch auf den meisten 6800er Karten z.Zt. nicht läuft, worauf sogar die Readme des Spiels aufmerksam macht, kein SM3.0 notwendig ist. Es ist also nur eine Featurevermarktung, die NV mit der Brechstange in dieses Spiel reingekauft hat.

Jesus
2004-10-26, 21:20:06
Auch sehe ich keinen Grund, zu warten, HDR-IBL oder Vertex Texturing zu nutzen, nur weil R420 das gar nicht oder nicht mehr in Echtzeit bringen kann. Je früher experimentiert wird, desto mehr Titel mit vernünftigen Effekten wenn es (auch von ATI) bessere SM3-HW gibt als den NV40.

Man sollte auch nicht warten ;) Man sollte eben nur alles nutzen was da ist.



Habe ich dann überlesen. Was bringts der Radeon?


bisher noch nichts, bzw. 10-12%. Hat noch keiner richtig gebencht afaik.

aths
2004-10-26, 21:20:27
Nur das du das nie ungefragt geschrieben hättest.
Und eine schwache Leistung ist noch sehr Milde ausgedrückt.
Zumal damit immernoch auf der Seite geworben wird.
http://www.nvidia.de/page/specs_gf6.html
Das wäre mal eine Kolumne wert. ;)Da gibt es dringendere Themen. Die VP senkt ja nur die CPU-Last. Schlimmer ist imo die Overlay-Qualität bis einschließlich GeForce FX.

Habe ich das gesagt?
Sicher werden die nicht aus langeweile verbaut.
Nur das auch bei nVidia nicht alles Gold ist was glänzt.Ja, nur weil Nvidia sich ob des NV40 in höchsten Tönen selbst lobt heißt das nicht, dass das jetzt für alle der perfekte Chip ist.

Doch beobachte ich dies:

- R420 kommt mit mehr Takt und gewinnt die meisten Benches. Tenor: ATI hat weiterhin die beste Karte, vor 2006 wird NV40-Technik nicht relevant.

- Schon jetzt gibt es einen Vorgeschmack darauf, wie es 2005 sein wird: Einige Top-Titel benötigen einen NV40 (oder höher, sprich den ATI-SM3-Part) für alle Effekte.

- Anstatt das anzuerkennen (was die weiterhin höhere Leistung in den meisten anderen Spielen nicht in Abrede stellt) wird versucht, die Umsetzung der neuen Effekte kleinzureden, so als ob die NV40-Features im NV40 selbst allesamt unbrauchbar langsam wären.

aths
2004-10-26, 21:21:29
. dp

Jesus
2004-10-26, 21:23:54
- Anstatt das anzuerkennen (was die weiterhin höhere Leistung in den meisten anderen Spielen nicht in Abrede stellt) wird versucht, die Umsetzung der neuen Effekte kleinzureden, so als ob die NV40-Features im NV40 selbst allesamt unbrauchbar langsam wären.

Mach ich doch nicht. Die Effekte gefallen mir sehr gut, das HDR vor allem (die Wellen eher weniger, seh irgendwie nicht viel unterschied da). Allerdings soll das ganze dann auch gut laufen und nutzbar ( +AA, hohe Auflösungen) sein.

LovesuckZ
2004-10-26, 21:26:13
Naja HDR + AA und AF wären bestmögliche Quaität, oder VS Wellen mit >50 fps. Kommt halt drauf an ob man auf schöne Slideshows steht oder flüssige Grafik. Alternativ kann man natürlich auf 640x480 spielen, was das ganze aber wieder ad absurdum führen würde...

Was davon kann nochmal der R420?
Es ist daher laecherlich, die geringere Leistung des NV40 beim Einsatz HDR (like Farcry) oder Vertex Texturing zu kritisieren, wenn die Konkurenkarte nicht in der Lage ist beides auszfuehren.
Das waere genauso laecherlich als diskrimiere mich ein Golffahrer wegen meiner nicht wirklich einstellbaren Klimaanlage, er jedoch hat nichtmal eine.

Wenn die Karte das schon kann, dann erwarte ich dass es auch gut läuft, sonst kann ich getrost darauf verzichten (langsam tun sich parallelen auf... :rolleyes: ) Aber das muss jeder selber wissen ;)

Du kannst darauf verzichten. Natuerlich kannst du es.
Andere wollen jedoch die Moeglichkeit haben und ihnen sollte man sie geben.
Vielleicht solltest du in eine Diktatur ziehen (Kuba?), freie Wahl moechtest du ja nicht haben.
Wie ich schon sagte: Viele finden den Effekt fazinierend, sollten sie nu auch in weitere Titel darauf verzichten, weil der geneigte R420 user ihn nicht zu Gesicht bekommt?

Und was bringt dir eine schnelle Hardwareunterstuetzung, wenn du ein Jahr auf das Feature warten musst?
Ebenfalls nichts.

betasilie
2004-10-26, 21:26:15
Mach ich doch nicht. Die Effekte gefallen mir sehr gut, das HDR vor allem (die Wellen eher weniger, seh irgendwie nicht viel unterschied da). Allerdings soll das ganze dann auch gut laufen und nutzbar ( +AA, hohe Auflösungen) sein.
Außerdem ist HDR ein Feature, was auch auf den ATIs läuft. Also von daher sicherlich nicht low-tech seitens ATI.

aths
2004-10-26, 21:26:43
Naja HDR + AA und AF wären bestmögliche Quaität, oder VS Wellen mit >50 fps. Kommt halt drauf an ob man auf schöne Slideshows steht oder flüssige Grafik. Alternativ kann man natürlich auf 640x480 spielen, was das ganze aber wieder ad absurdum führen würde...Da "durchgehendes" HDR FSAA unmöglich macht, ist 640x480 erst recht keine sinnvolle Möglichkeit. Allerdings wäre HDR innerhalb bestimmer Grenzen auch mit herkömmlichem 32-Bit-Framebuffer möglich, dann würde auch FSAA wieder funktionieren.

Wenn die Karte das schon kann, dann erwarte ich dass es auch gut läuft, sonst kann ich getrost darauf verzichten (langsam tun sich parallelen auf... :rolleyes: ) Aber das muss jeder selber wissen ;)Die Karte kann "das" nicht. Sie bietet bestimmte Features. Jede Radeon X800 XT PE lässt sich mittels normalem DX7-Rendering in die Knie zwingen, wenn man will. Immerhin scheinen die Spiele trotz der neuen Effekte noch spielbar zu sein.

Wishnu
2004-10-26, 21:27:58
Bist du dir sicher (so scheint es mir jedenfalls) dass der NV40 prinzipiell zu schwach ist, um Effekte zu rendern, die dem R420 in Echtzeit verwehrt bleiben?

Erfahrungswerte aus vergangenen Tagen lassen einen doch irgendwie skeptisch werden...zumindest war es bisher meist so, dass bestimmte Innovationen erst in der Folgegeneration (oder noch eins weiter) eingesetzt werden konnten, bspw. 32-Bit-Rendering (kam mit TNT, bei meiner TNT2 habe ich immer noch darauf verzichtet, weil - zumindest für Shooter oder anderen Spielen der schnelleren Art - zu lahm, bei der GF1 dann erstmals wirklich brauchbar).

Jesus
2004-10-26, 21:31:55
Was davon kann nochmal der R420?


Du kapierst es nicht oder ?


Die Karte kann "das" nicht. Sie bietet bestimmte Features. Jede Radeon X800 XT PE lässt sich mittels normalem DX7-Rendering in die Knie zwingen, wenn man will. Immerhin scheinen die Spiele trotz der neuen Effekte noch spielbar zu sein.

darum gehts! Auf noch spielbar kann ich verzichten. Denn dann werden die Effekte über kurz oder lang bei den meisten sowieso wieder abgeschaltet (würde ich tun, genauso wie ich FC mit meiner Karte nicht mit 6xFSAA spiele) , womit wir wieder beim alten Stand sind.

aths
2004-10-26, 21:36:29
Und so wie ich dich einschätze natürlich weil SM3.0 drauf steht. :rolleyes: Gibt es eigentlich einen Thread wo Du nicht versuchst SM3.0 in den Himmel zu heben?Was hast du denn an SM3 auszusetzen?

Natürlich ist einer der beiden Wassereffekte subjektiv schlechter, als der andere. Darum geht es aber nicht, sondern darum, dass ein quasi gleiches Resultat auch mit SM2.0 möglich ist. Wer nun das Wasser in deinen Augen "schöner" hinbekommen hat, ist da völlig nebensächlich.

Rein technisch jedenfalls beweisen die Bilder, dass für das SM3.0-Wasser in PF, was ja sowieso auch auf den meisten 6800er Karten z.Zt. nicht läuft, worauf sogar die Readme des Spiels aufmerksam macht, kein SM3.0 notwendig ist. Es ist also nur eine Featurevermarktung, die NV mit der Brechstange in dieses Spiel reingekauft hat.Das ist deine Meinung, nur weil es möglich ist, bewegte Wellen auch ohne SM3 darzustellen. Der Meshugga-Demo reichte für bewegtes Wasser DX8.

Wer in meinen Augen das Wasser schöner hinbekommen hat sei nebensächlich – ok, wenn deine Auffassung, der Effekt sei "quasi der gleiche" ebenso nebensächlich ist.

Wishnu
2004-10-26, 21:39:00
Das waere genauso laecherlich als diskrimiere mich ein Golffahrer wegen meiner nicht wirklich einstellbaren Klimaanlage, er jedoch hat nichtmal eine.


Wenn das Ding großartig mit Klimaanlage beworben und den Innenraum auf unbrauchbare 30° klimatisieren würde, dürfte man, obwohl es einige Menschen gibt, denen das bestimmt gefallen würde, dies dennoch kritisieren, oder?

aths
2004-10-26, 21:39:26
Erfahrungswerte aus vergangenen Tagen lassen einen doch irgendwie skeptisch werden...zumindest war es bisher meist so, dass bestimmte Innovationen erst in der Folgegeneration (oder noch eins weiter) eingesetzt werden konnten, bspw. 32-Bit-Rendering (kam mit TNT, bei meiner TNT2 habe ich immer noch darauf verzichtet, weil - zumindest für Shooter oder anderen Spielen der schnelleren Art - zu lahm, bei der GF1 dann erstmals wirklich brauchbar).... und zwar erst bei der DDR-Version. Ein richtiggehendes 32-Bit-Design bot NV sogar erst mit der GeForce3 (da war ATI mit der Radeon schneller.)

Natürlich werden Spiele mit "SM3-Effekten" auf Folgehardware besser laufen. Die Frage ist, ob die neuen Effekte immer dermaßen viel Leistung ziehen werden, dass die NV40-Grundleistung dafür einfach nicht ausreicht. Oder ob es nicht ähnlich wie bei der Radeon 9700 sein könnte, die für "SM2-Effekte" noch ganz gut ausreicht.

Black-Scorpion
2004-10-26, 21:40:24
Da gibt es dringendere Themen. Die VP senkt ja nur die CPU-Last. Schlimmer ist imo die Overlay-Qualität bis einschließlich GeForce FX.
---
# Dedizierter, chipintegrierter Videoprozessor
# Hardwareseitige MPEG-Codierung und -Decodierung
---
Schau mal ins nVidia Forum da gibt es einige die gerade dieses Features nutzen wollen und Dank nVidias Hinhaltetaktik nicht können.
Die User hoffen immer auf den nächsten Treiber und es passiert nichts.
Gerade deshalb wäre es nötig nVidia mal richtig in den A.... zu treten.

Und wenn ich mir manche Posts in dem Thread so ansehe senkt sich bei einigen eher das Kinn, aber nicht die CPU Last.

aths
2004-10-26, 21:41:57
darum gehts! Auf noch spielbar kann ich verzichten. Denn dann werden die Effekte über kurz oder lang bei den meisten sowieso wieder abgeschaltet (würde ich tun, genauso wie ich FC mit meiner Karte nicht mit 6xFSAA spiele) , womit wir wieder beim alten Stand sind.Das ist eine akzeptable Meinung. Auch ich würde gnadenlos Effekte wegschalten, die mir zu viel Leistung fressen. Schon gar nicht würde ich auf FSAA verzichten.

Doch ich kenne viele, die müssen alles auf "max" gestellt haben. Die würden dann lieber mit den neuen Effekten spielen in der Angst, sonst was zu verpassen. Auch das ist eine (genau so) akzeptable Meinung.

aths
2004-10-26, 21:44:25
---
# Dedizierter, chipintegrierter Videoprozessor
# Hardwareseitige MPEG-Codierung und -Decodierung
---
Schau mal ins nVidia Forum da gibt es einige die gerade dieses Features nutzen wollen und Dank nVidias Hinhaltetaktik nicht können.
Die User hoffen immer auf den nächsten Treiber und es passiert nichts.
Gerade deshalb wäre es nötig nVidia mal richtig in den A.... zu treten.Darunter leidet Nvidias Image, zu dessen Pflege ich nicht bezahlt werde. Ich hab NV schon mal Treiberbugs mitgeteilt, und das wurde nicht angemessen behandelt. Die können da offenbar einfach keinen Fehler eingestehen.

Und wenn ich mir manche Posts in dem Thread so ansehe senkt sich bei einigen eher das Kinn, aber nicht die CPU Last.Ein Feature welches im 2D-Betrieb die CPU entlastet ist für mich nett, aber kein Must-have. Ein Feature welches die Videoqualität verbessert, hielte ich für sinnvoller.

LovesuckZ
2004-10-26, 21:46:30
Du kapierst es nicht oder ?


Das du aufgrund deiner Verliebheit bestimmte Effekte bis naechstes Jahr auf keinem fall sehen willst?
Doch sehr gut.
Warum sollte ich solch eine Meinung akzeptieren?
Einerseits wird hier gepraedigt, dass neue Features neue Effekte bringen sollen, andererseits waere es doch wieder nur die liebliche Leistung, die zaehlt.
Ihr solltet euch endlich mal entscheiden, was nun wirklich wichtig ist.
Oder zaehlt nur das, was eurem IHV hilft?
Anders ist diese "nicht gut, SM3.0 und HDR" Geschichte nicht zu verstehen.

Wenn das Ding großartig mit Klimaanlage beworben und den Innenraum auf unbrauchbare 30° klimatisieren würde, dürfte man, obwohl es einige Menschen gibt, denen das bestimmt gefallen würde, dies dennoch kritisieren, oder?

Auch, wenn die niedrigste Temperatur im Golf 50° C sind, er dafuer aber schneller fahren kann?
Du siehst, mein Beispiel sollte nur zeigen, dass das Kritisieren eines Features aufgrund deren Leistung nur dann angebracht ist, wenn das Konkurenzprodukt jenes auch unterstuetzt.
Ansonsten nehme ich es mit oder will es bis zum naechsten Wechsel nicht einsetzen und entscheide mich für die Alternative.
Aber dann rumheulen, is nich.

Wishnu
2004-10-26, 21:50:21
... und zwar erst bei der DDR-Version. Ein richtiggehendes 32-Bit-Design bot NV sogar erst mit der GeForce3 (da war ATI mit der Radeon schneller.)


Stimmt, ich hatte damals auch die DDR-Version. Wobei mir jene erst einmal das Mainboard zerlegte (Spannungswandler kam nicht mehr mit), aber das ist eine andere Geschichte... ;)

betasilie
2004-10-26, 21:51:41
Was hast du denn an SM3 auszusetzen?
Wirklich absolut garnichts, wenn die Zeit reif dafür ist. ... Und um es vorwegzunehmen; die Zeit ist imo Reif für SM3.0, wenn die Developer von alleine die Grenzen von SM2.0 erreichen und SM3.0 einsetzen wollen/müssen, ohne dass NVidia dafür zahlt, damit Effekte, die problemlos mit SM2.0 Hardware möglich wären, ausschließlich mit SM3.0 realisiert werden, weil Geld dafür fließt.

Einfach jetzt nur blind jeden Marketingmist in Richtung SM3.0 zu hypen, empfinde ich nicht mehr als sachlich. Sorry, aths, aber im moment verlierst Du in meinen Augen ganz schön an Reputation, wenn Du dich so daran fest beißt alles was mit SM3.0 zu tun hat zu hypen.


Das ist deine Meinung, nur weil es möglich ist, bewegte Wellen auch ohne SM3 darzustellen. Der Meshugga-Demo reichte für bewegtes Wasser DX8.

Wer in meinen Augen das Wasser schöner hinbekommen hat sei nebensächlich – ok, wenn deine Auffassung, der Effekt sei "quasi der gleiche" ebenso nebensächlich ist.
Nein, das Wasser sieht an der Oberfläche quasi gleich aus, egal ob da SM3.0 oder SM2.0 Algorithmen hinterstecken. Und dass sich die Resultate quasi nicht unterscheiden, außer für die SM3.0-Fans, kann wohl jeder sehen.

Im Grunde ist es einfach nur NVs unverschämtes Markteing zuzuschreiben, dass das highdetail Wasser nicht mit SM2.0 realisiert wurde.

Irgendwie ist es doch sehr peinlich für NVidia einen vermeintlichen SM3.0 Effekt vorstellen zu wollen, der schlecht performt und in anderen Spielen mit SM2.0 möglich ist.

Wishnu
2004-10-26, 21:55:02
Auch, wenn die niedrigste Temperatur im Golf 50° C sind, er dafuer aber schneller fahren kann?
Du siehst, mein Beispiel sollte nur zeigen, dass das Kritisieren eines Features aufgrund deren Leistung nur dann angebracht ist, wenn das Konkurenzprodukt jenes auch unterstuetzt.
Ansonsten nehme ich es mit oder will es bis zum naechsten Wechsel nicht einsetzen und entscheide mich für die Alternative.
Aber dann rumheulen, is nich.

Ich hätte mein Beispiel ja noch viel extremer Gestalten können.
Deiner Meinung nach könnte ein Hersteller also irgendwas völlig sinnloses einbauen und bewerben, Kritik hingegen sei aber nicht angemessen, weil die Konkurrenz ja nichts ebenso sinnloses entgegenzusetzen hat (das Ganze jetzt überspitzt dargestellt, um Deine Kernaussage zu verdeutlichen)?

btw Kritik hat doch auch für den Kunden eine positive Veränderung zur Folge

LovesuckZ
2004-10-26, 22:02:29
Deiner Meinung nach könnte ein Hersteller also irgendwas völlig sinnloses einbauen und bewerben, Kritik hingegen sei aber nicht angemessen, weil die Konkurrenz ja nichts ebenso sinnloses entgegenzusetzen hat (das Ganze jetzt überspitzt dargestellt, um Deine Kernaussage zu verdeutlichen)?

Natuerlich und wenn es dir nicht gefaellt, dann kaufst du es nicht.
Angebot und Nachfrage. Das ist unser System.
Nvidia baut Karten mit SM3.0 und vernuenftiger HDR Lighting Unterstuetzung, welche dafuer (NV40) einen hoheren Stromverbrauch, hoehere Waermeabgabe und groeßere Kuehlung haben. Im Gegenzug wird mir gegenueber der Konkurenz eine bessere Bildqualitaet geboten.
Ich entscheide mit dem kauf, ob ich mit den Eigenschaften der Karte zu frieden bin (bzw. Verkauf). Gleichzeitig bin ich in der Lage, die Features einzusetzen und ihren Nutzen zu beschreiben.
Wenn ein NV40 user an kommt und sich beschwert, dass das HDR in farcry zu langsam sei, dann kann man das akzeptieren. Aber wenn es ein R420 user macht, dann ist das mehr als laecherlich. Wieso? Weil er es nie ausprobieren konnte und somit keinen eigenen Praxisbezug erzeugen konnte
(ich sagte frueher immer, ich benoetige kein Fuehrerschein. Jetzt will ich nichts liebere als Auto zu fahren).

/edit: Kritik ist wunderbar, solange sie nachvollziehbar ist und nicht der eigenen Befriedigung gilt, weil man seinen geliebten Hersteller verteidigt hat.

Jesus
2004-10-26, 22:05:55
Im Grunde ist es einfach nur NVs unverschämtes Markteing zuzuschreiben, dass das highdetail Wasser nicht mit SM2.0 realisiert wurde.

Ist doch normal sowas, siehe FC pre 1.2 Patch, Shadow Ops mit A64, und jetzt eben PF etc...


@LS: :ulove3:


Wenn ein NV40 user an kommt und sich beschwert, dass das HDR in farcry zu langsam sei, dann kann man das akzeptieren. Aber wenn es ein R420 user macht, dann ist das mehr als laecherlich. Wieso?

:uhammer2:

Wishnu
2004-10-26, 22:08:01
Natuerlich und wenn es dir nicht gefaellt, dann kaufst du es nicht.
Angebot und Nachfrage. Das ist unser System.
Nvidia baut Karten mit SM3.0 und vernuenftiger HDR Lighting Unterstuetzung, welche dafuer (NV40) einen hoheren Stromverbrauch, hoehere Waermeabgabe und groeßere Kuehlung haben. Im Gegenzug wird mir gegenueber der Konkurenz eine bessere Bildqualitaet geboten.
Ich entscheide mit dem kauf, ob ich mit den Eigenschaften der Karte zu frieden bin (bzw. Verkauf). Gleichzeitig bin ich in der Lage, die Features einzusetzen und ihren Nutzen zu beschreiben.
Wenn ein NV40 user an kommt und sich beschwert, dass das HDR in farcry zu langsam sei, dann kann man das akzeptieren. Aber wenn es ein R420 user macht, dann ist das mehr als laecherlich. Wieso? Weil er es nie ausprobieren konnte und somit keinen eigenen Praxisbezug erzeugen konnte
(ich sagte frueher immer, ich benoetige kein Fuehrerschein. Jetzt will ich nichts liebere als Auto zu fahren).

Irgendwie diskutieren wir gerade aneinander vorbei.
Du sprachst der Allgemeinheit das Recht ab, (vermeintliche) Innovationen zu kritisieren. Diese darf man nicht in Frage stellen (bzw. Kritik an der Umsetzung üben). Und genau das habe ich angeprangert. Mehr wollte ich überhaupt nicht sagen. ;)

flatbrain
2004-10-26, 22:15:39
So wie ich das bisher verstanden habe, ist es doch so - es gibt 2 verschiedene IHVs, die auf einem gewissen Level annähernd gleiche Leistung bringen, wenn man von der gleichen (Spiele)-Basis ausgeht? Wenn das soweit richtig ist, folgere ich weiter, das zum jetzigen Zeitpunkt einer der beiden IHVs eine Technik einführt, die in ungewisser Zeit Standard sein wird und heute noch nicht oder ineffizient (für Spieler) eingesetzt wird, sich aber nicht sagen lässt, wann diese sich durchsetzen wird und auch nicht, welche Performance aktuelle Grafikkarten des IHVs, der diese Technik bereits heute anbietet, haben werden! Wenn dies soweit richtig ist - warum dann diese erbitterten Streitgespräche hier? Es gibt doch für jeden Typ Spieler eine geeignete Grafikkarte, wer höchste Performance mit aktueller Technik haben will, greife zu IHV A, wer annähernd gleiche Performance plus Innovation haben will, greife zu IHV B?! Es mag zwar sicherlich noch andere Entscheidungskriterien geben, aber rein aus Performance/Technologiesicht spielen diese imo eher eine untergeordnete Rolle!

Fazit: Warum innovative Techniken des einen schlecht reden, wenn man selber nichts entgegnen zu hat - immer darauf bezogen, dass die Performance unter Nutzung aktueller Techniken (SM2) annähernd gleich ist?
Es zwingt doch niemand jemanden, technische Innovationen zu nutzen...!

so long,
flatbrain

LovesuckZ
2004-10-26, 22:15:42
Und genau das habe ich angeprangert. Mehr wollte ich überhaupt nicht sagen. ;)

Nein, wir reden ueber das selbe Thema:
Hier diskutieren Leute ueber das HDR Lighting oder das Wasser bei PF, was nur auf dem NV4x darstellbar ist, über die Leistung beu Nvidia ("nutzlos, da zu langsam"), die nicht hardwaretechnisch in der Lage sind, es einzusetzen.
Wo ist da der Sinn?

Tjell
2004-10-26, 22:18:49
Wirklich absolut garnichts, wenn die Zeit reif dafür ist. ... Und um es vorwegzunehmen; die Zeit ist imo Reif für SM3.0, wenn die Developer von alleine die Grenzen von SM2.0 erreichen und SM3.0 einsetzen wollen/müssen, ohne dass NVidia dafür zahlt, damit Effekte, die problemlos mit SM2.0 Hardware möglich wären, ausschließlich mit SM3.0 realisiert werden, weil Geld dafür fließt.

Einfach jetzt nur blind jeden Marketingmist in Richtung SM3.0 zu hypen, empfinde ich nicht mehr als sachlich. Sorry, aths, aber im moment verlierst Du in meinen Augen ganz schön an Reputation, wenn Du dich so daran fest beißt alles was mit SM3.0 zu tun hat zu hypen.



Nein, das Wasser sieht an der Oberfläche quasi gleich aus, egal ob da SM3.0 oder SM2.0 Algorithmen hinterstecken. Und dass sich die Resultate quasi nicht unterscheiden, außer für die SM3.0-Fans, kann wohl jeder sehen.

Im Grunde ist es einfach nur NVs unverschämtes Markteing zuzuschreiben, dass das highdetail Wasser nicht mit SM2.0 realisiert wurde.

Irgendwie ist es doch sehr peinlich für NVidia einen vermeintlichen SM3.0 Effekt vorstellen zu wollen, der schlecht performt und in anderen Spielen mit SM2.0 möglich ist.
Warum sollte man auf Biegen und Brechen an die Grenzen einer Technik gehen, hier SM2.0 (und wenn dann bitte auch 2.0 ohne "a" oder "b"), wenn die Nachfolgetechnik (SM3.0) quasi dasselbe kann mit höchstens gleichem Aufwand, teilweise weniger!? Oder eben mehr kann bei reduzierter Leistung?

Ist da etwas schlimm daran, wenn es durch nVIDIA SM3.0-only Effekte geben wird, wenn es, wie ihr schreibt, einen optisch gleichwertigen aber schnelleren SM2-Effekt gibt? Ist doch dann wumpe, daß es SM3.0 gibt.

:confused:

LovesuckZ
2004-10-26, 22:19:34
Es gibt doch für jeden Typ Spieler eine geeignete Grafikkarte, wer höchste Performance mit aktueller Technik haben will, greife zu IHV A, wer annähernd gleiche Performance plus Innovation haben will, greife zu IHV B?!

Genauso ist es! :up:
Jeder hat bei uns die freie Wahl. Auch nach der Entscheidung kann er seine Karte verkaufen und sich eine andere holen.
Ich sehe daher nicht, wie die Leistungsfaehigkeit kritisiert werden kann, wenn die eigene Hardware eine noch geringere an den tage legen würde...

aths
2004-10-26, 22:25:00
Wirklich absolut garnichts, wenn die Zeit reif dafür ist. Warum ist die Zeit jetzt noch nicht reif, SM3 einzusetzen und damit die Performance zu steigern und/oder neue Effekte zu integrieren?

Die Zeit ist sicher noch nicht da, wo SM3-Support in der HW ein must-have ist. Das zu behaupten wäre angesichts der zu erwartenden Marktdurchdringung natürlich Unsinn, das wirst du kaum gemeint haben. Für SM3 ansich ist die Zeit imo schon lange reif. SM3 ist immerhin der nächste Schritt zu mehr Effizienz (nach Z/Color-Kompression und EarlyZ) sowie zu mehr Programmierfreiheit.

... Und um es vorwegzunehmen; die Zeit ist imo Reif für SM3.0, wenn die Developer von alleine die Grenzen von SM2.0 erreichen und SM3.0 einsetzen wollen/müssen, ohne dass NVidia dafür zahlt, damit Effekte, die problemlos mit SM2.0 Hardware möglich wären, ausschließlich mit SM3.0 realisiert werden, weil Geld dafür fließt.Hast du Belege dafür, dass NV erstens zahlt und zweitens jene Effekte (und nicht nur was ungefähr ähnliches) auf SM2-Hardware in spielbarer Performance möglich wären?

Einfach jetzt nur blind jeden Marketingmist in Richtung SM3.0 zu hypen, empfinde ich nicht mehr als sachlich. Sorry, aths, aber im moment verlierst Du in meinen Augen ganz schön an Reputation, wenn Du dich so daran fest beißt alles was mit SM3.0 zu tun hat zu hypen. Meine Reputation bei dir (sic) hängt nicht davon ab, ob meine Postings um sachliche Richtigkeit bemüht sind, sondern daran dass ATI atm nicht so gut wegkommt wie NV? So kommt's mir jedenfalls vor. Doch um es so zu sagen wie es ist: Meiner Reputation lasse ich prinzipiell keine Pflege zukommen. Wer mich für voreingenommen, gar IHV-mäßig tendenziös halten will, bitte.

Nein, das Wasser sieht an der Oberfläche quasi gleich aus, egal ob da SM3.0 oder SM2.0 Algorithmen hinterstecken. Und dass sich die Resultate quasi nicht unterscheiden, außer für die SM3.0-Fans, kann wohl jeder sehen.Ich finde das PF-Wasser besser. Es ist von der Farbe her realistischer, die Schaumkronen finde ich besser, und die gekräuselte Oberfläche ist feiner (und imo realistischer) modelliert.

Im Grunde ist es einfach nur NVs unverschämtes Markteing zuzuschreiben, dass das highdetail Wasser nicht mit SM2.0 realisiert wurde.Das ist eine (deine) These. Dass Nvidias Entwicklersupport sehr an SM3-only-Effekten interessiert ist, ist klar. Dass Nvidia es bewirken kann, dass "SM3-Effekte" eingebaut werden die in gleicher Qualität und Performance mit SM2 möglich wären, bezweifle ich. Der Kunde des Studius ist der Spieler. Der fragt sich, warum die Konkurrenz bei kleinerem Techlevel mindestens ebensogute Grafik auf den Bildschirm zaubert.

Natürlich ist es möglich, dass NV Dollars rüberwachsen und sich ein Studio bestechen lässt. Doch aus Sicht des Entwickler-Studios gedacht: Was hat man mittel- bis langfristig davon?
Irgendwie ist es doch sehr peinlich für NVidia einen vermeintlichen SM3.0 Effekt vorstellen zu wollen, der schlecht performt und in anderen Spielen mit SM2.0 möglich ist. Wie gesagt, animiertes Wasser ist schon mit SM1 möglich. Die Frage ist nicht, ob es möglich ist, sondern wie gut es zu welcher Performance aussieht.

Nalu z. B. läuft mit weniger fps als Ruby, ist aber auch deutlich detailreicher (technisch besser) als Ruby.