PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 3 4 5 6 7 [8] 9 10

Tomcat70
2005-10-24, 22:56:59
"Außer" bitte mit ß schreiben.


extremrechtschreibchecking ist wohl eines deiner hobbies.......
vielleicht solltest du besser auf extrembügeln umsteigen :D (infos hier ---> http://www.ironing.at/)
warum kritisiert du eigentlich nicht auch gleich meine "faule" perma-kleinschreibung? sehr selektiv, fast schon monk-mässig.....


Dazu sollte man auch jede Meinung sehen und imo keine Ignoreliste haben und das in der Signatur noch groß kundtun, wenn ich mir diese Anmerkung erlauben darf.


zum glück liegt das in meiner eigenen entscheidungsfreiheit.
die liste in meiner signatur dient lediglich zur information für alle anderen forenteilnehmer daß ich nicht auf postings eingehe die von den genannten gemacht wurden.

Coda
2005-10-24, 23:07:54
Das Problem ist, dass NV es auch unterstützt. Also wirds sehr wohl verwendet werden. Nur wird man auf G70 Chips die Details wohl runterschrauben müssen.Vielleicht. Wir werden sehen. Es kann aber auch so kommen, dass eher die ALU-Leistung des G70 überwiegt.

Das hier ist auch keine Kaufempfehlungsdiskussion, falls das mal wieder so rüberkommt. Ich würde jedem bei gleichem Preis eine R520 empfehlen, weil man eh nichts mehr am Featureset ändern kann und sich die Devs drauf einstellen.

Trotzdem werde ich weiterhin ATi für manche Sachen kritisieren, ob's euch passt oder nicht.

deekey777
2005-10-25, 00:07:56
Warum wurde Pixelshader 1.4 kaum verwendet?

Etwa, weil man ihn nicht brauchte? Nun ganz im Gegenteil, PS.1.4 ermöglicht mehr Effekte als Version 1.3, und viele Effekte die sich mit 1.3 dann zwar doch darstellen lassen, aber nur aufwändig im Multipass-Rendering, lassen sich mit 1.4 singlepass, und – dank 16-Bit-Genauigkeit auf R200 – oft auch noch schöner berechnen.

Weil sich niemand um die wenigen 8500-Besitzer kümmerte. Auch wenn es diese lustige Aufzählung (http://www.de.tomshardware.com/column/20030224/3dmark2003-2-07.html) an Spielen mit PS 1.4 gibt, so kamen Spiele, wo PS 1.4 wirklich eingesetzt wird*, zu spät, da schon DX9-Grafikkarten längst draußen waren. Jetzt markiert PS 1.4 zum Ärgernis aller GF4-Besitzer die Mindestvoraussetzung aktueller Spiele.

Insbesondere Max Payne 2 und Halo im Herbst 2003.

mapel110
2005-10-25, 00:23:03
Ja, und was dieser tolle PS1.4-Speed wert ist, zeigt Doom3 sehr schön. Die Geforce4 4200 versägt dort förmlich eine Radeon 8500. 60 fps zu 40 fps hab ich irgendwo gelesen bei 800x600 und das obwohl die Geforce4 ja das ach so lahme Multipassverfahren nutzen muss. (Carmack sagte ja irgendwann mal, dass die 8500er fast alles Single Pass rechnen kann.)

Keine Ahnung, woran das liegt, aber es sollte nach euren Aussagen eher anders herum sein.

Um mal wieder den Bogen zu kriegen...
Anscheinend macht fehlendes FP16-Filtering nichts aus bei Farcry, oder? Sonst hätte Beyond3D ja nicht soviele Messungen gemacht. Oder hat Mr Baumann sich nichts dabei gedacht und es kann optische Unterschiede geben?

StefanV
2005-10-25, 00:26:40
Keine Ahnung, woran das liegt, aber es sollte nach euren Aussagen eher anders herum sein.
Eher an der Crappy R200 oder wie erklärst du dirs, das eine 9000 PRO es manchesmal schafft, schneller zu sein, insbesondere wenn Shader zum Einsatz kommen??

Das auf der R200 so einiges nicht so ganz funktionierte, wie es sollte, sollte bekannt sein ;)

mindfaq
2005-10-25, 00:51:39
extremrechtschreibchecking ist wohl eines deiner hobbies.......
warum kritisiert du eigentlich nicht auch gleich meine "faule" perma-kleinschreibung? sehr selektiv, fast schon monk-mässig.....Aths liegt vollkommen richtig, wenn er Leute auf ihre Rechtschreibfehler hinweist. Manche Fehler, die man hier so liest, tun wirklich weh. Noch schlimmer finde ich allerdings, wenn jemand zu faul ist und deshalb nicht anständig schreibt.
Man kann sich doch mal ein wenig Mühe geben, oder ? Wenn das zu viel verlangt ist, sollte die entsprechenden Personen einfach gar nicht mehr posten.

mapel110
2005-10-25, 00:55:09
Aths liegt vollkommen richtig, wenn er Leute auf ihre Rechtschreibfehler hinweist.
Manche Fehler, die man hier so liest, tun wirklich weh.
Noch schlimmer finde ich allerdings, wenn jemand zu faul ist und deshalb nicht anständig schreibt.
Man kann sich doch mal ein wenig Mühe geben, oder ?
Wenn das zu viel verlangt ist, sollte die entsprechenden Personen einfach gar nicht mehr posten.
Bitte nicht plenken, oder war das ein Stilmittel?! ;)

Payne, soweit ich weiß, funktionierte bis auf MS(was bis dato auch nur ein Gerücht ist) alles am R200. Zumindest wurde nie von Pixelshader 1.4 Bugs berichtet.

aths
2005-10-25, 01:00:04
extremrechtschreibchecking ist wohl eines deiner hobbies.......Ganz im Gegenteil. Um in diesem Forum zurechtzukommen, versuche ich, "tolerant" zu lesen. Fallen mir strukturelle Schreibfehler auf, und ich will sowieso auf ein Posting antworten, erlaube ich mir manchmal eine Bemerkung.

zum glück liegt das in meiner eigenen entscheidungsfreiheit.
die liste in meiner signatur dient lediglich zur information für alle anderen forenteilnehmer daß ich nicht auf postings eingehe die von den genannten gemacht wurden.Die IL habe ich früher auch gelegentlich genutzt, bis ich die Möglichkeit des Überlesens entdeckte. Es ist in der Tat möglich, bestimmte User beinahe auszublenden. Seine IL öffentlich kundzutun, wirkt auf mich wie ein Anprangern.


Weil sich niemand um die wenigen 8500-Besitzer kümmerte. Auch wenn es diese lustige Aufzählung (http://www.de.tomshardware.com/column/20030224/3dmark2003-2-07.html) an Spielen mit PS 1.4 gibt, so kamen Spiele, wo PS 1.4 wirklich eingesetzt wird*, zu spät, da schon DX9-Grafikkarten längst draußen waren. Jetzt markiert PS 1.4 zum Ärgernis aller GF4-Besitzer die Mindestvoraussetzung aktueller Spiele.

Insbesondere Max Payne 2 und Halo im Herbst 2003.In Max Payne 2 musste ich wirklich noch auf Effekte verzichten, weil die GF4 Ti ja nur PS 1.3 beherrscht. Allerdings ist 1.4 schon auf dem halben Weg zu 2.0, während 1.3 ein nur minimal verbesserter 1.1 ist. Gerade weil DX9-Karten auch 1.4 beherrschen müssen, ist das ein guter Grund, PS 1.4 zu nehmen solange es für den gewünschten Effekt ausreicht. User die nur eine GF4 Ti hatten, hätten dann eben in die Röhre gucken müssen oder mit aufwändigerem Multipass-Rendering leben müssen.

Effekte, die Texturen dynamisch verzerren, sind mit dem 1.4-er Shader zum Beispiel viel einfacher darstellbar.

aths
2005-10-25, 01:04:51
Ja, und was dieser tolle PS1.4-Speed wert ist, zeigt Doom3 sehr schön. Die Geforce4 4200 versägt dort förmlich eine Radeon 8500. 60 fps zu 40 fps hab ich irgendwo gelesen bei 800x600 und das obwohl die Geforce4 ja das ach so lahme Multipassverfahren nutzen muss. (Carmack sagte ja irgendwann mal, dass die 8500er fast alles Single Pass rechnen kann.)Doom3 nutzt mehr als nur Pixelshading. Die NV25-Architektur ist in bestimmten Belangen der R200-Architektur voraus, aber wenns um flexibles und gleichzeitig performantes Pixelshading geht, muss der NV25 zurückstecken. Dass die Endgeschwindigkeit in Doom3 auf dem NV25 höher ist, ist wohl auch darin begründet dass Doom3 ursprünglich für den NV10 entwickelt wurde. Hätte man die Effekte gleich für R200-Niveau ausgelegt, wäre es meiner Einschätzung nach schwierig geworden, vergleichbare Grafik auf dem NV25 in ähnlicher Performance hinzukriegen.

Muss man mit zwei Passes rendern, ist das pro Pixel ein zusätzlicher Schreib- und Lesezugriff – bei entsprechend schnellem Speicher also nicht so schlimm. Allerdings muss man auch auf 8 Bit pro Farbkanal runden. Bei der GF4 ebenfalls nicht so schlimm, da sowieso nur mit Vorzeichen plus 8 Bit gerechnet wird. R200 rechnet intern mit 16 Bit (Vorzeichen, 3 Bit "Vorkomma-Stelle", die gewohnten 8 Bit sowie 4 Bit für zusätzliche Genauigkeit) – komplexere Shader können also in höherer Farbpräzision berechnet werden.

Ailuros
2005-10-25, 01:27:10
gerade solche fälle zeigen ja daß die kritik eher bei MS angebracht wäre.

natürlich ziehe ich auch gern vergleiche und finde gefallen an besseren/neuen features, das steht ja denk ich außer frage.
sicher wäre es schön gewesen wenn ATI noch mehr features reingepackt hätte, dennoch sollte man immer das gesamtpaket berücksichtigen.

Das Gesamtpaket ist eher suboptimal fuer die Entwickler da sie viel zu oft neue spezielle paths schreiben muessen.

ehrlich gesagt bin ich froh das ATI überhaupt konkurrenzfähig ist, nach all den spekulationen die eher ein düsteres bild zeichneten.

Wenn man mehr als ein Halbjahr an der Taktrate herumschraubt um konkurrenzfaehig zu sein und immer noch nichts erhaeltlich von diesen boards hat, ist es eher ziemlich zwielichtig.

Welche Spekulationen genau erwaehnten ein so duesteres Bild dass bei =/>600MHz kein etwa Gleichstand vorgesehen wurde? Hat oder hat die gesamte R520 Linie nur 4 quads und keine 6 oder 8 und wo genau sind die vereinten Shader-Einheiten nach manchen die es einfach nicht glauben wollten?

Ja ALU Leistung war mir persoenlich voll bewusst und es sind heute 83GFLOPs auf X1800XT gegen den 165GFLOPs auf G70 und auch das fehlende VST u.a. Nirgends sagte ich oder jemand anders dass die R520 Leistung miserabel sein wird oder ungenuegend. Die Datenbank steht frei zur Suche da, ausser man interpretiert so manche Aspekte eben falsch.

Ailuros
2005-10-25, 01:47:12
Damals wars auch nicht wichtig. Oder kennst du ein Spiel was dynamisches Branching einsetzt.



Und es ist wichtiger heute warum genau? Dynamisches branching war schon immer ein netter Vorteil fuer Leistungssteigerungen, was aber leider auf NV40/G70 nicht besonders viel bringt. Tridam zeigte mir auf B3D einen theoretischen Fall wo dynamisches branching theoretisch fuer die hoehere ALU Leistung des G70 kompensieren koennte, aber er warnte eher auch davor dass es sich um einen ziemlich seltenen Fall handeln wuerde.

So lange dynamisches branching keine Pflicht ist in jeglichem code, kann man mit Leichtheit statisches branching benutzen. Wie dem auch sei, ich bleibe dabei dass man Entwicklern NIE frueh genug neue Features liefern kann. Bei Vorstellung muessen sie auch nicht unbedingt schnell sein, es reicht wenn Entwickler damit arbeiten koennen. Dass ATI sehr effizientes dynamisches branching hat ist auch normal wenn man 1.5 Jahr spaeter mit einer SM3.0 Antwort zur Konkurrenz kommt.

Es ist aber trotzdem Gott sei Dank nicht so dass alles was ATI baut nach Rosen riecht und alles von NVIDIA nur stinkt. Beide haben ihre Vor- und Nachteile. NVIDIA wurde ueber die letzten 1.5 Jahre ausreichend fuer ihre SM3.0 GPUs und deren Nachteile kritisiert; es ist eben jetzt ATI dran. Alles in einen Topf geworfen, ATI's SM3.0 Architektur ist IMHO nicht "SM3.0 done right" sonder eher "SM3.0 done better".

"Done right" ist in meinem Buch Xenos und Serie5.

Coda
2005-10-25, 02:00:40
Oh ja. Series5 R.I.P.

Ailuros
2005-10-25, 02:03:23
Oh ja. Series5 R.I.P.

Fuer den PC sicher; fuer andere Maerkte aber garantiert nicht. Da auch ATI einen unified shader core fuer den PDA/mobile Markt planen soll, bin ich mal gespannt ob sie an das Ding wenigstens halbwegs rankommen koennen.

Tomcat70
2005-10-25, 04:29:26
Trotzdem werde ich weiterhin ATi für manche Sachen kritisieren, ob's euch passt oder nicht.

mir ging es nicht um die an sich berechtigte kritik, sondern um das extreme ausschweifen und überproportionale breittreten.
für mich als benutzer/kunde wiegt z.b. der immense energieverbrauch viel schwerer als ein spezielles nebenfeature. gerade wo selbst intel die zeichen der zeit erkannt hat, vermisse ich solch eine entwicklung bei den grafikkartenherstellern. umso trauriger wo doch die notebook-technologien schon vorhanden wären.
wenn ich an die zukunft denke sieht es da derzeit extrem düster aus, weil ich grosse bedenken habe daß man gerade in europa mit solchen energieverbrauchsmonstern wie der x1800xt eine breite kundschaft gewinnen wird können. selbst die x1800xl liegt imo nur sehr knapp im rahmen des erträglichen. eine karte wie die x1800xt in derzeitiger fertigungsrevision mit dem zur zeit bekannten verbrauch wird jedenfalls niemals in einem meiner pcs landen, das ist gewiss. auch im freundes- und bekanntenkreis wird sie keine empfehlung von mir erhalten, genauso wenig wie jegliches sli- oder crossfire system.

Tomcat70
2005-10-25, 04:33:21
Aths liegt vollkommen richtig, wenn er Leute auf ihre Rechtschreibfehler hinweist.

es gibt solche und solche rechtschreibfehler.......rumreiten auf scharfes "ß"-regeln ist in zeiten der rechtschreibreform (mit all ihren abgründen) kleinlicher, peinlicher überschwang.

Tomcat70
2005-10-25, 04:40:04
Die IL habe ich früher auch gelegentlich genutzt, bis ich die Möglichkeit des Überlesens entdeckte. Es ist in der Tat möglich, bestimmte User beinahe auszublenden. Seine IL öffentlich kundzutun, wirkt auf mich wie ein Anprangern.

also ich habe kein problem damit wenn du es als anprangern empfindest.
ich kann dir gerne einige auszüge der deiner meinung nach offensichtlich wertvollen beiträge genannter personen zusammentragen.
für mich gibts jedenfalls gute gründe diese leute zu ignorieren und ich sehe nichts verwerfliches im zur verfügung stellen dieser information.
überlesen kann ich übrigens nur bis zu einer gewissen grenze die diese personen allerdings locker übersprungen haben.

Grestorn
2005-10-25, 07:53:50
Mir fällt nur auf, dass oft gerade die Leute eine Ignoreliste bemühen (und sie auch noch öffentlich zur Schau stellen), die eigentlich genau das selbe Verhalten zeigen wie die, die sie ignorieren - nur eben für eine andere Seite.

Demirug
2005-10-25, 08:42:17
Splinter Cell 3.

Nicht in den Pixelshadern. Vielleicht in den Vertexshadern aber da bin ich mir nicht sicher. Es gibt aber auf jeden fall Spiele die Dynamic Branching in den Vertexshadern benutzten. Lustigerweise mag ATI Dynamic Branching in den Vertexshadern überhaupt nicht.

Dynamisches Branching wird eh solange nicht in hochfrequenten situationen Verwendung finden solange nV es nicht auch performant hinbekommt. Dafür kann man nVIDIA wiederrum natürlich auch kritisieren, weil dadurch effektiv Effekte verhindert werden. G70 hat da aber auch schon etwas Besserung gebracht.

Einbauen kann man es weil der nVidia Treiber es sowieso wieder entfernen kann wenn er es für unangebracht hält. Das macht der ATI Treiber übrigens auch wenn die Branches zu kurz sind. Ich erwarte da bei beiden Shadererkennung für Spiele bei denen der Treiber dann weiß das sich das dynamic Branching negativ auswirkt.

Es ist und bleibt aber ein reines Performances Feature das allerdings sehr nützlich ist. Wenn ATI schlau ist können sie durch geschicktes Shaderreplacement dieses Feature nutzen um die heftige Schwäche bei der Rechenleistung auszugleichen.

Demirug
2005-10-25, 08:46:33
Es ist aber trotzdem Gott sei Dank nicht so dass alles was ATI baut nach Rosen riecht und alles von NVIDIA nur stinkt. Beide haben ihre Vor- und Nachteile. NVIDIA wurde ueber die letzten 1.5 Jahre ausreichend fuer ihre SM3.0 GPUs und deren Nachteile kritisiert; es ist eben jetzt ATI dran. Alles in einen Topf geworfen, ATI's SM3.0 Architektur ist IMHO nicht "SM3.0 done right" sonder eher "SM3.0 done better".

ATI hat den besseren SM3 Pixel shader (der aus dem X1600; dem X1800er fehlt es etwas an Rechenleistung.) und nVidia den besseren Vertexshader..

"Done right" ist in meinem Buch Xenos und Serie5.

Xenos ist auch nicht perfekt und zu Serie5 ist zu wenig bekannt.

Asmodeus
2005-10-25, 08:51:07
...
Einbauen kann man es weil der nVidia Treiber es sowieso wieder entfernen kann wenn er es für unangebracht hält. Das macht der ATI Treiber übrigens auch wenn die Branches zu kurz sind. ...

Aber sind nicht auch Szenarien denkbar (vor allem bei Nvidia), in denen man dynamisches Branching einbaut, der Treiber es für angebracht hält, es also drinlässt und die Sache dann trotzdem langsamer läuft, als wenn man den Shader ohne den dynamischen Branch geschrieben hätte?

Gruss, Carsten.

Demirug
2005-10-25, 08:56:04
Aber sind nicht auch Szenarien denkbar (vor allem bei Nvidia), in denen man dynamisches Branching einbaut, der Treiber es für angebracht hält, es also drinlässt und die Sache dann trotzdem langsamer läuft, als wenn man den Shader ohne den dynamischen Branch geschrieben hätte?

Gruss, Carsten.

Natürlich ist das denkbar. Aber wenn man alles in HLSL geschrieben hat ist das eigentlich großen kein Problem. Einfach für diesen Shader ein anderes Flag zum kompilieren nutzen und die Branches sind drauses. Im Zweifel wenn das Spiel wichtig genug ist wird es mit dem nächsten Treiber "gelösst".

Ich werde bei mir wahrscheinlich noch einen Branchfrquency Hint einbauen um das zu automatiseren.

seahawk
2005-10-25, 09:00:05
Denkbar ja, aber heute haben die Shadercompler beide IHVs schon eine beachtliche Reife erreicht um solchen Fällen vorzubeugen.

Wobei ich die ganze Diskussion nicht verstehe, NV hat imho einige fortschrittlicher Features drinne, die aber keinen praktische nutzen haben, während ATI den Nutzer heute mit einer überlegenen BQ verwöhnt. AAA, MSAA+F, FP16 DR, HQ-AF. Dazu einen vergleichbare bis deutlich bessere Performance. Die für den Endanwender (Spieler) rundere Karte ist ohne jeden Zweifel die X1800 Series. Einzig die etwas gestörte Lüftersteuerung bei den XLs kann einem gehörig auf den Sack gehen.

Asmodeus
2005-10-25, 09:05:03
Natürlich ist das denkbar. Aber wenn man alles in HLSL geschrieben hat ist das eigentlich großen kein Problem. Einfach für diesen Shader ein anderes Flag zum kompilieren nutzen und die Branches sind drauses. Im Zweifel wenn das Spiel wichtig genug ist wird es mit dem nächsten Treiber "gelösst".

Ich werde bei mir wahrscheinlich noch einen Branchfrquency Hint einbauen um das zu automatiseren.

Naja, aber läuft das nicht auf etwas ähnliches hinaus wie die Sache mit ATIs neuem Speichercontroller. Ein Entwickler baut in einen Shader eines "wichtigen Titels" einen dynamischen Branch ein. Die Analyse bei ATI / Nvidia ergibt, dass dieser Shader in Szenario 1 mit dem Branch gute Performance bringt. Nun wird der Shader aber auch für Szenario 2 benutzt, wo die Analyse ergibt, dass die Sache ohne den Branch dort besser laufen würde. Was ich damit sagen will, ist es nicht die schwierigere Herangehensweise im Nachhinein zu versuchen, durch Shaderreplacement Dinge zu optimieren? Und eben gerade durch die aufkommenden dynamischen Branches könnte sich die Sache meiner Meinung nach noch schwieriger gestalten.

Gruss, Carsten.

Tomcat70
2005-10-25, 09:10:40
Natürlich ist das denkbar. Aber wenn man alles in HLSL geschrieben hat ist das eigentlich großen kein Problem. Einfach für diesen Shader ein anderes Flag zum kompilieren nutzen und die Branches sind drauses. Im Zweifel wenn das Spiel wichtig genug ist wird es mit dem nächsten Treiber "gelösst".

Ich werde bei mir wahrscheinlich noch einen Branchfrquency Hint einbauen um das zu automatiseren.

vorsicht demirug! schnell zurechteditieren bevor dich die aths-polizei wegen mehrerer kapitalverbrechen in den knast steckt ;D

zum thema des threads:
ich finde es im übrigen sehr bedenklich das die tatsächliche verfügbarkeit aller neuen ati-karten, vor allem der x1800xl, nach der mittlerweile vergangenen zeit noch immer so schlecht ist.

Demirug
2005-10-25, 09:26:00
Naja, aber läuft das nicht auf etwas ähnliches hinaus wie die Sache mit ATIs neuem Speichercontroller. Ein Entwickler baut in einen Shader eines "wichtigen Titels" einen dynamischen Branch ein. Die Analyse bei ATI / Nvidia ergibt, dass dieser Shader in Szenario 1 mit dem Branch gute Performance bringt. Nun wird der Shader aber auch für Szenario 2 benutzt, wo die Analyse ergibt, dass die Sache ohne den Branch dort besser laufen würde. Was ich damit sagen will, ist es nicht die schwierigere Herangehensweise im Nachhinein zu versuchen, durch Shaderreplacement Dinge zu optimieren? Und eben gerade durch die aufkommenden dynamischen Branches könnte sich die Sache meiner Meinung nach noch schwieriger gestalten.

Gruss, Carsten.

Wenn sich der gleiche Shader unterschiedlich verhält muss das ja einen Grund haben. Es hängt davon ab in wie weit man diese erkennt und umgehen kann. Es ist technisch ja durchaus möglich Situationsspezfisch unterschiedliche varianten zu nutzen. Diese arbeit wird sich jedoch nun keiner
machen. Aber dieses Problem wird es bei allen Lösungen zum dynamic Branching geben. Das liegt in der Natur der Sache. Es wird niemals alles restlos optimieren werden. Das ist auch bei Konsolen nicht anders.

seahawk
2005-10-25, 09:30:25
zum thema des threads:
ich finde es im übrigen sehr bedenklich das die tatsächliche verfügbarkeit aller neuen ati-karten, vor allem der x1800xl, nach der mittlerweile vergangenen zeit noch immer so schlecht ist.

Das gibt sich bald, zeigt aber wie begehrt die neuen ATI Karten weltweit sind. Bie der XT mache ich mir mehr Sorgen.

Tomcat70
2005-10-25, 09:36:40
Mir fällt nur auf, dass oft gerade die Leute eine Ignoreliste bemühen (und sie auch noch öffentlich zur Schau stellen), die eigentlich genau das selbe Verhalten zeigen wie die, die sie ignorieren - nur eben für eine andere Seite.

das passende gesetz lautet in dem fall wohl: "total daneben ist und bleibt total daneben egal ob man auf der erde oder am mond lebt"

deine auffassungsgabe in allen (wie oft bei dir zweifelhaften) ehren, falls du es trotz versteckter formulierung auf mich beziehst und ernst meinst dann bist du ja vielleicht auch bald ein fall für meine oh' liebliche liste?

obwohl das würde ja dann laut grestorn-weltsicht bedeuten daß ich mich genauso wie grestorn verhalte........welch irre logik X-D

StefanV
2005-10-25, 11:41:44
Payne, soweit ich weiß, funktionierte bis auf MS(was bis dato auch nur ein Gerücht ist) alles am R200. Zumindest wurde nie von Pixelshader 1.4 Bugs berichtet.
Nein, es gibt auch Berichte darüber, das es an der Pipeline klemmt (Pipelinestalls), was natürlich
etwas Performance kostet...

aths
2005-10-25, 12:35:10
Was würdest du derzeit schwerer gewichten? Das "unvollständige" Featureset(kein Vertextexturing, kein FP16 Filtering;deshalb unvollständig in Anführungszeichen, weil ja FP16-Zeugs kein Zwang ist) oder das HQ-AF?Das lässt sich nicht so einfach sagen.

Müsste ich jetzt eine Highend-Karte für PCIe kaufen, würde ich vermutlich zum R520 greifen. Vorteil: Sehr gutes 8x AF, sehr gutes Antialiasing. Der G70 wäre in Sachen AA nicht unbedingt schlechter, immerhin könnte man hier die Gamma-Adjustierung beim Downfiltern abschalten, was mir in WoW (wo ich ingame den Gamma-Wert hochreiße) nützen würde.

Wäre mein Programmierskill bezüglich GPUs besser, würde ich vermutlich den G70 bevorzugen, um mich dort austoben zu können. Als Spieler der hohe Ansprüche an Texturqualität stellt, gibt aber die AF-Implementierung hier den Ausschlag.

Was das Texturfiltern angeht: Würden ATI und Nvidia nur FX16-Filterung bieten, würden die Hersteller versuchen, damit MDR-Rendering zu gestalten (von HDR könnte schwerlich die Rede sein.) Für mich ist ganz klar, dass FP-Formate Zukunft haben, einfach wegen der viel höheren Dynamik. Wenn erst mal FP16-Texturkomprimierung implementiert und genutzt wird, spielt die Bandbreite keine Rolle mehr, FP16-Texturen können dann singleclock bilinear gefiltert werden. (Ausnahme sind natürlich Texturen als Rendertarget, die kann man nicht mal so eben komprimieren.)

Man kann froh sein, dass der G70 bei FP32-Rechnungen schnell genug ist, auch wenn man das _PP-Flag mindestens für Normalisierungen noch setzen sollte, und FX12 (obwohl nach wie vor für viele Lichtberechnungen völlig ausreichend) ganz verschwunden ist – Einheitlichkeit erleichtert die Entwicklung. ATI fährt jetzt weiter auf der FX16-Schiene, was soll der Entwickler nun nutzen? FX16 (kann GeForce nicht), FP16 (kann Radeon nicht) – oder gar nichts? "Richtiges" HDR-Rendering wird durch den R520 nicht gerade gefördert. Er bietet (ich erlaube mir hier eine starke Vereinfachung) "halbes" HDR-Rendering, dies aber mit Multisampling Antialiasing. Wenn man sich nicht so blöd wie Valve (http://www.3dcenter.org/artikel/2003/08-06_a.php) anstellt, ist es unproblematisch, eine Engine MSAA-fähig zu machen und anhand der Hardware zu entscheiden ob MSAA überhaupt angeboten wird oder nicht. Verschiedene "HDR-Renderingpfade" einzubauen stelle ich mir deutlich aufwändiger vor.

Dynamisches HDR-Rendering wird sich, das ist ganz klar, durchsetzen. Weil man nur damit eine Anpassung an Lichtverhältnisse erreichen kann. In Spielen à la Doom3 würde simuliert, wie sich das Auge an die Dunkelheit gewöhnt und man dann graue Umrisse erkennt – verschwommen und vielleicht etwas verrauscht. Bei einem 8 Bit Fixpunkt-Format hätte man im Dunklen vielleicht noch 1, maximal 2 Bit Auflösung – übelstes Colorbanding wäre die Folge. Bis preiswerte integrierte Grafikchipsätze HDR-Rendering bei erträglicher Geschwindigkeit erlauben, das dürfe noch lange dauern. Demzufolge wird auch ein LDR-Pfad für lange Zeit noch geboten werden müssen. Aber ob der Entwickler Lust hat, mindestens zwei HDR-Pfade zu entwickeln, und dafür jeweils den passenden Content bereitzustellen? Ein Entwickler der sich in Kostenrechnung auskennt, wird vermutlich nur einen Pfad für HDR-Rendering entwickeln, welcher auf beiden Karten läuft – womit der Verzicht auf FP-Texturen praktisch feststeht.

Vertex-Texturing ist nach meinem Verständnis eine Forderung der SM3-Spec, auch wenn sie nur implizit erhoben wird. Hat man sowohl Render-to-Vertexbuffer als auch Texturzugriffe im Vertexshader, sind damit alle möglichen netten Geometrie-Effekte denkbar, die man schön CPU-schonend rendern könnte.

aths
2005-10-25, 12:48:33
Denkbar ja, aber heute haben die Shadercompler beide IHVs schon eine beachtliche Reife erreicht um solchen Fällen vorzubeugen.

Wobei ich die ganze Diskussion nicht verstehe, NV hat imho einige fortschrittlicher Features drinne, die aber keinen praktische nutzen haben, während ATI den Nutzer heute mit einer überlegenen BQ verwöhnt.Das mit der BQ ist richtig.

Aber wenn ich lese "keinen praktische nutzen" dann KRIESCH DIE PLACK.

aths
2005-10-25, 12:49:41
Nicht in den Pixelshadern. Vielleicht in den Vertexshadern aber da bin ich mir nicht sicher. Es gibt aber auf jeden fall Spiele die Dynamic Branching in den Vertexshadern benutzten. Lustigerweise mag ATI Dynamic Branching in den Vertexshadern überhaupt nicht. Könnte das damit zusammenhängen, dass R520 keine 8 vergleichsweise unabhängigen VS hat, sondern 2 Blöcke à 4 VS? (Wobei so ein VS-Block wahrscheinlich nur einen Instruction Pointer für alle 4 VS-Kanäle hat?)

deekey777
2005-10-25, 12:51:06
Ja, und was dieser tolle PS1.4-Speed wert ist, zeigt Doom3 sehr schön. Die Geforce4 4200 versägt dort förmlich eine Radeon 8500. 60 fps zu 40 fps hab ich irgendwo gelesen bei 800x600 und das obwohl die Geforce4 ja das ach so lahme Multipassverfahren nutzen muss. (Carmack sagte ja irgendwann mal, dass die 8500er fast alles Single Pass rechnen kann.)

Keine Ahnung, woran das liegt, aber es sollte nach euren Aussagen eher anders herum sein.

Vielleicht liegt es daran, daß John Carmack dies nie gesagt hat?
Er hat nur gesagt, daß mit dem R200-Pfad die Radeons die Lichtberechnungen in einem Pass durchführen können, da dieser nur einen marginalen Speedvorteil bei etwas schlechteren visuellen Qualität bringt, ist der ARB2-Renderpfad der Standard für die R300er.

Um mal wieder den Bogen zu kriegen...
Anscheinend macht fehlendes FP16-Filtering nichts aus bei Farcry, oder? Sonst hätte Beyond3D ja nicht soviele Messungen gemacht. Oder hat Mr Baumann sich nichts dabei gedacht und es kann optische Unterschiede geben?

The Far Cry patch is new, unreleased patch which alters the engine to allow ATI's HDR method, as such results to previous versions may not be comparable and we don't yet know that the path will be doing the same thing from vendor to vendor.
http://www.beyond3d.com/forum/showpost.php?p=604632&postcount=10

Wenn man die Ergebnisse blind mit denen einer 7800GTX vergleich, so liegt die 7800GTX vorne.

...
In Max Payne 2 musste ich wirklich noch auf Effekte verzichten, weil die GF4 Ti ja nur PS 1.3 beherrscht. Allerdings ist 1.4 schon auf dem halben Weg zu 2.0, während 1.3 ein nur minimal verbesserter 1.1 ist. Gerade weil DX9-Karten auch 1.4 beherrschen müssen, ist das ein guter Grund, PS 1.4 zu nehmen solange es für den gewünschten Effekt ausreicht. User die nur eine GF4 Ti hatten, hätten dann eben in die Röhre gucken müssen oder mit aufwändigerem Multipass-Rendering leben müssen.

Effekte, die Texturen dynamisch verzerren, sind mit dem 1.4-er Shader zum Beispiel viel einfacher darstellbar.
Als MP2 draußen war, wurde auch sofort bemängelt, daß einige Spielereien auch mit PS 1.3 darstelbar wären, auch wenn im Multipass.
In Halo dagegen waren die dem PS 1.4 Modus vorbehaltenen Effekte um einiges interessanter im Vergleich zu MP2: Insbesondere die unsichtbaren Gegner sahen nicht wie aus Glas, sondern wie klares Wasser aus. :)

seahawk
2005-10-25, 13:00:23
Das mit der BQ ist richtig.

Aber wenn ich lese "keinen praktische nutzen" dann KRIESCH DIE PLACK.

Stimmt doch. Aus derSicht des Spielers (und nur aus der Sicht des Spielers) gibt es wenige Programme wo die technsichen Vorteile des G70 zum tragewn kommen. Wir Du selbst ausgeführt hast, wird selbst FP16 Filterung in nächster Zeit keine Rolle spielen. Bis zum erscheinen der Vista DX Next Grafikkarten, dürfte der Spielre nur selten die Vorteile der NV Karen erleben. Daher she ich für den Spieler gegenwärtig kaum einen erlebbare und daher praktischen Vorteil der NV Karten.
Der theoretische Vorteil und auch die Bedeutung für eine zukünftige Entwicklung ist mir dabei durchaus bewußt.

Demirug
2005-10-25, 13:39:43
Könnte das damit zusammenhängen, dass R520 keine 8 vergleichsweise unabhängigen VS hat, sondern 2 Blöcke à 4 VS? (Wobei so ein VS-Block wahrscheinlich nur einen Instruction Pointer für alle 4 VS-Kanäle hat?)

Alle Vertexshader bilden AFAIK einen großen SIMD Block.

Demirug
2005-10-25, 13:41:36
Stimmt doch. Aus derSicht des Spielers (und nur aus der Sicht des Spielers) gibt es wenige Programme wo die technsichen Vorteile des G70 zum tragewn kommen. Wir Du selbst ausgeführt hast, wird selbst FP16 Filterung in nächster Zeit keine Rolle spielen. Bis zum erscheinen der Vista DX Next Grafikkarten, dürfte der Spielre nur selten die Vorteile der NV Karen erleben. Daher she ich für den Spieler gegenwärtig kaum einen erlebbare und daher praktischen Vorteil der NV Karten.
Der theoretische Vorteil und auch die Bedeutung für eine zukünftige Entwicklung ist mir dabei durchaus bewußt.

Jeder HDR Spiel das es im Moment gibt nutzt FP-Filterung. Deswegen brauchen die ja einen Patch. Weil nämlich jeder Entwickler davon ausgegangen ist das SM3 Karten FP Blending und Filter beherschen.

deekey777
2005-10-25, 13:56:12
Jeder HDR Spiel das es im Moment gibt nutzt FP-Filterung. Deswegen brauchen die ja einen Patch. Weil nämlich jeder Entwickler davon ausgegangen ist das SM3 Karten FP Blending und Filter beherschen.

Laienfrage:
Was ist jetzt, wenn die Entwickler ab morgen auf das FP16 Filtern* verzichten: Wäre dies ein Vor- oder ein Nachteil (insbesondere) für die G70?


*"R520 Methode" oder ähnliches.

Demirug
2005-10-25, 14:03:38
Laienfrage:
Was ist jetzt, wenn die Entwickler ab morgen auf das FP16 Filtern* verzichten: Wäre dies ein Vor- oder ein Nachteil (insbesondere) für die G70?


*"R520 Methode" oder ähnliches.

Da es im Moment nur für den Downfilter für das Tonemapping benutzt wird hat die ATI Methode nur einen Performances Nachteil.

Ich erwarte allerdings das die meisten Entwickler wohl hybride Shader einbauen werden.

mapel110
2005-10-25, 14:04:15
Zitat von Dave Baumann
The Far Cry patch is new, unreleased patch which alters the engine to allow ATI's HDR method, as such results to previous versions may not be comparable and we don't yet know that the path will be doing the same thing from vendor to vendor.
Aber wenn er das Zeug gebencht hat, scheint es zumindest keine gravierenden optischen Unterschiede zu geben. Sowas würde ihm doch auffallen. Oder hat er die Zahlen von ATI oder Crytek bekommen?!

Hakkerstiwwel
2005-10-25, 16:34:15
Fuad schreibt hier was zu dem fehlenden VTF http://www.theinquirer.net/?article=27183. Hat jemand einen Plan was der Gute mir damit sagen will?

DrumDub
2005-10-25, 17:27:32
Fuad schreibt hier was zu dem fehlenden VTF http://www.theinquirer.net/?article=27183. Hat jemand einen Plan was der Gute mir damit sagen will? ist nun wirklich nichts neues. die erklärung des workarounds von ati gibts hier schon seit dem 6.10.: http://www.techreport.com/onearticle.x/8872

tatsache ist allerdings, dass ati damit ein feature nicht unterstützt, welches bestandteil des sm 3.0 ist.

Hakkerstiwwel
2005-10-25, 17:35:27
Ich beziehe mich eher auf das hier

ATI decided to do it as an optional feature of Shader model 3.0. I guess ATI would support it if it could but it found another way around it.

...is better than just doing vertex texture cache. ....
When Nvidia is doing Vertex texture fetch it is limited to only isotropically point samples of two different texture formats. If you use ATI's Render to Vertex Buffer you can anisotropically trilinear filter any texture format that ATI supports. ATI believes that Renter to vertex buffer is just more flexible and better way to solve the same problem and even more.

Probiert Huddy aus der Not eine Tugend zu machen oder was?

Quasar
2005-10-25, 17:41:25
Er versucht, R2VB als Vorteilhaft hinzustellen, ja. Problem ist, dass das auch andere können und die Pixel erstmal fast durch die gesamte Pipe müssen (ausser dem Render-Back End), bevor sie im Vertex Shader bearbeitet werden können, weil eben dort das VTF fehlt.

Kluger Schachzug von ATi, SM3 zu erfüllen und trotzdem Transistoren zu sparen. Noch befriedigender wäre es aber, wenn der Treiber VTF abfängt und automatisch durch R2VB ersetzt. Denn dann wäre der schwarze Peter nicht bei den Entwicklern angelangt.

DrumDub
2005-10-25, 17:42:07
Probiert Huddy aus der Not eine Tugend zu machen oder was? natürlich. firmen reden doch immer ihre eigenen lösungen schön. das ist halt marketing. wenn ati beides könnte, dann wäre es sicher ok, aber so ist es eben nur eine andere lösung, die zwar ein vorteile bietet (af), aber für den entwickler eigentlich nur nachteile, da mehrarbeit nötig ist.

Hakkerstiwwel
2005-10-25, 17:51:07
Er versucht, R2VB als Vorteilhaft hinzustellen, ja. Problem ist, dass das auch andere können und die Pixel erstmal fast durch die gesamte Pipe müssen (ausser dem Render-Back End), bevor sie im Vertex Shader bearbeitet werden können, weil eben dort das VTF fehlt.

Kluger Schachzug von ATi, SM3 zu erfüllen und trotzdem Transistoren zu sparen. Noch befriedigender wäre es aber, wenn der Treiber VTF abfängt und automatisch durch R2VB ersetzt. Denn dann wäre der schwarze Peter nicht bei den Entwicklern angelangt.
spinnen wir den Faden mal weiter:
falls Ati daraufspekuliert das die Devs in diesem Falle die Loesung waehlen werden die beide IHVs koennen, und Ati sich bei dem eigenen R2VB einen Speedvorteil vs nVs R2VB verspricht, waeren sie doch eigentlich bloed (von ihrem eigenen Standpunkt ausgesehen) den Treiber VTF abfangen zu lassen, oder VTF selbst zu integrieren.

Demirug
2005-10-25, 17:59:58
spinnen wir den Faden mal weiter:
falls Ati daraufspekuliert das die Devs in diesem Falle die Loesung waehlen werden die beide IHVs koennen, und Ati sich bei dem eigenen R2VB einen Speedvorteil vs nVs R2VB verspricht, waeren sie doch eigentlich bloed (von ihrem eigenen Standpunkt ausgesehen) den Treiber VTF abfangen zu lassen, oder VTF selbst zu integrieren.

Wenn die Entwickler sich weigern R2VB zu unterstützen werden sie nachgeben müssen. Zudem dürfte der Performances Verlust nur Mininal sein. Es ist allerdings sehr viel Arbeit und wir wissen das ATIs Treiberteam sowieso ständig überlastet ist.

nVidia hat kein R2VB in den DirectX Treibern obwohl es ihere Chips schon seit dem NV30 richtig können.

Coda
2005-10-25, 20:19:38
Aber wenn er das Zeug gebencht hat, scheint es zumindest keine gravierenden optischen Unterschiede zu geben. Sowas würde ihm doch auffallen. Oder hat er die Zahlen von ATI oder Crytek bekommen?!Da geht's auch nur um's Downfiltering, es gibt keinen funktionalen Unterschied.

Coda
2005-10-25, 20:27:23
Stimmt doch. Aus derSicht des Spielers (und nur aus der Sicht des Spielers) gibt es wenige Programme wo die technsichen Vorteile des G70 zum tragewn kommen.Ich finde es sehr gewagt ohne Hintergrundwissen beurteilen zu wollen ob ein Feature "praktisch keinen Vorteil bringt", da kann ich aths nur beipflichten.

Nur weil man es tausend-mal gebetsmühlenartig wiederholt wird es auch nicht richtiger.

BodyLove
2005-10-25, 21:46:27
Ich finde es sehr gewagt ohne Hintergrundwissen beurteilen zu wollen ob ein Feature "praktisch keinen Vorteil bringt", da kann ich aths nur beipflichten.

Nur weil man es tausend-mal gebetsmühlenartig wiederholt wird es auch nicht richtiger.

Praktisch keinen Vorteil zur jetzigen Zeit für den Endverbraucher. Imho wollte er dies sagen. Und da bin ich auch eher an Seahawks Seite. Hintergrundwissen besitze ich zwar keine, aber dafür eine Meinung.:)

MikBach
2005-10-25, 21:53:16
Ich finde es sehr gewagt ohne Hintergrundwissen beurteilen zu wollen ob ein Feature "praktisch keinen Vorteil bringt", da kann ich aths nur beipflichten.

Mal wieder feine Tonart.
Du unterstellst damit Seahawk, dass er kein Hintergrundwissen besitzt. Und du meinst du kannst das beurteilen, oder wie?
Vielleicht dürfen wir bei dir bald den "Graka-Schein" machen... :mad:

Zum Thema,

wenn man sich nur auf die Theorie verlässt, kann man sich ganz schnell auf die Nase legen.
Man kann doch einfach den Weg über die Pixelshader gehen, aber das kehrst du natürlich unter den Tisch. :|
Damit wir uns nicht mißverstehen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3561761&postcount=24

Der letzte Satz dürfte die Essenz sein.
Dass du das als Entwickler anders sehen magst, ist mir durchaus verständlich. :)

seahawk
2005-10-25, 22:00:05
Ich finde es sehr gewagt ohne Hintergrundwissen beurteilen zu wollen ob ein Feature "praktisch keinen Vorteil bringt", da kann ich aths nur beipflichten.

Nur weil man es tausend-mal gebetsmühlenartig wiederholt wird es auch nicht richtiger.

Praktisch keinen Vorteil für den Spieler, während der bei einem Highendköufer üblichen Haltedauer von <1,5 Jahren. Soviel Hintergrundwissen, dass die ATI lösungen in einigen Punkten für Entwickler unbefriedigend oder zumindest mehr Abreit erzeugend ist habe ich auch noch. Nur sind die wenigsten Käufer eben Entwickler. Ich kann Sweeny oder Carmack verstehen, wenn sie NV bevorzugen, ebenso kann ich Spieler bevorzugen, die wegen der sofortigen Nutzbarkeit der ATI Vorteile eben eine X1800 kaufen.

Ich habe übrigens ne 7800 in meinem Rechner.

Coda
2005-10-25, 22:01:49
Der letzte Satz dürfte die Essenz sein.Das funktioniert nicht bei Texturen, außer du verzichtest auf AF.

tb hat mit dem Post gezeigt, dass der FP16-Downfilter auch ohne FP-Filtering funktioniert. Das ist ganz sicher nichts neues, der Weg ist sogar intuitiver.

aths
2005-10-25, 22:12:54
Praktisch keinen Vorteil für den Spieler, während der bei einem Highendköufer üblichen Haltedauer von <1,5 Jahren.Das kann man erst in 1,5 Jahren sicher sagen.

Nur weil jemand featuremäßig rumtrödelt, und sich damit der Einsatz eines sinnvollen, brauchbaren und auf anderer Hardware vernünftig implementierten Features verzögert, würde ich den Praxisnutzen jenen Features nicht wegdiskutieren. Das klingt so, hätten wir wieder "Marketingfeatures" oder zu früh eingeführte sinnvolle Features. Ich würde es andersherum formulieren und in diesem Falle ATI vorwerfen, sich viel zu viel Zeit zu lassen. (Bezüglich Pixelshader-Technik hat Nvidia ja leider auch lange getrödelt, ehe 1.4 unterstützt wurde. Bezüglich 4x sparse grid AA hat sich Nvidia leider seeehr viel Zeit gelassen.)

MikBach
2005-10-25, 22:15:28
Das funktioniert nicht bei Texturen, außer du verzichtest auf AF.

tb hat mit dem Post gezeigt, dass der FP16-Downfilter auch ohne FP-Filtering funktioniert. Das ist ganz sicher nichts neues, der Weg ist sogar intuitiver.
Aha, danke für die Erklärung. :up:

aths
2005-10-25, 22:15:51
Der letzte Satz dürfte die Essenz sein.Soweit ich informiert bin, dauert bilineare Filterung 8x so lange im Vergleich zu NV40/G70.

MikBach
2005-10-25, 22:22:41
Das kann man erst in 1,5 Jahren sicher sagen.
Das ist doch bestimmt das, was Seahawk gemeint hat...
Der R520 bietet eine bessere BQ, IMMER.
Davon hat man jetzt schon was.

Nur weil jemand featuremäßig rumtrödelt, und sich damit der Einsatz eines sinnvollen, brauchbaren und auf anderer Hardware vernünftig implementierten Features verzögert, würde ich den Praxisnutzen jenen Features nicht wegdiskutieren. Das klingt so, hätten wir wieder "Marketingfeatures" oder zu früh eingeführte sinnvolle Features.
Ich halt die CineFX-Architektur (NV30-38) und auch SM3 bei dem NV40 für einen Marketinggag.
Das Thema FX dürfte klar sein...
Wenn es um den NV40 geht, so gibt es nicht wirklich viele Spiele, die SM3 einsetzen. Ich habe beim Wechsel von 6800GT auf X800XT nicht wirklich viel bemerkt, außer, daß die ATI schneller war.
Die SM3-Spiele kann ich an einer Hand abzählen.

Coda
2005-10-25, 22:24:56
Das ist doch bestimmt das, was Seahawk gemeint hat...
Der R520 bietet eine bessere BQ, IMMER.
Davon hat man jetzt schon was.Na da sind wir sogar mal einer Meinung.

Ich halt die CineFX-Architektur (NV30-38) und auch SM3 bei dem NV40 für einen Marketinggag.Da wiederrum nicht. Bei NV3x mag ich dir rechtgeben, aber bei NV4x definitiv nicht, auch wenn wir zu Lebzeiten leider keine Vorteile daraus ziehen konnten (unter anderem wegen ATi).

MikBach
2005-10-25, 22:29:09
Da wiederrum nicht. Bei NV3x mag ich dir rechtgeben, aber bei NV4x definitiv nicht, auch wenn wir zu lebzeiten leider keine Vorteile daraus ziehen konnten (unter anderem wegen ATi).
Das ist ja eben das Problem zwischen uns beiden. :)
Ich sehe es aus der Spielersicht, du aus Entwicklersicht.
Und ich gebe dir da sicherlich Recht, dass man sich damals eher einen NV40 als einen R420 zulegen sollte.
Aus Entwicklersicht natürlich.

Coda
2005-10-25, 22:35:06
"Marketinggag" ist negativ belegt. Ich halte es für sehr unangebracht damit ATi indirekt für ihre Technologiebremserei zu loben.

MikBach
2005-10-25, 22:40:36
"Marketinggag" ist negativ belegt.
Da hast du natütlich Recht.

Ich halte es für sehr unangebracht damit ATi indirekt für ihre Technologiebremserei zu loben.
Du hast meine Intention nicht verstanden.
Als SPieler kann ich nur sagen, daß die 6800 nach einem Jahr Erfahrung keinen wirklichen Fortschritt zur X800 darstellt. Besonders wenn ich bei der X800 TAA aktivieren kann, bei der 6800 aber nicht.
Das wiegt für mich schwerer auf, als das SM3.

Coda
2005-10-25, 22:47:18
Dann achte besser auf deine Wortwahl.

MikBach
2005-10-25, 22:50:06
Dann achte besser auf deine Wortwahl.
Dann versuche dich mal in einen Spieler hineinzuversetzen...
Dass du es anders sieht, ist mir bewusst.
Aber das habe ich ja schon agesprochen...

Ailuros
2005-10-26, 03:08:54
Als SPieler kann ich nur sagen, daß die 6800 nach einem Jahr Erfahrung keinen wirklichen Fortschritt zur X800 darstellt. Besonders wenn ich bei der X800 TAA aktivieren kann, bei der 6800 aber nicht.
Das wiegt für mich schwerer auf, als das SM3.

Die Frage ist aber dann eher warum ATI seit 2002 auf tauben Ohren sass wenn es zum Supersampling kommt, wenn adaptives SSAA wahrscheinlich schon damals moeglich gewesen waere. Und das natuerlich waehrend sich so manche ATI-Benutzer ueber SSAA seither heisser bruellten.

Von der Verbraucherperspektive sehe ich zwar ein dass SM3.0 kein besonderer Vorteil fuer die Spieler war die letzten 1.5 Jahre, aber Entwickler hatten auch wiederrum 1.5 Jahre Zeit mit SM3.0 auf GPUs zu arbeiten und zu entwickeln und davon profitieren dann langfristig alle. Im Gegenteil hat ATI's SM3.0 Architektur eine diametrisch kleinere Lebenszeit. Es wird wohl Anfang 2006 erst eine von top to bottom Produktpallette mit breiter Verfuegbarkeit von ATI geben und zum Ende des Jahres werden sie schon wieder mit einer fundamental anderen Architekture antanzen. Dann braucht man wohl SM4.0 weil es eben SM4.0 ist oder?

Natuerlich wird ATI ihre low-end GPUs ueber einige Zeit ausschlachten, aber 3 Jahre im low-end Bereich erreichen sie mit SM3.0 nie und nimmer.

Diese konstante Marketing-verdreherei wird so langsam langweilig. Man hat wie verrueckt gemotzt dass A und B auf PureVideo nicht laeuft und doch kommen solche Fakten dann zum Vorschein:

http://www.hexus.net/content/item.php?item=3702

mapel110
2005-10-26, 03:33:05
Diese konstante Marketing-verdreherei wird so langsam langweilig. Man hat wie verrueckt gemotzt dass A und B auf PureVideo nicht laeuft und doch kommen solche Fakten dann zum Vorschein:

http://www.hexus.net/content/item.php?item=3702
Das Feature interessiert mich zwar ohnehin wenig, aber bislang ist das nur ein Papiertiger?! Kommt wohl in Mode, Dinge zu bewerben, die erst lange nach Vorstellung des Produkts überhaupt nutzbar sind.

seahawk
2005-10-26, 08:02:15
Das kann man erst in 1,5 Jahren sicher sagen.

Nur weil jemand featuremäßig rumtrödelt, und sich damit der Einsatz eines sinnvollen, brauchbaren und auf anderer Hardware vernünftig implementierten Features verzögert, würde ich den Praxisnutzen jenen Features nicht wegdiskutieren. Das klingt so, hätten wir wieder "Marketingfeatures" oder zu früh eingeführte sinnvolle Features. Ich würde es andersherum formulieren und in diesem Falle ATI vorwerfen, sich viel zu viel Zeit zu lassen. (Bezüglich Pixelshader-Technik hat Nvidia ja leider auch lange getrödelt, ehe 1.4 unterstützt wurde. Bezüglich 4x sparse grid AA hat sich Nvidia leider seeehr viel Zeit gelassen.)

Da widerspreche ich - aus der Sicht des Spielers. Für den Spieler wird ein Hardwarefeature imho erst sinnvoll, wenn er es in einem Spiel erleben kann und es das Spielerlebnis verbessert. AAA, 6xMSAA und HQ-AF liefern dies in fast jedem aktuell verfügbaren und kommenden Spiel in dem sie die BQ verbessern und ein Niveau liefern, dass duetlich über die Konkurrenz liegt.

Ebenso liefet HDR-R einen erkennbaren Vorteil an BQ, wobei imho abzuwarten ist ob die ATI Lösung mit MSAA nicht sogar besser als die FP16 Lösung von NV ist, auch wenn die ATI Lösung in der Dynamik eingeschränkt ist.

Die Vertexshadereffekte sind bei Pacific Fighter sicher sehenswert und liefern da einen Vorteil, dies ist aber bisher die eienzige Anwendung, und ATI verfügt über einen Workaround um solche Effekte ebenso zu realisieren.

Da sich die Spielehersteller imho immer am kleinsten gemeinsamen Nenner orientieren ist es für den Spieler imho sinnvoll nicht nach technischen Features, sondern nach BQ zu gehen und dort liefert ATI mehr. Es zeigt sich doch, dass selbst heute eine SM3.0 KArte nur selten wirklich nötig ist und es noch immmer wenige SM3.0 Spiele gibt. So gesehen war die Einschätzung ATIs zum Thema SM3.0 richtig, wenn es den Spieler betrifft.

Das ATIs Vorgehen die Entwicklung bzw. die praktische Nutzung technischer Features auf breiter Front eher verzögert, steht imho auf einem anderen Blatt. Aus diesem Grund habecih mir privat auch einen G70 zugelegt, weil ich mir eine schnellere Nutzung neure Technologien wünsche. Diesen Ansatz sehe ich aber nicht als weitverbeitet oder auch nur schlau, mehr das Denken eines Techfreaks.

betasilie
2005-10-26, 08:18:09
Da widerspreche ich - aus der Sicht des Spielers. Für den Spieler wird ein Hardwarefeature imho erst sinnvoll, wenn er es in einem Spiel erleben kann und es das Spielerlebnis verbessert. AAA, 6xMSAA und HQ-AF liefern dies in fast jedem aktuell verfügbaren und kommenden Spiel in dem sie die BQ verbessern und ein Niveau liefern, dass duetlich über die Konkurrenz liegt.

Ebenso liefet HDR-R einen erkennbaren Vorteil an BQ, wobei imho abzuwarten ist ob die ATI Lösung mit MSAA nicht sogar besser als die FP16 Lösung von NV ist, auch wenn die ATI Lösung in der Dynamik eingeschränkt ist.

Die Vertexshadereffekte sind bei Pacific Fighter sicher sehenswert und liefern da einen Vorteil, dies ist aber bisher die eienzige Anwendung, und ATI verfügt über einen Workaround um solche Effekte ebenso zu realisieren.

Da sich die Spielehersteller imho immer am kleinsten gemeinsamen Nenner orientieren ist es für den Spieler imho sinnvoll nicht nach technischen Features, sondern nach BQ zu gehen und dort liefert ATI mehr. Es zeigt sich doch, dass selbst heute eine SM3.0 KArte nur selten wirklich nötig ist und es noch immmer wenige SM3.0 Spiele gibt. So gesehen war die Einschätzung ATIs zum Thema SM3.0 richtig, wenn es den Spieler betrifft.

Das ATIs Vorgehen die Entwicklung bzw. die praktische Nutzung technischer Features auf breiter Front eher verzögert, steht imho auf einem anderen Blatt. Aus diesem Grund habecih mir privat auch einen G70 zugelegt, weil ich mir eine schnellere Nutzung neure Technologien wünsche. Diesen Ansatz sehe ich aber nicht als weitverbeitet oder auch nur schlau, mehr das Denken eines Techfreaks.
Full Ack. Ich hatte das ja schon beim Start der NV40 Reihe gesagt, nur da wurde man nur blöd angemacht. Neue Features sind schön, zum richitgen Zeitpunkt. Was bringt mir z.B. eine 6800GT, wenn meine X800XT erheblich schneller ist?

ATI versteht es imo wesentlich besser den Gamern abseits des marketings das zu bieten, was man zum Spielen aktuell braucht. SM3.0 mag zwar die Zukunft sein, aber die Leute, die sich wegen dem achso tollem SM3.0 Marketing eine 6800er gekauft haben, sind selber schuld, wenn sie darauf reinfallen. Und einige sogenannte 3D-Gurus hier im Forum haben diesen dummen SM3.0 Hype ja noch unterstützt, wahrscheinlich in der Absicht der Firma ATI, die ja so böse ist und nicht so früh SM3.0 chips gebracht hat, einen zu pinnen, obwohl sie geahnt haben müssen, dass SM3.0 erst ab 2007 wirklich interessant wird. Ziemlich primitiv so ein Verhalten.

Traurig finde ich auch, dass aths und einige andere hier, in ihrer Technophilie behaupten, dass ATI bremst. Transistoren in Features zu investieren lohnt erst, wenn nicht nur Techdemos lauffähig sind, sondern wenn diese auch performant in Spiele integriert werden können. ATI macht es daher sicherlich nicht falsch, denn einfach nur blind Features aufzurüsten, ohne Blick auf den derzeitigen Praxisnutzen, kann es nicht sein, bei aller Liebe zu großen Featuresets.

seahawk
2005-10-26, 08:31:47
Full Ack. Ich hatte das ja schon beim Start der NV40 Reihe gesagt, nur da wurde man nur blöd angemacht. Neue Features sind schön, zum richitgen Zeitpunkt. Was bringt mir z.B. eine 6800GT, wenn meine X800XT erheblich schneller ist?

ATI versteht es imo wesentlich besser den Gamern abseits des marketings das zu bieten, was man zum Spielen aktuell braucht. SM3.0 mag zwar die Zukunft sein, aber die Leute, die sich wegen dem achso tollem SM3.0 Marketing eine 6800er gekauft haben, sind selber schuld, wenn sie darauf reinfallen. Und einige sogenannte 3D-Gurus hier im Forum haben diesen dummen SM3.0 Hype ja noch unterstützt, wahrscheinlich in der Absicht der Firma ATI, die ja so böse ist und nicht so früh SM3.0 chips gebracht hat, einen zu pinnen, obwohl sie geahnt haben müssen, dass SM3.0 erst ab 2007 wirklich interessant wird. Ziemlich primitiv so ein Verhalten.

Traurig finde ich auch, dass aths und einige andere hier, in ihrer Technophilie behaupten, dass ATI bremst. Transistoren In Features zu investieren lohnt erst, wenn nicht nur Techdemos lauffähig sind, sondern wenn diese auch performant in Spiele integriert werden können. ATI macht es daher sicherlich nicht falsch, denn einfach nur blind Features aufzurüsten, ohne Blick auf den derzeitigen Praxisnutzen, kann es nicht sein.

Da kommst Du aber wieder zum Henne und Ei Problem. Ohne NV4X wären die X1000er Karten heute genauso sinnlos, wie damals die NV4X, weil noch niemand Spiele für SM3.0 entwickelt hätte. Eine möglichst frühe Integration neuer Features beschleunigt den Fortschritt und schafft früher eine ausreichend breite Basis an Karten, so dass sich Softwareentwickler zur Nutzung dieser Features entscheiden.
Für Spieler lohnt es sich allerdings nicht solche Features in ihrer Kaufentscheidung zu berücksichtigen, im Gegenteil early adopters verarschen sich meist eher selber.
Wenn man allerdings nur mit bester BQ und guten FPS spielen will, dann liegt man seit der 9700pro mit ATI immer auf der sicheren und richtigen Seite. Früher gab es mehr FPS, heute gibt es wesentlich mehr BQ.

Grestorn
2005-10-26, 08:38:32
Da kommst Du aber wieder zum Henne und Ei Problem. Ohne NV4X wären die X1000er Karten heute genauso sinnlos, wie damals die NV4X, weil noch niemand Spiele für SM3.0 entwickelt hätte. Eine möglichst frühe Integration neuer Features beschleunigt den Fortschritt und schafft früher eine ausreichend breite Basis an Karten, so dass sich Softwareentwickler zur Nutzung dieser Features entscheiden.
Für Spieler lohnt es sich allerdings nicht solche Features in ihrer Kaufentscheidung zu berücksichtigen, im Gegenteil early adopters verarschen sich meist eher selber.
Aber was bedeutet denn das?

Wenn ich Kartenhersteller bin und nach Eurer Argumentation entscheide, dann habe ich doch folgende Fakten zu beachten:

Ich will möglichst viele Karten verkaufen
Der Kunde kauft sich die Karten, die ihm heute am meisten bringen.
Features, die noch nicht in Spielen genutzt werden, bringen dem Spieler heute nichts
Karten mit neue Features werden nur von Entwicklern gekauft (kleine Gruppe, interessiert Umsatztechnisch nicht)
Early adopters ist auch nur eine vergleichsweise kleine Gruppe.
Aus all dem folgt die ATI-Taktik.

Nur was passiert, wenn auf einmal beide GraKa-Hersteller dieser Maxime folgen würden?

Stillstand.

Innovation ist wichtig und notwendig und sollte nicht nur gewürdigt sondern auch unterstützt werden. Ein für mich ganz wichtiges Argument, weswegen ich bei sonst vergleichbaren Eckwerten immer die Karte vorziehen werde, die technisch innovativer ist. Selbst wenn sie den einen oder anderen Nachteil hat.

betasilie
2005-10-26, 08:39:00
Da kommst Du aber wieder zum Henne und Ei Problem. Ohne NV4X wären die X1000er Karten heute genauso sinnlos, wie damals die NV4X, weil noch niemand Spiele für SM3.0 entwickelt hätte. Eine möglichst frühe Integration neuer Features beschleunigt den Fortschritt und schafft früher eine ausreichend breite Basis an Karten, so dass sich Softwareentwickler zur Nutzung dieser Features entscheiden.
Für Spieler lohnt es sich allerdings nicht solche Features in ihrer Kaufentscheidung zu berücksichtigen, im Gegenteil early adopters verarschen sich meist eher selber.
Wenn man allerdings nur mit bester BQ und guten FPS spielen will, dann liegt man seit der 9700pro mit ATI immer auf der sicheren und richtigen Seite. Früher gab es mehr FPS, heute gibt es wesentlich mehr BQ.
Auf jeden Fall ist es für die Devs von Vorteil, um so früher sie mit neuen Features in Hardware arbeiten können. Aber, wie Du ja auch sagst, ist es für die Kunden irrelevant, jedenfalls beim NV40, und auch R520 und G70 werden sicher kaum Shader berechnen müssen, die wirklich SM3.0-only sind.

MikBach
2005-10-26, 08:41:49
Ein für mich ganz wichtiges Argument, weswegen ich bei sonst vergleichbaren Eckwerten immer die Karte vorziehen werde, die technisch innovativer ist. Selbst wenn sie den einen oder anderen Nachteil hat.
Dann würdest du eher den R520 vorziehen, da er HDR+AA kann?

robbitop
2005-10-26, 08:44:46
Full Ack. Ich hatte das ja schon beim Start der NV40 Reihe gesagt, nur da wurde man nur blöd angemacht. Neue Features sind schön, zum richitgen Zeitpunkt. Was bringt mir z.B. eine 6800GT, wenn meine X800XT erheblich schneller ist?

ATI versteht es imo wesentlich besser den Gamern abseits des marketings das zu bieten, was man zum Spielen aktuell braucht. SM3.0 mag zwar die Zukunft sein, aber die Leute, die sich wegen dem achso tollem SM3.0 Marketing eine 6800er gekauft haben, sind selber schuld, wenn sie darauf reinfallen. Und einige sogenannte 3D-Gurus hier im Forum haben diesen dummen SM3.0 Hype ja noch unterstützt, wahrscheinlich in der Absicht der Firma ATI, die ja so böse ist und nicht so früh SM3.0 chips gebracht hat, einen zu pinnen, obwohl sie geahnt haben müssen, dass SM3.0 erst ab 2007 wirklich interessant wird. Ziemlich primitiv so ein Verhalten.

Traurig finde ich auch, dass aths und einige andere hier, in ihrer Technophilie behaupten, dass ATI bremst. Transistoren in Features zu investieren lohnt erst, wenn nicht nur Techdemos lauffähig sind, sondern wenn diese auch performant in Spiele integriert werden können. ATI macht es daher sicherlich nicht falsch, denn einfach nur blind Features aufzurüsten, ohne Blick auf den derzeitigen Praxisnutzen, kann es nicht sein, bei aller Liebe zu großen Featuresets.

Henne-Ei. Ohne SM3 Hardware gibts keine SM3 Spiele. Ich habe da immer mein schönes 2xNV25 Beispiel, was damals ähnlich funktioniert hätte wie vor einem Jahr der R420. Die Entwickler hätten nicht auf FP Shader umgestellt und die Balken wären bei NV länger gewesen. Toll oder? Auch da hätte man die Entwicklung der Spiele gebremst. (ich will hier aber im Gegensatz zu anderen keinem IHV eine böse Absicht unterstellen ... jeder hat seine wirtschaftlichen Aspekte) Wer sich aufgrund von SM3 eine Karte gekauft hat, ist entweder entwickler/verspielt oder hat sich nicht informiert. Ein netter Bonus für einen Spieler ..mehr nicht. SSAA wäre eher ein Argument gewesen.
Für den Spieler haben aths und andere "Gurus" m.E. nie explizit SM3 HW empfohlen. Als technikfokussierte Redakteure lobten sie eher den technischen Aspekt. Aber zum Kauf forderte hier IIRC deshalb niemand explizit auf. Zumal die NV40 wirklich im Gegensatz zu seinen Vorgängern keine schlechte Partie war. Lediglich NV40U war maßgeblich langsamer als die XT PE. Alles hoch bis zur GT Region war durchweg besser (IMO). Aber darum gehts hier nicht.

Bzgl primitiven Verhaltens kann ich nur aufs Glashaus hinweisen ;)

betasilie
2005-10-26, 08:45:28
Aber was bedeutet denn das?

Wenn ich Kartenhersteller bin und nach Eurer Argumentation entscheide, dann habe ich doch folgende Fakten zu beachten:

Ich will möglichst viele Karten verkaufen
Der Kunde kauft sich die Karten, die ihm heute am meisten bringen.
Features, die noch nicht in Spielen genutzt werden, bringen dem Spieler heute nichts
Karten mit neue Features werden nur von Entwicklern gekauft (kleine Gruppe, interessiert Umsatztechnisch nicht)
Early adopters ist auch nur eine vergleichsweise kleine Gruppe.
Aus all dem folgt die ATI-Taktik.

Nur was passiert, wenn auf einmal beide GraKa-Hersteller dieser Maxime folgen würden?

Stillstand.

Innovation ist wichtig und notwendig und sollte nicht nur gewürdigt sondern auch unterstützt werden. Ein für mich ganz wichtiges Argument, weswegen ich bei sonst vergleichbaren Eckwerten immer die Karte vorziehen werde, die technisch innovativer ist. Selbst wenn sie den einen oder anderen Nachteil hat.
Du polemisierst das Ganze, indem Du einfach das andere Extrem ausmalst. ATI ist sicher nicht an Stillstand interessiert, was man in den letzten Jahren gesehen hat. Nur bohren sie ihr Featureset nicht mit aller Gewalt auf, obwohl es zum derzeitigen Augenblick dem Spieler nichts bringt. NV war in einer ganz anderen Situation, weil ihre Entwicklung eines DX9 Chips von Anfang an auf ein SM3.0 äquivalentes Produkt ausgelegt war, konnten sie garnicht anders.

Grestorn
2005-10-26, 08:47:17
Dann würdest du eher den R520 vorziehen, da er HDR+AA kann?Das wäre ein Punkt, der für den R520 spricht. Leider sprechen auch einige für mich sehr wichtige Punkte gegen ihn, wie die bekannten Mängel im Vertexshader und in der FP32-Filterung.

Letztlich ist AA eine bildverbessernde Maßnahme. Ob sie unterstützt wird oder nicht, ist für die Spieleentwickler bedeutungslos. Deswegen blokiert eine fehlende AA Unterstützung den Fortschritt der Spieleentwicklung nicht.

Spieler sehen das sicher anders, aber wie gesagt, ich ziehe in meine Entscheidung nicht nur Aspekte ein, die mir heute ein schöneres Bild liefern sondern auch solche, die mir morgen bessere Grafik versprechen.

MikBach
2005-10-26, 08:47:44
Die Frage ist aber dann eher warum ATI seit 2002 auf tauben Ohren sass wenn es zum Supersampling kommt, wenn adaptives SSAA wahrscheinlich schon damals moeglich gewesen waere. Und das natuerlich waehrend sich so manche ATI-Benutzer ueber SSAA seither heisser bruellten.
Das werde ich auch nie kapieren.
Dass der R420 SSAA schon lange konnte, das wissen wir (Mac).
Vielleicht ist bei ATI niemand auf die Idee gekommen, AAA schon früher zu realisieren. Etwas anderes kann ich mir einfach nicht vorstellen.

Dann braucht man wohl SM4.0 weil es eben SM4.0 ist oder?

Als Entwickler vielleicht ja, als Gamer zunächst sicherlich nicht.
Wobei ich gespannt drauf bin, ob die nächste Generation die jetzige in der Leistung (bei Spielen, die dann erhältlich sind) schlagen kann.
Dedizierte Lösungen sind immer schneller.

Grestorn
2005-10-26, 08:48:52
Du polemisierst das Ganze, indem Du einfach das andere Extrem ausmalst.Ja, sicher. Ich habe nur geschrieben, warum für mich, als reinen Spieler, Innovation wichtig ist.

ATI oder nVidia - in diesem Fall egal. Der R300 war in höchstem Maße innovativ.

robbitop
2005-10-26, 08:50:33
Vielleicht ist bei ATI niemand auf die Idee gekommen, AAA schon früher zu realisieren. Etwas anderes kann ich mir einfach nicht vorstellen.


Das glaube ich nicht.

1. Ist ein adaptives SSAA seit langem einer der "heiligen Grale" der 3D Spiele welt
2. Kennen Ingenieure ihre Hardware schon

Es war einfach nicht notwendig, also wozu bringen? Klingt hart ist aber im Wettbewerb so. Man schaltet nicht zu viel frei, da man möglichst alles einzeln bewerben und verkaufen will.

betasilie
2005-10-26, 08:50:34
Das wäre ein Punkt, der für den R520 spricht. Leider sprechen auch einige für mich sehr wichtige Punkte gegen ihn, wie die bekannten Mängel im Vertexshader und in der FP32-Filterung.

Letztlich ist AA eine bildverbessernde Maßnahme. Ob sie unterstützt wird oder nicht, ist für die Spieleentwickler bedeutungslos. Deswegen blokiert eine fehlende AA Unterstützung den Fortschritt der Spieleentwicklung nicht.

Spieler sehen das sicher anders, aber wie gesagt, ich ziehe in meine Entscheidung nicht nur Aspekte ein, die mir heute ein schöneres Bild liefern sondern auch solche, die mir morgen bessere Grafik versprechen.
Du verzichtest also auf Perfomance und BQ, um den Entwicklern zu helfen? :ulol:

MikBach
2005-10-26, 08:50:53
Letztlich ist AA eine bildverbessernde Maßnahme. Ob sie unterstützt wird oder nicht, ist für die Spieleentwickler bedeutungslos. Deswegen blokiert eine fehlende AA Unterstützung den Fortschritt der Spieleentwicklung nicht.
Ich kann deiner Argumentation nicht ganz folgen.
Die Entwickler entwickeln doch für Spieler, also kann es nicht bedeutungslos sein.

MikBach
2005-10-26, 08:54:06
Das glaube ich nicht.

1. Ist ein adaptives SSAA seit langem einer der "heiligen Grale" der 3D Spiele welt
2. Kennen Ingenieure ihre Hardware schon

Es war einfach nicht notwendig, also wozu bringen? Klingt hart ist aber im Wettbewerb so. Man schaltet nicht zu viel frei, da man möglichst alles einzeln bewerben und verkaufen will.
Das sehe ich aber anders.
Hätte ATI beim R420 AAA direkt angeboten, hätte ich mir sicherlich kenien NV40 zugelegt.
Wäre außerdem für ATI´s Marketing von Vorteil.

Grestorn
2005-10-26, 08:56:23
Du verzichtest also auf Perfomance und BQ, um den Entwicklern zu helfen? :ulol:In einem gewissen akzeptablen Rahmen, ja.

Aber natürlich nicht (nur) um den Entwicklern zu helfen, sondern vorallem um mir selbst zu helfen, in 1-2 Jahren auch noch bessere Grafik genießen zu können (auch mit der Karte, die ich vor 1-2 Jahren gekauft habe und die dann im 2. Rechner steckt).

Egoismus ist ok, kurzsichtiger Egoismus ist doof. Gilt fast überall... auch bei anderen Themen, die ich sehr gerne diskutiere ... :)

robbitop
2005-10-26, 08:57:32
Das sehe ich aber anders.
Hätte ATI beim R420 AAA direkt angeboten, hätte ich mir sicherlich kenien NV40 zugelegt.
Wäre außerdem für ATI´s Marketing von Vorteil.
Wer weiß, was NV dann gebracht hätte...
Für jedes Feature gibt es einen Zeitpunkt und einen Grund. Und nicht alles davon kann jeder nachvollziehen.
Und noch ist das AAA ziemlich buggy ...ergo nicht wirklich marktreif. Man merkt, dass es eine Reaktion auf das T(S)AA war und keine eigene Initiative. IMO natürlich.

Grestorn
2005-10-26, 08:57:49
Ich kann deiner Argumentation nicht ganz folgen.
Die Entwickler entwickeln doch für Spieler, also kann es nicht bedeutungslos sein.Es ist bedeutungslos für die Innovation. Wenn es fehlt bedeutet das nicht, dass der Entwickler auf eine bestimmte Programmiertechnik verzichten muss.

Ob AA geht oder nicht ist für den Entwickler (nicht für den Spiele) völlig irrelevant.

/Edit: Klarer formuliert

betasilie
2005-10-26, 08:58:45
Ja, sicher. Ich habe nur geschrieben, warum für mich, als reinen Spieler, Innovation wichtig ist.

ATI oder nVidia - in diesem Fall egal. Der R300 war in höchstem Maße innovativ.
Ok, dann habe ich das verkehrt verstanden. Es gab halt damals Stimmen, dass der GF-FX der bessere Chip ist, weil er mehr kann und ich nahm an, dass Du in die selbe Kerbe schlägst. Man muss halt immer Abwegen, wann die Zeit reif ist für ein größere Featureset bzw. in welchem Umfang man die einzelnen Schritte macht.

Für mich ist Innovation der Hybrid aus Features und Performance. Innovation kann es nicht sein Features in Chips auf Kosten der Performance zu packen. Der NV40 war so ein Fall, nur konnte Nvidia garnicht anders, weil ihre Langzeitstrategie eine andere war, als die von ATI. Nicht dass ich den NV40 schlecht fand, nur fand ich das Konkurrenzprodukt besser, weil es mir nahezu überall ca. 35% mehr Leistung versprach und SM3.0 zu Lebzeiten des NV40 nicht angemessen zum tragen kommen.

robbitop
2005-10-26, 09:01:30
Wer sagt denn, dass die Lebenszeit von NV4x vorbei ist? NV würde keine neuen NV4x auf den Markt hauen (NV42 als 6800GS), wenn dem so wäre.
Diese ist erst zuende, wenn man damit nicht mehr sinnvoll spielen kann. Das kann noch dauern. Zum Glück verfallen Grafikkarten doch nicht ganz so schnell *gg*.

MikBach
2005-10-26, 09:03:20
In einem gewissen akzeptablen Rahmen, ja.

Aber natürlich nicht (nur) um den Entwicklern zu helfen, sondern vorallem um mir selbst zu helfen, in 1-2 Jahren auch noch bessere Grafik genießen zu können (auch mit der Karte, die ich vor 1-2 Jahren gekauft habe und die dann im 2. Rechner steckt).

Egoismus ist ok, kurzsichtiger Egoismus ist doof. Gilt fast überall... auch bei anderen Themen, die ich sehr gerne diskutiere ... :)
Beispiel:
und du meinst, dass man sich als Spieler einen NV40 statt R420 zulegen sollte, weil man dadurch in 1-2 Jahren bessere Grafik hat?
Meinst du nicht, es würde reichen, wenn sich die Entwickler den NV40 zulegen?

Grestorn
2005-10-26, 09:03:37
Nicht dass ich den NV40 schlecht fand, nur fand ich das Konkurrenzprodukt besser, weil es mir nahezu überall ca. 35% mehr Leistung versprach und SM3.0 zu Lebzeiten des NV40 nicht angemessen zum tragen kommen.Du hast ne X800Pro. Die war zu keiner Zeit 35% schneller als eine 6800GT.

robbitop
2005-10-26, 09:05:01
Du hast ne X800Pro. Die war zu keiner Zeit 35% schneller als eine 6800GT.
Die war meist eher langsamer bis gleichschnell. Ist ja auch in etwa die gleiche Rohleistung vorhanden. In Ausnahmesituationen vieleicht mal ein bisschen schneller.

Grestorn
2005-10-26, 09:05:02
Beispiel:
und du meinst, dass man sich als Spieler einen NV40 statt R420 zulegen sollte, weil man dadurch in 1-2 Jahren bessere Grafik hat?
Meinst du nicht, es würde reichen, wenn sich die Entwickler den NV40 zulegen?Nein, siehe Argumentation oben.

Wenn sich nur Entwickler eine solche Karte zulegen, würde der Kartenhersteller zu wenig Exemplare verkaufen und sich deswegen die Entwicklung schenken (oder pleite gehen).

betasilie
2005-10-26, 09:05:14
In einem gewissen akzeptablen Rahmen, ja.

Aber natürlich nicht (nur) um den Entwicklern zu helfen, sondern vorallem um mir selbst zu helfen, in 1-2 Jahren auch noch bessere Grafik genießen zu können (auch mit der Karte, die ich vor 1-2 Jahren gekauft habe und die dann im 2. Rechner steckt).

Egoismus ist ok, kurzsichtiger Egoismus ist doof. Gilt fast überall... auch bei anderen Themen, die ich sehr gerne diskutiere ... :)
Ok, ich verstehe deine Haltung, aber teile sie nicht. Mir persönlich ist es lieber ein aktuelles Spiel z.B. eine Auflösungstufe höher spielen zu können, als zu wissen, dass ich mit meinem Kauf zwar die installierte Basis an featurseitig besseren Produkten erhöhe, mir aber die investierten Tranistoren kein Vorteil beim Spielen verschaffen zum derzeitigen Zeitpunkt. Und ich bezweifel, dass der Nv40 viel Anteil haben wird an SM3.0 Produkten, die 2007 erscheinen.

So wie Du denkst, denke ich dann eher in Sachen ökologische Produkte, aber nicht beim Grafikkartenkauf.

MikBach
2005-10-26, 09:06:48
Wer weiß, was NV dann gebracht hätte...
Sicherlich nicht TAA, weil der NV40 das gar nicht kann.

Für jedes Feature gibt es einen Zeitpunkt und einen Grund. Und nicht alles davon kann jeder nachvollziehen.
Bei Features wie FP16-Vertex-Texturing hast du sicherlich Recht, wenn es aber um allgemeine Features, wie AA geht, was man sofort nutzen kann, dann sehe ich das anders.

betasilie
2005-10-26, 09:08:31
Du hast ne X800Pro. Die war zu keiner Zeit 35% schneller als eine 6800GT.
Ich sprach von einer X800XT. Und die war nahezu überall 35% schneller, wenn die Spiele nicht gerade für die NV Karten optimiert wurden. Und auch die X800Pro ist teiwleise erheblich schneller.

robbitop
2005-10-26, 09:10:13
Sicherlich nicht TAA, weil der NV40 das gar nicht kann.

TMAA könnte er. Bei TSAA weiß das so genau niemand. Schließlich will man ja auch G70 verkaufen.

Demirug
2005-10-26, 09:10:57
Bei Features wie FP16-Vertex-Texturing hast du sicherlich Recht, wenn es aber um allgemeine Features, wie AA geht, was man sofort nutzen kann, dann sehe ich das anders.

"FP16-Vertex-Texturing" mir stellen sich gerade die Zehnägel hoch. :D

Und das HDR-AA ist ja gerade nicht sofort nutzbar.

Aber was bin ich froh wenn diese leidige Diskussion bald ein Ende findet.

MikBach
2005-10-26, 09:12:25
"FP16-Vertex-Texturing" mir stellen sich gerade die Zehnägel hoch. :D
Hauptsache man versteht, was ich meine. :D

Und das HDR-AA ist ja gerade nicht sofort nutzbar.

Das war auf AAA/TAA bezogen.

Grestorn
2005-10-26, 09:12:47
Ok, ich verstehe deine Haltung, aber teile sie nicht. Mir persönlich ist es lieber ein aktuelles Spiel z.B. eine Auflösungstufe höher spielen zu können, als zu wissen, dass ich mit meinem Kauf zwar die installierte Basis an featurseitig besseren Produkten erhöhe, mir aber die investierten Tranistoren kein Vorteil beim Spielen verschaffen zum derzeitigen Zeitpunkt.Wenn der Unterschied so krass wäre, würde ich wohl auch nicht zum innovativen sondern zum effizienten Produkt greifen.

Aber sein wir doch mal ehrlich: Der R420 und der NV40 haben sich im 1-stelligen Prozentbereich unterschieden. Lediglich eine X850XT-PE, die eh nirgendwo zu kaufen war, war nennenswert schneller als eine 6800GT.

Die beiden in ausreichender Menge verfügbaren Karten (die 6800GT und die X800XT) waren fast gleich schnell (mit leichten Vorteilen bei der X800XT). Und dann zählen eben für mich Dinge wie Innovation, Treiberprofile, SSAA, aber auch BQ (eher Vorteile bei ATI).

Grestorn
2005-10-26, 09:14:04
Ich sprach von einer X800XT. Und die war nahezu überall 35% schneller, wenn die Spiele nicht gerade für die NV Karten optimiert wurden. Und auch die X800Pro ist teiwleise erheblich schneller.Nein, das stimmt nicht.

Sie war in Extremfällen vielleicht 35% schneller. Im Schnitt eher um die 5% (verglichen mit einer 6800GT, wenn man mit der Ultra vergleichen würde, wär es noch viel näher am Gleichstand).

Außerdem: Du hast Dir doch ne X800Pro gekauft. Und wenn Du die als Basis für Deine Entscheidung heranziehst, kannst Du doch nicht argumentieren, dass eine X800XT schneller gewesen wäre, wenn Du sie dann nicht kaufst...

Am Anfang waren X800Pro und 6800GT im selben Preissegment (und ich hatte mir auch beide gekauft).

MikBach
2005-10-26, 09:14:40
Du hast ne X800Pro. Die war zu keiner Zeit 35% schneller als eine 6800GT.
Beispiel:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3599055&postcount=29

robbitop
2005-10-26, 09:15:29
Wenn der Unterschied so krass wäre, würde ich wohl auch nicht zum innovativen sondern zum effizienten Produkt greifen.

Aber sein wir doch mal ehrlich: Der R420 und der NV40 haben sich im 1-stelligen Prozentbereich unterschieden. Lediglich eine X850XT-PE, die eh nirgendwo zu kaufen war, war nennenswert schneller als eine 6800GT.

Die beiden in ausreichender Menge verfügbaren Karten (die 6800GT und die X800XT) waren fast gleich schnell (mit leichten Vorteilen bei der X800XT). Und dann zählen eben für mich Dinge wie Innovation, Treiberprofile, SSAA, aber auch BQ (eher Vorteile bei ATI).
Die X800Pro war das 6800GT Konkurrenzprodukt. Die XT war irgendwo dazwischen. Vermutlich auch auf den Markt gehauen, weil die PE eben nur in homäopatischen Mengen verfügbar war.

robbitop
2005-10-26, 09:17:01
Beispiel:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3599055&postcount=29
Das sind Einzelfälle. Mal eben so einen großen Unterschied bei ca gleicher Rohleistung...da sollte man ins Grübeln kommen. Vermutlich klemmt da irgendwas. NFSU2 wurde ja bsw mit späteren Treibern und einem Patch schneller. Oft liegts auch am ISV. NFSU2 und Kotor wurden mit Patch beide um Welten schneller mit einem NV4x.

Grestorn
2005-10-26, 09:17:16
Beispiel:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3599055&postcount=29Ja und? NFSU2 war ein bekanntes Problem, das m.W. inzwischen behoben ist.

Wenn Du ein Spiel nennst, soll ich dann das andere nennen (Doom3)? Bringt das was? Man muss doch den Durchschnitt über alle Spiele sehen...

betasilie
2005-10-26, 09:19:48
Nein, das stimmt nicht.

Sie war in Extremfällen vielleicht 35% schneller. Im Schnitt eher um die 5% (verglichen mit einer 6800GT, wenn man mit der Ultra vergleichen würde, wär es noch viel näher am Gleichstand).
Was Du schreibst ist falsch. Ich hatte 2 6800GT und zwei X800XTs. Ich kenne die Karten, ich kenne die alten Reviews, die nicht nur die Mainstreamspeile gebencht haben, und die ATI Karten waren in nahezu allen Spielen erheblich schneller. Nicht ohne Grund habe zweimal die 6800GT (@Ultra) wieder verkauft. Und ich kenn zig Leute, die die selbe Erfahrung gemacht haben. Die 6800er sind nur schnell in Spielen, die über entsprechende Optimierungen verfügen. Ohne Optimierungen waren es im Shcnitt 33% und bei manchen Games sogar 50%. Bei NV gab es nur DoomIII, was dann als Ausnahme mal schneller auf den 6800ern lief.

Ist immer wieder lustig, dass einige Leute das nicht wahrhaben wollen. :)

MikBach
2005-10-26, 09:19:56
Nein, das stimmt nicht.

Sie war in Extremfällen vielleicht 35% schneller. Im Schnitt eher um die 5% (verglichen mit einer 6800GT, wenn man mit der Ultra vergleichen würde, wär es noch viel näher am Gleichstand).

Nicht wirklich...
Es gibt schon einige Spiele, da ist die X800XT/X850XT (der Unterschied ist ja sehr gering) ergeblich schneller als eine 6800Ultra, besonders bei Quallisettings:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/18/#abschnitt_earth_2160
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/19/

MikBach
2005-10-26, 09:21:11
Das sind Einzelfälle.
Das sind keine Einzelfälle. Siehe mein letztes Posting. :wink:

betasilie
2005-10-26, 09:22:34
Nicht wirklich...
Es gibt schon einige Spiele, da ist die X800XT/X850XT (der Unterschied ist ja sehr gering) ergeblich schneller als eine 6800Ultra, besonders bei Quallisettings:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/18/#abschnitt_earth_2160
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/19/
Genauso sieht es nämlich aus. Und genau das ist imho bei vielen Leuten im SM3.0 Wahn unntergegangen.

Grestorn
2005-10-26, 09:22:37
Was Du schreibst ist falsch. Ich hatte 2 6800GT und zwei X800XTs. Ich kenne die Karten, ich kenne die alten Reviews, die nicht nur die Mainstreamspeile gebencht haben, und die ATI Karten waren in nahezu allen Spielen erheblich schneller. Nicht ohne Grund habe zweimal die 6800GT (@Ultra) wieder verkauft. Und ich kenn zig Leute, die die selbe Erfahrung gemacht haben. Die 6800er sind nur schnell in Spielen, die über entsprechende Optimierungen verfügen. Ohne Optimierungen waren es im Shcnitt 33% und bei manchen Games sogar 50%.

Ist immer wieder lustig, dass einige Leute das nicht wahrhaben wollen. :)Wenn Du meinst.

Meine Frau hatte ne ganze Weile die x800Pro im Rechner (während ich die 6800GT hatte). Meine Erfahrungen sehen einfach anders aus.

Aber es ist müßig darüber zu diskutieren. Jedenfalls habe ich auch noch nirgendwo von solch krassen Unterschieden zwischen dem NV40 und R420 gelesen, wie Du es hier beschreibst.

Spezielle Optimierungen gibt es im übrigen auch nur für die allerwichtigsten Porgramme, wie 3DMark, Doom3, HL2 usw.

Das absolute Gros der Spiele muss ohne Optimierungen im Treiber auskommen.

betasilie
2005-10-26, 09:24:17
Das sind Einzelfälle.
Falsch, das war die Regel. Leider werden viel zu wenig Spiele in den Reviews gebenchmarked.

MikBach
2005-10-26, 09:25:09
Wenn Du ein Spiel nennst, soll ich dann das andere nennen (Doom3)? Bringt das was?
:confused:
In Doom3 ist eine 6800Ultra kaum schneller als eine X850XT:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/21/#abschnitt_doom_3

Man muss doch den Durchschnitt über alle Spiele sehen...
Genau, und da ist ATI, besonders bei weniger bekannten Spielen, die nicht so oft gebencht werden, deutlich schneller.

betasilie
2005-10-26, 09:26:31
Das absolute Gros der Spiele muss ohne Optimierungen im Treiber auskommen.
Genau, und das sah es eigentlich ganz böse für die NVs aus. Genau darum geht es mir ja.

Im übrigen will ich nicht wiedersprechen, dass die X800Pro nur in wenigen Fällen vor der 6800GT war. Ich spreche von der X800XT, die das Konkurrenzprodukt zur 6800GT darstellt.

robbitop
2005-10-26, 09:27:54
Das sind keine Einzelfälle. Siehe mein letztes Posting. :wink:
Es ging um die Pro gegen die GT. Nicht um irgendwelche XT Varianten. Die sind keine GT Konkurrenten. Natürlich muss sich 33% mehr Rohleistung auch auswirken. Es ging mir aber um Chips mit gleicher Rohleistung (Pro vs GT ..die hat grestorn auch angesprochen)

Grestorn
2005-10-26, 09:28:36
Toll, wie immer wieder die nicht vorhandene X850XT-PE mit der 6800GT (oder Ultra, kaum ein unterschied) verglichen werden :)

Bitte die damals wirklich kaufbaren Karten vergleichen, also bestenfalls eine X800XT mit der 6800GT.

Die X850er Reihe konnte man bestenfalls 1-2 Monate vor der 7800er Reihe kaufen, wenn ich mich nicht täusche.

Es mag sein, dass es einen kurzen Zeitraum gab, in dem die X850 attraktive als die 6800er Reihe war. Aber in diesem Zeitraum habe ich mir keine GraKa gekauft (und so groß war der Unterschied nicht, dass ein Neukauf zu rechtfertigen gewesen wäre).

MikBach
2005-10-26, 09:28:46
Im übrigen will ich nicht wiedersprechen, dass die X800Pro nur in wenigen Fällen vor der 6800GT war. Ich spreche von der X800XT, die das Konkurrenzprodukt zur 6800GT darstellt.
Nein, das Konkurenzprodukt war die X800PRO, später die X800XL.

robbitop
2005-10-26, 09:29:26
Falsch, das war die Regel. Leider werden viel zu wenig Spiele in den Reviews gebenchmarked.
Es ging um die PRO ... nicht um die XT.
Klar ist die XT schneller ... hat ja auch deutlich mehr Rohleistung. Aber die Pro war ja auch der Konkurrent (preislich) der GT nicht die XT.

Grestorn
2005-10-26, 09:30:13
Genau, und das sah es eigentlich ganz böse für die NVs aus. Genau darum geht es mir ja.Nein, Du übertreibst den Einfluss der Optimierungen.

Im übrigen will ich nicht wiedersprechen, dass die X800Pro nur in wenigen Fällen vor der 6800GT war. Ich spreche von der X800XT, die das Konkurrenzprodukt zur 6800GT darstellt.Das stimmt nicht. Bei Markteinführung gab es X800Pro und 6800GT. Alles andere war nicht kaufbar.

Wer sich mühe gab, konnte eine X800XT oder eine 6800Ultra kaufen.

Diese beiden Paare waren jeweils auch im Preis vergleichbar.

MikBach
2005-10-26, 09:32:52
Es ging um die Pro gegen die GT. Nicht um irgendwelche XT Varianten. Die sind keine GT Konkurrenten. Natürlich muss sich 33% mehr Rohleistung auch auswirken. Es ging mir aber um Chips mit gleicher Rohleistung (Pro vs GT ..die hat grestorn auch angesprochen)
Was interessiert den Kunden die Rohleistung?
Die Leistung bei Spielen ist interessant.
Die X800PRO ist bei vergleichbarer Rohleistung im Schnitt auch in etwa GT-Niveau. Die X800XT ist aber deutlich schneller als das Konkurenzprodukt 6800Ultra.

betasilie
2005-10-26, 09:34:36
Nein, Du übertreibst den Einfluss der Optimierungen.

Das hat man ja zB an FarCry gesehen, wo die besagten ~33% Nachteil fast aufgeholt wurden. :rolleyes:

Das stimmt nicht. Bei Markteinführung gab es X800Pro und 6800GT. Alles andere war nicht kaufbar.

Ja, vor langer, langer Zeit. Das hat sich aber schnell geändert.


Wer sich mühe gab, konnte eine X800XT oder eine 6800Ultra kaufen.

Diese beiden Paare waren jeweils auch im Preis vergleichbar.
Falsch, die 6800GT war preislich ziemlich genau zwischen X800Pro und X800XT. Die X800Pro war günstiger und von der Leistung her auf 6800Gt Niveau, die X800XT war teurer, aber erheblich performanter. Das gleiche gilt natürlich auch noch heute.

MikBach
2005-10-26, 09:35:23
Toll, wie immer wieder die nicht vorhandene X850XT-PE mit der 6800GT (oder Ultra, kaum ein unterschied) verglichen werden :)

Bitte die damals wirklich kaufbaren Karten vergleichen, also bestenfalls eine X800XT mit der 6800GT.

Die X850er Reihe konnte man bestenfalls 1-2 Monate vor der 7800er Reihe kaufen, wenn ich mich nicht täusche.

Es mag sein, dass es einen kurzen Zeitraum gab, in dem die X850 attraktive als die 6800er Reihe war. Aber in diesem Zeitraum habe ich mir keine GraKa gekauft (und so groß war der Unterschied nicht, dass ein Neukauf zu rechtfertigen gewesen wäre).
Die X850XT ist nur geringfügig schneller als die X800XT.
Da die X800XT nicht gebencht wurde, muss man sich mit der X850XT behelfen und ein paar Prozent abziehen. :)

Quasar
2005-10-26, 10:48:12
[…] Neue Features sind schön, zum richitgen Zeitpunkt.[…]
Neue Features zum richtigen Zeitpunkt wird es aber ohne neue Features zum, in deinen Augen, falschen Zeitpunkt kaum geben.

betasilie
2005-10-26, 10:53:47
Neue Features zum richtigen Zeitpunkt wird es aber ohne neue Features zum, in deinen Augen, falschen Zeitpunkt kaum geben.
Nein, Du drehst das Ganze wieder ins Extrem. Natürlich wird man beim PC immer Features haben, die verzögert in Spielecontent eingebaut werden.

Grestorn
2005-10-26, 10:56:14
Nein, Du drehst das Ganze wieder ins Extrem. Natürlich wird man beim PC immer Features haben, die verzögert in Spielecontent eingebaut werden.Und was ist der richtige, was der falsche Zeitpunkt?

Wahrscheinlich ist der richtige Zeitpunkt, wenn Dein favorisierter Hersteller ein Feature einbaut. Andere Zeitpunkte, insbesondere frühere, sind wohl alle falsch.

mapel110
2005-10-26, 11:00:46
Aber im R420 praktisch gar keine neuen Features einzubauen und ein komplettes Techlevel wegzulassen, war ein bisschen arg wenig. Und ich wage mal zu behaupten, dass man das bei ATI so schnell nicht wiedersehen wird, trotz der wohl "mies" werdenden "SM4"-Performance in der ersten SM4-Generation im nächsten Jahr.

seahawk
2005-10-26, 11:19:19
Beispiel:
und du meinst, dass man sich als Spieler einen NV40 statt R420 zulegen sollte, weil man dadurch in 1-2 Jahren bessere Grafik hat?
Meinst du nicht, es würde reichen, wenn sich die Entwickler den NV40 zulegen?
Kein IHV kann nur mit den Entwicklern als Kunden überleben. In letzter Konsequenz bedeutet ein konservatives Vorgehen bei der Integration neuer Features eine Verlangsamung des Fortschrittes, was aber imho für den Spieler nicht schlimm ist. Endlich würde HArdware besser ausgenutzt und man könnte zusätzliche Transistoren mehr in BQ und FPS investieren.

Demirug
2005-10-26, 11:27:23
Kein IHV kann nur mit den Entwicklern als Kunden überleben. In letzter Konsequenz bedeutet ein konservatives Vorgehen bei der Integration neuer Features eine Verlangsamung des Fortschrittes, was aber imho für den Spieler nicht schlimm ist. Endlich würde HArdware besser ausgenutzt und man könnte zusätzliche Transistoren mehr in BQ und FPS investieren.

Und bald haben wir einheitliche Protokolle... ;)

Der PC als hochgradig in sich selbst instabiles System kann einfach nicht einen hohen wirkungsgrad erreichen ohne das man im gleiche Schritt die Flexibilität des Systems vernichtet.

Oder wie würde es dir gefallen wenn es pro Jahr nur noch 3 Referenzsysteme (3 Leistungslevel) geben würde die von einem Komitee festgelegt werden? Jeder PC Hersteller dürfte dann nur noch genau dieses Systeme bauen ohne jegliche Abweichung. Freie Slots gibt es dann natürlich auch keine mehr und externe Geräte werden auf datenträger begrenzt.

Hakkerstiwwel
2005-10-26, 11:30:10
Letztlich ist AA eine bildverbessernde Maßnahme. Ob sie unterstützt wird oder nicht, ist für die Spieleentwickler bedeutungslos. Deswegen blokiert eine fehlende AA Unterstützung den Fortschritt der Spieleentwicklung nicht.

Spieler sehen das sicher anders, aber wie gesagt, ich ziehe in meine Entscheidung nicht nur Aspekte ein, die mir heute ein schöneres Bild liefern sondern auch solche, die mir morgen bessere Grafik versprechen.
Irgendwie verstehe ich deine Argumentation nicht:
wenn AA nur eine bildverbessernde Massnahme (Eyecandy) ist, was ist HDR, oder vereinfacht irgendein ShaderModell dann, wenn das Ganze nicht letztendlich auf eine Bildverbesserung ziehlt?
Warum blockiert eine fehlende AA Unterstuetzung den Fortschritt der Spieleentwicklung nicht. Da es ohne nV at mom gar kein HDR geben wuerde weiß ich dass die Argumenation ein bisserl doof ist, aber ist es nicht so dass momentan HDR + FSAA nicht genutzt werden kann weil nV es nicht kann. Ausserdem legst du in einem anderen Posting Wert auf SSAA, obschon SSAA auch nur eine Bildverbessernde Massnahme ist.

seahawk
2005-10-26, 11:32:53
Und bald haben wir einheitliche Protokolle... ;)

Der PC als hochgradig in sich selbst instabiles System kann einfach nicht einen hohen wirkungsgrad erreichen ohne das man im gleiche Schritt die Flexibilität des Systems vernichtet.

Oder wie würde es dir gefallen wenn es pro Jahr nur noch 3 Referenzsysteme (3 Leistungslevel) geben würde die von einem Komitee festgelegt werden? Jeder PC Hersteller dürfte dann nur noch genau dieses Systeme bauen ohne jegliche Abweichung. Freie Slots gibt es dann natürlich auch keine mehr und externe Geräte werden auf datenträger begrenzt.

Für viele Endkunden wäre das ein Gewinn. Wobei ich mir länger gültige, aber dafür auch verbindliche Vorgaben durchaus wünschen würde. Also ein Weg HDR-R zu machen und keine lustigen backdoor-Workarounds mehr um die Specs doch noch erfüllen zu können. Solche Specs sollten 2 Jahre vor Einführung des neuen Direct X bekannt gegben werden. Am besten mit SDK und Softwareemulation.

seahawk
2005-10-26, 11:34:17
Irgendwie verstehe ich deine Argumentation nicht:
wenn AA nur eine bildverbessernde Massnahme (Eyecandy) ist, was ist HDR, oder vereinfacht irgendein ShaderModell dann, wenn das Ganze nicht letztendlich auf eine Bildverbesserung ziehlt?
Warum blockiert eine fehlende AA Unterstuetzung den Fortschritt der Spieleentwicklung nicht. Da es ohne nV at mom gar kein HDR geben wuerde weiß ich dass die Argumenation ein bisserl doof ist, aber ist es nicht so dass momentan HDR + FSAA nicht genutzt werden kann weil nV es nicht kann. Ausserdem legst du in einem anderen Posting Wert auf SSAA, obschon SSAA auch nur eine Bildverbessernde Massnahme ist.

Einfache Antwort. HDR muss in der Software programmiert worden sein, AA nicht. Für AA muss man die Appliaktion nicht anpassen bzw. Extracontent vorsehen, für HDR oder SM3.0 schon.

Demirug
2005-10-26, 11:39:33
Für viele Endkunden wäre das ein Gewinn. Wobei ich mir länger gültige, aber dafür auch verbindliche Vorgaben durchaus wünschen würde. Also ein Weg HDR-R zu machen und keine lustigen backdoor-Workarounds mehr um die Specs doch noch erfüllen zu können. Solche Specs sollten 2 Jahre vor Einführung des neuen Direct X bekannt gegben werden. Am besten mit SDK und Softwareemulation.

Die einheitliche verbindliche Direct3D Spezifikation scheiterte ja immer an den Herstellern und eine große Vorlaufzeit könnte man in der Regel auch vergessen weil ich keiner in die Karten schauen lassen wollte.

Eine Softwareemulation ist gut und schön sagt aber eben nichts über die Leistung aus. Da den richtigen Punkt zu treffen ist fast unmöglich.

Hakkerstiwwel
2005-10-26, 11:45:43
Einfache Antwort. HDR muss in der Software programmiert worden sein, AA nicht. Für AA muss man die Appliaktion nicht anpassen bzw. Extracontent vorsehen, für HDR oder SM3.0 schon.
Was nutzt mir die Verbesserung auf einem Gebiet wenn ich auf einem anderen eine Verschlechterung habe. Soviel ich bisher verstanden habe muss fuer HDR + AA auch ein anderer Pfad programmiert werden, oder nicht?

Demirug
2005-10-26, 11:49:52
Was nutzt mir die Verbesserung auf einem Gebiet wenn ich auf einem anderen eine Verschlechterung habe. Soviel ich bisher verstanden habe muss fuer HDR + AA auch ein anderer Pfad programmiert werden, oder nicht?

Man muss nur ein paar Zeilen Code ergänzen. Am Rest ändert sich nichts wenn man es richtig macht.

betasilie
2005-10-26, 11:50:04
Und was ist der richtige, was der falsche Zeitpunkt?

Wahrscheinlich ist der richtige Zeitpunkt, wenn Dein favorisierter Hersteller ein Feature einbaut. Andere Zeitpunkte, insbesondere frühere, sind wohl alle falsch.
Tolle Art zu diskutieren. :rolleyes:

2 Generationen ink. großem Refresh sollten wohl passen. R3xx R4xx, ganz so wie es bei NV auch ist und war. Oder wo ist der große Sprung vom NV40 zum G70?

Demirug
2005-10-26, 11:51:58
Tolle Art zu diskutieren. :rolleyes:

2 Generationen ink. großem Refresh sollten wohl passen. R3xx R4xx, ganz so wie es bei NV auch ist und war. Oder wo ist der große Sprung vom NV40 zum G70?

Da ist keiner ist ja auch nur ein Refresh.

Du willst also nur alle 2 generationen neue Features einführen oder verstehe ich dich da falsch?

betasilie
2005-10-26, 11:52:10
Aber im R420 praktisch gar keine neuen Features einzubauen und ein komplettes Techlevel wegzulassen, war ein bisschen arg wenig. Und ich wage mal zu behaupten, dass man das bei ATI so schnell nicht wiedersehen wird, trotz der wohl "mies" werdenden "SM4"-Performance in der ersten SM4-Generation im nächsten Jahr.
Achso, und der G70 ist der große Sprung?

Es wird mit Sicherheit weiterhin große Refreshes geben. Wieso sollten sich die IHVs verbiegen und jedes Jahr alles bis zum geht nicht mehr Features aufstocken, obwohl Leistung gefragt ist?

betasilie
2005-10-26, 11:54:37
Da ist keiner ist ja auch nur ein Refresh.

Du willst also nur alle 2 generationen neue Features einführen oder verstehe ich dich da falsch?
Was ist denn der G70? Was waren denn GF3 und GF4? Was waren denn GF1 und GF2?
Irgendwie verliert ihr den blick für die Realität. Als ob die Devs mit SM2.0 am Ende der Fahnenstange angelangt wären.

Quasar
2005-10-26, 11:55:22
Nein, Du drehst das Ganze wieder ins Extrem. Natürlich wird man beim PC immer Features haben, die verzögert in Spielecontent eingebaut werden.
Das ist das Extrem, welches sich daraus ergibt, Features nur dann einzubauen, wenn der Zeitpunkt "richtig" ist.

Wenn ich Feature X in Generation Y weglasse, weil der Zeitpunkt falsch wäre, dann wird sich kein Entwickler großartig damit beschäftigen, weil es schlicht kein Verkaufsargument ist. Oder wieviele Games kennst du, die bsw. auf HOS setzen - und darauf warten, daß mal eine Grafikkarte kommt, die das auch unterstützt?

Anderes Beispiel: Hätte es den NV40 nicht gegeben und die Entwickler hätten sich gedacht "Prima, Ende nächsten Jahres hat's überall SM3-Karten - basteln wir doch mal ein bißchen HDR rein und dynamische Branchen und auch ein bißchen VTF."

Hoppsala - erkennst du das Dilemma? Welches HDR nehmen wir denn? Basteln wir einen Pfad, der auch mit MSAA funktioniert und noch einen, der das "anders" löst? Wieviel dyn. Branchen funktioniert noch zufriedenstellend auf der Kundenhardware? Und was ist mit VTF?

Auch wenn du sagst, ich würde es ins Extrem drehen, ist es doch genau das Problem, vor dem man letztendlich steht. Andere Beispiele sind "veränderliche" DX-Specs, wie bsw. DXNext (D3D10) - wo ist der PPP hinne? Wie unified sind die Shader?

betasilie
2005-10-26, 12:00:10
Das ist das Extrem, welches sich daraus ergibt, Features nur dann einzubauen, wenn der Zeitpunkt "richtig" ist.

Wenn ich Feature X in Generation Y weglasse, weil der Zeitpunkt falsch wäre, dann wird sich kein Entwickler großartig damit beschäftigen, weil es schlicht kein Verkaufsargument ist. Oder wieviele Games kennst du, die bsw. auf HOS setzen - und darauf warten, daß mal eine Grafikkarte kommt, die das auch unterstützt?

Anderes Beispiel: Hätte es den NV40 nicht gegeben und die Entwickler hätten sich gedacht "Prima, Ende nächsten Jahres hat's überall SM3-Karten - basteln wir doch mal ein bißchen HDR rein und dynamische Branchen und auch ein bißchen VTF."

Hoppsala - erkennst du das Dilemma? Welches HDR nehmen wir denn? Basteln wir einen Pfad, der auch mit MSAA funktioniert und noch einen, der das "anders" löst? Wieviel dyn. Branchen funktioniert noch zufriedenstellend auf der Kundenhardware? Und was ist mit VTF?

Auch wenn du sagst, ich würde es ins Extrem drehen, ist es doch genau das Problem, vor dem man letztendlich steht. Andere Beispiele sind "veränderliche" DX-Specs, wie bsw. DXNext (D3D10) - wo ist der PPP hinne? Wie unified sind die Shader?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3613605&postcount=1878
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3613612&postcount=1880

Was habt ihr alle für ein Problem damit, dass ATI nichts anderes macht als NV? ATI hat halt auf ein performates SM2.0 gesetzt beim R3xxx und beim R420 die Performance erheblich ausgebaut. NV hat nichts anderes gemacht seit dem NV30, nur dass deren Architektur auf SM3.0 ausgelegt war und der NV30 SM3.0 nicht erreicht hat und selbst als SM2.0 fast unbrauchbar war.

seahawk
2005-10-26, 12:06:13
ATI wollte Sm3.0 als sinnlosen Zwischenschritt zwischen SM2.0 und SM4.0 weglassen. lDurch die Verzögerung von VISTA waren sie gezwungen noch einen SM3.0 Karte zu bringen. Wobei ich zustimmen würde, dass alle 2 Generationen (also 4 Karten inkl. 2 Refreshs) erst ein neuer Tachlevel genutzt werden soll. Die vielen kleinen Zwischenschritte nutzen niemanden. In diesem Zusammenhang fand ich des SM2.B besonders inkonsequent und eigentlich überflüssig.

mapel110
2005-10-26, 12:16:41
Achso, und der G70 ist der große Sprung?

Und das lag nicht an nvidia, sondern an der weiteren Planung von Microsoft.

betasilie
2005-10-26, 12:20:48
Und das lag nicht an nvidia, sondern an der weiteren Planung von Microsoft.
Ja ne, ist klar. Und wo sind HDR mit AA und solche Späße? Wo ist vernünftiges AF? Wo ist etwas in Richtung ATIs 6*SGAA. Als ob es nichts mehr zu tun gebe. Wieso wird die Perfomance des dyn. Branching nur zarghaft verbessert?

Alles die Schuld von Microsoft. Ist klar. :rolleyes:

Und ATI wollte halt kein SM3.0, deshalb gab es überhaupt SM2.0. Das Vista so spät kommt, konnte keiner wissen.

Demirug
2005-10-26, 12:26:22
Was ist denn der G70?

Der Refresh der NV4X Reihe. nVidia hat nur die die Codebezeichnungen verändert weil NV nicht mehr berauchbar war.

Was waren denn GF3 und GF4? Was waren denn GF1 und GF2?

Jeweils zwei Karten aus der gleichen Familie (Generation) was aber auch ganz klar aus den Chipbezeichnungen hervorgeht.

Irgendwie verliert ihr den blick für die Realität. Als ob die Devs mit SM2.0 am Ende der Fahnenstange angelangt wären.

Im Prinzip war man schon bei Farcry mit dem SM2 am Ende und mussten wieder anfangen zu tricksen.

betasilie
2005-10-26, 12:29:09
ATI wollte Sm3.0 als sinnlosen Zwischenschritt zwischen SM2.0 und SM4.0 weglassen. lDurch die Verzögerung von VISTA waren sie gezwungen noch einen SM3.0 Karte zu bringen. Wobei ich zustimmen würde, dass alle 2 Generationen (also 4 Karten inkl. 2 Refreshs) erst ein neuer Tachlevel genutzt werden soll. Die vielen kleinen Zwischenschritte nutzen niemanden. In diesem Zusammenhang fand ich des SM2.B besonders inkonsequent und eigentlich überflüssig.
Full Ack. Und NV praktiziert genau diesen Ryhtmus ebenfalls, und eigentlich schon eine Generation länger als ATI, wenn man den NV30 als verkappten SM3.0 Chip sieht, der sogar für SM2.0 zu langsam war.

Man kann ATI subjektiv vorwerfen, dass sie kein SM3.0 wollten, sondern SM2.0. Aber die Frage, ob das wirklich nicht Sinnvoll war, ist nicht so klar zu beantworten, weil wir im Grunde selbst jetzt mit G70 in der dritten Generation in vielen Belangen noch Nadelöhre vorhanden sind was SM3.0 angeht. Von daher könnte man SM3.0 durchaus als überflüssig ansehen, jedenfalls wäre es klar so gekommen, wenn wir das SM4.0 früher bekommen hätten.

Grestorn
2005-10-26, 12:32:47
Irgendwie verstehe ich deine Argumentation nicht:
wenn AA nur eine bildverbessernde Massnahme (Eyecandy) ist, was ist HDR, oder vereinfacht irgendein ShaderModell dann, wenn das Ganze nicht letztendlich auf eine Bildverbesserung ziehlt?
Warum blockiert eine fehlende AA Unterstuetzung den Fortschritt der Spieleentwicklung nicht. Da es ohne nV at mom gar kein HDR geben wuerde weiß ich dass die Argumenation ein bisserl doof ist, aber ist es nicht so dass momentan HDR + FSAA nicht genutzt werden kann weil nV es nicht kann. Ausserdem legst du in einem anderen Posting Wert auf SSAA, obschon SSAA auch nur eine Bildverbessernde Massnahme ist.Für AA muss der Entwickler (fast *) nichts tun, das kann der Spieler notfalls über den Treiber erzwingen, für HDR, SM3 usw. muss der Entwickler seine Engine aber entsprechend aufbauen.

*) Es gibt Ausnahmen, in denen der Entwickler AA vorsehen oder berücksichtigen muss. Aber das sind wie gesagt Ausnahmen.

MikBach
2005-10-26, 12:34:26
Kein IHV kann nur mit den Entwicklern als Kunden überleben. In letzter Konsequenz bedeutet ein konservatives Vorgehen bei der Integration neuer Features eine Verlangsamung des Fortschrittes, was aber imho für den Spieler nicht schlimm ist. Endlich würde HArdware besser ausgenutzt und man könnte zusätzliche Transistoren mehr in BQ und FPS investieren.
Das war ja auch überspitzt gesagt. :)
Es hätten auch so viele den NV40 geholt.
Weil sie mit NV bis dahin zufrieden waren oder wegen den Gerüchten über die schlechten ATI-Treiber. :rolleyes:

Es geht mir halt darum, dass damals bei Kaufempfehlungen für den Gamer, SM3 als ein sehr wichtiges Kriterium genannt wurde, da man sonst in absehbarer Zeit auf Effekte verzichten müsse.
Das hat sich mittlerweile als falsch erwiesen.
Wir haben erst ein paar Spiele mit einem SM3-Pfad, wobei es manchmal (z.B. FarCry) noch nichtmal Unterschiede in der Optik gibt.

Grestorn
2005-10-26, 12:35:39
Tolle Art zu diskutieren. :rolleyes: Jo, finde ich auch :)

2 Generationen ink. großem Refresh sollten wohl passen. R3xx R4xx, ganz so wie es bei NV auch ist und war. Oder wo ist der große Sprung vom NV40 zum G70?2. Generation von was?

Es kommt doch nur auf den Zeitpunkt an. Ob es die 1., 2., 3. oder x. Generation eines Chips ist, ob es ein Refresh oder was auch immer ist spielt doch gar keine Rolle.

nVidia war 1 1/2 Jahre früher dran als ATI. Deswegen sind sie Deiner Meinung nach zu früh gewesen. Ich frage Dich: Warum soll das so sein? Warum nicht ATI 1 1/2 Jahre zu spät?

Oder müssen sich alle GraKa Hersteller deiner Meinung nach absprechen, damit ein Feature gleichzeitig auf dem Markt angeboten wird?

Quasar
2005-10-26, 12:36:40
Was habt ihr alle für ein Problem damit, dass ATI nichts anderes macht als NV?
Keines – aber darauf will ich mich sowieos nicht einlassen, wer was wie macht – das führt zu nichts.

Mir geht es eigentlich um den Fortschritt und geilere Grafik in den Games. Die "Schuld"-Frage ist da eher sekundär.

betasilie
2005-10-26, 12:37:37
Der Refresh der NV4X Reihe. nVidia hat nur die die Codebezeichnungen verändert weil NV nicht mehr berauchbar war.
Sorry, aber in meinen Augen ist der G70 zum NV40 nichts anderes als ein R420 zum R300.


Jeweils zwei Karten aus der gleichen Familie (Generation) was aber auch ganz klar aus den Chipbezeichnungen hervorgeht.
Und nun? Trotzdem ist es das selbe, wie 9700 und X800. Aufgebohrte Chips des Vorgängers nämlich. Bezeichnen können die IHVs die Chips wie sie wollen, wie man am G70 sieht.

Im Prinzip war man schon bei Farcry mit dem SM2 am Ende und mussten wieder anfangen zu tricksen.
Achso, ich dachte die Jungs dort sind so schlecht, dass sie ohnehin nicht wissen wie man eine vernünftige Engine schreibt. ;) Dann müsste doch ein besseres Studio erheblich mehr rausholen können.

Willst Du uns jetzt erzählen, dass FarCry als erstes DX9 Spiel und als Erstlingswerk eines Studios SM2.0 voll ausgereizt hat, und dass man jetzt nicht mehr erwarten kann auf SM2.0 Techlevel. Sorry, aber das glaube ich dir nicht.

betasilie
2005-10-26, 12:45:59
Keines – aber darauf will ich mich sowieos nicht einlassen, wer was wie macht – das führt zu nichts.

Mir geht es eigentlich um den Fortschritt und geilere Grafik in den Games. Die "Schuld"-Frage ist da eher sekundär.
Genau, es gibt nämlich keine Schuldfrage. ATI und NV haben unterschiedliche pläne bzgl. DX9 und die Zeit bis Ende 2005 gehabt. Ich finde ATIs Weg in bezug auf diesen Zeitraum besser - SM2.0 und viel Ropower. Und der Sprung von PS1.3 hin zu SM2.0 war doch ein ordentlicher Schritt, mal abegsehen von den anderen Sachen.

Und ja, wir wollen geilere Grafik, aber wir wollen auch Performance. Und genau darum geht es - es muss das richtige Featureset zum richtigen Zeitpunkt sein, um die Features auch performant in Spielen anwenden zu können.

2. Generation von was?

Es kommt doch nur auf den Zeitpunkt an. Ob es die 1., 2., 3. oder x. Generation eines Chips ist, ob es ein Refresh oder was auch immer ist spielt doch gar keine Rolle.

nVidia war 1 1/2 Jahre früher dran als ATI. Deswegen sind sie Deiner Meinung nach zu früh gewesen. Ich frage Dich: Warum soll das so sein? Warum nicht ATI 1 1/2 Jahre zu spät?

Oder müssen sich alle GraKa Hersteller deiner Meinung nach absprechen, damit ein Feature gleichzeitig auf dem Markt angeboten wird?
Du verstehst es nicht. ATI wollte keinen SM3.0 Chip und das nicht ohne Grund. Sie wollten keinen so großen Featuresprung machen und lieber Sm2.0 inkl. hoher Performance bringen. R5xx sollte dann schon SM4.0 unterstützen, woraus nichts geworden ist.

Und ja, NV war erheblich zu früh. Der NV40 ist der Beweis, und ganz besonders der NV30, dessen Cine-FX nichts anderes war, als ein verkaptes SM3.0.

Quasar
2005-10-26, 12:46:45
Willst Du uns jetzt erzählen, dass FarCry als erstes DX9 Spiel und als Erstlingswerk eines Studios SM2.0 voll ausgereizt hat, und dass man jetzt nicht mehr erwarten kann auf SM2.0 Techlevel. Sorry, aber das glaube ich dir nicht.
Wenn du das nicht glaubst, dann schau doch einfach mal, wieviel Prozent Speed die X800-Reihe durch den 2.B-Pixelpfad gewinnt, allein durch das Kombinieren der Lichtquellen und der Texturfilterung in einen Pass.

Dafür brauchst du nichtmal nV, SM3.0 oder sonstwas zu bemühen.

betasilie
2005-10-26, 12:48:12
Wenn du das nicht glaubst, dann schau doch einfach mal, wieviel Prozent Speed die X800-Reihe durch den 2.B-Pixelpfad gewinnt, allein durch das Kombinieren der Lichtquellen und der Texturfilterung in einen Pass.

Dafür brauchst du nichtmal nV, SM3.0 oder sonstwas zu bemühen.
Häh? Genau darauf will ich doch hinnaus. Wolltest Du mich jetzt bestätigen?

aths
2005-10-26, 12:52:30
Das ist doch bestimmt das, was Seahawk gemeint hat...
Der R520 bietet eine bessere BQ, IMMER.
Davon hat man jetzt schon was.Nicht anderes leiere ich gebetsmühlenartig herunter. Bräuchte ich jetzt eine neue GPU, würde ich zur Radeon greifen. Aber diese nicht schönreden, wo es nichts schönzureden gibt: Die Schwächen der SM3-Implementierung (es gibt dort nicht nur Schwächen, siehe Performance beim dynamischen Branching) und die Schwächen beim HDR-Rendering (auch dort gibts nicht nur Schwächen, siehe MSAA-Support für FP16-Targets.) Die größten Stärken des R520 liegen aus meiner Sicht natürlich im Bereich der 3D-Bildqualität.

Ich halt die CineFX-Architektur (NV30-38) und auch SM3 bei dem NV40 für einen Marketinggag.
Das Thema FX dürfte klar sein...SM3 beim NV40 ist sicher kein Marketinggang. Jedes einzelne Feature das mit dem NV40 neu hinzukam, erscheint mir nützlich – vermutlich hat NV es implementiert, weil Entwickler danach gefragt haben. Gleiches gilt für den NV30, dort haben wir auch noch das Henne-Ei-Problem, wenn man sich die DirectX9-Spec anguckt. Was der NV30 im Vergleich zum R300 mehr kann, ist mit SM3 ohnehin Standard geworden. Da hat NV vorausschauend entwickelt.

Wenn es um den NV40 geht, so gibt es nicht wirklich viele Spiele, die SM3 einsetzen.Warum ist das so? Hm, vielleicht weil ATI erst jetzt SM3-Hardware anzubieten hat, nicht ohne vorher noch einen Schwall von SM2-Hardware in die Userbasis zu drücken?

reunion
2005-10-26, 12:53:16
ATI wollte Sm3.0 als sinnlosen Zwischenschritt zwischen SM2.0 und SM4.0 weglassen. lDurch die Verzögerung von VISTA waren sie gezwungen noch einen SM3.0 Karte zu bringen.

Du verstehst es nicht. ATI wollte keinen SM3.0 Chip und das nicht ohne Grund. Sie wollten keinen so großen Featuresprung machen und lieber Sm2.0 inkl. hoher Performance bringen. R5xx sollte dann schon SM4.0 unterstützen, woraus nichts geworden ist.


ATi wollte mit R400 sogar einen Unified-Shader-SM3.0-Chip, daraus ist aber aus welchen Gründen auch immer nichts geworden; R420 war wie R520 nur "Plan B".

Demirug
2005-10-26, 12:54:50
Sorry, aber in meinen Augen ist der G70 zum NV40 nichts anderes als ein R420 zum R300.

Habe ich den etwas anderes behauptet? Nach einer neuen Generation kommt bei nVidia immer der Refreshchip. ATI hat das Refreshspiel nur über 4 Chips gezogen und nach zweien das ganze als neue Generation verkauft.

Und nun? Nur trotzdem ist es das selbe, wie 9700 und X800. Aufgebohrte Chips des Vorgängers nämlich. Bezeichnen kann können die IHVs die Chips wie sie wollen, wie man am G70 sieht.

2 Chips in einer Generation gegen 4 Chips. Das selbe?

Achso, ich dachte die Jungs dort sind so schlecht, dass sie ohnehin nicht wissen wie man eine vernünftige Engine schreibt. ;) Dann müsste doch ein besseres Studio erheblich mehr rausholen können.

Willst Du uns jetzt erzählen, dass FarCry als erstes DX9 Spiel und als Erstlingswerk eines Studios SM2.0 voll ausgereizt hat, und dass man jetzt nicht mehr erwarten kann auf SM2.0 Techlevel. Sorry, aber das glaube ich dir nicht.

Es geht hier nicht darum was man erwarten kann. Es geht darum wie weit man tricksen muss um etwas zu erreichen. Reicht mir ein Shadermodel nicht mehr aus um alles in einem Pass zu machen und die Karte hat gleichzeitig noch Luft für Multipass ist das Shadermodel technisch zu schwach für die Leistung. SM2 war von Anfang an viel zu schwach dimensioniert für die Leistung welche die Karten hatten.

Was glaubst du wohl warum man vorallem erst mal das Anweisungslimit hochgedrückt hat beim R420?

MikBach
2005-10-26, 12:58:16
Wenn du das nicht glaubst, dann schau doch einfach mal, wieviel Prozent Speed die X800-Reihe durch den 2.B-Pixelpfad gewinnt, allein durch das Kombinieren der Lichtquellen und der Texturfilterung in einen Pass.

Dafür brauchst du nichtmal nV, SM3.0 oder sonstwas zu bemühen.
Ganau.
Außerdem hat man bei ATI mit GI auch ein wichtiges Feature, was erst in SM3 spezifiziert ist...

Und ich behaupte einfach mal, dass wenn man SM2.B voll ausreizen würde, selbst eine 7800GTX am Stock gehen würde. :D

Quasar
2005-10-26, 13:00:39
Und genau darum geht es - es muss das richtige Featureset zum richtigen Zeitpunkt sein, um die Features auch performant in Spielen anwenden zu können.
Richtig – genau darum geht es. Und es handelt sich auch nicht um ein Henne-Ei-Problem, denn diese Forderung ist nicht auf einmal "erfüllbar", sondern Features, sowohl Vorhandensein, Marktdurchdringung als auch Performance, müssen sich erst entwickeln. Entwickeln deshalb, damit die Entwickler und der Markt Zeit haben, sich an diese Features anzupassen und, damit die IHVs Zeit haben, die Performance dieser Features zu steigern, wenn sie zuerst in Spielen auftauchen.

Du kannst nicht einfach Feature X heute erstmals enthüllen und morgen ist es bereits in fünf aktuellen Spielen integriert. Das geht zumindest nicht bei Programm-Features, wie denen von DirectX. FSAA- und AF-Optionen sind davon natürlich ausgenommen.

MikBach
2005-10-26, 13:00:46
SM3 beim NV40 ist sicher kein Marketinggang. Jedes einzelne Feature das mit dem NV40 neu hinzukam, erscheint mir nützlich – vermutlich hat NV es implementiert, weil Entwickler danach gefragt haben. Gleiches gilt für den NV30, dort haben wir auch noch das Henne-Ei-Problem, wenn man sich die DirectX9-Spec anguckt. Was der NV30 im Vergleich zum R300 mehr kann, ist mit SM3 ohnehin Standard geworden. Da hat NV vorausschauend entwickelt.
NV war mit der FX ja schon auf dem Weg zu SM3. Ist also nur eine logische Konsequenz.

Warum ist das so? Hm, vielleicht weil ATI erst jetzt SM3-Hardware anzubieten hat, nicht ohne vorher noch einen Schwall von SM2-Hardware in die Userbasis zu drücken?
Man kann mehrere Pfade proggen...

Quasar
2005-10-26, 13:01:17
Und ich behaupte einfach mal, dass wenn man SM2.B voll ausreizen würde, selbst eine 7800GTX am Stock gehen würde. :D
Das kriegst du bereits mit SM2 hin – mit jeder Karte.

betasilie
2005-10-26, 13:03:00
Habe ich den etwas anderes behauptet? Nach einer neuen Generation kommt bei nVidia immer der Refreshchip. ATI hat das Refreshspiel nur über 4 Chips gezogen und nach zweien das ganze als neue Generation verkauft.
Genau. NV macht es schon nach einem Refresh. :)

2 Chips in einer Generation gegen 4 Chips. Das selbe?
Nun, 2 wurden jeweil als eine Generation verkauft. 9800 war halt nur ein bissl schneller, als 9700. Oder halt X850 schneller als X800. Ja, also im Grunde das selbe.

Es geht hier nicht darum was man erwarten kann. Es geht darum wie weit man tricksen muss um etwas zu erreichen. Reicht mir ein Shadermodel nicht mehr aus um alles in einem Pass zu machen und die Karte hat gleichzeitig noch Luft für Multipass ist das Shadermodel technisch zu schwach für die Leistung. SM2 war von Anfang an viel zu schwach dimensioniert für die Leistung welche die Karten hatten.

Was glaubst du wohl warum man vorallem erst mal das Anweisungslimit hochgedrückt hat beim R420?
Klar, ist SM2.0 SM3.0 unterlegen. Nur muss man sich angucken für welchen Zeitraum SM2.0 gedacht war. Und sicherlich FarCry ist FarCry weit davon weg ein optimalen SM2.0 Content zu liefern und natürlich sind die Devs gefragt in ihrer Kreativität.

Demirug
2005-10-26, 13:05:19
Ganau.
Außerdem hat man bei ATI mit GI auch ein wichtiges Feature, was erst in SM3 spezifiziert ist...

Falsch. Es wurde mit DX9 spezifiziert und ATI war einfach so blöd sich dafür ein Capsbit zu beantragen und hat der Verbindung mit SM3 zugestimmt. Man geht sowieso davon aus das es eine reine Treiberlösung ist.

Und ich behaupte einfach mal, dass wenn man SM2.B voll ausreizen würde, selbst eine 7800GTX am Stock gehen würde. :D

Genau so muss es eigentlich auch sein. Die Leistung muss der limitiereden Faktor bei einem Effekt sein nicht das Shadermodel.

SM2.A/2.B und SM3 ist allerdings genau genommen auch schon wieder zu schwach weil einem da auch schon wieder anfangen die Resourcen auszuegehen bevor man am Leistungslimit ist.

aths
2005-10-26, 13:11:02
Da widerspreche ich - aus der Sicht des Spielers. Für den Spieler wird ein Hardwarefeature imho erst sinnvoll, wenn er es in einem Spiel erleben kann und es das Spielerlebnis verbessert. AAA, 6xMSAA und HQ-AF liefern dies in fast jedem aktuell verfügbaren und kommenden Spiel in dem sie die BQ verbessern und ein Niveau liefern, dass duetlich über die Konkurrenz liegt.

Ebenso liefet HDR-R einen erkennbaren Vorteil an BQ, wobei imho abzuwarten ist ob die ATI Lösung mit MSAA nicht sogar besser als die FP16 Lösung von NV ist, auch wenn die ATI Lösung in der Dynamik eingeschränkt ist. Aber das ist doch der Sinn von HDR-Rendering: Durchgehend hohe Dynamik. (Und nicht nur ein paar Überstrahleffekte, die man auch auf traditioneller Hardware erzeugen kann, diese stellen für mich Effekthascherei dar und keine Bildqualitätsverbesserung.)

Die Vertexshadereffekte sind bei Pacific Fighter sicher sehenswert und liefern da einen Vorteil, dies ist aber bisher die eienzige Anwendung, und ATI verfügt über einen Workaround um solche Effekte ebenso zu realisieren. ATI hält meine Interpretation der DX9-Spec nicht ein. Fast alles lässt sich irgendwie über einen Workaround realisieren. Die Shader in DX sind dazu gedacht, endlich einheitlich programmieren zu können und über ein einheitliches Featureset zu verfügen. Weil im SM2 dann einerseits Nvidia aus der Reihe tanzte, die unbedingt supermoderne Instruktionen implementieren wollten und andererseits ATI die FP24-Genauigkeit durchdrückte und den Shader auf vier Phasen beschränkte, während NV die _PP-Sache bei MS durchsetzte (alles Zeug was den Entwickler nur Zusatzarbeit aufbürdet) einigten sich beide darauf, die nächste Generation dann mit einem (aus Shadersicht) einheitlichen Featureset auszustatten – SM3. SM3 ist nicht dazu entworfen, bei der Implementierung Features auszulassen und jene mit einem Workaround irgendwie dann doch noch hinzukriegen.

Da sich die Spielehersteller imho immer am kleinsten gemeinsamen Nenner orientieren ist es für den Spieler imho sinnvoll nicht nach technischen Features, sondern nach BQ zu gehen und dort liefert ATI mehr. Es zeigt sich doch, dass selbst heute eine SM3.0 KArte nur selten wirklich nötig ist und es noch immmer wenige SM3.0 Spiele gibt. So gesehen war die Einschätzung ATIs zum Thema SM3.0 richtig, wenn es den Spieler betrifft. ATIs Behauptung, SM3 bräuchte man noch nicht, war doch nur eine Schutzbehauptung weil sie es nicht packten, performante SM3-Hardware rechtzeitig zu entwickeln. Natürlich hat das NV-Marketing die SM3-Vorzüge völlig übertriebenen dargestellt, und was der User eine 6200 Turbocache von SM3 hat, ist mir auch nicht so ganz klar. Aber die Verzögerng der "SM3-Spiele" basiert doch nicht zuletzt darauf, dass ATI erst jetzt nachgezogen hat. Der Spieler sollte seine Karte natürlich nach dem Gesichtspunkt auswählen, welches Produkt ihm hier und jetzt die beste Performance, also den besten Mix aus Geschwindigkeit und Qualität bietet.

Das ATIs Vorgehen die Entwicklung bzw. die praktische Nutzung technischer Features auf breiter Front eher verzögert, steht imho auf einem anderen Blatt. Aus diesem Grund habecih mir privat auch einen G70 zugelegt, weil ich mir eine schnellere Nutzung neure Technologien wünsche. Diesen Ansatz sehe ich aber nicht als weitverbeitet oder auch nur schlau, mehr das Denken eines Techfreaks.Warum auf einem anderen Blatt?

Damit SM3 breiter genutzt wird, nützt aus meiner Sicht der NV40 oder der G70 weniger als Mittelklasse- und Einstiegerkarten mit SM3.

Dass der R520 (ohne die Texturfilterung zu betrachten) mit dem G70 insgesamt auf gleicher Augenhöhe ist, hat mich schon erstaunt. Das neue HQ-AF würde für mich dann den Ausschlag geben, ungeachtet der schwachen TMUs, der vergleichsweise geringen Rechenleistung und der fragwürdigen Auslegung der SM3-Spec.

Demirug
2005-10-26, 13:11:03
Genau. NV macht es schon nach einem Refresh. :)

Bei nVidia haben die Refreshchips früher immer eine neue Serienbezeichnung erhalten. Lediglich der NV35 war da eine Ausnahme.


Nun, 2 wurden jeweil als eine Generation verkauft. 9800 war halt nur ein bissl schneller, als 9700. Oder halt X850 schneller als X800. Ja, also im Grunde das selbe.

Sorry aber bei mir ist 4 nicht gleich 2 wir können alternativ aber auch gerne mit dem Zeitrahmen rechnen.

Klar, ist SM2.0 SM3.0 unterlegen. Nur muss man sich angucken für welchen Zeitraum SM2.0 gedacht war. Und sicherlich FarCry ist FarCry weit davon weg ein optimalen SM2.0 Content zu liefern und natürlich sind die Devs gefragt in ihrer Kreativität.

Fürs Kreative sind die Designer zuständig und die motzen wenn sie Multipasseffekte entwickeln müssen und das völlig zu Recht.

aths
2005-10-26, 13:14:08
[...] Ziemlich primitiv so ein Verhalten.
[...]Wenn du dich wieder erholt hast, und zeigst dass dir an einer Diskussion gelegen ist, gehe ich auf deine Postings auch ein.

MikBach
2005-10-26, 13:14:21
Falsch. Es wurde mit DX9 spezifiziert und ATI war einfach so blöd sich dafür ein Capsbit zu beantragen und hat der Verbindung mit SM3 zugestimmt. Man geht sowieso davon aus das es eine reine Treiberlösung ist.
Warum falsch? Ich sehe deine Aussage als genauer an, aber nicht dass meine falsch ist.

aths
2005-10-26, 13:15:22
Das wäre ein Punkt, der für den R520 spricht. Leider sprechen auch einige für mich sehr wichtige Punkte gegen ihn, wie die bekannten Mängel im Vertexshader und in der FP32-Filterung. FP16-Filterung.

Demirug
2005-10-26, 13:19:00
Warum falsch? Ich sehe deine Aussage als genauer an, aber nicht dass meine falsch ist.

Die technische Spezifiakation von GI ist völlig unabhängig vom SM3. Man kann GI auch mit einem 1.1 Shader nutzten. Es gibt lediglich die Vereinbarung das die Verfügbarkeit eines 3.0 Vertexshaders auch der Indikator für die Verfügbarkeit von GI ist. Das ist ein wichtiger Unterschied.

Ein Feature das zum Beispiel erst in SM3 spezifiert ist wäre das Vertex Textureing. Das lässt sich nur in einem SM3 Shader benutzten.

MikBach
2005-10-26, 13:19:23
ATIs Behauptung, SM3 bräuchte man noch nicht, war doch nur eine Schutzbehauptung
Das glaube ich nicht. Wie schon gesagt, würde man SM2 wirklich voll ausreizen, würde selbst die jetztige Generation Probleme bekommen.

aths
2005-10-26, 13:21:49
Und bald haben wir einheitliche Protokolle... ;)

Der PC als hochgradig in sich selbst instabiles System kann einfach nicht einen hohen wirkungsgrad erreichen ohne das man im gleiche Schritt die Flexibilität des Systems vernichtet.

Oder wie würde es dir gefallen wenn es pro Jahr nur noch 3 Referenzsysteme (3 Leistungslevel) geben würde die von einem Komitee festgelegt werden? Jeder PC Hersteller dürfte dann nur noch genau dieses Systeme bauen ohne jegliche Abweichung. Freie Slots gibt es dann natürlich auch keine mehr und externe Geräte werden auf datenträger begrenzt.An sowas ähnliches hatte ich schon mal gedacht: Ein Komitee definiert verschiedene Level, die 1 oder 2 Jahre gelten. Darin sind genau spezifizierte Systemkomponenten aufgeführt, die für ein bestimmtes Leistungslevel (und Features) sorgen. Auf der Spielepackung steht dann nur noch, welches Level man mindestens braucht.

MikBach
2005-10-26, 13:24:59
Die technische Spezifiakation von GI ist völlig unabhängig vom SM3. Man kann GI auch mit einem 1.1 Shader nutzten. Es gibt lediglich die Vereinbarung das die Verfügbarkeit eines 3.0 Vertexshaders auch der Indikator für die Verfügbarkeit von GI ist. Das ist ein wichtiger Unterschied.

Ein Feature das zum Beispiel erst in SM3 spezifiert ist wäre das Vertex Textureing. Das lässt sich nur in einem SM3 Shader benutzten.
Danke für die ausführliche Erklärung, aber ich habe deinen Post schon verstanden. :)
Wenn der Indikator die Verfügbarkeit eines SM3-Vertextshaders ist, dann kann man doch sagen, das dies ein SM3-Feature ist, oder etwa nicht?
Das man es durch Hacks auch anders realisieren kann, das ist klar. Man ist dann aber nicht SM3-konform.

aths
2005-10-26, 13:25:30
ATI wollte Sm3.0 als sinnlosen Zwischenschritt zwischen SM2.0 und SM4.0 weglassen. lDurch die Verzögerung von VISTA waren sie gezwungen noch einen SM3.0 Karte zu bringen. Wobei ich zustimmen würde, dass alle 2 Generationen (also 4 Karten inkl. 2 Refreshs) erst ein neuer Tachlevel genutzt werden soll. Die vielen kleinen Zwischenschritte nutzen niemanden. In diesem Zusammenhang fand ich des SM2.B besonders inkonsequent und eigentlich überflüssig.Der "Zwischenschritt" ist gar nicht mal so klein und schon gar nicht sinnlos. ATI wollte SM3 nicht weglassen, sondern eigentlich zum R420-Release mit dem R400 einen vernünftigen SM3-Chip haben.

Von SM2.x Profil 2_A ist der Schritt zu SM3 nicht mehr gewaltig, von SM2.0 und 2.x Profil 2_B ist es jedoch ein großer Schritt.

seahawk
2005-10-26, 13:27:35
Aber das ist doch der Sinn von HDR-Rendering: Durchgehend hohe Dynamik. (Und nicht nur ein paar Überstrahleffekte, die man auch auf traditioneller Hardware erzeugen kann, diese stellen für mich Effekthascherei dar und keine Bildqualitätsverbesserung.)

Ich würde es eben erst gerne im direkten Vergleich sehen, wie groß der visuelle Unterschied Der FX16 Lösung ist. Es könnte imho in vielen Fällen in Kombination mit funktionierendem MSAA insgesamt die bessere BQ bieten. Wobei ich die NV Lösung als die bessere erachte, wenn es nur um HDR-R geht.


ATI hält meine Interpretation der DX9-Spec nicht ein. Fast alles lässt sich irgendwie über einen Workaround realisieren. Die Shader in DX sind dazu gedacht, endlich einheitlich programmieren zu können und über ein einheitliches Featureset zu verfügen. Weil im SM2 dann einerseits Nvidia aus der Reihe tanzte, die unbedingt supermoderne Instruktionen implementieren wollten und andererseits ATI die FP24-Genauigkeit durchdrückte und den Shader auf vier Phasen beschränkte, während NV die _PP-Sache bei MS durchsetzte (alles Zeug was den Entwickler nur Zusatzarbeit aufbürdet) einigten sich beide darauf, die nächste Generation dann mit einem (aus Shadersicht) einheitlichen Featureset auszustatten – SM3. SM3 ist nicht dazu entworfen, bei der Implementierung Features auszulassen und jene mit einem Workaround irgendwie dann doch noch hinzukriegen.

Da stimme ich Dir völlig zu, nur für den Spieler ist es egal wie ein Effekt erzeugt wird. Ich hoffe MS hat für das nächste MAl die Specs fester definiert - glaube es aber nicht.


ATIs Behauptung, SM3 bräuchte man noch nicht, war doch nur eine Schutzbehauptung weil sie es nicht packten, performante SM3-Hardware rechtzeitig zu entwickeln. Natürlich hat das NV-Marketing die SM3-Vorzüge völlig übertriebenen dargestellt, und was der User eine 6200 Turbocache von SM3 hat, ist mir auch nicht so ganz klar. Aber die Verzögerng der "SM3-Spiele" basiert doch nicht zuletzt darauf, dass ATI erst jetzt nachgezogen hat. Der Spieler sollte seine Karte natürlich nach dem Gesichtspunkt auswählen, welches Produkt ihm hier und jetzt die beste Performance, also den besten Mix aus Geschwindigkeit und Qualität bietet.

Und das ist meistens imho die Karte mit dem niedrigeren Techlevel, weil man dort mehr Transistoren für BQ verbessernde Features und mehr Speed nutzen kann, die ansonsten in neue Fähigkeiten gegangen wären.


Warum auf einem anderen Blatt?
Damit SM3 breiter genutzt wird, nützt aus meiner Sicht der NV40 oder der G70 weniger als Mittelklasse- und Einstiegerkarten mit SM3.
Dass der R520 (ohne die Texturfilterung zu betrachten) mit dem G70 insgesamt auf gleicher Augenhöhe ist, hat mich schon erstaunt. Das neue HQ-AF würde für mich dann den Ausschlag geben, ungeachtet der schwachen TMUs, der vergleichsweise geringen Rechenleistung und der fragwürdigen Auslegung der SM3-Spec.

Absolut, wenn wir Anfang 2006 auf einem G70/R520 oder G80/R580 die ersten SM3.0 Games speile, die neue Effekte zeigen werden, dann verdanken wir dies nicht zuletzt der 6200 und 6600, auch wenn deren Besitzer wahrscheinlich davon nichts haben.

Ich persönlich habe mich übrigens für den G70 entschieden, weil ich mir das beste HDR-R gewünscht habe und ich TSAA für besser als AAA halte und froh bin ein nicht gamma-angepaßtes MSAA verwenden zu können. Mit dem winkelabahängigen AF konnte ich schon auf meiner R300 leben, einen Kompromiuss muss man halt immer machen. :smile:

aths
2005-10-26, 13:29:14
Oder müssen sich alle GraKa Hersteller deiner Meinung nach absprechen, damit ein Feature gleichzeitig auf dem Markt angeboten wird?Mir ist es wichtig, dass sich die Hersteller darauf einigen, einen Grundstock an Features genau zu definieren und dann auch zu implementieren. Wenn mal der eine, mal der andere früher kommt, habe ich kein Problem. Ein Problem habe ich vielmehr damit, dass ATI sich jetzt dem Vertextexturing verweigert. Denn ein Entwickler der die SM3-Spec (die es seit Jahren gibt) kennt und entsprechend vorgeplant hat, wird jetzt vor den Kopf gestoßen. Dass Features durchaus in unterschiedlicher Performance implementiert werden (dynamisches Branching im Pixelshader: R520 ist viel schneller, dynamisches Branching im Vertexshader: G70 ist deutlich schneller) macht die Planung schon schwierig genug.

Willst Du uns jetzt erzählen, dass FarCry als erstes DX9 Spiel und als Erstlingswerk eines Studios SM2.0 voll ausgereizt hat, und dass man jetzt nicht mehr erwarten kann auf SM2.0 Techlevel. Sorry, aber das glaube ich dir nicht.Auch eine Möglichkeit, zu diskutieren. Demirug, der aus beruflichen Gründen wie auch aus persönlichem Interesse Farcry schön auseinandergenommen hat, und der selbst über längere Zeit an einer Shader-Engine schrieb, dem muss man natürlich nicht glauben, wenns dem eigenen Weltbild widerspricht.

Schon gar nicht muss man sich Demirug auf sachlicher Ebene begegnen, es kommt viel mehr darauf an, ihn niederzudiskutieren.

Demirug
2005-10-26, 13:29:39
An sowas ähnliches hatte ich schon mal gedacht: Ein Komitee definiert verschiedene Level, die 1 oder 2 Jahre gelten. Darin sind genau spezifizierte Systemkomponenten aufgeführt, die für ein bestimmtes Leistungslevel (und Features) sorgen. Auf der Spielepackung steht dann nur noch, welches Level man mindestens braucht.

In einer Welt bei der es um 2 Dollar bei einer Netzwerkkarte geht brauchst du mit sowas nicht ernsthaft zu kommen. Zudem macht es dem markt kaputt.

seahawk
2005-10-26, 13:30:19
Der "Zwischenschritt" ist gar nicht mal so klein und schon gar nicht sinnlos. ATI wollte SM3 nicht weglassen, sondern eigentlich zum R420-Release mit dem R400 einen vernünftigen SM3-Chip haben.

Von SM2.x Profil 2_A ist der Schritt zu SM3 nicht mehr gewaltig, von SM2.0 und 2.x Profil 2_B ist es jedoch ein großer Schritt.

Deswegen erachte ich SM2.B auch als wenig sinnvoll, das war für mich eine reines "Me too" Maneuver. Böse Menschen würden ja behaupten dass der ursprüngliche R400 zu fortschrittlich war und deswegen der R420 kam.

Demirug
2005-10-26, 13:35:21
Danke für die ausführliche Erklärung, aber ich habe deinen Post schon verstanden. :)
Wenn der Indikator die Verfügbarkeit eines SM3-Vertextshaders ist, dann kann man doch sagen, das dies ein SM3-Feature ist, oder etwa nicht?
Das man es durch Hacks auch anders realisieren kann, das ist klar. Man ist dann aber nicht SM3-konform.

Nein, es ist kein SM3 Feature. Wenn man es durch einen Hack realisiert dann verletzt man auch nicht die SM3 Spezifikation sondern die DirectX Spezifikation.

SM3 Features sind Features welche sich nur mit SM3 nutzen lassen. Das der Indikator für GI die Verfügbarkeit eines 3.0 VS ist macht es trotzdem nicht zu einem SM3 Feature.

aths
2005-10-26, 13:35:42
NV war mit der FX ja schon auf dem Weg zu SM3. Ist also nur eine logische Konsequenz.SM3 hat Nvidia aber nicht alleine definiert.

Man kann mehrere Pfade proggen...Das erhöht den Aufwand. Mehr noch, wenn man unterschiedlichen Content für die einzelnen Pfade braucht. Wenn man da nicht Content automatisch runterskalieren kann (z. B. was Texturauflösung angeht), wirds teuer. HQ-Content anzubieten ist ohnehin teuer, wir haben ja heute die Situation dass auf Mittelklasse- oder Einsteigerklasse-Content (HL2) noch ein, zwei Effekt-Shader draufgelegt werden und das dann als tolle Ausnutzung von DX9-Hardware verkauft wird.

deekey777
2005-10-26, 13:37:47
Vor etwa einem Jahr hat jemand gedroht, für Besitzer einer R3x0 ein Tool für Far Cry herauszubringen, mit dem dort, wo es möglich war, zwei Lichter in einem Pass berechnet werden konnten...

;(


:massa: Bitte werft mich nicht raus! ;( :massa:

€: Wird das SM2X Profil außer in Far Cry und SC3 noch in weiteren Spielen eingesetzt?

reunion
2005-10-26, 13:38:06
Böse Menschen würden ja behaupten dass der ursprüngliche R400 zu fortschrittlich war und deswegen der R420 kam.

Er war mit der damals möglichen Transistorenanzahl schlicht zu langsam.

aths
2005-10-26, 13:39:07
Genau so muss es eigentlich auch sein. Die Leistung muss der limitiereden Faktor bei einem Effekt sein nicht das Shadermodel. Genau deshalb lästerte ich bei der GF4 Ti auch über Pixelshader 1.3: Nur 4 Texturen, nur 8 Instruktions-Slots. Selbst wenn man keine Zweipass-Lösung angeboten hätte, 6 oder 8 Texturen und 16 Instruktionen hätten bereits Entspannung gebracht.

SM2.A/2.B und SM3 ist allerdings genau genommen auch schon wieder zu schwach weil einem da auch schon wieder anfangen die Resourcen auszuegehen bevor man am Leistungslimit ist.Welche Ressourcen gehen dir bei 2_A und SM3 aus? Die Zahl der Textursampler, die Interpolatoren?

Demirug
2005-10-26, 13:40:43
Deswegen erachte ich SM2.B auch als wenig sinnvoll, das war für mich eine reines "Me too" Maneuver. Böse Menschen würden ja behaupten dass der ursprüngliche R400 zu fortschrittlich war und deswegen der R420 kam.

Das Problem ist nicht 2.B als solches sondern die geringe Marktdurchsetzung.

Man bräuchte noch ein 2.AB Profil im Compiler.

Der R400 war wahrscheinlich technisch wirklich zu forschritlich. Man munkelt was von einem NV30 "Disaster" zu Quadrat

aths
2005-10-26, 13:40:49
Du verstehst es nicht. ATI wollte keinen SM3.0 Chip und das nicht ohne Grund. Sie wollten keinen so großen Featuresprung machen und lieber Sm2.0 inkl. hoher Performance bringen. R5xx sollte dann schon SM4.0 unterstützen, woraus nichts geworden ist.

Und ja, NV war erheblich zu früh. Der NV40 ist der Beweis, und ganz besonders der NV30, dessen Cine-FX nichts anderes war, als ein verkaptes SM3.0.ATI wollte einen SM3-Chip, und das aus gutem Grund. Leider hat es ATI nicht geschafft, Features und Leistung rechtzeitig zusammenzuführen. Nvidia war mit SM3 alles andere als zu früh, ATI ist nur erheblich zu spät.

Grestorn
2005-10-26, 13:41:27
Und ja, NV war erheblich zu früh. Der NV40 ist der Beweis, und ganz besonders der NV30, dessen Cine-FX nichts anderes war, als ein verkaptes SM3.0.Zu früh im Vergleich zu was?

Es ist ja nur ATI als einziger Vergleichspunkt da. Also war nV zu früh im vergleich zu ATI?

Außerdem ist die SM 3.0 Implementierung des NV4x absolut nicht schlecht. Nur weil sie in einem Punkt von der ATI Implementierung in den Schatten gestellt wird (und in vielen anderen Punkten weiterhin vorne liegt) kann man die Implementierung kaum als unausgereift hinstellen.

Und dann gilt natürlich, dass man kaum etwas ausreifen und verbessern kann, wenn man nicht auch mal bereit ist, ins kalte Wasser zu springen und anzufangen, überhaupt eine Implementierung zu realisieren.

Ailuros
2005-10-26, 13:43:42
Wer weiß, was NV dann gebracht hätte...
Für jedes Feature gibt es einen Zeitpunkt und einen Grund. Und nicht alles davon kann jeder nachvollziehen.
Und noch ist das AAA ziemlich buggy ...ergo nicht wirklich marktreif. Man merkt, dass es eine Reaktion auf das T(S)AA war und keine eigene Initiative. IMO natürlich.

NVIDIA haette eine Generation zur Integration von adaptivem AA warten muessen; 100% fehlerfrei ist NV's TSAA auch nicht.

Ailuros
2005-10-26, 13:44:54
TMAA könnte er. Bei TSAA weiß das so genau niemand. Schließlich will man ja auch G70 verkaufen.

Wobei die Implementierung von TMAA mit sehr wenigen Ausnahmen so gut wie nutzlos ist.

aths
2005-10-26, 13:46:13
Das glaube ich nicht. Wie schon gesagt, würde man SM2 wirklich voll ausreizen, würde selbst die jetztige Generation Probleme bekommen.Aber darauf kommt es doch gar nicht an. Mit SM2.0 kannst du 16 Texturen in einem Shader nutzen, dazu bisschen Alphablending – und gute Nacht, Performance.

Mit SM3 lassen sich viele Effekte eleganter umsetzen und effizienter berechnen. Auch kleinere Effekte können dadurch schneller berechnet werden, doch je komplexer der Effekt, desto größer der Vorteil. ATIs hohe Performance bei dynamischen Verzweigungen im Pixelshader zum Beispiel erlaubt hohes Optimierungspotenzial, da man die vorhandene Rechenleistung viel effektiver einsetzen kann. SM3 ist auch dann schon nützlich, wenn es noch keine Spiele gibt, die SM2 voll ausreizen.

Demirug
2005-10-26, 13:54:07
Welche Ressourcen gehen dir bei 2_A und SM3 aus? Die Zahl der Textursampler, die Interpolatoren?

Beides. Abhängig von dem was ich gerade mache. Ich habe einen Lichteffekt (hat was mit bunten Glassscheiben zu tun) der frißt Texturen zum Frühstück wenn man es beim Leveldesign übertreibt.

MikBach
2005-10-26, 13:54:12
SM3 hat Nvidia aber nicht alleine definiert.
Dann hat sich ATI entweder blöd angestellt oder schlecht verhandelt. Dann ist es eben Pech für sie.
Zum Glück gibt es findige Programmierer, die trotzdem Features möglich machen, wo es nach den Spcs nicht gehen würde.

Das erhöht den Aufwand. Mehr noch, wenn man unterschiedlichen Content für die einzelnen Pfade braucht. Wenn man da nicht Content automatisch runterskalieren kann (z. B. was Texturauflösung angeht), wirds teuer. HQ-Content anzubieten ist ohnehin teuer, wir haben ja heute die Situation dass auf Mittelklasse- oder Einsteigerklasse-Content (HL2) noch ein, zwei Effekt-Shader draufgelegt werden und das dann als tolle Ausnutzung von DX9-Hardware verkauft wird.
Das ist mir durchaus bewußt.
Wenn ich Entwickler wäre und auch etwas von mir hielte, dann würde ich den Content hauptsächlich auf SM3 auslegen und einen Fallback für SM2 schreiben. Wenn dann einige Effekte mit SM2 nicht gingen oder extrem umständlich zu realisieren wären, würden diese einfach entfallen.
Wäre eben Pech für ATI.
Wenn Kunden, die eine ATI haben/hatten, ihre Karten loswerden würden und NV kaufen würden, dann wäre ATI halt abgestrafft.

seahawk
2005-10-26, 14:00:42
Das Problem ist nicht 2.B als solches sondern die geringe Marktdurchsetzung.

Man bräuchte noch ein 2.AB Profil im Compiler.

Der R400 war wahrscheinlich technisch wirklich zu forschritlich. Man munkelt was von einem NV30 "Disaster" zu Quadrat

Das meine ich. 2.B bringt wenig Gewinn im Vergleich zu 2.0, brauchte aber wieder ein eigenes Profil. Für mich war das einfach ein "wir können auch mehr als 2.0" Manöver.

Und nahcdem R400 ist ATI imho sehr konservativ geworden. Beide IHVs zeigen imho eine Tendenz weniger riskant bei der Einführung neuer Technologien vorzugehen. Imho spiegelt sich das auch schon beim Ringen im Vista ab. Und der Amrkt gibt dem Verhalten ja Recht. NV hat gelernt, das man mit einen featuremäßig besseren Chip nicht gewinnt, wenn man langsamer ist. ATI hat mit dem R400 / R420 praktisch einen ähnliche Erfahrung gemacht. Leiber featuremäßig hinten und schneller, als umgekehrt.

Was aber imho auch logisch ist, da für den Käufer die schnellere Karte mit der besseren BQ mehr sofortigen und praktischen Nutzen bringt als die langsamere Karte mit mehr Features. Wobei ich das gerade im High-End-Segment lächerlich finde, wenn man FPS vor Fortschrittlichkeit stellt.

MikBach
2005-10-26, 14:01:51
Aber darauf kommt es doch gar nicht an. Mit SM2.0 kannst du 16 Texturen in einem Shader nutzen, dazu bisschen Alphablending – und gute Nacht, Performance.

Mit SM3 lassen sich viele Effekte eleganter umsetzen und effizienter berechnen. Auch kleinere Effekte können dadurch schneller berechnet werden, doch je komplexer der Effekt, desto größer der Vorteil. ATIs hohe Performance bei dynamischen Verzweigungen im Pixelshader zum Beispiel erlaubt hohes Optimierungspotenzial, da man die vorhandene Rechenleistung viel effektiver einsetzen kann. SM3 ist auch dann schon nützlich, wenn es noch keine Spiele gibt, die SM2 voll ausreizen.
Da hast du natürlich Recht, diese Anwort habe ich auch erwartet.
Sehen wir es mal von der anderen Seite.
Es wird oft und das zurecht bemängelt, dass die Grakas so teuer sind und auch relativ schnell im Preis fallen. Da kann man als Kunde doch erwarten, dass die Karten auch richtig ausgenutzt werden.
Siehe Konsolen.

seahawk
2005-10-26, 14:03:18
Konsolen und PC kan man nicht vergleichen, da Konsolen nicht modular sind.

MikBach
2005-10-26, 14:03:46
Das meine ich. 2.B bringt wenig Gewinn im Vergleich zu 2.0, brauchte aber wieder ein eigenes Profil. Für mich war das einfach ein "wir können auch mehr als 2.0" Manöver.

Ich finde SM2.B eine sinnvolle Erweiterung, da die Shaderlänge bei SM2.0 schon limitiert.

MikBach
2005-10-26, 14:08:42
Konsolen und PC kan man nicht vergleichen, da Konsolen nicht modular sind.
Darum geht es doch nicht.
Es ging mir darum, dass bei den Konsolen die BQ mit der Zeit auch besser wird (nach Jahren), weil die Entwickler erst dann das volle Potenzial "erkennen".
Bei PC-Grakas ist der Zyklus der Technologien einfach zu kurz, um das volle Potenzial ausschöpfen zu können. IMO. :)

Demirug
2005-10-26, 14:13:04
Darum geht es doch nicht.
Es ging mir darum, dass bei den Konsolen die BQ mit der Zeit auch besser wird (nach Jahren), weil die Entwickler erst dann das volle Potenzial "erkennen".
Bei PC-Grakas ist der Zyklus der Technologien einfach zu kurz, um das volle Potenzial ausschöpfen zu können. IMO. :)

Das Problem ist nicht die Zeit sondern die großen technologischen Abweichungen die zu Kompromissen zwingen.

Demirug
2005-10-26, 14:14:16
Dann hat sich ATI entweder blöd angestellt oder schlecht verhandelt. Dann ist es eben Pech für sie.
Zum Glück gibt es findige Programmierer, die trotzdem Features möglich machen, wo es nach den Spcs nicht gehen würde.

R520 ist nicht die SM3 Lösung die ATI bei den Verhandlungen im Kopf hatte.

betasilie
2005-10-26, 14:15:36
ATI wollte einen SM3-Chip, und das aus gutem Grund. Leider hat es ATI nicht geschafft, Features und Leistung rechtzeitig zusammenzuführen. Nvidia war mit SM3 alles andere als zu früh, ATI ist nur erheblich zu spät.
Deine Meinung. Scheinbar gehen die Meinungen da auseinder. Wenn nicht auf SM2.0 gesetzt hätte, hätten wir ein doppeltes GF-FX Desaster gehabt.

robbitop
2005-10-26, 14:17:26
Was interessiert den Kunden die Rohleistung?
Die Leistung bei Spielen ist interessant.
Die X800PRO ist bei vergleichbarer Rohleistung im Schnitt auch in etwa GT-Niveau. Die X800XT ist aber deutlich schneller als das Konkurenzprodukt 6800Ultra.
Lies meine Postings bitte genauer bevor du antwortest.
Lediglich NV40U war maßgeblich langsamer als die XT PE. Alles hoch bis zur GT Region war durchweg besser (IMO). Aber darum gehts hier nicht.

Die PRO war (das habe ich damals sogar preislich mal genau untersucht) soziemlich genau im GT Preis erhältlich und war auch ihr Konkurrent.
Und die Pro war idR nicht schneller. Ist ja auch klar ...ähnliche Rohleistung.
Ich weiß dass das mit dem Kunden nicht viel zu tun hat, aber auch das habe ich nicht behauptet.

robbitop
2005-10-26, 14:20:37
Nein, Du drehst das Ganze wieder ins Extrem. Natürlich wird man beim PC immer Features haben, die verzögert in Spielecontent eingebaut werden.
Henne-Ei. so ist das mit Innovationen nunmal. Der Innovator trägt hier natürlich die Nachteile mit höheren Produktionskosten und mglweise geringerer Rohleisung. Aber kaufentscheident sollte das für normale Spieler IMO nicht sein, da stimme ich dir bedenkenlos zu.

robbitop
2005-10-26, 14:22:51
Achso, und der G70 ist der große Sprung?

Es wird mit Sicherheit weiterhin große Refreshes geben. Wieso sollten sich die IHVs verbiegen und jedes Jahr alles bis zum geht nicht mehr Features aufstocken, obwohl Leistung gefragt ist?
G70 ist NV4x. Ergo ein Refresh.
R420 ist R4xx ergo eine neue Generation. NV hat beim NV4x hingegen einen technischen Sprung hingelegt.

robbitop
2005-10-26, 14:24:47
Was ist denn der G70? Was waren denn GF3 und GF4? Was waren denn GF1 und GF2?
Irgendwie verliert ihr den blick für die Realität. Als ob die Devs mit SM2.0 am Ende der Fahnenstange angelangt wären.
Refresh != Generation.
Demirug meint hier aber Generationen. Also bsp so "würdest du es begrüßen wenn erst nach dem NV10 wieder beim NV30 neue technik eingeführt werden würde und bei NV20 nicht?". Refreshes sind natürlich ohne großen technischen Sprung.

robbitop
2005-10-26, 14:27:28
Full Ack. Und NV praktiziert genau diesen Ryhtmus ebenfalls, und eigentlich schon eine Generation länger als ATI, wenn man den NV30 als verkappten SM3.0 Chip sieht, der sogar für SM2.0 zu langsam war.


Schwachsinn. Von NV30 -> NV40 wurde mehr getan als in jedem anderen Generationssprung von NV bisher.
Wenn du es so sehen willst, ist R300 auch nur ein aufgebohrter R200 und der R520 auch nur ein aufgebohrter aufgebohrter R200.

betasilie
2005-10-26, 14:29:07
G70 ist NV4x. Ergo ein Refresh.
R420 ist R4xx ergo eine neue Generation. NV hat beim NV4x hingegen einen technischen Sprung hingelegt.
Alles Ansischtssache. Imo ist R420 ein großes Refresh vom R300.

Und NV40 ist das, was Nv30 eigentlich hätte werden sollen.

MikBach
2005-10-26, 14:29:15
Das Problem ist nicht die Zeit sondern die großen technologischen Abweichungen die zu Kompromissen zwingen.
Wenn die Zeit nicht das Problem ist, wie erklärst du dann, dass bei Konsolen erst nach Jahren das Optimum rausgeholt wird?

robbitop
2005-10-26, 14:30:09
Keines – aber darauf will ich mich sowieos nicht einlassen, wer was wie macht – das führt zu nichts.

Mir geht es eigentlich um den Fortschritt und geilere Grafik in den Games. Die "Schuld"-Frage ist da eher sekundär.
Endlich mal ein wahres Wort. Wieso muss immer ein "Schuldiger" gesucht werden? Beide IHVs nehmen sich mit dunklen Seite eh nichts.

MikBach
2005-10-26, 14:30:19
R520 ist nicht die SM3 Lösung die ATI bei den Verhandlungen im Kopf hatte.
Stimmt. Es sollte der R400 sein.

robbitop
2005-10-26, 14:32:12
Sorry, aber in meinen Augen ist der G70 zum NV40 nichts anderes als ein R420 zum R300.
Technisch gesehen ja. Aber ATI pries es als Generationssprung an und auch die Zahl hinter dem R suggeriert eine neue Generation. R350/80 waren eher refreshes. Man übertrieb es IMO etwas mit den Refreshes. Denn mit R350/380/420/480 gibts nun schon 4 Refreshes und erst Jahre später mal etwas neues. Das ist etwas anderes als wenn man nur einen Refresh bringt.

betasilie
2005-10-26, 14:33:00
Stimmt. Es sollte der R400 sein.
Ich wäre mit den R400 Spekus vorsichtig. Niemand weiß genau was R400 sein sollte.

robbitop
2005-10-26, 14:33:58
Willst Du uns jetzt erzählen, dass FarCry als erstes DX9 Spiel und als Erstlingswerk eines Studios SM2.0 voll ausgereizt hat, und dass man jetzt nicht mehr erwarten kann auf SM2.0 Techlevel. Sorry, aber das glaube ich dir nicht.
Far Cry ist eigentlich ein aufgebohrtes DX7/8 Spiel. Ein vollblütiges DX9 Spiel habe ich bisher noch nirgends gesehen (was nicht viel zu heißen hat beim aktuellen Stress)

MikBach
2005-10-26, 14:34:45
Lies meine Postings bitte genauer bevor du antwortest.

Die PRO war (das habe ich damals sogar preislich mal genau untersucht) soziemlich genau im GT Preis erhältlich und war auch ihr Konkurrent.
Und die Pro war idR nicht schneller. Ist ja auch klar ...ähnliche Rohleistung.
Ich weiß dass das mit dem Kunden nicht viel zu tun hat, aber auch das habe ich nicht behauptet.
Dann habe ich dein Posting mißversatnden, sorry. :)

Dass die X800PRO idR nicht schneller war, ist klar. Eigentlich sollte eine GT aufgrund der besseren arithmetischen Leistung auch schneller sein.

Ailuros
2005-10-26, 14:36:28
IHVs konzentrieren sich auf das was Entwickler/ISVs gerne sehen moechten was Features/Funktionalitaeten betrifft.

Entwickler haetten natuerlich viel mehr gewollt als in bisherigen Produkten zu sehen ist und ich denke dass es auch nicht anders ist mit DX10. Wird DX10 schon so weit sein was advanced HOS betrifft und dass was Entwickler gerne haben wuerden? Ja und nein und hier spielen natuerlich auch Kompromisse mit.

Dieser bloeder und ziemlich alter PR-Bloedsinn von ATI dass sie nur Zeug vorstellen wenn es Sinn macht und die konstante Wiederholung von diesem selben Krampf von den Verbrauchern ist eben nur einfacher Quark. Die Wahrheit ist dass ATI einfach nicht genuegend Resourcen hatte frueher SM3.0 vorzustellen.

Falls nicht will ich eine halbwegs anstaendige Erklaerung lesen warum der R420 nicht gleich R520 war; und nein chip-Komplexitaet ist eine genauso bloede Ausrede. NV40 hatte 222 und G70 dann 302M; moeglich waere es mit Sicherheit gewesen.

Ailuros
2005-10-26, 14:37:40
Ich wäre mit den R400 Spekus vorsichtig. Niemand weiß genau was R400 sein sollte.

Und wer ist niemand genau? :rolleyes:

Demirug
2005-10-26, 14:37:41
Wenn die Zeit nicht das Problem ist, wie erklärst du dann, dass bei Konsolen erst nach Jahren das Optimum rausgeholt wird?

Weil die Platform über die gesamte Zeitspanne stabil ist. Beim PC haben wir aber ja nicht mal einen stabile Ausgangslage.

betasilie
2005-10-26, 14:39:14
Technisch gesehen ja. Aber ATI pries es als Generationssprung an und auch die Zahl hinter dem R suggeriert eine neue Generation. R350/80 waren eher refreshes. Man übertrieb es IMO etwas mit den Refreshes. Denn mit R350/380/420/480 gibts nun schon 4 Refreshes und erst Jahre später mal etwas neues. Das ist etwas anderes als wenn man nur einen Refresh bringt.
Achso, und die GF4 wurde von NV nicht angepriesen? Jeder Hersteller preist seine Hardware, auch ungerechtfertigter Weise.


NV30, NV35, NV40 G70. Das sind auch schon 4 Chips. Nur weil der NV3x so verpfuscht war und beim NV40 viel verbessern musste, muss man ihn dennoch dazu zählen, auch wenn es nicht zu SM3.0 gereicht hat. ATI hat im selben Zeitraum auch 4 Refreshes gebracht, was ist daran schlimm?

Im Normalfall hätten wir jetzt Longhorn mit WGF2.0, und SM3.0 wäre durch SM4.0 überholt. Und genau das war die Planung von ATI.

betasilie
2005-10-26, 14:39:42
Far Cry ist eigentlich ein aufgebohrtes DX7/8 Spiel. Ein vollblütiges DX9 Spiel habe ich bisher noch nirgends gesehen (was nicht viel zu heißen hat beim aktuellen Stress)
Mein Reden. :)

robbitop
2005-10-26, 14:39:47
NVIDIA haette eine Generation zur Integration von adaptivem AA warten muessen; 100% fehlerfrei ist NV's TSAA auch nicht.
Das kann ich aufgrund mangelndem Wissen von NV4x so nicht beurteilen (und du auch nicht).
Was ich aber sicher weiß, ist dass TMAA funktioniert hätte.

betasilie
2005-10-26, 14:41:06
Und wer ist niemand genau? :rolleyes:
Dann teile doch dein gesichertes Wissen bzgl. R400 mit uns. :)

Ailuros
2005-10-26, 14:42:38
Das kann ich aufgrund mangelndem Wissen von NV4x so nicht beurteilen (und du auch nicht).
Was ich aber sicher weiß, ist dass TMAA funktioniert hätte.

Was ich weiss oder nicht, lassen wir mal zur Seite da ich zu viel mehr Infos Zugang habe als manche sich erdenken.

Tatsache ist dass adaptives AA auf NV40 nicht moeglich ist, dass das Treiber-team eben auch ueber TSAA relative bugs schwitzen muss und ebenso dass die Implementierung des TMAA auf G70 fast wertlos ist.

Ailuros
2005-10-26, 14:47:57
Dann teile doch dein gesichertes Wissen bzgl. R400 mit uns. :)

Was genau willst Du lesen, dass ich nicht schon oefters angedeutet habe? Xenos ist ein modifizierter R400 der fuer Konsolen angepasst wurde. Viel Fantasie brauchst Du nicht Dir zu erdenken dass R400 kein eDRAM hatte. Die fixed function Tesselations-Einheit wurde etwas "reduziert" auf Xenos da man sich so manchen Schnickschnack mit der multi-core CPU teilen kann.

Der primaere Grund warum R400 storniert wurde ist erstmal die Leistung und zweitens dass Microsoft zu viel fuer WGF2.0 geaendert hat und dieses sich auch enorm verspaetet hat.

Zum gleichen Effekt hat auch NVIDIA den "NV50" zeitlich verschoben und natuerlich auch jeglichen notwendigen Aenderungen angepasst.

robbitop
2005-10-26, 14:49:01
Alles Ansischtssache. Imo ist R420 ein großes Refresh vom R300.

Und NV40 ist das, was Nv30 eigentlich hätte werden sollen.
ATI hat es als neue Generation verkauft. Es ist aber nicht mehr als ein Refresh ja.

Nein.

robbitop
2005-10-26, 14:51:04
Achso, und die GF4 wurde von NV nicht angepriesen? Jeder Hersteller preist seine Hardware, auch ungerechtfertigter Weise.

Bitte Richtig lesen. "Als neue Generation anpreisen."
NV20 -> NV25. Sagt doch was aus oder?
R300 -> R420 ...


NV30, NV35, NV40 G70. Das sind auch schon 4 Chips. Nur weil der NV3x so verpfuscht war und beim NV40 viel verbessern musste, muss man ihn dennoch dazu zählen, auch wenn es nicht zu SM3.0 gereicht hat. .
Totaler Schwachsinn. Sorry.

robbitop
2005-10-26, 14:51:43
Dann teile doch dein gesichertes Wissen bzgl. R400 mit uns. :)
Ich glaube manchmal brüllt er auch einfach nur so ..unser Löwe.. *gg*

betasilie
2005-10-26, 14:52:14
ATI hat es als neue Generation verkauft. Es ist aber nicht mehr als ein Refresh ja.
Und NVidia hat GF4 nicht als neue Generation verkauft, oder GF2, oder GF7800? Ich bitte dich. :|

robbitop
2005-10-26, 14:53:48
Und NVidia hat GF4 nicht als neue Generation verkauft, oder GF2, oder GF7800? Ich bitte dich. :|
NV15, NV25, NV47 (ok nachträgliche Änderung wg Zahlendreher).
Das ist übrigens frei zugänglich und steht sogar auf dem FCBGA drauf.

MikBach
2005-10-26, 14:54:25
Weil die Platform über die gesamte Zeitspanne stabil ist. Beim PC haben wir aber ja nicht mal einen stabile Ausgangslage.
Bei einer stabilen Platform müsste man doch eigentlich noch schneller zum Ziel kommen. Deswegen verstehe ich dein Argument nicht ganz.

betasilie
2005-10-26, 14:55:05
Richtig lesen. Als neue Generation anpreisen.
NV20 -> NV25. Sagt doch was aus oder?
R300 -> R420 ...
Was sagt das aus? Garnichts sagt das aus, außer wie ATI ihre Chips deklariert. Das steht ihnen frei. ... Vermarktet wurde der Refresh vom GF3 als GF4. So wie auch ein weiterer Refresh von 9xxx als Xxxx.

robbitop
2005-10-26, 14:56:50
Was sagt das aus? Garnichts sagt das aus, außer wie ATI ihre Chips deklariert. Das steht ihnen frei. ... Vermarktet wurde der Refresh vom GF3 als GF4. So wie auch ein weiterer Refresh von 9xxx als Xxxx.
Doch es sind die internen Deklarationen der Chips und die erste Zahl ist und war schon immer Indikator für die Generation.

betasilie
2005-10-26, 14:58:06
NV15, NV25, NV47 (ok nachträgliche Änderung wg Zahlendreher).
Das ist übrigens frei zugänglich und steht sogar auf dem FCBGA drauf.
Worauf zum Teufel wisst Du hinaus1 Man vermarktet Produkte mit ihren Verkaufsnamen, nicht mit den Namen der Chips. Ob GF4 nun NV35 oder NV40 heißt schert niemanden, aber GF4 gegenüber GF3 suggeriert eine Generation, genau wie Xxxx gegenüber 9xxx.

Ailuros
2005-10-26, 14:59:27
Ich glaube manchmal brüllt er auch einfach nur so ..unser Löwe.. *gg*

Mhmmmm die Anzahl der Fehlschlaege ist ja so enorm dass sie ausschliesschlich auf kuenstliche Raterei deutet :rolleyes:

betasilie
2005-10-26, 15:01:32
Doch es sind die internen Deklarationen der Chips und die erste Zahl ist und war schon immer Indikator für die Generation.
WTF? Und trotzdem ist der R4xx nur eine Refresh des R3xx und keine wirklich neue Generation. ATI hätte im übrigen kaum noch R3xx Bezeichungen gehabt, und der Übersicht halber war es sicher sinnvoll auf R4xx zu gehen, statt alle drei Stellen vollzumüllen.

Ist doch völlig Latte was auf den Chips steht. Wichtig ist was drin ist und als was sie vermaktet werden, und ein NV35 wurde als GF4 vermaktet, und nicht als NV35-Refresh-des-NV30-aka-GF3.

seahawk
2005-10-26, 15:01:57
Was sagt das aus? Garnichts sagt das aus, außer wie ATI ihre Chips deklariert. Das steht ihnen frei. ... Vermarktet wurde der Refresh vom GF3 als GF4. So wie auch ein weiterer Refresh von 9xxx als Xxxx.

Nach den Marktnahmen kann man gar nicht gehen. sonst wird es für beide nur noch peinlich. GF4MX, Radeon 9000 / 9100 z.B.

NV30 -> NV35 dann eine erheblich veränderter NV40 mehr als Refresh -> G 70 -> G80

R300 -> R350/360 -> R420 -> R480 -> R520 -> R580 sind da wesentlich näher Verwandt.

Wenn man nett ist haben beide 2 neue Chips (NV30, NV40 bzw. R300 / R520)und 3 Refreshs in der Liste. Tun sich also praktisch nichts.

robbitop
2005-10-26, 15:04:02
Worauf zum Teufel wisst Du hinaus1 Man vermarktet Produkte mit ihren Verkaufsnamen, nicht mit den Namen der Chips. Ob GF4 nun NV35 oder NV40 heißt schert niemanden, aber GF4 gegenüber GF3 suggeriert eine Generation, genau wie Xxxx gegenüber 9xxx.
Worauf ich hinaus will? Nur auf Demirugs Aussage, dass ATI 4 Refreshes brachte und NV pro Generation nur einen Refresh. Und das ist Fakt.

robbitop
2005-10-26, 15:05:21
Nach den Marktnahmen kann man gar nicht gehen. sonst wird es für beide nur noch peinlich. GF4MX, Radeon 9000 / 9100 z.B.

NV30 -> NV35 dann eine erheblich veränderter NV40 mehr als Refresh -> G 70 -> G80

R300 -> R350/360 -> R420 -> R480 -> R520 -> R580 sind da wesentlich näher Verwandt.

Wenn man nett ist haben beide 2 neue Chips (NV30, NV40 bzw. R300 / R520)und 3 Refreshs in der Liste. Tun sich also praktisch nichts.
Wann begreift ihr, dass von NV3x zu NV4x eine Wahnsinnsdesignlücke klafft? Diese ist größer als von R200 zu R300 oder von NV15 zu NV20.
Wenn man es so schwammig ausdrückt wie du und beta, dann ist sogar der R520 nur ein mehrfach aufgebohrter R200.

betasilie
2005-10-26, 15:06:47
Nach den Marktnahmen kann man gar nicht gehen. sonst wird es für beide nur noch peinlich. GF4MX, Radeon 9000 / 9100 z.B.

NV30 -> NV35 dann eine erheblich veränderter NV40 mehr als Refresh -> G 70 -> G80

R300 -> R350/360 -> R420 -> R480 -> R520 -> R580 sind da wesentlich näher Verwandt.

Wenn man nett ist haben beide 2 neue Chips (NV30, NV40 bzw. R300 / R520)und 3 Refreshs in der Liste. Tun sich also praktisch nichts.
Die internen Namen der Chips sind nicht zur Vermaktung da. Die IHVs können damit umgehen wie sie wollen. Und wenn des knapp wird, dann rutscht man halt einen Stelle hoch. Who cares?

Die Produktbezeichungen sind oft peinlich aus technischer Sicht, aber die IHVs wollen halt verkaufen. Aber genau damit suggeriert man den Kunden was wirklich neues zu kaufen.

seahawk
2005-10-26, 15:07:35
Wann begreift ihr, dass von NV3x zu NV4x eine Wahnsinnsdesignlücke klafft? Diese ist größer als von R200 zu R300 oder von NV15 zu NV20.
Wenn man es so schwammig ausdrückt wie du und beta, dann ist sogar der R520 nur ein mehrfach aufgebohrter R200.

Ich stimme Dir da völlig zu. NV40 war ein gravierender Einschnitt bei NV, während der bei ATI imho noch kommen wird. Ist aber für die Diskussion egal, weil der Kunde das sowieso nicht wirklich wahrnimmt.

betasilie
2005-10-26, 15:07:46
Worauf ich hinaus will? Nur auf Demirugs Aussage, dass ATI 4 Refreshes brachte und NV pro Generation nur einen Refresh. Und das ist Fakt.
Es kommt auf den Zeitraum an. Und wenn ATI 8 Refreshes in 12 Monaten bringt, ist das doch Latte.

robbitop
2005-10-26, 15:09:04
Die internen Namen der Chips sind nicht zur Vermaktung da. Die IHVs können damit umgehen wie sie wollen. Und wenn des knapp wird, dann rutscht man halt einen Stelle hoch. Who cares?

Die Produktbezeichungen sind oft peinlich aus technischer Sicht, aber die IHVs wollen halt verkaufen. Aber genau damit suggeriert man den Kunden was wirklich neues zu kaufen.
Fakt ist, dass ATI eine Generation auslassen musste. R400 hätte mich wirklich sehr interessiert...

Demirug
2005-10-26, 15:12:11
Bei einer stabilen Platform müsste man doch eigentlich noch schneller zum Ziel kommen. Deswegen verstehe ich dein Argument nicht ganz.

Bei einer neuen Konsole fängt man aufgrund des Custom Designs bei 0 an. Früher musste man sich ja sogar erst mal selber ein paar Grundfunktionen schreiben. Aber dann verändert sich nichts mehr.

Beim PC hat man dagegen Erfahrungswerte weil dieser sich nicht schlagartig komplett ändert. Man fängt nicht bei 0 an. Allerdings ist ein PC niemals stabil. Selbst wenn ab sofort niemand mehr neue Hardware bauen würde haben wir zu viele Hersteller deren Produkte man in zu vielen Kombinationen zusammenführen kann. Dadurch ist es unmöglich so zu arbeiten wie auf einer Konsole. Merkt man bei einer Konsole das eine Stelle des Levels zu langsam ist ändert man einfach das Leveldesign etwas. Bei einem PC muss man aber einen Kompromisse in der Programmierung und im Leveldesign finden die allen gerecht wird. Das kostet Zeit und damit Geld. Entsprechend kann man sich auch gar nicht dermassen zu Tode optimieren wie bei einer Konsole. Beim PC muss man immer mehrer Varianten vorsehen und macht trotzdem weniger Umsatz als mit einem Konsolenspiel mit nur einer Variante. Daran würde eine eingefrorende Hardwareentwickluing gar nichts ändern.

Man kommt auf einer Konsole schneller voran nur hat der PC noch den Vorteil (einer der letzten) das der Weg nicht so weit ist.

betasilie
2005-10-26, 15:13:28
Fakt ist, dass ATI eine Generation auslassen musste. R400 hätte mich wirklich sehr interessiert...
Ja, sie haben ihren vermeintlichen R400 SM4.0 Chip "verschoben", genauso wie NV ihren NV50 verschoben haben.

Ja, der r400 hätte mich auch interessiert. Aber wir haben ja Xenos, der ja laut Ail auf dem R400 aufbaut. Ich denke die UF Architektur ist einfach nicht das ware, weil zuviel Effizienz drauf geht. Deshalb wahrschenlich auf der Rückzug von UF-Hardware aus WGF2.0.

Ailuros
2005-10-26, 15:15:58
Ich stimme Dir da völlig zu. NV40 war ein gravierender Einschnitt bei NV, während der bei ATI imho noch kommen wird. Ist aber für die Diskussion egal, weil der Kunde das sowieso nicht wirklich wahrnimmt.

Wenn man das Compiler-Schlammasel zur Seite schiebt, liegt der Grund warum NV4x/G7x 4096 PS30 instruction slots haben eben in der Grundlage des Designs vom NV30.

Ailuros
2005-10-26, 15:18:53
Bei einer neuen Konsole fängt man aufgrund des Custom Designs bei 0 an. Früher musste man sich ja sogar erst mal selber ein paar Grundfunktionen schreiben. Aber dann verändert sich nichts mehr.

Muss aber eine komische "0" sein wenn ich an Dreamcast/Neon250, NV2A/NV25, G70/RSX, R520/Revolution denke.

betasilie
2005-10-26, 15:19:23
Bei einer neuen Konsole fängt man aufgrund des Custom Designs bei 0 an. Früher musste man sich ja sogar erst mal selber ein paar Grundfunktionen schreiben. Aber dann verändert sich nichts mehr.

Beim PC hat man dagegen Erfahrungswerte weil dieser sich nicht schlagartig komplett ändert. Man fängt nicht bei 0 an. Allerdings ist ein PC niemals stabil. Selbst wenn ab sofort niemand mehr neue Hardware bauen würde haben wir zu viele Hersteller deren Produkte man in zu vielen Kombinationen zusammenführen kann. Dadurch ist es unmöglich so zu arbeiten wie auf einer Konsole. Merkt man bei einer Konsole das eine Stelle des Levels zu langsam ist ändert man einfach das Leveldesign etwas. Bei einem PC muss man aber einen Kompromisse in der Programmierung und im Leveldesign finden die allen gerecht wird. Das kostet Zeit und damit Geld. Entsprechend kann man sich auch gar nicht dermassen zu Tode optimieren wie bei einer Konsole. Beim PC muss man immer mehrer Varianten vorsehen und macht trotzdem weniger Umsatz als mit einem Konsolenspiel mit nur einer Variante. Daran würde eine eingefrorende Hardwareentwickluing gar nichts ändern.

Man kommt auf einer Konsole schneller voran nur hat der PC noch den Vorteil (einer der letzten) das der Weg nicht so weit ist.
Teilweise ACK. Natürlich kann man ein Worstcase-Szenario bei weitem nicht so genau analysieren, wie auf einer Konsole, aber imho kann man aus dem Featurest eines aktuellen PC erheblich mehr rausholen, als das aktuell der Fall ist, und darauf wollte afaik auch der Herr Bach hinaus.

Meiner Meinung nach werden viele Konsolenstudios einfach unterschätzt was deren Kreativität angeht. Von daher stimmt deine Aussage zum Teil, zum anderen Teil aber gibt es imo wesentlich mehr gute Studios im Konsolenbereich, als auf dem PC, was Coder und Contentdesigner angeht.

Ailuros
2005-10-26, 15:25:12
Ja, sie haben ihren vermeintlichen R400 SM4.0 Chip "verschoben", genauso wie NV ihren NV50 verschoben haben.

R400 war SM3.0 und R500 dann der Longhorn chip der in R600 umbennant wurde. Einen "NV50" wirst Du mit dem codenamen auch nicht sehen.

Ja, der r400 hätte mich auch interessiert. Aber wir haben ja Xenos, der ja laut Ail auf dem R400 aufbaut. Ich denke die UF Architektur ist einfach nicht das ware, weil zuviel Effizienz drauf geht. Deshalb wahrschenlich auf der Rückzug von UF-Hardware aus WGF2.0.

Der Grund warum unified shader cores als Pflicht in HW zurueckgezogen wurde ist dass NVIDIA und andere kleine IHVs noch keine solchen fuer den ersten DX10 Schub geplant haben. Da NVIDIA selber in absehbarer Zeit auf unified shader cores steigen wird, zeigt eben dass nichts unbedingt verkorkstes an USCs liegt, sondern eher dass dessen Realisierung in R400/Xenos einfach zu schwach waren fuer den PC.

betasilie
2005-10-26, 15:25:22
ATI wollte einen SM3-Chip, und das aus gutem Grund. Leider hat es ATI nicht geschafft, Features und Leistung rechtzeitig zusammenzuführen. Nvidia war mit SM3 alles andere als zu früh, ATI ist nur erheblich zu spät.
Übrigens ist es recht leicht enfach zu beahpten, ATI war zu blöd nen SM3.0 Chip zu bauen. Ich sehe es so, dass ATI durchaus bewusst kein SM3.0 wollte. Wenn ATI nicht gewesen wäre mit dem R300 SM2.0, dann hätten wir bis zum NV40 garkeinen performaten DX9 chip gehabt, und genau deshalb war es das schlauste auf SM.0 und Speed zu setzn.

Demirug
2005-10-26, 15:29:28
Teilweise ACK. Natürlich kann man ein Worstcase-Szenario bei weitem nicht so genau analysieren, wie auf einer Konsole, aber imho kann man aus dem Featurest eines aktuellen PC erheblich mehr rausholen, als das aktuell der Fall ist.

Meiner Meinung nach werden viele Konsolenstudios einfach unterschätzt was deren Kreativität angeht. Von daher stimmt deine Aussage zum Teil, zum anderen Teil aber gibt es imo wesentlich mehr gute Studios im Konsolenbereich, als auf dem PC, was Coder und Contentdesigner angeht.

Die Konsolenentwickler haben mehr Geld und müssen weniger dafür machen. Um auf den PC auf den gleichen Level zu kommen zu bei einer Konsole brauchts du nur schnödes Geld mehr nicht.

Lass einfach ein Konsolen-Team und ein PC-Team das Projekt tauschen. Dabei darf natürlich noch keiner auf beiden Seiten gearbeitet haben.

Die PC Entwickler werden wenn man ihnen nicht gerade ein XBox Projekt gibt am Workflow verzweifeln. Dagene werden die Konsolen entwickler einiges an Zeit brauchen bis sie einsehen das nur weil ihr Spiel auf iheren (identisch weil im Packet gekauft) Entwicklungssystemen läuft noch lange nicht auf "gleichwertigen" Systemen läuft.

Das sind einfach zwei Welten. Was die interesanten Spielideen auf den Konsolen angeht. Viel zu hohes Risiko beim PC dafür bekommt man kein Geld. Bei einer Konsole steckt man einen Flop leichter weg.

betasilie
2005-10-26, 15:31:11
R400 war SM3.0 und R500 dann der Longhorn chip der in R600 umbennant wurde. Einen "NV50" wirst Du mit dem codenamen auch nicht sehen.
Ok, das stimmt. Xenos ist ja auch kein SM4.0 Chip, wenn er auch SM3.0+ ist.

Wieso wird es keinen NV50 geben? ;(

Der Grund warum unified shader cores als Pflicht in HW zurueckgezogen wurde ist dass NVIDIA und andere kleine IHVs noch keine solchen fuer den ersten DX10 Schub geplant haben. Da NVIDIA selber in absehbarer Zeit auf unified shader cores steigen wird, zeigt eben dass nichts unbedingt verkorkstes an USCs liegt, sondern eher dass dessen Realisierung in R400/Xenos einfach zu schwach waren fuer den PC.
Genau darauf wollte ich hinaus. Was nicht ist, kann ja noch werden. Aber scheinbar ist es sinnvolller für einige IHVs erstmal die US-cores rauszulassen. Für die Entwickler ist es ja Wurst, solange im SDK mi US gearbeitet wird.

Ailuros
2005-10-26, 15:33:02
Übrigens ist es recht leicht enfach zu beahpten, ATI war zu blöd nen SM3.0 Chip zu bauen. Ich sehe es so, dass ATI durchaus bewusst kein SM3.0 wollte. Wenn ATI nicht gewesen wäre mit dem R300 SM2.0, dann hätten wir bis zum NV40 garkeinen performaten DX9 chip gehabt, und genau deshalb war es das schlauste auf SM.0 und Speed zu setzn.

Wer genau sagte dass ATI zu bloed war einen SM3.0 chip zu bauen? Keine genuegenden Resourcen, denn man hatte viel zu viele und komplizierte Projekte aufgenommen wo es einfach keine freien Haende und Zeit fuer derartige Extravaganzen gab.

Ich sag es mal anders, waere der alte R400 stark genug gewesen haetten sie einen universalen Design haben koennen fuer PC/Consolen, er haette dem R300 gefolgt und heutzutage wuerden wir eben SM3.0 des SM3.0 Refreshes sehen, genauso wie von NV bis Vista endlich ankommt.

Und das mit dem R300/SM2.0/NV40 ist auch Quark. Als die 9700 vorgestellt wurde, lag der NV40 schon ziemlich tief in Entwicklung.

Ailuros
2005-10-26, 15:36:12
Ok, das stimmt. Xenos ist ja auch kein SM4.0 Chip, wenn er auch SM3.0+ ist.

SM3.0. Der Komplianz ist es egal wenn man hier und da Fetzen hat die ueber die Spezifikationen leicht hinausgehen.

Wieso wird es keinen NV50 geben? ;(

Weil dieser anders heissen wird; ebenso eben wie der alte R500 bei ATI R600 heisst.


Genau darauf wollte ich hinaus. Was nicht ist, kann ja noch werden. Aber scheinbar ist es sinnvolller für einige IHVs erstmal die US-cores rauszulassen. Für die Entwickler ist es ja Wurst, solange im SDK mi US gearbeitet wird.

Spricht aber nicht unbedingt gegen USCs ;)

betasilie
2005-10-26, 15:55:25
Die Konsolenentwickler haben mehr Geld und müssen weniger dafür machen. Um auf den PC auf den gleichen Level zu kommen zu bei einer Konsole brauchts du nur schnödes Geld mehr nicht.

Lass einfach ein Konsolen-Team und ein PC-Team das Projekt tauschen. Dabei darf natürlich noch keiner auf beiden Seiten gearbeitet haben.

Die PC Entwickler werden wenn man ihnen nicht gerade ein XBox Projekt gibt am Workflow verzweifeln. Dagene werden die Konsolen entwickler einiges an Zeit brauchen bis sie einsehen das nur weil ihr Spiel auf iheren (identisch weil im Packet gekauft) Entwicklungssystemen läuft noch lange nicht auf "gleichwertigen" Systemen läuft.

Das sind einfach zwei Welten. Was die interesanten Spielideen auf den Konsolen angeht. Viel zu hohes Risiko beim PC dafür bekommt man kein Geld. Bei einer Konsole steckt man einen Flop leichter weg.
Mhhh. Aber genau das Geld spricht aber dafür, dass die guten Köpfe überwiegend für Konsolenstudios arbeiten, weil die Angestellten mehr Geld geboten bekomme. ;)

Aber ok, Du hast natürlich Recht, dass die Arbeitsabläufe und auch die Anforderung leicht unterschiedlich sind. Und es ist imo auch ein philosophie Frage, welche Plattform man interessanter findet als Entwickler.

Demirug
2005-10-26, 15:57:04
Mhhh. Aber genau das Geld spricht aber dafür, dass die guten Köpfe überwiegend für Konsolenstudios arbeiten, weil die Angestellten mehr Geld geboten bekomme. ;)

Aber ok, Du hast natürlich Recht, dass die Arbeitsabläufe und auch die Anforderung leicht unterschiedlich sind. Und es ist imo auch ein philosophie Frage, welche Plattform man interessanter findet als Entwickler.

Die Leute bekommen da auch nicht mehr. Die Teams sind nur größer.

betasilie
2005-10-26, 16:03:46
Die Leute bekommen da auch nicht mehr. Die Teams sind nur größer.
ok, ich gebe mich geschlagen. Ich finde es halt nur fazinierend, was man aus einer PS2 nach all den jahren noch rausholen kann. Wenn ich mir MGS3 angucke, da fällt mir halt die Kinlade runter, was dort alles rausgekitzelt wird , auch an dynamischen Effekten, besonders man bedenkt, wie sehr gerade der GS hinterhinkt.

Nicht, dass ich keine neuen Hardwarefeatures sehen wil, aber es gibt halt zwei Seiten, die Hardware und das was daraus macht. Und da sieht es im PC Bereich düster aus, jedenfalls meistens. FarCry und FEAR waren technologisch die einizigen Spiel der letzten Jahre, die mich durch die Bank beindruckt haben, auch wenn DoomIII und HL2 ebenfalls technologische Highlights hatten. Das ist imo zu wenig, im Verhältnis zum Kaufpreis eines hochwertigen PCs und selbst FEAR und FarCry stellen meine Erwartungen noch nicht zufrieden.

Und genau da setzt meine Kritik an, dass man einen IHV die SM2.0 Strategie vorwirft, obwohl die Devs selbst mit SM2.0 noch lange nicht am Ende der Fahnestange sind. Ich hoffe daher sehr auf UE3 und CryEngine2 und auf eine große Flut an Lizenzproduktionen, die mal eine hohe Dichte an technologisch hochwertigen Titeln nach sich ziehen.

aths
2005-10-26, 16:33:10
Dann hat sich ATI entweder blöd angestellt oder schlecht verhandelt. Dann ist es eben Pech für sie.
Zum Glück gibt es findige Programmierer, die trotzdem Features möglich machen, wo es nach den Spcs nicht gehen würde.

Das ist mir durchaus bewußt.
Wenn ich Entwickler wäre und auch etwas von mir hielte, dann würde ich den Content hauptsächlich auf SM3 auslegen und einen Fallback für SM2 schreiben. Wenn dann einige Effekte mit SM2 nicht gingen oder extrem umständlich zu realisieren wären, würden diese einfach entfallen.
Wäre eben Pech für ATI.
Wenn Kunden, die eine ATI haben/hatten, ihre Karten loswerden würden und NV kaufen würden, dann wäre ATI halt abgestrafft.Die findigen Programmierer müssten dann mehrere Codepfade einbauen. JC hat in Doom3 für Hardware der DX9-Klasse einen Generalshader für die komplette Beleuchtung geschrieben. Aus Performance-Sicht nicht für jede Karte optimal, aber vereinheitlichte Programmierung ist ein Wert, den Nichtprogrammierer zu unterschätzen scheinen.

Ganz so einfach geht das mit dem SM2-Fallback eben nicht, insbesondere wenn man den Content mitskalieren muss. Bei Shadern müsste man vielleicht zu Multipass oder permutierten Shaderkombinationen greifen, wo in SM3 wenige (vielleicht sogar ein einziger) Shader ausreichen. Will man HDR-Rendering nutzen und hat dafür HDR-Lightmaps vorbereitet, kann man die nicht mal einfach so in ein LDR-Format packen. Klar ließe sich bilineare Filterung auch im Pixelshader emulieren, aber ist das Spiel, durch HDR-Rendering GPU-seitig ohnehin stark belastet, dann noch schnell genug? Ein Entwickler der Kostenrechnung beherrscht wird Content für Massenhardware erstellen lassen. Das heißt zum Beispiel, auf HDR-Lightmaps verzichten.

aths
2005-10-26, 16:39:14
Da hast du natürlich Recht, diese Anwort habe ich auch erwartet.
Sehen wir es mal von der anderen Seite.
Es wird oft und das zurecht bemängelt, dass die Grakas so teuer sind und auch relativ schnell im Preis fallen. Da kann man als Kunde doch erwarten, dass die Karten auch richtig ausgenutzt werden.
Siehe Konsolen.Das wäre ein schönes Gefühl, wenn die teuer erstandene Grafikkarte eines Tages mal so richtig ausgenützt würde, mit tollen Spielen, die noch flüssig laufen, aber auch die ganze Grafikpracht zeigen die diese Karte noch in Echtzeit rendern kann. Das wird es aber in der Praxis fast nie geben, nicht zuletzt weil Highend-Karten meistens recht schnell abgelöst werden, während eine Konsolengeneration Jahre hält – und noch einige Spiele dafür entwickelt werden, wenn es bereits den Nachfolger zu kaufen gibt. Außerdem kann es im PC weitere Flaschenhälse geben (CPU, Hauptspeicher-Bandbreite, verfügbarer RAM) so dass ein Spiel aus der Grafikkarte sowie nicht alles rauskitzeln kann, was drin wäre. Eine teure Grafikkarte (für die GeForce4 Ti 4600 bezahlte ich an die 600 €) bringt mit sich, dass man die Auflösung hochdrehen kann, aber nicht unbedingt, auf lange Zeit alle Effekte zu sehen (die Spiegel in Max Payne 2 spiegeln auf der GeForce4 Ti nicht.)

Was Konsolen angeht, halte ich die Hardwareaufrüsterei für einen Irrweg – PS3 und Xbox 360 protzen mit ihren Eckdaten zu Hardware, toll. Wichtiger sind für mich innovative Konzepte, so macht Nintendo wieder mal den ersten Schritt mit dem Revolution. Mehr Grafikpower als beim Cube muss schon geboten werden, aber Spiele werden nicht automatisch gut, wenn sie vom RSX oder einem Xenos gerendert werden.

betasilie
2005-10-26, 16:45:57
Was Konsolen angeht, halte ich die Hardwareaufrüsterei für einen Irrweg – PS2 und Xbox 360 protzen mit ihren Eckdaten zu Hardware, toll. Wichtiger sind für mich innovative Konzepte, so macht Nintendo wieder mal den ersten Schritt mit dem Revolution. Mehr Grafikpower als beim Cube muss schon geboten werden, aber Spiele werden nicht automatisch gut, wenn sie vom RSX gerendert werden.
Nun, wenn alles gut geht könnte durch Cell eine Revolution in Sachen Physik und KI eingeläutet werden. Ist sicher auch was feines dort einen Sprung in der Qualität zu sehen. ... Außerdem hat Sony etwas innovativ neues auf der PS3 zu bieten, was noch nicht vorgestellt, aber angkündigt wurde. Kann gut sein, dass sie auch so einen Controller bringen wie Nintendo, und Eytoye2 hast Du scheinbar auch verpasst.

P.S.
Du meinst sicher die PS3 und nicht die PS2.

aths
2005-10-26, 16:50:09
Alles Ansischtssache. Imo ist R420 ein großes Refresh vom R300.

Und NV40 ist das, was Nv30 eigentlich hätte werden sollen.Wenn Nvidia so fähig wäre, hätten sie ATI gar nicht hochkommen lassen.

Wenn ich ein Problem programmiertechnisch umsetze, entsteht oft eine umständliche, langsame Lösung, die aber immerhin funktioniert. Stehe ich später vor dem gleichen Problem, und habe noch die gefundene alte Lösung im Kopf, kriege ich die Sache trotzdem wesentlich eleganter und performanter hin.

Nur, ohne es vorher selbst gemacht zu haben, hätte ich es beim nächsten Mal nicht besser machen können. NV hat mit dem NV30 um den NV28 diesen FP-Shadercore rumgebastelt (und den neuen Vertexshader eingebaut) wobei das Featureset von vornherein feststand. Die Lösung litt aber unter vielen Kompromissen. Der NV40 wäre ohne das NV30- (und NV35-) Vorwissen nicht möglich gewesen. Der NV40 ist nicht das, was der NV30 hätte werden sollen. Der NV40 ist das, was durch die NV30-Erfahrung und Analsyse ermöglicht wurde.

Demirug
2005-10-26, 16:50:16
Und genau da setzt meine Kritik an, dass man einen IHV die SM2.0 Strategie vorwirft, obwohl die Devs selbst mit SM2.0 noch lange nicht am Ende der Fahnestange sind. Ich hoffe daher sehr auf UE3 und CryEngine2 und auf eine große Flut an Lizenzproduktionen, die mal eine hohe Dichte an technologisch hochwertigen Titeln nach sich ziehen.

Du bist dir aber bewusst das bei UE3 SM2 nur noch als Fallback angesehen wird?

betasilie
2005-10-26, 16:52:53
Du bist dir aber bewusst das bei UE3 SM2 nur noch als Fallback angesehen wird?
Ja, absolut. Und das finde ich auch gut. :)