PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 und die Anisotrope Qualität


Seiten : 1 [2] 3

StefanV
2004-04-20, 16:13:25
Original geschrieben von Quasar
Meine Erkenntnis:
Die ROPs sind verantwortlich für das Blending - sowohl Color- als auch Alpha. Richtig?

Die Interne Rendergenauigkeit lässt du also unter den Tisch fallen, oder?

Quasar
2004-04-20, 16:18:22
Original geschrieben von Stefan Payne
Die Interne Rendergenauigkeit lässt du also unter den Tisch fallen, oder?

Welche interne Rendergenauigkeit? Die der GF4 oder die des nV30?
Wenn du die Pixelpipeline meinst, da sollten sich die beiden doch unterscheiden, oder?

BTW: Das, was du gequotet hast, war eine Vorfrage.

Gast
2004-04-20, 16:20:30
Ihr mißversteht mich glaube ich absichtlich. Da steht durchaus INDIREKT was darüber, nämlich daß es auch eine NV40 Quadro geben wird die für RENDERFARMEN eingesetzt wird. Glaubt hier etwa irgendjemand, daß der Betreiber einer RENDERFARM sich mit 2xAF zufriedengibt? ILM etwa?!?

ow
2004-04-20, 16:21:44
.

Quasar
2004-04-20, 16:22:25
Original geschrieben von Gast
Ihr mißversteht mich glaube ich absichtlich. Da steht durchaus INDIREKT was darüber, nämlich daß es auch eine NV40 Quadro geben wird die für RENDERFARMEN eingesetzt wird. Glaubt hier etwa irgendjemand, daß der Betreiber einer RENDERFARM sich mit 2xAF zufriedengibt? ILM etwa?!?

Für ILM-Quality-Rendering wird mit Sicherheit kein AF eingesetzt, welches die Textureinheiten der GPU nutzt.

ow
2004-04-20, 16:26:25
.

Gast
2004-04-20, 16:33:08
Original geschrieben von Quasar
Für ILM-Quality-Rendering wird mit Sicherheit kein AF eingesetzt, welches die Textureinheiten der GPU nutzt.
Zumindest wohl nicht direkt.
Für High-Quality Rendering wird AFAIK (extremes) Supersampling verwendet. Als Nebeneffekt gibt es dabei natürlich ordentlich AF-Qualität.
Ich hoffe aber trotzdem das HQ-AF noch in der Hardware schlummert, und nur darauf wartet von einem neuen Treiber/Tweak geweckt zu werden.
...Die Hoffnung stirbt zuletzt.

aths
2004-04-20, 16:41:50
Original geschrieben von Quasar
Meine Erkenntnis:
Die ROPs sind verantwortlich für das Blending - sowohl Color- als auch Alpha. Richtig?Ja. Das heißt aber nicht, dass Colorbanding-Artefakte zwangsweise von den ROPs kommen müssen.

Original geschrieben von Quasar
Deine Anforderungen an den Leser scheinen realitätsfern.Sind meine (bzw. eure) Anforderungen an den Reviewer realitätsnäher?

Original geschrieben von Quasar
Dies siehst du aber nicht als Problem an, sondern forderst implizit von deiner Umgebung (den Lesern) sich an dich und deine Ansprüche anzupassen. Nein. Ich fordere vom Leser, dass er darüber reflektiert, aus welchen Quellen er sich informiert.

Original geschrieben von Quasar
Das ist schade. Vielleicht wäre ein Warnhinweis an deine Leser angebracht? Immerhin gebe ich meine Quellen an (soweit man sie nennen darf) und verschweige nicht, woher mein Wissen stammt.

aths
2004-04-20, 16:42:59
Original geschrieben von ow
Duerfte reicht mir hier nicht. Nur nachmessen zaehlt.Dann miss es nach. Ich weiß jedenfalls, dass die FXen etwas später anspringen, als GF3/4.

ice cool69
2004-04-20, 16:46:11
@ ow

Ist dir schon einmal in den Sinn gekommen dass genau nVidias AF das ist was sich viele Radeon-Besitzer noch für die Grafikkarte gewünscht hatten?

Ich persönlich habe die R3x0-Karten für die bessere Lösung gehalten als Gesamtpaket, dennoch war nVidias AF immer etwas was ich auch gerne auf meiner Radeon gehabt hätte.

Jetzt kommt der NV40 raus und es werden endlich alle Schwächen der GFFX ausgebessert und sogar stark vorgelegt. Die bessere Karte wird diese Generation wohl von nVidia kommen. Das könnte endlich die Karte sein die noch perfekter und "runder" ist als die R3x0 (an der gleichen Generation gemessen natürlich).

Und schon wieder isses nicht perfekt, es ist das gleiche wie zu R3x0-Zeiten, alles ist mehr oder weniger perfekt und rund, nur das AF ist genauso schrottig.

Und jetzt willst du mir den Mund verbieten weil ich mich darüber aufrege? Stempelst mich als ATI-Fanboy ab (mir kam seit den NV40-Reviews nie mehr der Gedanke ich könnte stattdessen vielleicht eine R420 holen!!!) und bekämpfst mich und andere mit allen Mitteln.

Hier ist keiner am Anfang persönlich gewesen, es wurde an nVidia rumgemeckert und dem AF, DU warst es der das Wort Fanboy und gebashe etc. in den Raum warf und nVidia aufs Ärgste verteidigst (als ob es sich um deine kleine Schwester handelt) wo sie es nicht verdient haben.

Mal ehrlich, war das ATI-AF beim R3x0 noch sehr ärgerlich, so ist es bei der kommenden Generation zum Haare ausrupfen und Schaum vorm Mund bekommen.

Anstatt hier davon auszugehen wir wollten hier dein Liebstes bashen mach doch mit und lass dich mit uns darüber aus dass nVidia bei einer solch geniale Karte mit dem scheiß ATI-AF wieder nicht "perfekt" zu machen!

Hier ist keiner ein Opfer, es sind diese scheiß Firmen die uns immer das Optimale wegen einem Haufen DAUs vorenthalten.

Und ich sehe kein Problem darin dass man jegliche Filtermethode einbaut und diese zur freien Wahl stellt.
Die Deppen die das ATI-AF für gleichwertig gehalten haben sind doch sowieso zu bescheuert um im Review die Standardeinstellung zu verstellen (Brilinear und winkelabhängig, das dürfte nVidia genug Speed geben).

Schließlich kann man auch die Brilinearität abstellen und trotzdem werden die üblichen Verdächtigen (Idioten) damit getestet haben, oder?

Edit: ow, ich schlage dir einen Deal vor: Du machst mit beim nVidia/ATI-AF-gebashe und ich eröffne nach dem ersten Review der R420 ein Kreuzfeuer über jede verdammte (natürlich relevante) Schwäche die sich dieser Chip (mit Sicherheit) erlauben wird.

Quasar
2004-04-20, 16:47:09
Original geschrieben von aths
Ja. Das heißt aber nicht, dass Colorbanding-Artefakte zwangsweise von den ROPs kommen müssen.

Nein, aber die Präzision innerhalb der Pixelpipeline sollte beim nV3x ggü. dem nV2x doch ein wenig höher und zumindest so verschieden sein, daß nicht dieselben Artefakte entstehen.

Original geschrieben von aths
Sind meine (bzw. eure) Anforderungen an den Reviewer realitätsnäher?

Nein. Ich fordere vom Leser, dass er darüber reflektiert, aus welchen Quellen er sich informiert.

Immerhin gebe ich meine Quellen an (soweit man sie nennen darf) und verschweige nicht, woher mein Wissen stammt.

Ich habe keine Anforderungen an Reviewer, da ich mir dessen bewußt bin, daß es niemanden interessiert. Natürlich wünsche ich mir, das Reviews mit der Zeit besser werden, als sie es waren. Momentan sehe ich allerdings noch immer den Zustand der langen Balken.

Woher soll der Leser wissen, wie hochwertig seine Quellen sind wenn er selbst ein Laie auf dem Gebiet ist?

Möchtest du mit dem letzten Satz etwas bestimmtes sagen? :|

aths
2004-04-20, 16:49:59
Original geschrieben von ow
Bist vielleicht ein Naturtalent? Oder woher willst du gemerkt haben, das ram was kann? An seinem guten Artikel?

Original geschrieben von ow
Ausserdem willst du dich doch nicht mit der Masse an DAUs auf eine Stufe stellen.Jetzt nicht mehr. Aber früher war ich ein vorlauter 3dfx-Fanboy, nicht interessiert an Technik sondern nur daran, zu beweisen, dass Voodoos rocken während Nvidia von profitgeilen, unfähigen Leuten durchsetzt ist.

Original geschrieben von ow
Wie ich schon sagte ist ein Grossteil der Leser nicht in der Lage, die Qualitaet von Reviews ernsthaft zu beurteilen, weil er zu wenig Vorkenntnisse hat.Das sollte ihn nicht daran hindern, nachzudenken.

Original geschrieben von ow
Und btw. um zu beurteilen, wie gut oder schlecht ein Review ist (fuer diejenigen die das beurteilen koennen) muss man's erst mal gelesen haben.Ja, natürlich.

Original geschrieben von ow
Ja ich weiss, fuer viele ist das nur ein Geschaeft wie jedes andere auch. Da stimme ich dir vollkommen zu. Das Problem ist, dass viele über Dinge reden und sich damit begnügen, sie anzusehen; jedoch zu faul sind, ihnen auf den Grund zu gehen. Beispiel AF: Ich würde von mir behaupten, eine ungefähre Ahnung zu haben, wie es funktioniert. (NV verwendet z. B. gleichgewichtete Samples.) Fragt man mich, wie die Line of Anisotropy berechnet wird, könnte ich das erklären, fragt man mich, wie die genauen Samplepositionen zustande kommen, kann ich höchstens meine Theorie anbieten. Die meisten sehen einfach das Pattern im AF-Tester, ohne wirklich zu verstehen, was sie da sehen, aber diskutieren dann groß.

Ich erwarte eigentlich von einem Redakteur, dass, wenn er sich mittelfristig mit AF-Qualität beschäftigt, auch versucht, dem Algorithmus auf den Grund zu gehen. Das kannst du aber vergessen. Noch heute ist erst mal wichtig, wie hoch der Chip getaktet ist und wie viel Speicher das Board hat.

ow
2004-04-20, 16:52:06
.

aths
2004-04-20, 16:54:57
Original geschrieben von Quasar
Nein, aber die Präzision innerhalb der Pixelpipeline sollte beim nV3x ggü. dem nV2x doch ein wenig höher und zumindest so verschieden sein, daß nicht dieselben Artefakte entstehen. Die Colorbanding-Artefakte die ich in Max Payne mit der GF4 hatte, habe ich genauso mit meiner Radeon 9600.

Original geschrieben von Quasar
Woher soll der Leser wissen, wie hochwertig seine Quellen sind wenn er selbst ein Laie auf dem Gebiet ist?In dem er das Gehirn einschaltet.

Eine Fachzeitschrift kaufen, dann noch eine, und vergleichen. Beispiel PCGH, in der Printmedienlandschaft imo eines der Lichter, wenn es um Graka-Benchmarks geht. Die Settings sind sinnvoll gewählt, die Ergebnisse verständig kommentiert. Man muss kein Techfuzzi sein, um ein gutes Review abzuliefern.

Original geschrieben von Quasar
Möchtest du mit dem letzten Satz etwas bestimmtes sagen? :| Einiges aus deinem Artikel habe ich woanders zuerst gelesen, gewisse Termini wurden afaik nicht im CB-Umfeld geprägt.

aths
2004-04-20, 17:02:30
Original geschrieben von ow
Das ist richtig. Featuremaessig ist vom R420 nicht viel zu erwarten. Das scheint viele aber auch nicht weiter zu stoeren, weil er schnell sein wird und das diesen Leuten ja offensichtlich ausreicht. Und da waere wir schon wieder genau an dem von mir beschriebenen Punkt anbelangt: Speed zaehlt mehr als Features/Qualitaet (nicht fuer mich persoenlich).Imo sollte man hier wirklich unterscheiden. Dem normalen Spieler kann es schnurzegal sein, ob seine Karte SM3.0 und FP16-TMUs bietet oder nicht. An Features braucht man zunächst eigentlich nur das R300-Level.

An Qualität möchte man unabhängig davon vielleicht aber mehr, als R300 anbieten kann.


Original geschrieben von ow
Nein, sorry, aber das halte ich wirklich fuer zu abwegig.:D
Es gibt unter den ATi Usern kaum jemanden der das AF kritisiert, insofern sind da auch kaum Wuensche nach mehr AF Qualitaet laut geworden. Waere dise der Fall gewesen haette vielleicht ATi schon laengst reagieren muessen und ihr AF nachbessern. Wie lange hat es gedauert, ehe NV einen vernünftigen 4x MSAA-Modus bot?

Original geschrieben von ow
Das ist sehr subjektiv. In den meissten Faellen ist das AF der GF4 ausreichend schnell (fuer aktuelle Titel reicht's natuerlich nicht mehr), es muss ja auch nicht immer der maximale AF-Grad sein. Ein sauberes 2xAF bringt gegenueber keinem AF schon einen enormen Qualitaetsgewinn.DAS ist ein Punkt, auf dem ich immer wieder poche: ATI (und jetzt NV) bescheren "performantes" AF rein auf Kosten der Qualität. Ein geringerer AF-Graf, wobei aber "full quality AF" geboten wird, ist sinniger als ein hoch "optimiertes" hochstufiges AF.


Original geschrieben von ow
Ich zweifele ob viel ATi User zum Nv40 gegriffen haetten, denn IMO ist dessen Leistung mit sauberem AF nicht wesentlich hoeher als die eines R360 (und wenn's auch 20-30% mehr sind, das juckt doch keinen wirklich, oder?) und dann haette es wieder gehiessen: fuer den geringen Qualitaetsgewinn beim AF ist der Performancedrop zu hoch.Ich behaupte, S3-like AF kostet ausgehend vom aktuellen NV40-AF in füllratenlimitierten Szenen ~ 20% Leistung (10 - 30%.) Sofern NexGen-Spiele gespielt werden, die shaderlimitiert sind, kostet AF weniger.

Original geschrieben von ow
Ich gehe weiterhin davon aus, dass der NV40 sauberes AF in HW beherrscht und NV dies in spaeteren Treiberversionen freischaltet, wenn die ganzen Leistungsvergleiche/Reviews mit dem R420 abgeschlossen sind. Das ist möglich: Der erste 8x-AA-Modus auf der FX war komplett sinnlos und recht unschön, später stellte NV auf das sinnvollere (wenn auch viel langsamere) 8xS-Muster um.

ice cool69
2004-04-20, 17:04:33
@ ow

Dein Wort in Gottes Ohr. Ich bin im übrigen auch der erste der hier den NV40 als genial bezeichnet wenn du recht hast und dann geht dsa ATI-gebashe los... :D

Quasar
2004-04-20, 17:09:53
Original geschrieben von aths
Die Colorbanding-Artefakte die ich in Max Payne mit der GF4 hatte, habe ich genauso mit meiner Radeon 9600.

Siehst du, auf der Radeon ist das Bild aber frei von dieser Art Artefakte. Hingegen zeigte die Radeon in derselben Szene ein Problem mit dem Helligkeitseffekt des Triebwerkes.

Original geschrieben von aths
In dem er das Gehirn einschaltet.

Eine Fachzeitschrift kaufen, dann noch eine, und vergleichen. Beispiel PCGH, in der Printmedienlandschaft imo eines der Lichter, wenn es um Graka-Benchmarks geht. Die Settings sind sinnvoll gewählt, die Ergebnisse verständig kommentiert. Man muss kein Techfuzzi sein, um ein gutes Review abzuliefern.
Hm, also muss ich mich bei jeder Sache, die ich zu kaufen gedenke, erstmal ewig lang mit der Materie beschäftigen - allein um gute von schlechten Reviews unterscheiden zu können?
Ich denke nicht, daß das der Weg ist.

Original geschrieben von aths
Einiges aus deinem Artikel habe ich woanders zuerst gelesen, gewisse Termini wurden afaik nicht im CB-Umfeld geprägt.
Die Termini würden mich interessieren...

Natürlich informiert man sich. Und falls irgendwer das hier liest und meint, entscheidend zum einen oder anderen Detail des Artikels beigetragen zu haben, dann möge er mir eine PM schreiben (gern auch auf englisch) und ich werde liebend gern sog. credits hinzufügen.
Da ich jedoch Grund zu der Annahme habe, daß das* nicht der Fall ist, habe ich im Sinne des Quellenschutzes darauf verzichtet, welche anzugeben.

Du wirst an anderer Stelle durchaus fündig werden, wenn es darum geht, ob ich mich mit fremden Federn schmücke oder nicht - was hätte ich davon? Ich will unseren Lesern Information, nach Möglichkeit korrekte, bieten - unabhängig, ob sie direkt von mir oder von dritten stammt.


*hiermit ist das Einverständnis einer Quelle, genannt zu werden, gemeint.

kmf
2004-04-20, 17:18:36
Original geschrieben von ow
Das ist richtig. Featuremaessig ist vom R420 nicht viel zu erwarten. Das scheint viele aber auch nicht weiter zu stoeren, weil er schnell sein wird und das diesen Leuten ja offensichtlich ausreicht. Und da waere wir schon wieder genau an dem von mir beschriebenen Punkt anbelangt: Speed zaehlt mehr als Features/Qualitaet (nicht fuer mich persoenlich).



Nein, sorry, aber das halte ich wirklich fuer zu abwegig.:D
Es gibt unter den ATi Usern kaum jemanden der das AF kritisiert, insofern sind da auch kaum Wuensche nach mehr AF Qualitaet laut geworden. Waere dise der Fall gewesen haette vielleicht ATi schon laengst reagieren muessen und ihr AF nachbessern.



Das ist sehr subjektiv. In den meissten Faellen ist das AF der GF4 ausreichend schnell (fuer aktuelle Titel reicht's natuerlich nicht mehr), es muss ja auch nicht immer der maximale AF-Grad sein. Ein sauberes 2xAF bringt gegenueber keinem AF schon einen enormen Qualitaetsgewinn.



Das wiederum halte ich nicht fuer allzu subjektiv. Die Maengel der GFFXe (Shaderspeed, 4xAA-Pattern, ...) sind allseits bekannt und objektive Tatsachen.



Ich zweifele ob viel ATi User zum Nv40 gegriffen haetten, denn IMO ist dessen Leistung mit sauberem AF nicht wesentlich hoeher als die eines R360 (und wenn's auch 20-30% mehr sind, das juckt doch keinen wirklich, oder?) und dann haette es wieder gehiessen: fuer den geringen Qualitaetsgewinn beim AF ist der Performancedrop zu hoch.

Ich gehe weiterhin davon aus, dass der NV40 sauberes AF in HW beherrscht und NV dies in spaeteren Treiberversionen freischaltet, wenn die ganzen Leistungsvergleiche/Reviews mit dem R420 abgeschlossen sind. Per Default koennte allerdings weiterhin das winkelabhaengige AF genutzt werden, um Nachteile durch unfaehige Reviewer ausszuschliessen.



Ist akzeptiert. Nur bei sauberen Postings macht Diskutieren auch wirklich Spass.;)

War für mich mit ein Grund von der 9700pro auf die GF4 4600 downzugraden.
Und jetzt bin ich enttäuscht, daß der NV40 bei AF ATI imitiert.

Ein Gutes hat die Sache ja - in Zukunft können Äpfel mit Äpfel verglichen verden. :D

HOT
2004-04-20, 17:21:21
Original geschrieben von ow
Das ist richtig. Featuremaessig ist vom R420 nicht viel zu erwarten. Das scheint viele aber auch nicht weiter zu stoeren, weil er schnell sein wird und das diesen Leuten ja offensichtlich ausreicht. Und da waere wir schon wieder genau an dem von mir beschriebenen Punkt anbelangt: Speed zaehlt mehr als Features/Qualitaet (nicht fuer mich persoenlich).



Nein, sorry, aber das halte ich wirklich fuer zu abwegig.:D
Es gibt unter den ATi Usern kaum jemanden der das AF kritisiert, insofern sind da auch kaum Wuensche nach mehr AF Qualitaet laut geworden. Waere dise der Fall gewesen haette vielleicht ATi schon laengst reagieren muessen und ihr AF nachbessern.


Ok, ich versuchs nochmal: Du glaubst also nicht, dass es ATI User gibt, die gerne was besseres möchten als das ATI AF? DAS halte ICH für zu subjektiv ;) Man hat als Besitzer einer teuren Karte der Letzten Generation eben das WinkelAF so akzeptiert, weil es der ausgewogenste Chip auf dem Markt war (für jeden ATI User subjektiv). Warum soll man über eine teuer gekaufte Karte, mit der man relativ zufrieden war meckern? Man wurde durch die NV Brilinear Aktion auchnoch bezüglich seiner Entscheidung bestätigt!
Ich denke vielmehr dass es hier wesentlich mehr Leute gibt, die vielleicht wechseln wollten als du denkst (inklusive mir). Die Wünsche waren vorher bekannt, man sprach aber nicht gross darüber. Selbstverständlich erwartet man auch nichts besseres von einem weiteren R300 Aufguss. Aber gerade weil das bekannt war wäre sicher viele gewechselt! Und sind wir doch mal ehrlich: Der einzige wirkliche Vorteil für den NV40 wäre sauberes AF gewesen, die restlichen Features sind im Moment noch vollkommen egal. Ist der R420 schneller, ist er in den Augen vieler User brauchbarer als der NV40, so einfach ist das.
Bei ATI ist alles ausreichend dimensioniert, dass man eine gute Bildquali bekommt (ausser dem AF).



Das ist sehr subjektiv. In den meissten Faellen ist das AF der GF4 ausreichend schnell (fuer aktuelle Titel reicht's natuerlich nicht mehr), es muss ja auch nicht immer der maximale AF-Grad sein. Ein sauberes 2xAF bringt gegenueber keinem AF schon einen enormen Qualitaetsgewinn.



Wenn ich schon AF verwende brauch ich ordentliche Framerates. Bei Den spielen die ich spiele ist Geforce4 AF zu lahm (MMORPGS). Das mag subjektibv sein, wird aber doch einige andere treffen, die dieses bestätigen. Ausserdem kann man ja Winkelabhängigkeit akzeptieren wenn man mit 4xAF zufrieden ist.
Geforce3/4 AF war für viele zu langsam, die meisten nutzten 2x oder 4x wenn überhaupt. Auf der Geforce2 PRO/TI war 2x auch brauchbar, nutzte aber auch kaum jemand.



Das wiederum halte ich nicht fuer allzu subjektiv. Die Maengel der GFFXe (Shaderspeed, 4xAA-Pattern, ...) sind allseits bekannt und objektive Tatsachen.



...gegen dir du dich bis zuletzt gewehrt hast. Sorry für den Seitenhieb aber das musste jetzt einfach sein.



Ich zweifele ob viel ATi User zum Nv40 gegriffen haetten, denn IMO ist dessen Leistung mit sauberem AF nicht wesentlich hoeher als die eines R360 (und wenn's auch 20-30% mehr sind, das juckt doch keinen wirklich, oder?) und dann haette es wieder gehiessen: fuer den geringen Qualitaetsgewinn beim AF ist der Performancedrop zu hoch.

Ich gehe weiterhin davon aus, dass der NV40 sauberes AF in HW beherrscht und NV dies in spaeteren Treiberversionen freischaltet, wenn die ganzen Leistungsvergleiche/Reviews mit dem R420 abgeschlossen sind. Per Default koennte allerdings weiterhin das winkelabhaengige AF genutzt werden, um Nachteile durch unfaehige Reviewer ausszuschliessen.



Im Gegenteil, die meisten sind sehr beeindruckt von der Leistung des Chips. Das ist ja auch Wahnsinn was NV sich da zusammengebastelt hat. Aber die Erwartunghaltung war doch die dass man von einem HighEnd geschoss, was komplett neu entwickelt wurde perfekte Qualität erwartet hat, und man hat ja nichnur das AF verschlechtert, sondern sogar IF!!! Kein Wunder also, dass die riesige Enttäuschung überwog. Hatte NV gutes AF gebracht, hätte ausser den Bashern und Flamern (wer immer das jetzt auch sein mag) kaum über den NV40 gemeckert (und der Thread wär nur halb so lustig gewesen ;)), vielleicht sogar nichtmal die. Nun warten die ATI Besitzer auf den R420 und steigen wenn der schneller ist auf den um. Viele waren bereit zu wechseln, wurden aber enttäuscht.

Was für NV zu einem ernsten Problem geworden ist, das kommt noch erschwerend hinzu, sind Optimierungen. Selbst wenn AF jetzt oh Wunder doch funktionieren würden, würden sich trotzdem viele die Anschaffung der NV40 3x überlegen, da NV ja in seinen Treibern Willkür betreibt und das bleibt erstmal, wenn auch später mal als Vorurteil, erstmal an denen haften. Das war ein klares Eigentor.

So, das war jetzt kein gebashe sondern nur aus der Sicht eines potenziellen Kunden, der sich überlegt, keine der beiden Lösungen zu kaufen und auf was besseres wartet ;) ich bin da noch optimistisch, vielleicht wirds ja doch noch was mit PowerVR oder XGI, mal das Jahr noch abwarten. Wiehnachten kann man sich immernoch für NV oder ATI entscheiden.


[...]

kiss
2004-04-20, 17:30:29
Original geschrieben von HOT
....kaum über den NV40 gemeckert




Naja kaum gemeckert ist gut. Die Leute die fehler finden wollen, finden auch welche. Ausserdem ist kein CHIP perfekt.
Was mich am meisten aufregt ist, das alle davon labern das der NV40 soviel Strom frisst....im verhältniss zum >NV30 ist es ein Witz.
Die zwei Strom anschlüsse sind mir wirklich schei... egal. Es ist nunmal so....Schlieslich hat auch kaum einer gemeckert als zum erstenmal nen extra strom anschluss an der 9700ner von ATI war...

Meine Meinung nach gibt es an jeder Karte was zu meckern...Aber ich finde den NV40 perfekt auch wenn er nicht mehr das super AF bietet was der NV30 bot.




MFG kiss

ice cool69
2004-04-20, 17:46:21
Wenn ich mir den NV40 hole, dann wird nur noch mit 2x oder maximal 4xAF gespielt, da fällt die Winkelabhängigkeit nicht wirklich auf (bei 2x isse gar nicht vorhanden) + 4xAA. Das in hoher Auflösung (1280x960) ist doch qualitativ gar nicht so übel und wird mir auch in Far Cry Mod3.0, Doom3, Half Life2 und Stalker hohe Framerates bescheren.
Und für diese Spiele hole ich mir diese Grafikkarte!!!

Thowe
2004-04-20, 18:09:23
Original geschrieben von betareverse
ow, was hälst Du mal davon zu moderieren, statt Flamewars zu initiieren?

Langsam kotzt mich dein möchtegern-RobinHood-Verhalten für NV nur noch an! Auch wenn es dir nicht auffällt, Du benimmst dich schlicht wie einer der übelsten Fanboys hier im Forum.

:nono: Wenn du dich beschweren möchtest, dann per PN oder alternativ im über 3DCenter-Thread, aber bitte nicht hier, egal wie sehr du dich auch provoziert gefühlt haben magst.

FormatC
2004-04-20, 18:13:02
Original geschrieben von ice cool69
Wenn ich mir den NV40 hole, dann wird nur noch mit 2x oder maximal 4xAF gespielt, da fällt die Winkelabhängigkeit nicht wirklich auf (bei 2x isse gar nicht vorhanden) + 4xAA. Das in hoher Auflösung (1280x960) ist doch qualitativ gar nicht so übel und wird mir auch in Far Cry Mod3.0, Doom3, Half Life2 und Stalker hohe Framerates bescheren.
Und für diese Spiele hole ich mir diese Grafikkarte!!!


Drei von vier der genannten Spiele sind noch nicht erschienen, möglicherweise bereust du den Kauf in Bezug auf diese.

aths
2004-04-20, 18:49:44
Original geschrieben von Quasar
Siehst du, auf der Radeon ist das Bild aber frei von dieser Art Artefakte.Warum beweist das, dass das Problem in der ROP-Logik der GF-Karte zu suchen ist?
Original geschrieben von Quasar
Hm, also muss ich mich bei jeder Sache, die ich zu kaufen gedenke, erstmal ewig lang mit der Materie beschäftigen - allein um gute von schlechten Reviews unterscheiden zu können?
Ich denke nicht, daß das der Weg ist.Wer einige 100 € ausgeben will, sollte die Muße haben, sich zu informieren. Wer eine Graka braucht, um Winword zu nutzen, ist mit einer 64-Bit 5200 bestens (übermäßig gut) bedient.

Original geschrieben von Quasar
Die Termini würden mich interessieren... Du baust z. B. auf Demirugs CineFX-Artikel auf, ohne den Namen Demirug zu nennen.

Original geschrieben von Quasar
Und falls irgendwer das hier liest und meint, entscheidend zum einen oder anderen Detail des Artikels beigetragen zu haben, dann möge er mir eine PM schreiben (gern auch auf englisch) und ich werde liebend gern sog. credits hinzufügen.Sowas ist imo eine Bringschuld des Autors.

Der Rest doch lieber per PM.

ow
2004-04-20, 18:55:04
.

ow
2004-04-20, 19:03:29
.

reunion
2004-04-20, 19:07:26
Original geschrieben von Andre
Das glaubst du nicht wirklich, oder?

Warum soll ich nicht glauben was ich schreibe? ?-)
Wäre imo deutlich sinnvoller als das was man jetzt tut.

aths
2004-04-20, 19:07:56
Original geschrieben von ow
Da drehn wir uns im Kreise aths, denn woher soll ein normaler User denn wissen, wie ein guter Artikel aussieht??Wenn er es nicht wissen kann, kann er es vielleicht fühlen.

Man merkt meist, ob jemand nur rumpost oder wirklich Ahnung hat.

Original geschrieben von ow
Das ist richtig, aber das setzt imo schon gewisse Grundkenntnisse der Materie voraus, damit der User auch erkennt, worüber er nachzudenken hat.
Ich denke, du bist mit deiner Sicht der Dinge dem normalen User schon einen Schritt voraus.Der User kann nicht von vornherein wissen, dass 4x AA nicht gleich 4x AA ist. Dann kann er auch nicht wissen, dass entsprechende Vergleiche Unsinn sind. Er könnte aber fragen, ob es wirklich sinnvoll ist, Quake3 zu benchen und Frameraten jenseits 100 fps zu haben. Ein wenig Grundverständnis muss schon da sein – wer einige 100 € sinnvoll anlegen will, und sich etwas interessiert zeigt, kommt imo gar nicht darum herum, bestimmte Zusammenhänge zu erkennen.

Original geschrieben von ow
Was erwartest du denn von der grossen Masse? dass sie sich derart in die Matiere vertieft wie du (und andere) das tun?Nein, dazu haben sie gar nicht die Zeit, und meist auch nicht die (mathematischen und andere) Voraussetzungen. Aber imo kriegt jeder die Reviews, die er verdient. Wer sich mit 08/15 zufrieden gibt, dem mache ich keine Vorhaltungen dass er gefälligst 3DCenter lesen soll :naughty:. Dann braucht er aber auch später nicht zu jammern, dass ihn dumme Reviewer einen Bären aufgebunden hätten.

3DCenter-Reviews enthalten auch oft Fehler, sind unausgewogen und stellen durch die räumliche Anordnung der Ergebnisse falsche Zusammenhänge her. In 3DCenter-Technikartikel finden sich sowohl grandiose Irrtümer als auch viele kleine Fehlerchen, verkürzte Aussagen die sich falsch interpretieren lassen usw. 3DCenter kann nicht als einzige Quelle eines Interessierten dienen. Kein Medium kann das. Wer dazulernen will, muss sich die Mühe machen, die Wissensstücke zusammenzusuchen und zu verstehen. Das wird immer eine Minderheit bleiben, ja.


Original geschrieben von ow
Da stimme ich dir ganz zu: das kann man vergessen.
Das ist sehr bedauerlich, aber das wird sich auch nicht ändern bzw. ist nicht zu ändern. So ist nunmal die Realität, damit muss man leben (auch wenn dir das schwerfällt). Genau das ist meine Marktlücke X-D Mein Leserkreis ist klein, aber ich bediene ein Segment, welches die meisten sträflich übersehen.

ow
2004-04-20, 19:09:58
.

Quasar
2004-04-20, 19:10:02
Original geschrieben von aths
Warum beweist das, dass das Problem in der ROP-Logik der GF-Karte zu suchen ist?
Wer einige 100 € ausgeben will, sollte die Muße haben, sich zu informieren. Wer eine Graka braucht, um Winword zu nutzen, ist mit einer 64-Bit 5200 bestens (übermäßig gut) bedient.

Du baust z. B. auf Demirugs CineFX-Artikel auf, ohne den Namen Demirug zu nennen.

Sowas ist imo eine Bringschuld des Autors.

Der Rest doch lieber per PM.

a)
Weil dasselbe Artefakt bei GF4 und FX vorkommt, bei Radeons aber nicht.
Ergo kann man wohl den 32Bit-Framebuffer ausschließen, ebenso die interne Rechengenauigkeit in der Pixelpipeline.

Etwas anderes fällt mir in diesem Zusammenhang so auf Anhieb nicht ein, was hier die Bildausgabe derart beeinflussen könnte.
Hast du eine Idee?

b)
OMFG, ich hoffe, du stehst niemals vor der Entscheidung, ein Auto (jaja, der Vergleich hinkt schwerstens... :eyes: ) für mehrere (zehn)tausend Euro zu kaufen.
Wie lange soll man sich denn bei diesen Summen erst mit der Anschaffung beschäftigen?

c)
Auf Demirugs CineFX-Artikel habe ich seit Oktober letzten Jahres (IIRC) jedes Mal am Ende der Daten-Tabelle verwiesen. Da allerdings diese Mal die Zeilen mit den Shader-Ops aus verständlichen und erläuterten Gründen herausgefallen sind, ist ebenso deren Erklärung samt Quellenangabe herausgefallen. Das habe ich tatsächlich übersehen. Sorry!*
Allerdings bin ich der Meinung, daß man nach einer gewissen Zeit gewisse Dinge auch als bekannt voraussetzen kann, da sie mehr und mehr ins Allgemeinwissen übergehen.

Natürlich ist die Nennung eine Bringschuld, aber von den Gesprächen im Vorfeld hatte ich den starken (und auf Nachfrage auch begründeten) Eindruck, daß die Person(en?), mit denen ich im Vorfeld sprach, nicht genannt werden wollten.

Genügt dir das jetzt?

edit:
* Ist hiermit nachgeholt, danke nochmal für den Hinweis!

aths
2004-04-20, 19:15:22
Original geschrieben von ow
Das sehe ich nun wirklich kaum in den zahlreichen Postings wenn´s um neue Hardware(generationen) geht.Ok, ich beschränke das auf die "engagierten 3DCenter-Besucher".

Original geschrieben von ow
Viiiiel zu lange.Entschieden wurde, dass 4x RG kommt, ja schon 2002. Nur ist dann noch nicht gleich die HW da. Bis zum R300 konnte NV ja mit dem insgesamt am besten nutzbaren AA protzen (2x RG) und hatte gleichzeitig den besten MSAA-Modus überhaupt (4x OG.) Wenn ATI angesichts der GF FX endlich eingesehen hätte, dass sie besseres AF anbieten müssen, kommt das vielleicht im R500.

Original geschrieben von ow
Das will ich erst sehen, bevor ich es glaube. Warum sollte der prozentuale Leistungsabfall bei AF (trilinear) auf einem NV40 wesentlich geringer ausfallen als auf einer GF4?Auch mit TF hat man noch BF-Anteile (bei reiner Vergrößerung.) Zudem springt das AF wie gesagt etwas später an. Texturen werden minimal unschärfer, aber nur leicht verzerrte Texturen bekommen dann gar kein AF, was hier pro Pixel 50% Füllrate spart. Vermutlich wird auch ein wenig später auf 4x bwz. 8x geschaltet.

Original geschrieben von ow
Dann wollwn wir doch alle hoffen, dass NV da ein Einsehen hat (und ATi auch). Kirk hat entweder keine Zeit, oder vielleicht auch keine Lust, auf meine Mail zu antworten :( Du kannst dir aber sicher sein, dass ich NV damit weiter auf die Nerven gehe :)

StefanV
2004-04-20, 19:18:17
Original geschrieben von Quasar
a)
Weil dasselbe Artefakt bei GF4 und FX vorkommt, bei Radeons aber nicht.
Ergo kann man wohl den 32Bit-Framebuffer ausschließen, ebenso die interne Rechengenauigkeit in der Pixelpipeline.

Etwas anderes fällt mir in diesem Zusammenhang so auf Anhieb nicht ein, was hier die Bildausgabe derart beeinflussen könnte.
Hast du eine Idee?

b)
OMFG, ich hoffe, du stehst niemals vor der Entscheidung, ein Auto (jaja, der Vergleich hinkt schwerstens... :eyes: ) für mehrere (zehn)tausend Euro zu kaufen.
Wie lange soll man sich denn bei diesen Summen erst mit der Anschaffung beschäftigen?


1. warum nicht?
Die Radeons rendern intern mit einer höheren genauigkeit als die G-Forces

2. naja, soo viel kann man beim Autokauf auch wieder nicht falsch machen...
Das einzige, was ev. noch wichtig wäre, wäre die Zuverlässigkeit der Autos, aber die ist bei aktuellen Fahrzeugen eigentlich überall gleich schlecht.
Dann kann man sich erstmal überlegen, wieviel man ausgeben möchte, was für einen Motor und welche Ausstattung man am besten haben möchte...
Man sollte nur drauf achten, wo man sein Auto kauft...
Meist fährt man am besten, wenn man es bei einer Vertragswerkstatt macht (am besten eine VW Vertragswerkstat, muss aber kein VW sein, den man da kauft, die Wahrscheinlichkeit da einen ncihtVW zu finden ist nur ungleich kleiner *eg*).

StefanV
2004-04-20, 19:20:18
Original geschrieben von aths
Kirk hat entweder keine Zeit, oder vielleicht auch keine Lust, auf meine Mail zu antworten :( Du kannst dir aber sicher sein, dass ich NV damit weiter auf die Nerven gehe :)

Ehrlich gesagt würd ich sagen, daß es schlecht ist, wenn deine Mail unbeantwortet bliebe...

Denn das würde heißen, daß es in HW vermurkst wurde und nicht 'nur' per Treiber...

Quasar
2004-04-20, 19:27:36
Original geschrieben von Stefan Payne
1. warum nicht?
Die Radeons rendern intern mit einer höheren genauigkeit als die G-Forces


Bitte genauer:
Wer rendert wo mit wieviel Bit pro Kanal?

StefanV
2004-04-20, 19:32:23
Original geschrieben von Quasar
Bitte genauer:
Wer rendert wo mit wieviel Bit pro Kanal?

GF4 -> 9 Bit
GF FX -> 12 Bit

Radeon weiß ich momentan nicht...

ow
2004-04-20, 19:34:38
.

Gast
2004-04-20, 19:36:56
Original geschrieben von ow
Ich verstehe das schon. Da es bei Filmstudios nicht um dreistellige fps geht (eher um fpm oder fph:D) sondern um max. Qualität und Kostenersparniss durch Verkleinerung der Renderfarmen dürfte Nv es sich nicht leisten können dort nur qualitätsreduziertes AF anzubieten.
DANKE!
Endlich hat einer begriffen, daß es nicht mehr um die Fähigkeiten der Hardware geht, sondern nur noch um die Software, mit der der Chip gefüttert wird.
Bestenfalls eine Treiberfrage, schlimmstenfalls eine des BIOS, auf die eine oder andere Art bekommt man es zum laufen. Tja, Panikmache generiert Hits, BAD NEWS IS GOOD NEWS, von irgendwas muß man ja leben. Und wenn NV tatsächlich keinen vernünftigen Treiber zu den kaufbaren Karten dazupackt habt ihr auch allen Grund dazu über sie herzuziehen. Aber nicht weil ein Feature unmöglich ist, sondern weil es sich nicht freischalten läßt ohne die Garantie zu verlieren (im Falle der Verankerung im BIOS).
Man verstehe mich nicht falsch, 3dcenter und sein Forum sind eine exzellente Informationsquelle. Aber mit einem Hauch mehr Gelassenheit könnte es noch exzellenter werden...

Quasar
2004-04-20, 19:37:17
Das meinst du, Stefan Payne...

Das gilt allerdings nur für den Integer-Bereich, richtig?

ow
2004-04-20, 19:51:45
.

StefanV
2004-04-20, 19:58:33
Original geschrieben von Quasar
Das meinst du, Stefan Payne...

Das gilt allerdings nur für den Integer-Bereich, richtig?

Richtig.

ALso immer, außer bei PS2.

Wobei die R300 eigentlich immer mit FP24 arbeitet.

ow
2004-04-20, 20:01:20
.

reunion
2004-04-20, 20:14:42
Original geschrieben von ow
Weil es jeglicher Logik entbehrt, was du da schreibst?


Seh ich nicht so...
Es gibt nichts besseres für eine Hersteller als mit überlegener Technik zu protzen. Bis jetzt waren NV ja immer die Arme gebunden da man beim AA ja ziemlich unterlegen war und froh sein musste das dass nicht wirklich ans Tageslicht kam...


Aus wessen Sichtweise soll das denn jetzt gelten?

Aus jeder Sicht.

Dein obiges Posting bezieht sich da auf NV und die haben das sinnvollste für sich getan.

Meinermeinung nach hat man damit mehr Kunden vom kauf abgehalten als man durch die paar % mehr Leistung eventuell gewinnt.

aths
2004-04-20, 20:17:18
Original geschrieben von Stefan Payne
GF4 -> 9 Bit
GF FX -> 12 Bit

Radeon weiß ich momentan nicht... FP24. Ist immer mindestens so gut, wie ein FX17-Format.

Gast
2004-04-20, 21:05:51
Und was ist FX-17 ? kann den Bezug zu deinem Quote nicht herstellen ^^

betasilie
2004-04-20, 21:06:53
*PN @ thowe*

StefanV
2004-04-20, 21:23:24
Original geschrieben von Gast
Und was ist FX-17 ? kann den Bezug zu deinem Quote nicht herstellen ^^

17bit Integer wäre es...

Gibts aber atm bei keiner Karte.

AFAIK wurde das Integerformat auf 16bit verbreitert, bei der GF6800.

aths
2004-04-20, 22:19:58
Original geschrieben von Gast
Und was ist FX-17 ? kann den Bezug zu deinem Quote nicht herstellen ^^ Fixpoint mit 17 Bit Breite.

FP24 hat 1 Bit Vorzeichen, 7 Bit Exponent und 16 Bit Mantisse. Mit der impliziten 1 hat man dann 16+1 = 17 Bit Präzision. Wohlgemerkt in jedem Bereich, den FP24 darstellen kann, ein FX17-Format wäre sozusagen auf einen Bereich begrenzt.

aths
2004-04-20, 22:20:43
Original geschrieben von Stefan Payne
AFAIK wurde das Integerformat auf 16bit verbreitert, bei der GF6800. NV40 rechnet nach wie vor mit FX12. (Bzw., wo hast du das mit den 16 Bit her?)

Gast
2004-04-20, 22:28:07
Aha, danke für die Erläuterung.

StefanV
2004-04-20, 22:35:58
Original geschrieben von aths
NV40 rechnet nach wie vor mit FX12. (Bzw., wo hast du das mit den 16 Bit her?)

Ahso, doch nur FX12?

FX16 geisterte irgendwann mal durchs Netz...

Gast
2004-04-21, 01:38:16
Ein eindeutiger Beweis dafür, daß anisotrope Filterung in diesem Universum unverzichtbar ist:
http://www.heise.de/tp/deutsch/special/raum/17247/1.html
Höchstgradig OT, obwohl irgendwie auch nicht...

betasilie
2004-04-21, 01:46:49
Original geschrieben von Gast
Ein eindeutiger Beweis dafür, daß anisotrope Filterung in diesem Universum unverzichtbar ist:
http://www.heise.de/tp/deutsch/special/raum/17247/1.html
Höchstgradig OT, obwohl irgendwie auch nicht...
Interessanter Artikel. :)

ice cool69
2004-04-21, 03:44:52
@ ow

Gut, meinerseits ist unser kleiner Streit hiermit beendet.

@ Topic

Es wäre nVidia hocn anzurechnen wenn sie winkelunabhängiges AF noch freischalten, trotzdem bin ich eher pessimistisch, wenn auch hoffnungsvoll.
Warum sollte nVidia noch mehr Transistoren für AF verschenden? Es würde wohl mehr Geld durch Einsparung dieser Transistoren gespart werden als Verkäufe von uns Technik-freaks einbringen würden.

MadManniMan
2004-04-21, 04:50:59
Original geschrieben von ow
Wir haben in diversen Thread doch die besten Beweise dafuer, warum NV diesmal eben auch auf die "Speed"-Linie setzt und dafuer eben Qualitaetsabtriche in Kauf nimmt.
Davon abgesehn ist NVs NV40-AF doch fuer die ganzen ATi User kein Qualitaetsabstrich, es ist im Gegenteil sogar noch leicht besser als ATis AF (allerdings derart marginal, dass ich es als gleichwertig ansehe).

Hm, jein. Hätten sich die Jungens aus Santa Clara rein auf Speed gesetzt, wären Sachen wie FP-Filterung und 8xS gar nicht eingebaut / vorgesehen worden. Auch das RGMS war ein Qualischritt in die richtige Richtung, wenn auch mehr oder minder ausgeschlossen war, daß er eben nicht komm. Der NV40 sieht nach einem guten Gesamtpaket aus - Raw- und Shaderpower ahoi, dazu viel Kram, den man sich kaum für ihn erwünscht hätte und endlich 4*RGMS/16SampleAF. Der Wermutstropfen des adaptiven AF sitzt mir jedoch zu tief, um himmelhochjauchzend zum nächsten HW-Shop zu rennen. Im Selbsttest fand ich heraus, daß für mich selbst in meiner nativen 1280er Auflösung 4*RGMS wohl durchaus ausreichend ist und aus geschwindigkeitstechnischer Sicht her mit dem NV40 gut bedient wäre, jedoch hab ich mit einer GF6 mit beschnittenem AF nur einen Performancevorteil gegenüber meiner R300 - und das ist mir zu wenig!
Und nochwas: anscheinend geht es überraschend vielen anderen ATi-Usern genauso ... die Bereitschaft zum Wechsel zu NV ist da, jedoch schreckt auf einmal ab, daß man aus BQ+ Feature Hinsicht auf der Stelle träte.

Klar soweit?

Original geschrieben von ow
Dennoch wird hier soweit ich das sehe ueberwiegend aus der ATi-Ecke geplaerrt wie schlimm doch NVs neues AF sei.
Da haette ich gerne mal eine Erklaerung dafuer.

Grund siehe oben. BTW kenne ich niemanden, der wie du über eben genau dieses AF geheult hat, so als Anekdote nebenbei, gell?

Original geschrieben von ow
Wie ich oben schon schrieb waere es egal, was NV als AF geliefert haette: waere es schoen und langsam (schoen und schnell geht ja leider nicht) gewesen haetten die Ati User ebenso NV gebasht wie sie es jetzt tun.

Ach komm, als ob es dich ernsthaft interessieren würde, was stupide Fan-Kiddies sagen. Doch nicht dich?
Nun, was mich an der Aussage stört, ist daß sie indirekt impliziert, daß du eben jene Leute meinst, die hier mit dir diskutieren - wenn du unter ihnen einen Fanboy siehst, sag es. Sag es mir, oder kmf, oder beta - oder auch reunion. Oder was willst du damit sagen?

Original geschrieben von ow
Dass ich persoenlich nichts von Qualireduktion zwecks Speedgewinn halte erwaehnte ich auch schon. (Das war btw. schon immer so und wird sich auch niemals aendern).

Wovon wohl auch nie jemand bei dir ausgegangen ist. Deine patzigen Reaktionen auf die Aussagen contra NV waren/sind das Problem einiger User hier. MMM inklusive. Du polarisierst im Grafikchipforum IMHO mehr, als ich es tu - und das steht nem Mod gewiß nicht gut, neinnein!

Original geschrieben von ow
Aber wer solches Vorgehen voher gut geheissen hat (die meisten der Ati User imo), der moege sich doch jetzt bitte etwas zurueckhalten mit Kritik. Ansonsten muss ja zwangsweise der Eindruck entstehen, es ginge jenen nur darum NV zu bashen.

Kurze Frage: würde es dir im Herzen wehtun, pro ATi Gebashe gegen eben jene Kanadier auf diese Art und Weise zu kritisieren?

Antworte bitte auch auf die Teilpunkte - und vor allem auch auf die, die nur fragmenthafte Reaktionen von dir bekamen.

Lustiger Troll
2004-04-21, 05:48:33
Also ich kann ow gut verstehen, das AF der ATI-Karten wurde viellerseits totgeschwiegen es wurde das 8x nVIDIA AF gegen das 8x winkelabhängige AF von ATI gebencht, es gibt viele, nennen wir sie mal DAU`s, die nicht wissen das ATI`s AF winkelabhängig ist und schlechter als das von NV, die sehen nur eine Zahl und wenn da 8x AF gegen 8x AF gebencht wird ist das für sie dasselbe, deshalb hat NV jetzt halt reagiert um vergleichbar zu sein, das ist im Interesse von NV, sicher nicht das von uns, aber ich verstehe die Rote Fraktion jetzt nicht warum sie so auf NV`s AF rumbashen, bei der ATI wars ihnen bisher egal, nur weil NV da mitzieht ist es jetzt auf einmal schlecht, den Spruch "vielleicht hätte sich ja ein ATIaner ne NV40 zugelegt wegen dem AF, aber jetzt will ich nicht mehr" ist für mich Kindisch, ich würd mir auch nie ne ATI kaufen weil sie das bessere AA hatt, zudem gebe ich die Hoffnung nicht auf dass das High Quality Setting für winkelunabhängiges AF steht, von mir aus nur 8x, wartet doch mal auf Finale Treiber/Karten. Ich freu mich jedenfalls wenn wir hier den ATI-Bashtread am 5 Mai eröffnen, dann such ich auch nach Fehlern wo eigentlich gar keine sind, lange Rede kurzer Sinn.
Aber es ist so wie immer:

ATI= Optimiert, ist der gute
NV= Cheatet, ist der böse

Wieso muss alles was NV macht schlecht sein, wenn es ATI schon seit jahren so macht? Es geht beiden Firmen schlussendlich nur um eins Geld Geld und nochmals Geld, und leider Gottes schauen die DAU`s auf Reviews von Karten und sind an Zahlen in irgendwelchen Schwanzmarks interessiert, die kümmerts weniger ob da was winkelabhängig ist oder nicht der mit den höchsten Schwanzmarks wird gekauft, es ist nicht jeder ein Technikfreak der nen PC hat, ich kenne einige die wissen nicht mal das die neuen Geforcekarten gekommen sind oder das ATI was neues bringt, es ist ihnen egal wer wie Cheatet/Optimiert, ja es sind DAU`s, Knöpfchen an PC läuft fertig, es gibt leider zuviele solcher Leute.

MadManniMan
2004-04-21, 06:04:17
Original geschrieben von Lustiger Troll
den Spruch "vielleicht hätte sich ja ein ATIaner ne NV40 zugelegt wegen dem AF, aber jetzt will ich nicht mehr" ist für mich Kindisch, ich würd mir auch nie ne ATI kaufen weil sie das bessere AA hatt

Trifft für mich aber zu. Mehr denn 4*RGAA bringts für mich nur in Ausnahmefällen, dafür hätte ich mich doch über kompletto stimmiges AF gefreut.
Und ja, ich zähl mich zu den ATi-Sympathiesanten(bitte nicht FanATiker, ich war/bin/bleibe 3DfxLer), da mir nV einfach manchmal nicht schmeckt. Ist aber eher ne Bauchsache und hat bisher noch keine meiner Kaufentscheidungen beeinflußt.

Lustiger Troll
2004-04-21, 06:23:03
Wen dir NVs AF so gefällt dann kauf dir doch ne GF FX, dann hast du schönes AF, auch wenn es Bri ist, der Rest wie Shaderperformance das grottige AA der NV3x Reihe kannst du ja mal ausser acht lassen, hauptsache du hst schönes AF ;). Es geht bei dem ganzen winkelabhängikeitsfurz ja nicht um uns, sondern um die Leute die keine Ahnung haben, die denken sich wooow die NV40 hat jetzt 16xAF, wie NV das erreicht ist ihnen egal, ob es nun schlechter oder besser ist als das alte 8x, das weiss ein wirklich kleiner Teil der gesamten PC Benützer, du weisst das ich weiss es, aber was ist mit den ALDI-PC käufern, interessiert die das, ich denke weniger die schauen auf Zahlen die sie vergleichen können, ATI 16xAF, NV 16xAF. Somit ist das für sie dasselbe.

MadManniMan
2004-04-21, 06:51:10
Hier geht es aber im Prinzip weniger um DurchschnittsDAUs, sondern um Durchschnitts-3DC-User - und die haben tatsächlich doch ein bissl mehr Plan von der ganzen Scheiße.

Und nein, ne GFFX würde ich kaum kaufen - es fehlt an einem performanten AA-Modus mit einer EER von 4*4. Alles andere ist für mich inzwischen indiskutabel und/oder für den Zweitrechner, aber der bekommt eh meine R95Pro, wenn ein R420 oder NV40 meinen 1.Rechner befOI0rt.

So und jetzt gut Nacht, schlafen müßt ich auch mal wieder... ;)

Lustiger Troll
2004-04-21, 07:26:13
Original geschrieben von MadManniMan
Hier geht es aber im Prinzip weniger um DurchschnittsDAUs, sondern um Durchschnitts-3DC-User - und die haben tatsächlich doch ein bissl mehr Plan von der ganzen Scheiße.



NV geht es aber nicht um uns, wir sind mehr die Highendfuzzies, mit High-End wird weder bei NV noch ATI richtig viel Kohle verdient. High-End ist nur um aufzuzeigen was der Chip leisten kann (Image ist halt alles). Der Mid-Range Low-End Markt, vorallem der OEM-Markt bringt Kohle rein. Sag mir nicht die Leute die bei ALDI, MM oder was auch immer rechner basteln haben eine Ahnung, die schauen sich Zahlen an, Features, ist die Karte schnell, was ünterstützt sie.... Deshalb verstehe ich NV auf jedemfall, mir wäre es ja auch egal wenn ATI`s neuer Chip ein NV3xlike AA hätte, who cares.

[B]
So und jetzt gut Nacht, schlafen müßt ich auch mal wieder...


Ja das sollte ich auch wieder mal machen :D, schön das wir uns wenigstens in dem Punkt einig sind.

aths
2004-04-21, 09:45:24
Original geschrieben von Stefan Payne
Ahso, doch nur FX12?

FX16 geisterte irgendwann mal durchs Netz... Als Spekulation, ja. NV sprach aber immer nur von FX12 bezüglich NV40.

aths
2004-04-21, 09:49:25
Original geschrieben von Lustiger Troll
NV geht es aber nicht um uns, wir sind mehr die Highendfuzzies, mit High-End wird weder bei NV noch ATI richtig viel Kohle verdient. High-End ist nur um aufzuzeigen was der Chip leisten kann (Image ist halt alles). Deshalb sollte im Highend-Markt bestes AF geboten werden, damit die Leute, die die Highend-Chips einigermaßen fachgerecht beurteilen, den Chip hochloben :)

Lustiger Troll
2004-04-21, 10:25:08
Original geschrieben von aths
Deshalb sollte im Highend-Markt bestes AF geboten werden, damit die Leute, die die Highend-Chips einigermaßen fachgerecht beurteilen, den Chip hochloben :)

Ich denke mal im High-End sollte es eher drum gehen, wer hat die schnellere Karte, mit "vergleichbaren" Werten, und nicht der eine hat durch winkelabhängiges AF ~40% mehrleistung nur weil es winkelabhängig ist, ich vertrau hier einfach mal meinem Gefühl und behaupte das NV das in einem Offizielen Treiber nachreichen wird, vielleicht zu optimistisch vielleicht sehe ich auch alles nur noch Grün ;).

aths
2004-04-21, 10:36:38
Original geschrieben von Lustiger Troll
Ich denke mal im High-End sollte es eher drum gehen, wer hat die schnellere Karte, mit "vergleichbaren" Werten,Was interessiert mich das AF der einen, wenn ich prüfe ob eine Karte der anderen zu mir passt?
Original geschrieben von Lustiger Troll
und nicht der eine hat durch winkelabhängiges AF ~40% mehrleistung nur weil es winkelabhängig ist,40% halte ich für deutlich übertrieben.

Lustiger Troll
2004-04-21, 10:50:14
Original geschrieben von aths
Was interessiert mich das AF der einen, wenn ich prüfe ob eine Karte der anderen zu mir passt?

Das wiederspricht der ganzen Diskussion! Oder ich versteh nicht was du mit dem ausagen willst.

40% halte ich für deutlich übertrieben.

Da geb ich dir recht war nur ne überlegung ich dachte das sollte im Best-Case ungefähr drinn sein.

aths
2004-04-21, 11:01:13
Original geschrieben von Lustiger Troll
Das wiederspricht der ganzen Diskussion! Oder ich versteh nicht was du mit dem ausagen willst.Ich widerspreche der Meinung, es sei das wichtigste, bei HQ-Settings vergleichbare BQ zu haben. Imo ist es wichtig, bei HQ-Settings auf Wunsch höchstmögliche BQ zu haben, ungeachtet dessen, was andere Grakas liefern können.

LovesuckZ
2004-04-21, 11:03:07
Original geschrieben von aths
Imo ist es wichtig, bei HQ-Settings auf Wunsch höchstmögliche BQ zu haben, ungeachtet dessen, was andere Grakas liefern können.

Dann dürfst du auch keine Grafikkarten von zwei verschiedenen Chiphersteller vergleichen.

Sunrise
2004-04-21, 11:06:12
Aus der Perspektive von NV war es womöglich richtig, diesen Schritt zu tun. Es gibt von mir aus absolut keine Einwände, da es leider zuhauf Seiten gibt, welche entweder nicht das nötige Fachwissen haben, um die AF-Qualität zu beurteilen, oder denen es leichter fällt, ihre Zeit in mehr Benches zu investieren. Durch die subjektive Sichtweise dieser Seiten, und das gleichzeitige große Feedback jener, kann man NV eigentlich keine Vorwürfe machen.

Aus der Sicht des Käufers von High-End-Hardware sollte man allerdings nicht auf dieses Verfahren zurückgreifen, da es z.b. mir völlig egal ist, ob die Karte ein gewisses Speedlevel erreicht, wenn ich dafür Abstriche in Kauf nehmen muss.

Man kann also beiden Seiten durchaus Recht geben, und NV hat es sicherlich dadurch auch nicht leichter. Ich bin mir sogar ziemlich sicher, dass NV intern sehr lange darüber diskutiert hat, gerade den Qualitätsfanatikern wie D. Kirk sollte diese Entscheidung doch sehr schwergefallen sein.

Lustiger Troll
2004-04-21, 11:11:53
Original geschrieben von aths
Ich widerspreche der Meinung, es sei das wichtigste, bei HQ-Settings vergleichbare BQ zu haben. Imo ist es wichtig, bei HQ-Settings auf Wunsch höchstmögliche BQ zu haben, ungeachtet dessen, was andere Grakas liefern können.

Naja jetzt wird auf mir rumgebahst :bawling:, meiner ansicht ist das ja auch aber sieh das ganze mal aus NVs sicht, sie fühlten sich dadurch benachteiligt und dachten, Ok das was ihr (ATI) könnt, können wir auch machen, es geht doch bei dem ganzen nicht um dich oder mich, wir sind eine kleine anzahl Menschen die das interessiert, IMO ein viel zu kleiner Marktanteil um damit Geld zu verdienen, zudem geht es bei dem ganzen um einen Betatreiber mit bei dem der HQ Modus noch gar nicht funktioniert, wer sagt dir das der nicht das Winkelabhängige AF Ausschaltet, Tri kann ja schon in den Settings eingeschaltet werden, was für eine Steigerung sollte dieses Setting deiner Meinung nach den haben?

aths
2004-04-21, 11:17:18
Original geschrieben von LovesuckZ
Dann dürfst du auch keine Grafikkarten von zwei verschiedenen Chiphersteller vergleichen. Mache ich auch nicht. Leo bekam auch für seine neuesten Benchmarks von mir die Ohren vollgejault.

HOT
2004-04-21, 11:18:22
Original geschrieben von Lustiger Troll
Also ich kann ow gut verstehen, das AF der ATI-Karten wurde viellerseits totgeschwiegen es wurde das 8x nVIDIA AF gegen das 8x winkelabhängige AF von ATI gebencht, es gibt viele, nennen wir sie mal DAU`s, die nicht wissen das ATI`s AF winkelabhängig ist und schlechter als das von NV, die sehen nur eine Zahl und wenn da 8x AF gegen 8x AF gebencht wird ist das für sie dasselbe, deshalb hat NV jetzt halt reagiert um vergleichbar zu sein, das ist im Interesse von NV, sicher nicht das von uns, aber ich verstehe die Rote Fraktion jetzt nicht warum sie so auf NV`s AF rumbashen, bei der ATI wars ihnen bisher egal, nur weil NV da mitzieht ist es jetzt auf einmal schlecht, den Spruch "vielleicht hätte sich ja ein ATIaner ne NV40 zugelegt wegen dem AF, aber jetzt will ich nicht mehr" ist für mich Kindisch, ich würd mir auch nie ne ATI kaufen weil sie das bessere AA hatt, zudem gebe ich die Hoffnung nicht auf dass das High Quality Setting für winkelunabhängiges AF steht, von mir aus nur 8x, wartet doch mal auf Finale Treiber/Karten. Ich freu mich jedenfalls wenn wir hier den ATI-Bashtread am 5 Mai eröffnen, dann such ich auch nach Fehlern wo eigentlich gar keine sind, lange Rede kurzer Sinn.


Jaja, die ATI User sehen sich als die "guten" und NV ist das "böse". Mal ernsthaft, so einen Quatsch hab ich schon lange nicht mehr gelesen ;)
Ist dir vielleicht schonmal in den Sinn gekommen, dass die Welt nicht nur aus NVidioten und FanATIkern besteht? Du gehst davon aus, dass jeder ATI Besitzer ein FanATIker ist! Das ist mit Verlaub gesagt einfach beleidigend!
Viele haben ATI gewählt, weil ATI das bessere Gesamtpaket bot. Da hat man das winkelabhängige AF eben in Kauf genommen, weil es schlicht keine Alternativen gab. Es ist mir ehrlichgesagt scheissegal, ob du das kindisch findest, es ist aber leider die Wahrheit. Es sind eben viele User enttäuscht gewesen, weil das der einzige wirkliche Schwachpunkt bei ATI Karten sind. Kann ich gut nachvollziehen weil es mir ebenso geht. Viele haben sich darauf verlassen, dass hier mit NV zu rechnen war und sehen nun aber keinen Grund ihre bisherige Hardware gegen die neue Geforce zu tauschen, weil sich in der eigentlichen BQ ersteinmal nichts verbessert. Die Speed ist sogar bei meiner Radeon9700 für die meisten Sachen mit AA und AF noch ok, dafür brauch ich *noch* keine neue Karte. Für mich war AF ein Kaufgrund und wenn auch ATI nichts an einem AF verbessert, werde ich erstmel KEINE kaufen. Bei stimmenden AF hätte ich die 6800er genommen; die Kohle dafür hab ich ja zusammen; eine neue GraKa war ne fest geplante Ausgabe.



Aber es ist so wie immer:

ATI= Optimiert, ist der gute
NV= Cheatet, ist der böse

Wieso muss alles was NV macht schlecht sein, wenn es ATI schon seit jahren so macht? Es geht beiden Firmen schlussendlich nur um eins Geld Geld und nochmals Geld, und leider Gottes schauen die DAU`s auf Reviews von Karten und sind an Zahlen in irgendwelchen Schwanzmarks interessiert, die kümmerts weniger ob da was winkelabhängig ist oder nicht der mit den höchsten Schwanzmarks wird gekauft, es ist nicht jeder ein Technikfreak der nen PC hat, ich kenne einige die wissen nicht mal das die neuen Geforcekarten gekommen sind oder das ATI was neues bringt, es ist ihnen egal wer wie Cheatet/Optimiert, ja es sind DAU`s, Knöpfchen an PC läuft fertig, es gibt leider zuviele solcher Leute.


Warum ist das wohl so? Es gibt eben doch einige die das Futuremark Debakel mitbekamen und NV hat hier offensichtlich versucht die FXen besser darstehen zu lassen als sie sind <- Vertrauensverlust. ATI war hier verlässlich, da sich an den Benchmarks ja nichts grossartig änderte <- Vertrauensgewinn ggü. NV.
Danach kam noch brilinear <- Vertrauensverlust. ATI hat hier niemals Erwartungshaltungen gehabt oder geschürt. NV hat dies aber unterschätzt.
Jetzt kommt noch die Enttäuschung mit dem AF (und IF) hinzu <- Enttäuschung für dijenigen die einen Fortschritt in der BQ sehen möchten! Bei ATI erwartet man auch hier nichts anderes, aber wieder hat NV die Erwartung unterschätzt.
NV verliert das Vertrauen der User. Die Brilineargeschichte ist reine Willkür, weil man per Treiber etwas aufgezwungen bekommt, was ma schlicht nicht möchte und wofür man net zig 100€ ausgegeben hat. NV hat für ein paar % mehr Leistung Verbraucherzufriedenheit+Vertrauen vernichtet. Glaubst das ist nicht bares Geld? Das war ein taktischer Fehler seitens NV. Deshalb kann ich auch ows Argumentation dass NV alles richtig gemacht hat nicht nachvollziehen. Vertrauensverlust und Enttäuschung setzen sich fest und werden NV noch sehr lange verfolgen. Bei ATI hat man von dem AF nichts erwartet, da spielte dann auch die Treiberooptimierung keine Rolle mehr (Texturstages 1-7; man kann es ja immerhin noch erzwingen). Ich hoffe inständig, dass NV und ATI ab jetzt wieder etwas Verlässlichkeit zeigt und keine "cheats" die gravierend sind wie das nichtabschaltbare brilinear (was ja zum Glück nun geht) nicht mehr vorkommen.

Nochmal was zu Usern:
Und es ist schlichtweg falsch, dass DAUs alles glauben was in Reviews steht! DAUs kaufen keine GraKas! DAUs kaufen Komplettrechner und denen isses scheissegal was da für ne GraKa drin ist. Von Speed oder Quali haben echte DAUs überhaupt keinen schimmer! Und ich finde es auch absolut nicht schlimm, dass sich Leute nicht damit auskennen. Für die meisten ist das ein Gebrauchsgegenstand wie ein Fernseher oder ne Mikrowelle. Die geben auch nicht den Ton an, und hier entsteht auch keine Reputation für Grafikchiphersteller! Das ist schlicht eine grosse Masse, die egal ist. Nicht egal ist jedoch was diskutiert wird zwischen Interessierten (sei es berufliches oder privates Interesse).
Reviews richten sich an Interessierte und sehr viele Leute halten sich an das Gebot, dass man immer mehr als eine Review lesen sollte, so wie man es mit jeder grösseren Anschaffung machen sollte. Und soooo schlecht würd ich Reviewer insgesamt auch nicht machen, ich denke dass dort langsam Besserung in Sicht ist. Sogar THG hat die Winkelabhängigkeit dargestellt und bemängelt. Vielen reviewer mangelt es auch einfach an Zeit vernünftig Infos zu sammeln und zu verwerten.

Interessierte bekommen aber nicht nur Revies mit, sondern besuchen auch Foren. Und wenn hier Leute ihren Unmut über Filter etc. kundtun, bekommen das auch viele mit. Dazu kommt noch, dass der Durchschnitt der Interessierten auf dem richtigen Weg ist, nämlich dass es mehrere Faktoren bei der Grafikdarstellung gibt, die wichtig sind. Der Bildungsgrad steigt insgesamt, mittlerweile gibt es ja auch mit 3DCenter ein kompetentes Angebot ;)
Nicht umsonst hats den Server zerhauen am Stichtag :D

aths
2004-04-21, 11:20:17
Original geschrieben von Lustiger Troll
Naja jetzt wird auf mir rumgebahst :bawling:, meiner ansicht ist das ja auch aber sieh das ganze mal aus NVs sicht,Wäre ich NV, hätte ich eh einiges anders gemacht, z. B. frühzeitig 4x RGMSAA geboten.

Original geschrieben von Lustiger Troll
sie fühlten sich dadurch benachteiligt und dachten, Ok das was ihr (ATI) könnt, können wir auch machen, es geht doch bei dem ganzen nicht um dich oder mich, wir sind eine kleine anzahl Menschen die das interessiert, IMO ein viel zu kleiner Marktanteil um damit Geld zu verdienen,Wir haben eine gewisse Funktion als Meinungsmultiplikator.

Original geschrieben von Lustiger Troll
zudem geht es bei dem ganzen um einen Betatreiber mit bei dem der HQ Modus noch gar nicht funktioniert, wer sagt dir das der nicht das Winkelabhängige AF Ausschaltet, Was bislang von NV zu hören war, hörte sich nicht so an, als ob das möglich sei. Damit ist es natürlich nicht unmöglich, eine definitive Antwort steht noch aus.

Original geschrieben von Lustiger Troll
was für eine Steigerung sollte dieses Setting deiner Meinung nach den haben? Abschalten der AF-Grad-Verringerung bei schwachkontrastigen Texturen wäre eine Möglichkeit.

aths
2004-04-21, 11:25:00
Original geschrieben von HOT
Warum ist das wohl so? Es gibt eben doch einige die das Futuremark Debakel mitbekamen und NV hat hier offensichtlich versucht die FXen besser darstehen zu lassen als sie sind <- Vertrauensverlust. ATI war hier verlässlich, da sich an den Benchmarks ja nichts grossartig änderte <- Vertrauensgewinn ggü. NV. Auch ATI hat mit Shaderreplacemenet experimentiert, allerdings wurde das nicht an die große Glocke gehängt. NV trieb es beim 3DMark-Cheaten deutlich weiter, ATI ist aber keineswegs unschuldig.

Original geschrieben von HOT
Danach kam noch brilinear <- Vertrauensverlust.Ohne viel Taraa limitierte ATI "Quality" AF in Direct3D bei allen nicht-primären Texture Stages auf bilinear.

Lustiger Troll
2004-04-21, 11:25:36
grml blödsinn....

Lustiger Troll
2004-04-21, 11:37:33
Original geschrieben von HOT
Jaja, die ATI User sehen sich als die "guten" und NV ist das "böse". Mal ernsthaft, so einen Quatsch hab ich schon lange nicht mehr gelesen ;)

Naja ich habe meinem Namen nicht umsonst :P



Ist dir vielleicht schonmal in den Sinn gekommen, dass die Welt nicht nur aus NVidioten und FanATIkern besteht? Du gehst davon aus, dass jeder ATI Besitzer ein FanATIker ist! Das ist mit Verlaub gesagt einfach beleidigend!
Viele haben ATI gewählt, weil ATI das bessere Gesamtpaket bot.


Das habe ich schon geschrieben das es viele Leute gibt denen es egal ist wie was gemacht wird die schauen nicht drauf ob da NV oder ATI draufsteht die schauen auf Zahlen! Beleidigen wollte ich niemand, sonst müsste ich auch sagen das alle mit einer NV nVIDIOTEN sind.



Da hat man das winkelabhängige AF eben in Kauf genommen, weil es schlicht keine Alternativen gab. Es ist mir ehrlichgesagt scheissegal, ob du das kindisch findest, es ist aber leider die Wahrheit. Es sind eben viele User enttäuscht gewesen, weil das der einzige wirkliche Schwachpunkt bei ATI Karten sind. Kann ich gut nachvollziehen weil es mir ebenso geht. Viele haben sich darauf verlassen, dass hier mit NV zu rechnen war und sehen nun aber keinen Grund ihre bisherige Hardware gegen die neue Geforce zu tauschen, weil sich in der eigentlichen BQ ersteinmal nichts verbessert. Die Speed ist sogar bei meiner Radeon9700 für die meisten Sachen mit AA und AF noch ok, dafür brauch ich *noch* keine neue Karte. Für mich war AF ein Kaufgrund und wenn auch ATI nichts an einem AF verbessert, werde ich erstmel KEINE kaufen. Bei stimmenden AF hätte ich die 6800er genommen; die Kohle dafür hab ich ja zusammen; eine neue GraKa war ne fest geplante Ausgabe.




Wartet doch mal auf Finale Treiber, das sag ich schon zum 3. oder 4. mal, letztes Jahr wars die Grottenschlechte Shaderperformance, dieses Jahr ists das AF... und so wird es weiter gehen.



Warum ist das wohl so? Es gibt eben doch einige die das Futuremark Debakel mitbekamen und NV hat hier offensichtlich versucht die FXen besser darstehen zu lassen als sie sind <- Vertrauensverlust. ATI war hier verlässlich, da sich an den Benchmarks ja nichts grossartig änderte <- Vertrauensgewinn ggü. NV.
Danach kam noch brilinear <- Vertrauensverlust. ATI hat hier niemals Erwartungshaltungen gehabt oder geschürt. NV hat dies aber unterschätzt.
Jetzt kommt noch die Enttäuschung mit dem AF (und IF) hinzu <- Enttäuschung für dijenigen die einen Fortschritt in der BQ sehen möchten! Bei ATI erwartet man auch hier nichts anderes, aber wieder hat NV die Erwartung unterschätzt.
NV verliert das Vertrauen der User. Die Brilineargeschichte ist reine Willkür, weil man per Treiber etwas aufgezwungen bekommt, was ma schlicht nicht möchte und wofür man net zig 100€ ausgegeben hat. NV hat für ein paar % mehr Leistung Verbraucherzufriedenheit+Vertrauen vernichtet. Glaubst das ist nicht bares Geld? Das war ein taktischer Fehler seitens NV. Deshalb kann ich auch ows Argumentation dass NV alles richtig gemacht hat nicht nachvollziehen. Vertrauensverlust und Enttäuschung setzen sich fest und werden NV noch sehr lange verfolgen. Bei ATI hat man von dem AF nichts erwartet, da spielte dann auch die Treiberooptimierung keine Rolle mehr (Texturstages 1-7; man kann es ja immerhin noch erzwingen). Ich hoffe inständig, dass NV und ATI ab jetzt wieder etwas Verlässlichkeit zeigt und keine "cheats" die gravierend sind wie das nichtabschaltbare brilinear (was ja zum Glück nun geht) nicht mehr vorkommen.

Nochmal was zu Usern:
Und es ist schlichtweg falsch, dass DAUs alles glauben was in Reviews steht! DAUs kaufen keine GraKas! DAUs kaufen Komplettrechner und denen isses scheissegal was da für ne GraKa drin ist. Von Speed oder Quali haben echte DAUs überhaupt keinen schimmer! Und ich finde es auch absolut nicht schlimm, dass sich Leute nicht damit auskennen. Für die meisten ist das ein Gebrauchsgegenstand wie ein Fernseher oder ne Mikrowelle. Die geben auch nicht den Ton an, und hier entsteht auch keine Reputation für Grafikchiphersteller! Das ist schlicht eine grosse Masse, die egal ist. Nicht egal ist jedoch was diskutiert wird zwischen Interessierten (sei es berufliches oder privates Interesse).
Reviews richten sich an Interessierte und sehr viele Leute halten sich an das Gebot, dass man immer mehr als eine Review lesen sollte, so wie man es mit jeder grösseren Anschaffung machen sollte. Und soooo schlecht würd ich Reviewer insgesamt auch nicht machen, ich denke dass dort langsam Besserung in Sicht ist. Sogar THG hat die Winkelabhängigkeit dargestellt und bemängelt. Vielen reviewer mangelt es auch einfach an Zeit vernünftig Infos zu sammeln und zu verwerten.



Jaja es ist nicht jeder der Reviews liest ein Superober3dguru, es gibt durchaus Leute die vertrauen einfach auf solche Seiten, und wenn da eine oder 2 Seiten von Winkelabhängikeit labbern interessiert die das nicht gross sag ich mal. Sofern auf den meisten Seiten in den letzten Jahren nichts von ATIs winkelabhängigem AF gesagt wurde, nein es wurde fröhlich 8x gegen 8x gebencht, "hui und ATI hat sogar 16x das muss ja einfach besser sein als NVs die haben ja nur 8x, pfff winkelabhängig was interessiert mich das ist ja nicht so schlim", nun hat NV dasselbe und es ist Schlimm, das nennt sich Doppelmoral und wiederspricht jeglicher Objektivität.

/Edit: blöder Knopf ;)

Exxtreme
2004-04-21, 12:02:56
Original geschrieben von HOT
Jaja, die ATI User sehen sich als die "guten" und NV ist das "böse". Mal ernsthaft, so einen Quatsch hab ich schon lange nicht mehr gelesen ;)
Ist dir vielleicht schonmal in den Sinn gekommen, dass die Welt nicht nur aus NVidioten und FanATIkern besteht? Du gehst davon aus, dass jeder ATI Besitzer ein FanATIker ist! Das ist mit Verlaub gesagt einfach beleidigend!
Viele haben ATI gewählt, weil ATI das bessere Gesamtpaket bot. Da hat man das winkelabhängige AF eben in Kauf genommen, weil es schlicht keine Alternativen gab. Es ist mir ehrlichgesagt scheissegal, ob du das kindisch findest, es ist aber leider die Wahrheit. Es sind eben viele User enttäuscht gewesen, weil das der einzige wirkliche Schwachpunkt bei ATI Karten sind. Kann ich gut nachvollziehen weil es mir ebenso geht. Viele haben sich darauf verlassen, dass hier mit NV zu rechnen war und sehen nun aber keinen Grund ihre bisherige Hardware gegen die neue Geforce zu tauschen, weil sich in der eigentlichen BQ ersteinmal nichts verbessert. Die Speed ist sogar bei meiner Radeon9700 für die meisten Sachen mit AA und AF noch ok, dafür brauch ich *noch* keine neue Karte. Für mich war AF ein Kaufgrund und wenn auch ATI nichts an einem AF verbessert, werde ich erstmel KEINE kaufen. Bei stimmenden AF hätte ich die 6800er genommen; die Kohle dafür hab ich ja zusammen; eine neue GraKa war ne fest geplante Ausgabe.





Warum ist das wohl so? Es gibt eben doch einige die das Futuremark Debakel mitbekamen und NV hat hier offensichtlich versucht die FXen besser darstehen zu lassen als sie sind <- Vertrauensverlust. ATI war hier verlässlich, da sich an den Benchmarks ja nichts grossartig änderte <- Vertrauensgewinn ggü. NV.
Danach kam noch brilinear <- Vertrauensverlust. ATI hat hier niemals Erwartungshaltungen gehabt oder geschürt. NV hat dies aber unterschätzt.
Jetzt kommt noch die Enttäuschung mit dem AF (und IF) hinzu <- Enttäuschung für dijenigen die einen Fortschritt in der BQ sehen möchten! Bei ATI erwartet man auch hier nichts anderes, aber wieder hat NV die Erwartung unterschätzt.
NV verliert das Vertrauen der User. Die Brilineargeschichte ist reine Willkür, weil man per Treiber etwas aufgezwungen bekommt, was ma schlicht nicht möchte und wofür man net zig 100€ ausgegeben hat. NV hat für ein paar % mehr Leistung Verbraucherzufriedenheit+Vertrauen vernichtet. Glaubst das ist nicht bares Geld? Das war ein taktischer Fehler seitens NV. Deshalb kann ich auch ows Argumentation dass NV alles richtig gemacht hat nicht nachvollziehen. Vertrauensverlust und Enttäuschung setzen sich fest und werden NV noch sehr lange verfolgen. Bei ATI hat man von dem AF nichts erwartet, da spielte dann auch die Treiberooptimierung keine Rolle mehr (Texturstages 1-7; man kann es ja immerhin noch erzwingen). Ich hoffe inständig, dass NV und ATI ab jetzt wieder etwas Verlässlichkeit zeigt und keine "cheats" die gravierend sind wie das nichtabschaltbare brilinear (was ja zum Glück nun geht) nicht mehr vorkommen.

Nochmal was zu Usern:
Und es ist schlichtweg falsch, dass DAUs alles glauben was in Reviews steht! DAUs kaufen keine GraKas! DAUs kaufen Komplettrechner und denen isses scheissegal was da für ne GraKa drin ist. Von Speed oder Quali haben echte DAUs überhaupt keinen schimmer! Und ich finde es auch absolut nicht schlimm, dass sich Leute nicht damit auskennen. Für die meisten ist das ein Gebrauchsgegenstand wie ein Fernseher oder ne Mikrowelle. Die geben auch nicht den Ton an, und hier entsteht auch keine Reputation für Grafikchiphersteller! Das ist schlicht eine grosse Masse, die egal ist. Nicht egal ist jedoch was diskutiert wird zwischen Interessierten (sei es berufliches oder privates Interesse).
Reviews richten sich an Interessierte und sehr viele Leute halten sich an das Gebot, dass man immer mehr als eine Review lesen sollte, so wie man es mit jeder grösseren Anschaffung machen sollte. Und soooo schlecht würd ich Reviewer insgesamt auch nicht machen, ich denke dass dort langsam Besserung in Sicht ist. Sogar THG hat die Winkelabhängigkeit dargestellt und bemängelt. Vielen reviewer mangelt es auch einfach an Zeit vernünftig Infos zu sammeln und zu verwerten.

Interessierte bekommen aber nicht nur Revies mit, sondern besuchen auch Foren. Und wenn hier Leute ihren Unmut über Filter etc. kundtun, bekommen das auch viele mit. Dazu kommt noch, dass der Durchschnitt der Interessierten auf dem richtigen Weg ist, nämlich dass es mehrere Faktoren bei der Grafikdarstellung gibt, die wichtig sind. Der Bildungsgrad steigt insgesamt, mittlerweile gibt es ja auch mit 3DCenter ein kompetentes Angebot ;)
Nicht umsonst hats den Server zerhauen am Stichtag :D
Dem gibt es nichts hinzuzufügen. :up:

Ich würde wirklich lachen wenn ATi diesmal keinen winkelabhängigen Aniso-Filter bringen würde. Dann hätte man bei NV nur noch das z.Zt. nicht relevante SM3.0 als Kaufgrund.

ow
2004-04-21, 12:05:46
.

HOT
2004-04-21, 12:11:32
Original geschrieben von aths
Auch ATI hat mit Shaderreplacemenet experimentiert, allerdings wurde das nicht an die große Glocke gehängt. NV trieb es beim 3DMark-Cheaten deutlich weiter, ATI ist aber keineswegs unschuldig.


Weiss ich udn wollte ich auch net unterschlagen. Fakt ist aber, dass sich da nicht grossartig was an der Leistung änderte mit oder ohne Cheat.


Ohne viel Taraa limitierte ATI "Quality" AF in Direct3D bei allen nicht-primären Texture Stages auf bilinear.

Hab ich erwähnt, kam aber net deutlich raus. ATI hat sehr wohl selber gecheatet in seinen Treibern. Aber wie gesagt ist das 1-7 bilinear erzwingbar. Bei NV gab es ja nicht mal diese Möglichkeit. Ne Entschuldigung ist das natürlich nicht, ATI muss diesen Mist sobald wie möglich aus dem Treiber nehmen meiner Meinung nach. Ich z.B. habe immer die Forced Application Settings drin.

Wichtig war es mir nicht wie die Lage faktisch war, sondern wie es rüberkam. NV hat gecheatet, ATI hat mitgecheatet (ich weiss dass es nicht stimmt, ATI hat den AF cheat sicher unabhängig davon eingebaut). Aber NV hatte den Imageschaden, und der war selbstverschuldet.

Andre
2004-04-21, 12:12:26
Original geschrieben von aths
Auch ATI hat mit Shaderreplacemenet experimentiert, allerdings wurde das nicht an die große Glocke gehängt. NV trieb es beim 3DMark-Cheaten deutlich weiter, ATI ist aber keineswegs unschuldig.

Ohne viel Taraa limitierte ATI "Quality" AF in Direct3D bei allen nicht-primären Texture Stages auf bilinear.

Woran man wieder erkennt, wie gut die ATI-User über ihre eigenen HW bescheid wissen.

HOT
2004-04-21, 12:14:20
Original geschrieben von ow
Was meinst du denn dann mit:




Um wessen Meinung geht es denn jetzt?

Ich vermute mal, dass aths meint, dass interessierte User sich an versierteren Usern orientieren.

Andre
2004-04-21, 12:14:31
Original geschrieben von Exxtreme
Dem gibt es nichts hinzuzufügen. :up:

Ich würde wirklich lachen wenn ATi diesmal keinen winkelabhängigen Aniso-Filter bringen würde. Dann hätte man bei NV nur noch das z.Zt. nicht relevante SM3.0 als Kaufgrund.

Was ich bisher hörte, so ist das NV40 AF per Treiber geregelt. Besser kann mans nicht machen - aus Herstellersicht. Kommt ATI mit vollem AF, aktiviert es auch NV. Tun sie es nicht, lässt es NV raus, um die Performance vergleichbar zu machen. So oder so sieht es gut für NV in diesem Bereich aus.

HOT
2004-04-21, 12:17:54
Original geschrieben von Andre
Woran man wieder erkennt, wie gut die ATI-User über ihre eigenen HW bescheid wissen.

Wer A sagt muss auch B sagen; Denkst du dass NV User besser über ihre Hardware bescheidwissen? Wohl eher net.

HOT
2004-04-21, 12:19:15
Original geschrieben von Andre
Was ich bisher hörte, so ist das NV40 AF per Treiber geregelt. Besser kann mans nicht machen - aus Herstellersicht. Kommt ATI mit vollem AF, aktiviert es auch NV. Tun sie es nicht, lässt es NV raus, um die Performance vergleichbar zu machen. So oder so sieht es gut für NV in diesem Bereich aus.

Ist nicht erwiesen. Wenn es so ist, finde ich das um so schlimmer, weil NV hier wieder Willkür mit dem User betreibt.

Gast
2004-04-21, 12:22:38
Manche Leute sind schon so vom Kapitalismus zerfressen, dass sie anfangen zu denken wie Grosskonzerne, und immer versuchen das Wohl der Firma vor dem Wohl des Einzelnen zu stellen...

aths
2004-04-21, 12:51:23
Original geschrieben von ow
Was meinst du denn dann mit:

Um wessen Meinung geht es denn jetzt? Um "unsere" :) auch aus dem Forum. Ich kann Leo nicht zwingen, seine Benchmarks nach meinen Ideen zu gestalten.

ow
2004-04-21, 12:52:02
.

ow
2004-04-21, 12:55:02
.

reunion
2004-04-21, 12:55:13
Original geschrieben von Andre
Was ich bisher hörte, so ist das NV40 AF per Treiber geregelt. Besser kann mans nicht machen - aus Herstellersicht. Kommt ATI mit vollem AF, aktiviert es auch NV. Tun sie es nicht, lässt es NV raus, um die Performance vergleichbar zu machen. So oder so sieht es gut für NV in diesem Bereich aus.

Ja, falls deine Spekulationen stimmen schon, aber ich glaube schön langsam nicht mehr an "volles" AF beim NV40. Es gibt noch immer keinerlei anzeichen, keinen einzigen Shot vom NV40 mit winkelunabhängigen AF, normalerweise kommt sowas schnell ans Tageslicht. Außerdem wäre es auch ziemlich kompliziert für NV beide Verfahren extra in den Chip einzupflanzen nur um auf ATI kontern zu können.

ow
2004-04-21, 12:57:20
.

StefanV
2004-04-21, 13:01:04
Original geschrieben von ow
Bringt ATi aber leider nicht.

Quellen?

Exxtreme
2004-04-21, 13:08:55
Original geschrieben von ow
btw. finde ich es amuesant wie im Vorfeld schon darueber geurteilt wird, ob und wie relevant SM3.0 ist.
"Z. Zt." steht für "zur Zeit". Kennst du irgendein derzeit verfügbares Spiel, welches JETZT PS3.0 nutzt?

ow
2004-04-21, 13:15:13
.

ow
2004-04-21, 13:16:51
.

Exxtreme
2004-04-21, 13:21:53
Original geschrieben von ow
Ist denn DX9.0c schon final? Kann es also jetzt schon Spiele geben, die 3.0er Shader nuzten duerfen?
Genau das meinte ich. =) Da es z.Zt. nichts gibt, was SM3.0 nutzen kann, ist SM3.0 halt nicht wirklich relevant. Es kann sein, daß es Leute gibt, die was "zukunftssicheres" kaufen wollen. Nur bin mit dieser Taktik 2 Mal teilweise auf die Schnauze geflogen. Entweder wurden die ach so zukunftssicheren Features gar nicht oder nur sehr rudimendär genutzt. :(

aths
2004-04-21, 13:25:21
Original geschrieben von ow
Dann stellt das Review also Leos Meinung dar, wie ein Review auszusehen hat und nicht deine. Richtig, ich bin lediglich für den Technik-Artikel zuständig (der hoffentlich auch gelesen wurde / wird.)

LovesuckZ
2004-04-21, 13:27:52
Original geschrieben von Exxtreme
Entweder wurden die ach so zukunftssicheren Features gar nicht oder nur sehr rudimendär genutzt. :(

Hm, PS2.0 werden jetzt genutzt. Also war es sinnig, dass es Hardware gab.
Wenn wir irgendwann mal das SM3.0 in Spielen sehen wollen, koennen wir nicht nach "heute ist es unsinnig" gehen. Wenn es heute unsinnig ist, warum sollte es morgen ein "must-have" feature sein, wenn die Basis fehlt?
Alleine schon aus dem grund sollte man ATi abstrafen, dass sie, im gegensatz zum r300, keinen Schritt nach vorne gehen* (wollen)...

*hoffen wir, dass man wenigsten VS3.0 verwendet.

ow
2004-04-21, 13:34:50
.

HOT
2004-04-21, 13:36:30
Original geschrieben von LovesuckZ
Hm, PS2.0 werden jetzt genutzt. Also war es sinnig, dass es Hardware gab.
Wenn wir irgendwann mal das SM3.0 in Spielen sehen wollen, koennen wir nicht nach "heute ist es unsinnig" gehen. Wenn es heute unsinnig ist, warum sollte es morgen ein "must-have" feature sein, wenn die Basis fehlt?
Alleine schon aus dem grund sollte man ATi abstrafen, dass sie, im gegensatz zum r300, keinen Schritt nach vorne gehen* (wollen)...

*hoffen wir, dass man wenigsten VS3.0 verwendet.

Da hast du vollkommen recht und das bestreitet keiner. ABER: Dem User ist es egal, und darum geht es hier. Du kasft dir doch keine SM3.0 Karte aus Idealismus ;)
bringt SM3.0 auf absehbare Zeit keinen sichtbaren Vorteil ist es für den Kunden nicht praxisrelevant. Ganz einfach.

HOT
2004-04-21, 13:38:37
Original geschrieben von aths
Richtig, ich bin lediglich für den Technik-Artikel zuständig (der hoffentlich auch gelesen wurde / wird.)

Wer den nicht liesst ist selber schuld ;) Immerhin bildet dieser die Grundlage für unsere Diskussionen hier möchte ich mal behaupten :)

ow
2004-04-21, 13:40:16
.

HOT
2004-04-21, 13:42:45
Original geschrieben von ow
Da muss dir ein Fehler unterlaufen sein, denn bislang hattest du noch nie was "zukunftssicheres" gekauft, sonst muesstest du auch schon Geforce Karten besessen haben was aber IIRC nicht der Fall ist.

Zukunftssicher ist nicht immer das was es zu sein scheint ;)

ow
2004-04-21, 13:43:48
.

LovesuckZ
2004-04-21, 13:43:49
Original geschrieben von HOT
ABER: Dem User ist es egal, und darum geht es hier. Du kasft dir doch keine SM3.0 Karte aus Idealismus ;)
bringt SM3.0 auf absehbare Zeit keinen sichtbaren Vorteil ist es für den Kunden nicht praxisrelevant. Ganz einfach.

Wenn es dem User egal ist, warum schreit er immer nach besserer Grafik?
Das ist ein Widerspruch: Entweder nehme ich super-mega-fett geglättette Kanten in heutige DX7/8 und OpenGL Anwendungen (< PS/VS2.0) in kauf oder ich unterstuetze die Zukunft.
Keine Basis, keine Spiele nichtmal Effekte.

Exxtreme
2004-04-21, 13:48:40
Original geschrieben von ow
Da muss dir ein Fehler unterlaufen sein, denn bislang hattest du noch nie was "zukunftssicheres" gekauft, sonst muesstest du auch schon Geforce Karten besessen haben was aber IIRC nicht der Fall ist.
Selbst wenn ich Geforce-Karten gekauft hätte, würde es an der Situation kaum was ändern. Features werden erst dann genutzt, wenn sie relativ hohe Marktanteile haben. Schau dir mal PS1.4 an. Wurde erst dann halbwegs genutzt als Nvidia mit der GFFX-Serie das konnte. Truform hingegen ist mehr oder weniger tot. Die Spiele, die das nutzen, kann man an einer Hand abzählen obwohl ich dieses Feature eigentlich sehr gut fand.

Von daher pushe ich keine Exclusiv-Features. Mir sind Features wichtiger, die ich JETZT nutzen kann. Sollte das AF des R420 nicht winkelabhängig sein, dann wiegt es für mich viel schwerer als SM3.0.

LovesuckZ
2004-04-21, 13:52:06
Original geschrieben von Exxtreme
Von daher pushe ich keine Exclusiv-Features.

SM3.0 ist kein "Exclusiv-Features". Es stand in den Grundzügen schon seit fast 2 jahren fest. Wenn ATi es nicht miteinbringt in die neue Generation, ist es ihr versagen.

Mir sind Features wichtiger, die ich JETZT nutzen kann. Sollte das AF des R420 nicht winkelabhängig sein, dann wiegt es für mich viel schwerer als SM3.0.

Dann benutze in zukunft bitte auch kein SM3.0 Renderpfad in Spielen, die es zur Zeit des r500 geben wird. Konsequenz bezüglich deiner Handlung!

Exxtreme
2004-04-21, 14:04:28
Original geschrieben von LovesuckZ
SM3.0 ist kein "Exclusiv-Features". Es stand in den Grundzügen schon seit fast 2 jahren fest. Wenn ATi es nicht miteinbringt in die neue Generation, ist es ihr versagen.

Es gibt bis jetzt einen einzigen IHV, der SM3.0 unterstützt. Ist die gleiche Situation wie bei PS1.4.
Original geschrieben von LovesuckZ
Dann benutze in zukunft bitte auch kein SM3.0 Renderpfad in Spielen, die es zur Zeit des r500 geben wird. Konsequenz bezüglich deiner Handlung!
Ich glaube, du hast nicht wirklich verstanden, was ich gesagt habe. ;( Ich habe nicht gesagt, daß SM3.0 schlecht ist oder so. Ich habe nur gesagt, daß mir Features, die man jetzt nutzen kann, wichtiger sind, als Features, die man in der Zukunft ... oder überhaupt nicht nutzen wird.

HOT
2004-04-21, 14:07:25
Original geschrieben von ow
Das ist zu einseitig gedacht. Der User will auch Fortschritt oder wer wuerde sich denn heute noch mit DX6 Techlevel zufrieden geben?
SM3.0 in HW hat einen ganz praktischen Nutzen: es wird in Zukunft auch eingesetzt werden und Dinge ermoeglichen, die mit 2.0 Shadern nicht moeglich sind.

Das typische Henne-Ei Problem.;)


Original geschrieben von LovesuckZ
Wenn es dem User egal ist, warum schreit er immer nach besserer Grafik?
Das ist ein Widerspruch: Entweder nehme ich super-mega-fett geglättette Kanten in heutige DX7/8 und OpenGL Anwendungen (< PS/VS2.0) in kauf oder ich unterstuetze die Zukunft.
Keine Basis, keine Spiele nichtmal Effekte.


Hab ich niemals bestritten ;)
Aber warum sollte ein Feature was noch nicht "gebraucht" wird und dem User JETZT und in naher Zukunft keine sichtbaren Vorteile bringt? Glaubt ihr echt die grosse Masse kauft ne NV40 wegen SM3.0? Das wäre eine Kritik wert, dass sich der allgemeine potenzielle Kunde nicht allzusehr an Shaderversionen stören. Ich sehe mich persönlich auch von dieser (whol berechtigten) Kritik betroffen, weil ich SM3.0 selber auch für zu unbrauchbar als zwingenden Kaufgrund erachte; denn selbst wenn SM3.0 benutzt werden wird, wird man sich wohl auf PS2.0 Effektqualität versteifen und nur auf dem Papier die Vorteile sehen. Vielleicht haltet ihr beiden dieses Vorgehen für falsch, aber ich denke nicht dass sich da besonders viele potenzielle Käufer dran stören werden.
Was für den zählt ist speed und das sichtbare Ergebnis auf dem Monitor und vielleicht noch die DX Version.

DrumDub
2004-04-21, 14:08:54
exxtreme

man kann ati aber dennoch vorwfen, dass sie JETZT SM3.0 nicht unterstützen und damit als technologiebremse fungieren. gleiches konnte man nv zu zeiten des r250 vorwerfen im bezug auf ps1.4 vorwerfen. der unterschied zur heutigen situation besteht aber darin (und hier sehe ich den vorteil für nv), dass man ps1.4 code noch von hand schreiben musste, während sm3.0 pratktisch mit dx9.0c und dem hlsl-compilerprofil ohne großen aufwand in ein spiel integriert werden kann, welches nur auf das sm2.0 in der entwicklung ausgelegt war.

hinzu kommt noch die rolle von m$ im bezug auf directx. m$ geht immer nach der lösung, die ihnen einen technologsichen vorteil gegenüber opengl bei den spieleentwicklern gibt. schließlich hat m$ auch ein dx8.1 für den ps1.4 support nachgeschoben, obwohl sie wussten, dass der marktanteil von ati-lösungen mit ps1.4 support nicht sehr groß sein wird.
jetzt ist m$ sehr daran interessiert sm3.0 zu pushen, auch wenn der andere relevante ihv dieses feature noch nicht unterstützt. je eher spiele rauskommen, die vom sm3.0 profitieren, desto besser ist dies für m$, weil ihre politik darin besteht, den markt mit proprietären lösungen gegen konkurrenten abzuschirmen.

LovesuckZ
2004-04-21, 14:10:02
Original geschrieben von Exxtreme
Es gibt bis jetzt einen einzigen IHV, der SM3.0 unterstützt. Ist die gleiche Situation wie bei PS1.4.

Im Gegensatz zu PS1.4 kommen aber weitere IHV, die das SM3.0 unterstuetzen wollen und eventuell noch vor ATi.

Ich glaube, du hast nicht wirklich verstanden, was ich gesagt habe.

Doch, das habe ich.
Nvidia pusht heute das SM3.0 Es kommen in diesen Jahr eventuell ca. 8 Spiele raus, die Unterstuetzung für das SM3.0 haben werden. Da du liebers auf das AF stehst und dieses vorziehst, solltest du auch konsequent bleiben und beim r500 jegliche Spiele mit SM3.0, die bald und innerhalb des ersten halbes jahres des r500 erscheinen, meiden bzw. nur den SM2.0 Pfad benutzen. Denn wieso sollten leute wie du, die sich jetzt doch gegen das SM3.0 aussprechen, von Nvidia's "voll zügellosen Tatendrang" profitieren?

HOT
2004-04-21, 14:12:17
.... der Nachteil von SM3.0 ist aber wohl, dass man selbst WENN es unterstützt wird keine besseren Ergebnisse sehen wird als mit SM2.0 Karten. SM2.0 ist genauso DX9 Minimum wie SM1.1 für DX8 war. Daran wird auch DX9.0c nichts ändern. Es geht nicht darum ob SM3.0 unterstützt wird, sindern was dabei rum kommt. Und da sehe ich für SM3.0 genauso schwarz wie bei PS1.4, eben weil ATI hier die Technologiebremse IST.

stickedy
2004-04-21, 14:12:41
Original geschrieben von LovesuckZ
Wenn ATi es nicht miteinbringt in die neue Generation, ist es ihr versagen.

Ich sehe R420 nicht als neue Generation. Genausowenig wie R350 oder R360 eine neue Generation waren...
Das alleinige Erhöhen der Pipeline-Anzahl (und vermutlich einige andere Kleinigkeiten) rechtfertigt imho nicht die Bezeichnung "neue Generation"...

HOT
2004-04-21, 14:15:29
Original geschrieben von stickedy
Ich sehe R420 nicht als neue Generation. Genausowenig wie R350 oder R360 eine neue Generation waren...
Das alleinige Erhöhen der Pipeline-Anzahl (und vermutlich einige andere Kleinigkeiten) rechtfertigt imho nicht die Bezeichnung "neue Generation"...

volle Zustimmung.

Exxtreme
2004-04-21, 14:17:34
Original geschrieben von LovesuckZ
Doch, das habe ich.
Nvidia pusht heute das SM3.0 Es kommen in diesen Jahr eventuell ca. 8 Spiele raus, die Unterstuetzung für das SM3.0 haben werden. Da du liebers auf das AF stehst und dieses vorziehst, solltest du auch konsequent bleiben und beim r500 jegliche Spiele mit SM3.0, die bald und innerhalb des ersten halbes jahres des r500 erscheinen, meiden bzw. nur den SM2.0 Pfad benutzen. Denn wieso sollten leute wie du, die sich jetzt doch gegen das SM3.0 aussprechen, von Nvidia's "voll zügellosen Tatendrang" profitieren?
Ich spreche mich nicht GEGEN SM3.0 aus. Ich setze nur Prioritäten. Ist aber egal... EOD.

LovesuckZ
2004-04-21, 14:19:20
Original geschrieben von Exxtreme
Ich spreche mich nicht GEGEN SM3.0 aus. Ich setze nur Prioritäten. Ist aber egal... EOD.

Du sprichst dich solange gegen das SM3.0 (es sei heute unbedeutend) aus, bis es verwendet werde. das ist ein Widerspruch. Es wird nie verwendet, wenn jeder so denken würde!
Schade, dass du den Strich ziehst, geht das ganze doch gesittigt zu...

DrumDub
2004-04-21, 14:23:06
Original geschrieben von HOT
.... der Nachteil von SM3.0 ist aber wohl, dass man selbst WENN es unterstützt wird keine besseren Ergebnisse sehen wird als mit SM2.0 Karten. SM2.0 ist genauso DX9 Minimum wie SM1.1 für DX8 war. Daran wird auch DX9.0c nichts ändern. Es geht nicht darum ob SM3.0 unterstützt wird, sindern was dabei rum kommt. Und da sehe ich für SM3.0 genauso schwarz wie bei PS1.4, eben weil ATI hier die Technologiebremse IST.

das kannst du so nicht wissen. performancetechnisch kann es sehr wohl zu vorteilen auf karten mit sm3.0-unterstützung kommen, da eben durch den hlsl-compiler sm2.0-shader von den möglichkeiten des sm3.0 profitieren können.

anders gesagt: ein spiel hat eine sm2.0-pfad, der auf allen dx9-karten läuft. gleichhzeitig gibt es aber noch einen sm3.0-pfad, der automatisch durch einen hlsl-compilerdurchlauf erzeugt wird, der zwar effekttechnisch nix anderes bringt als sm2.0, aber dies eben bei besserer performance. selbiges hat demi meines wissen nach schon angedeutet. ob dies in der realität eintritt, weiß ich nicht, aber die theoretische möglichkeit besteht meines wissens nach.

DrumDub
2004-04-21, 14:26:05
Original geschrieben von LovesuckZ
Du sprichst dich solange gegen das SM3.0 (es sei heute unbedeutend) aus, bis es verwendet werde. das ist ein Widerspruch. Es wird nie verwendet, wenn jeder so denken würde!

jepp. was manche nicht verstehen wollen, ist die tatsache, dass die unterstützung des sm3.0 durch einen ihv für eben jenen keinen nachteil darstellen kann, da es dem sm2.0 IMMER überlegen ist.

ow
2004-04-21, 14:28:49
.

HOT
2004-04-21, 14:31:13
Original geschrieben von LovesuckZ
Du sprichst dich solange gegen das SM3.0 (es sei heute unbedeutend) aus, bis es verwendet werde. das ist ein Widerspruch. Es wird nie verwendet, wenn jeder so denken würde!
Schade, dass du den Strich ziehst, geht das ganze doch gesittigt zu...

LS, so denke viele. Das war bei 3dfx nicht anders. Was HATTEN wir da wir super Diskussionen bei 3dconcept darüber mit Richthofen, Razorle und co. :D
Es stellt sich einfach die Frage wofür man SM3.0 überhaupt braucht wenn DX next nächstes oder übernächstes Jahr erst die wirkliche nächste Technologiephase einläutet. SM3.0 ist ein Zwischenschritt dahin, viele sagen ja dass SM3.0 net mehr weit weg von 4.0 ist (war das aths?). Das riecht für mich ehrlichgesagt nach SM2.A. Dort sind auch viele revolutionär Dinge eingebaut. Letztendlich blaubt es aber bei SM2.0, weil eben genau dieses Minimum für Dx9 darstellt. Ich glaube dass, selbst wenn ATI auf SM3.0 gesetzt hätte, SM2.0 immernoch state-of-the-art geblieben wäre. Erst recht wo ATI zu diesem Schritt entschlossen hat. In meinen Augen ist SM3.0 zwar nutzbar aber es gibt keine wirklichen praxisrelevanten Vorteile dadurch.

DrumDub
2004-04-21, 14:34:08
Original geschrieben von ow
Die Begruendung zur PS1.4 Nutzung ist IMO falsch.

Es wurde erst dann genutzt als es Pflicht war, aber viel entscheidender ist, dass es damals keinen Hochsprachencompiler gab und PS1.4 nunmal nicht abwaerts-kompatibel zu PS1.1-1.3 ist.
Das ist ein grosser Unterschied zur jetzigen Situation.

das sagte ich bereits. :D

Wenn alle so denken wuerden kaeme jegliche Entwicklung zum Stillstand. Weil eben immer jemand den Anfang machen muss mit etwas neuem und nur durch die Unterstuetzung dessen ist die Konkurrenz gezwungen nachlegen.

jupp. 3dfx ist, neben den management-fehlern, an genau solch einer situation gescheitert. sie haben zu lange versucht aus einer technologie profit zu schlagen, die nicht mehr zeitgemäß war, auch wenn die neue technologie des direkten konkurrenten zum zeitpunkt der einführung noch nicht wirklich sinnvoll nutzbar war (tnt: 32bit-rendering, gf256: t&l).

HOT
2004-04-21, 14:34:32
Original geschrieben von DrumDub
jepp. was manche nicht verstehen wollen, ist die tatsache, dass die unterstützung des sm3.0 durch einen ihv für eben jenen keinen nachteil darstellen kann, da es dem sm2.0 IMMER überlegen ist.

Wir werden sehen wer im Endeffekt mehr Leistung bringen wird. SM3.0 bringt vielleicht grundsätzliche Vorteile, aber hier möchte ich doch anhand der Praxis Entscheidungen treffen.

DrumDub
2004-04-21, 14:36:54
Original geschrieben von HOT
In meinen Augen ist SM3.0 zwar nutzbar aber es gibt keine wirklichen praxisrelevanten Vorteile dadurch.

ich wiederhole mich zwar ungern, aber das werden wir erst sehen, wenn spiele verfügbar sind, die sm2.0 und sm3.0 unterstützen. eventuell wird dies sogar farcry sein, wenn die dx9c-runtime verfügbar ist. erst dann kann man IMHO sachlich über diesen punkt diskutieren.

HOT
2004-04-21, 14:38:49
Original geschrieben von DrumDub
das sagte ich bereits. :D



jupp. 3dfx ist, neben den management-fehlern, an genau solch einer situation gescheitert. sie haben zu lange versucht aus einer technologie profit zu schlagen, die nicht mehr zeitgemäß war, auch wenn die neue technologie des direkten konkurrenten zum zeitpunkt der einführung noch nicht wirklich sinnvoll nutzbar war (tnt: 32bit-rendering, gf256: t&l).

War die Technologie wirklich dran schuld? Sicher war sie im geringen Masse mitschuldig, denn 3dfx war ja arg im Rückstand zum Schluss, aber es war ja neue Technologie in Aussicht. Es waren einfach wirtschaftliche fehlentscheidungen die 3dfx das Genick brachen. Teure Daullösungen, das vergraulen der Boardhersteller, der teure und vollkommen unnötige Kauf von STB, Konzentration auf den Retrailmarkt usw.
Der Technologierückstand war hier sicherlich eher unterzuordnen.

HOT
2004-04-21, 14:40:20
Original geschrieben von DrumDub
ich wiederhole mich zwar ungern, aber das werden wir erst sehen, wenn spiele verfügbar sind, die sm2.0 und sm3.0 unterstützen. eventuell wird dies sogar farcry sein, wenn die dx9c-runtime verfügbar ist. erst dann kann man IMHO sachlich über diesen punkt diskutieren.

Du hast da vollkommen recht ;)
ist sowieso arg OT mittlerweile.

DrumDub
2004-04-21, 14:45:04
Original geschrieben von HOT
War die Technologie wirklich dran schuld? Sicher war sie im geringen Masse mitschuldig, denn 3dfx war ja arg im Rückstand zum Schluss, aber es war ja neue Technologie in Aussicht. Es waren einfach wirtschaftliche fehlentscheidungen die 3dfx das Genick brachen. Teure Daullösungen, das vergraulen der Boardhersteller, der teure und vollkommen unnötige Kauf von STB, Konzentration auf den Retrailmarkt usw.
Der Technologierückstand war hier sicherlich eher unterzuordnen.

ja, das stimmt. die fehler des managements waren der entscheidene faktor. eventuell ist auch gerade von dieser ebene aus die technologsiche entwicklung gebremst worden, indem man sich auf solche dinge wie den kauf von stb eingelassen hat und damit nicht genug geld für den r&d-bereich übrig hatte.

jetzt isses schon mega-ot. ;D

ow
2004-04-21, 14:45:54
.

ow
2004-04-21, 14:51:47
.

ow
2004-04-21, 14:54:35
.

HOT
2004-04-21, 14:54:57
Original geschrieben von ow
Das wirst du jetzt wohl aber nicht als begruessenswerten Zustand hinstellen wollen, oder?
(Mal unabhaengig davon, dass ich das eh anders sehe weil wir jetzt ja HLSL haben).

Nein finde ich zu kotzen ;) Ist aber nicht zu ändern.

HOT
2004-04-21, 14:56:52
Original geschrieben von ow
Du musst hierbei bedenken, das der Lebenszyklus von DX9 viel laenger ist als der aller vorangegangenen DX Versionen.
Urspruenglich war SM3.0 gar nicht fuer DX9 vorgesehen sondern fuer DX10 (oder wie auch immer das naechste DX heisst). Wenn es so gekommen waere, meinst du da haette es ATi sich leisten koennen auf SM2.0 kleben zu bleiben?

Alle DXe vor DX9 waren immer nur fuer eine HW Generation gut und aktuell, mit DX9 hat sich das erstmals geaendert.

Da hast du eindeutig recht. Es ist aber Tradition, dass die DX Version den ton angibt. Es ist einfach verdammt schwer SM3.0 den Leuten schmackhaft zu machen, wenn es kaum visuelle Vorteile gibt.

ow
2004-04-21, 14:58:03
.

betasilie
2004-04-21, 15:09:15
Original geschrieben von HOT
Nein finde ich zu kotzen ;) Ist aber nicht zu ändern.
Ich finde es auch nicht toll, dass ATI als Technolgiebremse fungiert, aber wenn der R500 zum Jahreswechsel kommt, dann wären das gerade mal 6 Monate gewesen.

Bei den PS1.4 war NV länger die Technolgiebremse.

Oder auch bei den PS2.0! Denn erstens kamen sie viel später als ATI mit ihrer PS2.0 Hardware, was wohl ca. 6 Monate waren, und zweitens waren die Shadereinheiten des NV30 so unperformant, dass shaderlastige Spiele auf ihnen krepieren.

Daher frage ich mich wieso einige sich so Aufregen, dass ATI PS3.0 erst 6 Monate später anbieten wird, obwohl NV den Sprung von DX8 nach DX9, der wohl wesentlich wichtiger war, als der von PS2.0 nach PS3.0, ebenfalls erst 6 Monate nach ATI gegangen ist.

Ich freue mich wie gesagt auch nicht darüber, dass ATI sich mit PS3.0 noch zeit lässt, aber dieses gebashe einiger hier deswegen, ist schon sehr verdächtig. Man kann das Thema ansprechen, aber ständig darauf rumzuhacken ist imho nichts mehr als Fanboy-Geflame.

HOT
2004-04-21, 15:11:39
Original geschrieben von betareverse
Ich finde es auch nicht toll, dass ATI als Technolgiebremse fungiert, aber wenn der R500 zum Jahreswechsel kommt, dann wären das gerade mal 6 Monate gewesen.

Bei den PS1.4 war NV länger die Technolgiebremse.

Oder auch bei den PS2.0! Denn erstens kamen sie viel später als ATI mit ihrer PS2.0 Hardware, was wohl ca. 6 Monate waren, und zweitens waren die Shadereinheiten des NV30 so unperformant, dass shaderlastige Spiele auf ihnen krepieren.

Daher frage ich mich wieso einige sich so Aufregen, dass ATI PS3.0 erst 6 Monate später anbieten wird, obwohl NV den Sprung von DX8 nach DX9, der wohl wesentlich wichtiger war, als der von PS2.0 nach PS3.0, ebenfalls erst 6 Monate nach ATI gegangen ist.

Ich freue mich wie gesagt auch nicht darüber, dass ATI sich mit PS3.0 noch zeit lässt, aber dieses gebashe einiger hier deswegen, ist schon sehr verdächtig. Man kann das Thema ansprechen, aber ständig darauf rumzuhacken ist imho nichts mehr als Fanboy-Geflame.

Rechne beim R500 noch ein Jährchen dazu ;)

betasilie
2004-04-21, 15:16:31
Original geschrieben von HOT
Rechne beim R500 noch ein Jährchen dazu ;)
Er ist zum Jahreswechsel angekündigt. Klar kann sich der Release noch verschieben, aber es muss nicht. ;)

Es geht ja auch mehr ums Prinzip, weil einige hier meinen ATI immer schlecht machen zu müssen und da muss man ja mal aufzeigen, dass das was man ATI vorwerfen kann, auf andere Weise auch NV vorwerfen kann.

Ich finde dieses NV-ATI gebashe sowieso Mist und will mit dem Posting was Du gequotest hast, nur drauf aufmerksam machen, dass es immer zwei Seiten gibt. ;)

LovesuckZ
2004-04-21, 15:32:46
Original geschrieben von betareverse
Ich finde es auch nicht toll, dass ATI als Technolgiebremse fungiert, aber wenn der R500 zum Jahreswechsel kommt, dann wären das gerade mal 6 Monate gewesen.

Und wenn der NV50 zum Jahresende kommt, dann sind sie wieder hinten...

Daher frage ich mich wieso einige sich so Aufregen, dass ATI PS3.0 erst 6 Monate später anbieten wird, obwohl NV den Sprung von DX8 nach DX9, der wohl wesentlich wichtiger war, als der von PS2.0 nach PS3.0, ebenfalls erst 6 Monate nach ATI gegangen ist.

Nvidia hatte seit Herbst DX9 Hardware angekündigt und es nicht schlecht geredet. ATi redet SM3.0 jetzt schlecht, dass es zu viel Leistung koste. Es ist ein Unterschied, ob ATi zwischen r300 und r500 ein nicht SM3.0-fähiges Design auf die beine stellt oder gleich den Sprung von r300 auf r500 wagt, gleichzeitig die "Wichtigkeit" vom Sm3.0 anprangert und später kommt. Denn die Abkömmlinge des r420 werden ebenfalls nur über die Technologie des "big brothers" verfügen.

Man kann das Thema ansprechen, aber ständig darauf rumzuhacken ist imho nichts mehr als Fanboy-Geflame.

"Fanboy-Geflame" -> Wahrheit tut weh.
Wer es als Fanboy getue abstempelt, kann sich ja ein anderes Hobby suchen oder in ein Forum gehen, dass "rage3d" heißt.

DrumDub
2004-04-21, 15:33:11
Original geschrieben von betareverse
Ich freue mich wie gesagt auch nicht darüber, dass ATI sich mit PS3.0 noch zeit lässt, aber dieses gebashe einiger hier deswegen, ist schon sehr verdächtig. Man kann das Thema ansprechen, aber ständig darauf rumzuhacken ist imho nichts mehr als Fanboy-Geflame.

hmm... also ich habe das gefühl, dass auf den letzten seiten dieses threads eigentlich recht sachlich über das thema diskutiert wurde.

sm3.0 kann man einfach nicht jedewede praxisrelevanz absprechen, so lange es noch keine praktischen beispiele gibt. ich denke, da liegt der hund begraben.

die diskussion ist natürlich momentan noch theoretischer natur und damit spekulativ. ich behaupte aber, dass meine und ows sicht nicht einer gewissen logik entbehrt, wenn man sich die situation ansieht, die mit hlsl und dem hlsl-compiler geschaffen wurde.

insofern kann man eben nicht das beispiel ps1.4 analog zur aktuellen situation betrachten, auch wenn es ähnlichkeiten unter umgekehrtem vorzeichen gibt.

LovesuckZ
2004-04-21, 15:34:20
Original geschrieben von betareverse
Es geht ja auch mehr ums Prinzip, weil einige hier meinen ATI immer schlecht machen zu müssen und da muss man ja mal aufzeigen, dass das was man ATI vorwerfen kann, auf andere Weise auch NV vorwerfen kann.


Wurde Nvidia nicht dafür kritisiert, dass deren "DX9" langsam war?
Wie man sieht, ist ATi was anderes, besseres und alles was sie tun, sollte nicht kritisiert werden.
Aber Nvidia, ja, egal was sie machen, mit dem Hammer auf den "Cheat" oder "unbrauchbar" Button hauen.

DrumDub
2004-04-21, 15:34:42
Original geschrieben von LovesuckZ
Und wenn der NV50 zum Jahresende kommt, dann sind sie wieder hinten...


vorsicht! soweit würde ich mich nicht aus dem fenster lehnen. ;)

LovesuckZ
2004-04-21, 15:36:44
Original geschrieben von DrumDub
vorsicht! soweit würde ich mich nicht aus dem fenster lehnen. ;)

Siehe "...", war eher ein bisschen "sarkastisch" gemeint. Jetzt schon vom r500 (der übernächsten ATi Generation) zu reden ist doch ein bisschen "früh".

Gast
2004-04-21, 15:44:45
Original geschrieben von LovesuckZ
Wurde Nvidia nicht dafür kritisiert, dass deren "DX9" langsam war?
Wie man sieht, ist ATi was anderes, besseres und alles was sie tun, sollte nicht kritisiert werden.
Aber Nvidia, ja, egal was sie machen, mit dem Hammer auf den "Cheat" oder "unbrauchbar" Button hauen.


Das ist die übliche Gschicht, die andern sind so bös, und ich aber nicht...


Jeder wird hier genügend kritisiert, zumeist auch zurecht. (auch wenns dann irgendwann gut ist)

DrumDub
2004-04-21, 16:12:17
Original geschrieben von LovesuckZ
Siehe "...", war eher ein bisschen "sarkastisch" gemeint. Jetzt schon vom r500 (der übernächsten ATi Generation) zu reden ist doch ein bisschen "früh".

habs schon verstanden, daher auch der smilie. ;)

HOT
2004-04-21, 16:15:56
Wir werden weder den NV50 noch den R500 zum Jahreswechsl sehen. Dafür ist der Zeitrahmen zu knapp. Immerhin muss 110nm Fertigung (oder besser) verfügbar sein, vorher tut sich da garnix. Ende nächsten Jahres also frühestens.

SM3.0 ist auch dann nicht praxisrelevant, wenn man keinen Vorteil ggü. einer SM2.0 implementation entdecken kann. Sprich, die Apps sind zwar SM3.0 Compiled und Dx9.0c ready aber auf dem R420 immernoch schneller und sehen gleich aus.

LovesuckZ
2004-04-21, 16:21:27
Original geschrieben von HOT
SM3.0 ist auch dann nicht praxisrelevant, wenn man keinen Vorteil ggü. einer SM2.0 implementation entdecken kann.

Mit SM3.0 sind längere Shader möglich, HDR und MRT scheinen nun pflicht zu sein, dazu kommt die Möglichkeit durch das branching, welches eventuell auf dem NV40 Speedvorteile bringt.
Ihr redet, als ob SM3.0 gegenüber dem Standard SM2.0 keine Vorteile ergeben. Dabei hat doch selbst schon der r300 einige Features, welche für das SM2.x nur optional sind. Sollten diese ebenfalls ungenutzt bleiben? Anscheinend schon...

DrumDub
2004-04-21, 16:33:55
Original geschrieben von LovesuckZ
Mit SM3.0 sind längere Shader möglich, HDR und MRT scheinen nun pflicht zu sein, dazu kommt die Möglichkeit durch das branching, welches eventuell auf dem NV40 Speedvorteile bringt.entbehrt
Ihr redet, als ob SM3.0 gegenüber dem Standard SM2.0 keine Vorteile ergeben. Dabei hat doch selbst schon der r300 einige Features, welche für das SM2.x nur optional sind. Sollten diese ebenfalls ungenutzt bleiben? Anscheinend schon...

ich denke, die vorteile in der praxis werden erst mal nur in einer beschleunigung bestehender sm2.0-effekte liegen, die einfach durch einen hlsl-compilerdurchlauf auf sm3.0 optimiert werden können.

sm3.0 hat eigentlich nur vorteile gegenüber sm2.0, schließlich ist sm2.0 ja eine teilmenge von sm3.0.
inwieweit sich sinnvoll und damit schnell genug sm3.0-only-effekte mit dem nv40 realisieren lassen, wird sich in zukunft zeigen.

Gast
2004-04-21, 16:34:20
Sagen wir doch mal so: Mit PS3.0 sind Effekte möglich die sich nicht (oder nicht in der selben Geschwindigkeit) mit PS2.0 darstellen lassen. Alleine ein "Programm" von PS2.0 auf PS3.0 erweitert bringt ja nix auser das das "Programm" schneller abgearbeitet werden kann (siehe "Kill"-Anweisung).
Wenn erstmal DX9.0c fertig ist und es mehrere Spiele gibt (Far Cry als alleiniges "Shader-Messinstrument" zu nehmen halte ich für völlig verkehrt) die auf PS3.0 erweitert werden, DANN, erst dann können wir sagen, ob der NV40 langsamer oder schneller mit dieser Optimierung ist. Davon abgesehen erwartet ja jeder Enthusiast, dass er seinen Taktnachteil gegenüber dem R420 (schnellste Version) mit PS3.0 wettmachen kann (falls nicht, ist ja noch die Frage obs überhaupt was bringt interessant, im Hinblick auf die Zukunft).

betasilie
2004-04-21, 16:37:45
Original geschrieben von HOT
SM3.0 ist auch dann nicht praxisrelevant, wenn man keinen Vorteil ggü. einer SM2.0 implementation entdecken kann. Sprich, die Apps sind zwar SM3.0 Compiled und Dx9.0c ready aber auf dem R420 immernoch schneller und sehen gleich aus.
Full Ack!

PS3.0 werden lediglich Shader beschleunigen, die ebenfalls mit PS2.0 möglich sind. Wenn nun aber ein R420 viel schneller ist, wäre der Vorteil für den NV40 dahin.

Genau deswegen verstehe ich die Leute nicht, die meinen hier Marketing für PS3.0 beim NV40 machen zu wollen, ATI dafür bashen, dass ihnen z.zt. schnelle PS2.0-Units reichen.

Beim NV30 hat keiner von denen gemeckert und sie haben immer gesagt, dass der NV30 dafür viel, viel besser wird, als dieser komische R300.

betasilie
2004-04-21, 16:40:05
Original geschrieben von LovesuckZ
Mit SM3.0 sind längere Shader möglich, HDR und MRT scheinen nun pflicht zu sein, dazu kommt die Möglichkeit durch das branching, welches eventuell auf dem NV40 Speedvorteile bringt.
Ihr redet, als ob SM3.0 gegenüber dem Standard SM2.0 keine Vorteile ergeben. Dabei hat doch selbst schon der r300 einige Features, welche für das SM2.x nur optional sind. Sollten diese ebenfalls ungenutzt bleiben? Anscheinend schon...
Länger Shader? :bigl: Das möchte ich sehen, dass ein Spiel in den nächsten 12 Monaten Shader mit einer Länge einsetzt, die nicht auf einem R420 möglich wären.

Nichts weiter als marketing ist PS3.0 z.Zt.

Für Spiele, die PS3.0 richtig ausreizen werden, ist der NV40 viel, viel zu langsam, auch wenn Du dir was anderes wünscht.

Gast
2004-04-21, 16:40:40
Das selbe kannst du doch bei der Filter Diskussion sehen, da wird halt mal NV dafür "gebasht" dass sie schlechter geworden sind (momentan). Egal was die IHV´s machen, es gibt immer auf die Nase, Fanboy hin, Fanboy her, sollte man die Kritiken doch einfach Bündeln und bei beiden Herstellern an die große Glocken hängen, statt sich als User gegenseitig in die Pfanne zu haun...

betasilie
2004-04-21, 16:46:23
Original geschrieben von Gast
Das selbe kannst du doch bei der Filter Diskussion sehen, da wird halt mal NV dafür "gebasht" dass sie schlechter geworden sind (momentan). Egal was die IHV´s machen, es gibt immer auf die Nase, Fanboy hin, Fanboy her, sollte man die Kritiken doch einfach Bündeln und bei beiden Herstellern an die große Glocken hängen, statt sich als User gegenseitig in die Pfanne zu haun...
Genau! Die IHVs zu kritisieren ist doch garnicht das Problem, das haben sie alle verdient. :up:

Es geht darum, dass einige Leute immer wieder meckern, dass ihre Lieblingsfirma ungerechtfertigter Weise immer mehr abbekommt. Für mich sind das schon parnoide Tendenzen, denn es gibt kein Verschwörung gegen NV, was wohl einige hier so sehen.

Demirug
2004-04-21, 16:49:57
Es gibt natürlich doch etwas was mit SM3 geht und mit SM2 nicht machbar ist.

Physikberechnungen auf die GPU auslagern zum entlasten der CPU.

betasilie
2004-04-21, 16:50:23
Original geschrieben von LovesuckZ
Wurde Nvidia nicht dafür kritisiert, dass deren "DX9" langsam war?
Ja, und zwar zurecht. ... Wenn ich mich aber richtig erinnere, warst genau Du einer derjenigen, die bis zuletzt noch drauf geschworen haben, dass der NV30 eine Rakte wird, wenn ... die Treiber richtig angepasst sind, CineFX in Spielen kommt, etc. Also stellt dich jetzt nicht so hin, als ob Du nicht bis zuletzt versucht hättest, den NV30 toll zu reden.

Original geschrieben von LovesuckZ
Wie man sieht, ist ATi was anderes, besseres und alles was sie tun, sollte nicht kritisiert werden.

Wer sagt das?

Original geschrieben von LovesuckZ
Aber Nvidia, ja, egal was sie machen, mit dem Hammer auf den "Cheat" oder "unbrauchbar" Button hauen.
Ja, wir haben usn alle gegen NVidia verschworen und treffen uns in diesem Forum, um unsere Verschwörung zu praktizieren. Merkst Du was?

reunion
2004-04-21, 16:51:10
Original geschrieben von LovesuckZ
Mit SM3.0 sind längere Shader möglich, HDR und MRT scheinen nun pflicht zu sein, dazu kommt die Möglichkeit durch das branching, welches eventuell auf dem NV40 Speedvorteile bringt.
Ihr redet, als ob SM3.0 gegenüber dem Standard SM2.0 keine Vorteile ergeben. Dabei hat doch selbst schon der r300 einige Features, welche für das SM2.x nur optional sind. Sollten diese ebenfalls ungenutzt bleiben? Anscheinend schon...

Naja, wenn das stimmt das der NV40 für Branching 9 Takte benötigt, dann kann ich mir das auch sparen, und die 512 Anweisungen die ATI mit dem R420 max. unterstützt werden wohl auch locker für zukünftige Spiele reichen. Sonst noch Vorteile?

betasilie
2004-04-21, 16:55:56
Original geschrieben von Demirug
Es gibt natürlich doch etwas was mit SM3 geht und mit SM2 nicht machbar ist.

Physikberechnungen auf die GPU auslagern zum entlasten der CPU.
Klar gibt es Vorteile für SM3.0, aber wie performant ist der NV40 in dieser Hinsicht? Wie wahrscheinlich ist es, dass Spiele im nächsten Jahr die Physik vom NV40 berechnen lassen? In den allermeisten Bereichen muss man da wohl auf einen NV50 oder R500 warten, bis die Vorteile von SM3.0 überhaupt nutzbar werden.

Aus deiner Sicht, kann ich verstehen, dass Du auf SM3.0 abfährst, weil Du es als Entwickler sofort experimentell nutzen kannst, wir Gamer allerdings haben davon z.Zt. keinen sichtbaren Vorteil.

Beim NV40 wird sich der PS3.0 imho auf das Beschleunigen von PS2.0 Effekten beschränken und das war es.

stickedy
2004-04-21, 17:04:36
Mein Gott, ihr habt vielleicht Probleme...

Nvidia bietet zZ halt einfach mehr Features und ATI evtl. etwas mehr Geschwindigkeit (wird sich ja bei den ersten Reviews zeigen).

Wo ist jetzt da das Problem? Ist ja nicht so, dass ATI nie PS/VS 3.0 anbieten will, halt einfach nur später als Nvidia. Ist das so tragisch?

Außerdem wird niemand zum Kauf gezwungen, egal ob R420 oder NV40!

P.S.: Wer alles will, also Geschwindigkeit, Features und Bildqualität, sollte sich vielleicht auf PowerVR freuen...

Piffan
2004-04-21, 17:07:46
Original geschrieben von stickedy
Mein Gott, ihr habt vielleicht Probleme...


P.S.: Wer alles will, also Geschwindigkeit, Features und Bildqualität, sollte sich vielleicht auf PowerVR freuen...

Der war gut! ;D

LovesuckZ
2004-04-21, 17:15:14
Original geschrieben von betareverse
PS3.0 werden lediglich Shader beschleunigen, die ebenfalls mit PS2.0 möglich sind. Wenn nun aber ein R420 viel schneller ist, wäre der Vorteil für den NV40 dahin.

Mit dem PS3.0 unterstuetzt Nvidia jetzt erst richtig HDR und auch MRT. Beides sind nur optional für PS2.x. Und bitte, wenn dies unwichtig sei, warum verwendete es dann schon Gabe für HL2?

Genau deswegen verstehe ich die Leute nicht, die meinen hier Marketing für PS3.0 beim NV40 machen zu wollen, ATI dafür bashen, dass ihnen z.zt. schnelle PS2.0-Units reichen.

"schnelle PS2.0-Units" hat auch der NV40. Deswegen bashe ich ATi, da sie einfach die verbreitung der Technik mit aggressiven Marketing bremsen.

Beim NV30 hat keiner von denen gemeckert und sie haben immer gesagt, dass der NV30 dafür viel, viel besser wird, als dieser komische R300.

Wie sollte man beim NV30 meckern, wenn dieser auf den Papier mehr als der r300 kann? Vorhersagen können nur russische Wahrsagerinnen, jedoch keine deutschen Gamer und Technikfreakz...

Länger Shader? Das möchte ich sehen, dass ein Spiel in den nächsten 12 Monaten Shader mit einer Länge einsetzt, die nicht auf einem R420 möglich wären.


SM2.0 ist auf 96 Anweisungen beschränkt. Da für viele das SM3.0 nur Marketing sei, benötigen wie auch kein HDR, keine längere Shader und auch kein MRT (wobei ich nicht mal weiß, was man damit kann :D ).

Für Spiele, die PS3.0 richtig ausreizen werden, ist der NV40 viel, viel zu langsam, auch wenn Du dir was anderes wünscht.

Und? Spiele brauchen eine Basis. Ohne diese Basis wird es keine Spiele geben, "die PS3.0 richtig ausreizen werden" und dadurch kann der NV40 eigentlich nie richtig langsam sein.

Es geht darum, dass einige Leute immer wieder meckern, dass ihre Lieblingsfirma ungerechtfertigter Weise immer mehr abbekommt. Für mich sind das schon parnoide Tendenzen, denn es gibt kein Verschwörung gegen NV, was wohl einige hier so sehen.

In diesem Forum wird, ja auch berechtigt, gegen Nvidia gebasht. Jetzt mit dem SM3.0, dass es nicht wichtig sei. Das ganze ist nur lächerlich. Man kritisiert vidia, dass sie mit AA und AF zu langsam waeren, gleichzeitig kritisiert man sie, dass sie beim AF cheaten und damit schneller werden. Ausserdem kritisiere man sie, dass sie als Technologiebremse fungieren, gleichzeitig kritisiere man sie, dass sie neue Technologien voranbringen.
Man kritisiert Nvidia, weil sie Nvidia sind. Kritisiert man Ati, dann wird gesagt, dass dies und das nicht schlimm sei, man brauche dies nicht und so weiter.

Ja, und zwar zurecht. ... Wenn ich mich aber richtig erinnere, warst genau Du einer derjenigen, die bis zuletzt noch drauf geschworen haben, dass der NV30 eine Rakte wird, wenn ... die Treiber richtig angepasst sind, CineFX in Spielen kommt, etc. Also stellt dich jetzt nicht so hin, als ob Du nicht bis zuletzt versucht hättest, den NV30 toll zu reden.


Jaja, wenn schon keine Argumente, dann wird versucht mit "indirekten" Argumenten dem gegenüber bloßzustellen.

Demirug
2004-04-21, 17:19:45
Was man IMHO bei dieser ganzen Diskussion nicht unberücksichtigt lassen sollte ist die Frage wie lange jemand überhaupt seine Neuerwerbung zu behalten gedenkt. Je kürzer dieser Zeitraum desto weniger gedanken muss man sich um Features machen die zur Zeit noch nicht richtig genutzt werden.

MadMan2k
2004-04-21, 17:37:22
IMO fungiert Ati nicht als Technologiebremse, da sie ja bei SM4.0 wieder dabei sind.
Solange können, die Entwickler sich mit dem NV40 austoben und die neuen Features ausprobieren.
Zu mehr wird es wohl nicht langen, da, soweit ich es mitbekommen habe, die 3.0 Shader auf dem NV40 viel zu langsam laufen und erst mit der nächsten Generation nutzbar sind.
Daher sehe ich den R420 ganz ohne Shader3.0 auf der einen Seite und den NV40 mit vorhandenem aber viel zu langsamen Shader3.0 Support (ähnlich FX5200 und Shader2.0) auf der anderen.
Somit verzögert der R420 die Nutzung des SM3.0 nicht, da sie auch auf dem NV40 nicht nutzbar sind.
(von ein paar kleinere Spielereien abgesehen)

ice cool69
2004-04-21, 19:38:23
Wenn Shader 3.0 dazu genutzt werden um 2.0-Shader zu beschleunigen dann ist das doch ein Vorteil, nämlich mehr Speed.
Noch weiß man nicht ob die Shader 2.0 gleichschnell oder gar schneller als die Shader von nVidia sind.

ATI gehört gebasht dafür dass sie keinen 3.0-Shader haben, nVidia gehört wegen dem AF-Scheiß gebasht, wo liegt das Problem?

Sollte der R420 schneller sein als der NV40 und auch noch besseres AF bieten ist der R420 sicherlich die bessere Wahl, ansonsten ist es für mich eindeutig dass der NV40 das bessere Produkt ist (den Preis lasse ich erstmal außen vor).

Piffan
2004-04-21, 20:27:32
Original geschrieben von Demirug
Was man IMHO bei dieser ganzen Diskussion nicht unberücksichtigt lassen sollte ist die Frage wie lange jemand überhaupt seine Neuerwerbung zu behalten gedenkt. Je kürzer dieser Zeitraum desto weniger gedanken muss man sich um Features machen die zur Zeit noch nicht richtig genutzt werden.

Wenn ich bedenke, wie lange der R300 schon ganz vorne mitmischt, da war es rückblickend eine sehr gute Investition....
Der Leistungssprung des NV 40 ist ähnlich hoch, also sollte man mit ihm auch recht lange Freude haben....

Wie der R420 performt, bleibt abzuwarten.

Generell ist die Nutzungsdauer eines Chips, der einen satten Leistungssprung nach vorne bringt, immer recht hoch, wenn man ihn früh kauft. So gesehen relativieren sich die Investitionskosten wieder....

Ati hat damals mit dem R300 den Markt kräftig aufgewirbelt: Mit einem Schlage war es vorbei mit der Kleckerei des Marktführers, statt unbedeutender Schrittchen und großen Tönen ist nun echte Leistung gefragt, will man den Spitzenplatz verteidigen oder zurückerobern......

Dumm gelaufen für Nvidia damals, aber gut für uns Kunden. :)

Wenn jetzt Ati schwächeln sollte und der R420 nix bringt im Vergleich, dann ist es für mich keine Frage, von welchem Hersteller die nächste Graka ist. Falls Ati stark kontert, spielt nicht zuletzt der Preis ein Rolle, und der sollte dank Konkurrenz günstig sein. Tolle Aussichten :D

LovesuckZ
2004-04-21, 21:49:43
Original geschrieben von MadMan2k
IMO fungiert Ati nicht als Technologiebremse, da sie ja bei SM4.0 wieder dabei sind.

Hat der r420 das SM4.0? Wenn nicht, sind sie eine technologiebremse. Ob sie nun in ein, zwei oder 342 Jahren das SM4.0 unterstuetzen ist vollkommen egal.

Zu mehr wird es wohl nicht langen, da, soweit ich es mitbekommen habe, die 3.0 Shader auf dem NV40 viel zu langsam laufen und erst mit der nächsten Generation nutzbar sind.

1. Wer sagt das? Dazu müsste man erstmal vernünftige Leistungsvergleiche anstellen.
2. Warum bräuchte die nächste generation das SM3.0, wenn es heute egal waere? Und wenn es heute egal waere, warum morgen nicht? Unlogisch.

Daher sehe ich den R420 ganz ohne Shader3.0 auf der einen Seite und den NV40 mit vorhandenem aber viel zu langsamen Shader3.0 Support (ähnlich FX5200 und Shader2.0) auf der anderen.

Der Vergleich mit der FX5200 hinkt, da (anscheinend begreifen es einige nicht...) das SM3.0 weitaus mehr Features ermöglicht als das SM2.0, die auch heute schon zum Einsatz kommen.

Somit verzögert der R420 die Nutzung des SM3.0 nicht, da sie auch auf dem NV40 nicht nutzbar sind.
(von ein paar kleinere Spielereien abgesehen)

Das ist einfach falsch. Man nennt sowas auch "trollen".
Aber du kannst deine Behauptung auch sicher beweisen.

tokugawa
2004-04-21, 22:34:56
Original geschrieben von MadMan2k
IMO fungiert Ati nicht als Technologiebremse, da sie ja bei SM4.0 wieder dabei sind.
Solange können, die Entwickler sich mit dem NV40 austoben und die neuen Features ausprobieren.
Zu mehr wird es wohl nicht langen, da, soweit ich es mitbekommen habe, die 3.0 Shader auf dem NV40 viel zu langsam laufen und erst mit der nächsten Generation nutzbar sind.
Daher sehe ich den R420 ganz ohne Shader3.0 auf der einen Seite und den NV40 mit vorhandenem aber viel zu langsamen Shader3.0 Support (ähnlich FX5200 und Shader2.0) auf der anderen.
Somit verzögert der R420 die Nutzung des SM3.0 nicht, da sie auch auf dem NV40 nicht nutzbar sind.
(von ein paar kleinere Spielereien abgesehen)

Irgendwo müssen die Entwickler auch die Shaderprogramme "ausprobieren" können.

Daher könnte man die NV40 als einen Technologie-Vorreiter bezeichnen. Man muß ja nicht den R420 als Technologie-Bremse bezeichnen (so würd ich sie auch nicht sehen), aber dafür die NV40 als eine größeren Technologie-Vorreiter (also eigentlich eh dasselbe, nur "positiver" ausgedrückt :D )

Jedenfalls hatte die FX5200 definitiv denselben Effekt - ich seh's ja an mir selbst. Ich wollte keine teuren NV3x Ableger, aber eine billige FX5200, nur um mit deren Shader-Fähigkeiten zu experimentieren, war drin. Shader-Performance-Profiling geht auch auf dieser Hardware einigermaßen gut.

Von da her sehe ich selbst die FX5200 (aufgrund ihrer "Billigkeit") als einen Technologie-Vorreiter. Immerhin für Entwickler war es eine interessante Experimentierplattform für wenig Geld.

Gast
2004-04-21, 22:39:41
Ich bin ja nur ein unwissender, aber was ich hier so lese lässt mich nur zu dem Schluss kommmen, dass BetaRevers und Reunion und MadMan2k so ins schwarze treffen das sich die ganzen nvidia Fans einfach nur noch an einen Wunsch hängen der ihnen nicht erfüllt wird.

Endorphine
2004-04-21, 23:00:16
Kann mal jemand das seitenlange OT-Gelaber raussplitten? Hier soll's doch eigentlich um die anisotrope Texturfilterung des NV4x gehen. Die Grabenkämpfe könnt ihr auch anderswo austragen...

Ich möchte gern Neuigkeiten zum eigentlichen Thema erfahren und nicht auf einmal 20 Seiten lang den immergleichen Schlagabtausch lesen müssen ;(

HOT
2004-04-21, 23:12:25
Original geschrieben von Endorphine
Kann mal jemand das seitenlange OT-Gelaber raussplitten? Hier soll's doch eigentlich um die anisotrope Texturfilterung des NV4x gehen. Die Grabenkämpfe könnt ihr auch anderswo austragen...

Ich möchte gern Neuigkeiten zum eigentlichen Thema erfahren und nicht auf einmal 20 Seiten lang den immergleichen Schlagabtausch lesen müssen ;(

Die Diskussion war längere Zeit kein Grabenkampf. Sicher sind diese Sachen OT, aber zum Anisotropen Filter gibt es doch eh nichts mehr zu sagen.

- vielleicht später mal freigeschaltet
- aths wartet auf konkrete Infos
- ersteinmal eintscheidet die Tatsache, dass der NV40 es nicht kann.
- anisotropes Filter brächte jetzt mehr BQ als SM3.0 oder sämliche andere Zusatzfeatures des NV40
- NV bekommt ein Problem (oder auch nicht) wenn ATI es plötzlich können sollte.

viel mehr gibt es nicht zu sagen oder sind wilde Spekus. Wichtig war, dass diese Bashsituation sinch verbessert und ich denke, das die Missverständnisse hier ganz gut bereinigt wurden.

HOT
2004-04-21, 23:19:17
Original geschrieben von LovesuckZ
Hat der r420 das SM4.0? Wenn nicht, sind sie eine technologiebremse. Ob sie nun in ein, zwei oder 342 Jahren das SM4.0 unterstuetzen ist vollkommen egal.


Monsieur LS, es ist geklärt das ATI Technologiebremse ist. übertreib es nicht! Es ist sehr wohl entscheidend, dass man sich darauf verlassen kann, dass die nächste Generation von ATI neue Features unterstützen wird. Ein erneuter Aufguss würde ja auch keinen wirtschaftlichen Sinn mehr machen.


1. Wer sagt das? Dazu müsste man erstmal vernünftige Leistungsvergleiche anstellen.
2. Warum bräuchte die nächste generation das SM3.0, wenn es heute egal waere? Und wenn es heute egal waere, warum morgen nicht? Unlogisch.


- Heute ist es egal, und es wird für den Kunden auch noch ne ganze Weile egal sein
- für Profis ist es nicht egal, die brauchen den Support dafür selbstverständlich.
- ob NV40 schnell genug für wirkliche SM3.0 Anwendungen ist, werden wir wohl erst zum Realease der next Generation erfahren, das war bisher immer so.
- Bisher wird eher sporadisch von shadern gebrauch gemacht, und auch hier wird sich so schnell nichts dran ändern.


Der Vergleich mit der FX5200 hinkt, da (anscheinend begreifen es einige nicht...) das SM3.0 weitaus mehr Features ermöglicht als das SM2.0, die auch heute schon zum Einsatz kommen.


Der Vergleich hinkt in der Tat. 5200 ist ultralowend, was NV40 offensichtlich nicht ist.


Das ist einfach falsch. Man nennt sowas auch "trollen".
Aber du kannst deine Behauptung auch sicher beweisen.

Ich denke es ist unumstritten, dass der R420 "echten" SM3.0 Einsatz verzögern wird.

Quasar
2004-04-21, 23:23:29
Original geschrieben von betareverse
Daher frage ich mich wieso einige sich so Aufregen, dass ATI PS3.0 erst 6 Monate später anbieten wird, obwohl NV den Sprung von DX8 nach DX9, der wohl wesentlich wichtiger war, als der von PS2.0 nach PS3.0, ebenfalls erst 6 Monate nach ATI gegangen ist.

Du sprichst von der Zukunft, als wäre sie Vergangenheit.. :)

BTW, ich glaube, daß nV erst so spät mit dem nV30 kam, lag wohl auch ein bißchen an TSMC, die 0,13µ einfach nicht zeitig zum Laufen gebracht haben. Meinst nicht?

Was ist ATis Ausrede für den R500?

Quasar
2004-04-21, 23:23:54
Original geschrieben von betareverse
Klar gibt es Vorteile für SM3.0, aber wie performant ist der NV40 in dieser Hinsicht?

60fps. =)

MadMan2k
2004-04-21, 23:30:39
Original geschrieben von tokugawa
Irgendwo müssen die Entwickler auch die Shaderprogramme "ausprobieren" können.

Daher könnte man die NV40 als einen Technologie-Vorreiter bezeichnen. Man muß ja nicht den R420 als Technologie-Bremse bezeichnen (so würd ich sie auch nicht sehen), aber dafür die NV40 als eine größeren Technologie-Vorreiter (also eigentlich eh dasselbe, nur "positiver" ausgedrückt :D )

Jedenfalls hatte die FX5200 definitiv denselben Effekt - ich seh's ja an mir selbst. Ich wollte keine teuren NV3x Ableger, aber eine billige FX5200, nur um mit deren Shader-Fähigkeiten zu experimentieren, war drin. Shader-Performance-Profiling geht auch auf dieser Hardware einigermaßen gut.

Von da her sehe ich selbst die FX5200 (aufgrund ihrer "Billigkeit") als einen Technologie-Vorreiter. Immerhin für Entwickler war es eine interessante Experimentierplattform für wenig Geld.
ack!
so hätte ich es auch sagen können...

MadMan2k
2004-04-21, 23:45:08
Original geschrieben von HOT
Der Vergleich hinkt in der Tat. 5200 ist ultralowend, was NV40 offensichtlich nicht ist.

Der Vergleich bezog sich rein auf das Featureset.
Die FX5200 bietet vollen SM2.0 Support, welcher aber mangels Leistungsfähigkeit nicht in Spielen nutzbar ist, sehr wohl aber bei der Entwicklung eben dieser.
Diesen Sachverhalt sehe ich auch bei dem NV40 gegeben nur bezogen auf das SM3.0.
Und daher glaube ich ,dass er den "echten" Shader3.0 Einsatz(rein auf Spiele bezogen) nicht mehr und nicht minder als ein Chip ganz ohne SM3.0 Support.
Demnach ist der R420 keine Technologiebremse, sondern der NV40 ein Technologie-Vorreiter, da er den Entwicklern die Möglichkeit gibt sich mit den S3.0 Fetures vertraut zu machen und sie dann auf performanten Karten(in diesem Fall SM4.0 Gen) einzusetzen.
Technologiebremse Kann man Ati erst dann nennen, wenn sie den R500 deutlich dach der performanten SM3.0 Nvidia Karte bringen. (sei es ein NV40 Refresh oder der NV50)

ShadowXX
2004-04-22, 08:37:20
Original geschrieben von Quasar
60fps. =)

9 Zyklen für einen supersimplen "if...then...else" Branch finde ich ehrlich gesagt nicht sehr Performant (rein A-Ops, mit Texturen würde es wahrscheinlich noch schlechter Aussehen).

Vielleicht ist genau das der Grund, warum ATI den r400 fallengelassen hat....SM3 war ihnen einfach nicht performant genug.

Ich begrüsse es zwar das nv SM3 mit reingenommen hat und findes es von ATI nicht so dolle, das Sie es nicht getan haben (ja, auch für mich ist ATI eine Technologiebremse)....aber man sollte SM3 beim nv40 nicht überbewerten.

In der Zeit, in der der nv40 noch High-End ist, wird man keinen oder nur marginellen PS3.0 Support in Games finden.
Für die Developer ist der SM3.0 Support allerdings ein Grund wieder auf nV zu entwickeln...diesen Vorteil, wird nV allerdings wohl erst mit dem nv50 wirklich "geniessen" können...

Wie einer meiner Vorposter schon sagte...HQ-AF wäre zur heutigen Zeit wohl besser gewesen als SM3.0...aber das gabs wohl sowieso als Bonus, da CineFX II nicht mehr soooo weit davon entfernt war...

aths
2004-04-22, 09:18:09
Original geschrieben von ShadowXX
9 Zyklen für einen supersimplen "if...then...else" Branch finde ich ehrlich gesagt nicht sehr Performant (rein A-Ops, mit Texturen würde es wahrscheinlich noch schlechter Aussehen).

Vielleicht ist genau das der Grund, warum ATI den r400 fallengelassen hat....SM3 war ihnen einfach nicht performant genug. So würde ich das nicht sehen.

Was NV jetzt anbietet, ist eine Lösung, die dynamisches Branching erst mal möglich macht. Eine rein für SM 3.0 designte Pipeline könnte schneller sein. Aber man sieht ja, wie schon CPUs unter Branching leiden – und Grafikchips sind bislang darauf ausgelegt, massiv parallel zu rechnen, und nich wild im Code herumzuspringen.

Um die SM 3.0 (bzw. 4.0)-Features schneller zu machen, müsste man wahrscheinlich eine Menge zusätzlicher Transitoren aufwenden. Das war angesichts 16 Pipes und FP-TMUs etc. wohl nicht drin.

Dass jedes dynamische Branching immer 9 Takte kostet, da wäre ich etwas skeptisch, afaik sind es ca. 5 Takte.

ShadowXX
2004-04-22, 10:35:55
Original geschrieben von aths
So würde ich das nicht sehen.

Was NV jetzt anbietet, ist eine Lösung, die dynamisches Branching erst mal möglich macht. Eine rein für SM 3.0 designte Pipeline könnte schneller sein. Aber man sieht ja, wie schon CPUs unter Branching leiden – und Grafikchips sind bislang darauf ausgelegt, massiv parallel zu rechnen, und nich wild im Code herumzuspringen.

Um die SM 3.0 (bzw. 4.0)-Features schneller zu machen, müsste man wahrscheinlich eine Menge zusätzlicher Transitoren aufwenden. Das war angesichts 16 Pipes und FP-TMUs etc. wohl nicht drin.

Dass jedes dynamische Branching immer 9 Takte kostet, da wäre ich etwas skeptisch, afaik sind es ca. 5 Takte.

Wie ich schon erwähnte, begrüsse ich ja auch, dass nV dieses überhaupt anbietet.

Die Frage ist allerdings, ob es sich bei den relativ kurzen Shadern die wohl auch in naher Zukunft noch benutzt werden, wirklich ein Performancevorteil durch die möglichkeit der PS3.0 ergibt.

Ob nun 5 oder 9 Takte...ich gehe davon aus, das man die Branch-Fähigkeit des nv40 nur dann vernünftig ausnutzen kann, wenn die Shader sehr lang sind...und damit meist sowieso ziemlich langsam (in den fällen, sollte es allerdings tatsächlich einen Performanceschub geben)

Das Problem liegt wohl auch mehr an der SIMD-Arbeitsweise der heutigen GPUs...

Zumindest im GPU-Bereich, sollte so ein Branch höchstens einen bis zwei Takt(e) kosten, damit man wirklich einen Vorteil daraus ziehen kann...

Das soll jetzt keine generelle Kritik an nV sein, denn Sie bieten ja immerhin die Möglichkeit, was ich wie gesagt sehr lobenswert finde...

Aber man sollte die reelle Nutzbarkeit des SM3.0 auf dem nv40 IMHO nicht zu stark überschätzen (in Bezug auf Performancegewinn...zum "rumspielen" für Entwickler ist das ganze sicher sehr gut geeignet..)

//Edit: hab gerade gesehen, das du dem nv40 auch erst mal als Chip ansiehst, der diese Feature "zur Verfügung" stellt...da hatte ich etwas hastig drübergelesen...sind uns im Prinzip also einig...

//Edit2:
ich hoffe das es bald mal ein paar verfügbare Karten gibt, mit denen man das Branching genauer untersuchen kann...das von mir erwähnte Beispiel, war direkt per Hand programmiert (nix Compiler), arbeitete rein Mathematisch und war wirklich nur "if x dann dies sonst das"...und kostete wie erwähnt 9 Takte...also nicht gerade ein komplexitätswunder. Wahrscheinlich hat die GPU probleme, wenn die Einsprungspunkte zu nah beieinander liegen
(Ach ja...das Beispiel war auch so gewählt, das alle "teile" des Quads den selben weg gingen...)

Gast
2004-04-22, 12:01:00
Original geschrieben von ow

Dennoch wird hier soweit ich das sehe ueberwiegend aus der ATi-Ecke geplaerrt wie schlimm doch NVs neues AF sei.
Da haette ich gerne mal eine Erklaerung dafuer.



Weil nv das lehrbuchqualitative AF bereits geboten hat. Sie waren damit "on the top", "highend", der Marktführer eben. Wenn ich mich als Technologieführer ansehe, dann mache ich solche biligen Spielchen nicht, denn das habe ich nicht nötig.

Mit dem nv40 und seinem fast perfekten (leistungsbezogenem) AA wäre nv auf dem Mars gelandet, während die Konkurenz eben die ersten Sonden in den All befördert hätte.

Bin seid der TNT bis GF4 bei nv gewesen, weil der r300 tolles AA bot, bin ich umgestiegen - jetzt brauche ich nicht mehr zurück, denn warum? ps3? Kann man das essen ;)

aths
2004-04-22, 14:08:58
Original geschrieben von ShadowXX
Die Frage ist allerdings, ob es sich bei den relativ kurzen Shadern die wohl auch in naher Zukunft noch benutzt werden, wirklich ein Performancevorteil durch die möglichkeit der PS3.0 ergibt. Bei kurzen Shadern natürlich nicht.

Original geschrieben von ShadowXX
Das Problem liegt wohl auch mehr an der SIMD-Arbeitsweise der heutigen GPUs...Nein, das sind unterschiedliche Probleme. Einerseits kostet ein Branch viele Takte. Andererseits muss man wegen der Arbeitsweise mit Quads jenes wohlmöglich noch mal durch die Pipes loopen.

Kirk sagte dann noch, dass bei einem Branch "beide Zweige" ausgeführt werden müsste, was man so oder so interpretieren kann. Man könnte imo die Performance deutlich verbessern, selbst wenn man weiterhin die Quad-Pipes hat.
Original geschrieben von ShadowXX
Aber man sollte die reelle Nutzbarkeit des SM3.0 auf dem nv40 IMHO nicht zu stark überschätzen (in Bezug auf Performancegewinn...zum "rumspielen" für Entwickler ist das ganze sicher sehr gut geeignet..)Entwickler haben jetzt Hardware, wo das schon mal funktioniert. Wenn sie jetzt Engines entwickeln, die auf SM 3.0 setzen, ist (angesichts 1 - 2 Jahren Entwicklungszeit) zur Fertigstellung auch die Hardware da, die brauchbare Performance bietet. Vorteil für NV: Entwickelt wird jetzt auf ihren Karten. Den Spieler braucht das nicht groß zu kümmern, falls ATI es nicht gebacken kriegen sollte, performante 3.0+-fähige HW zu bauen, kaufen sie eben eine von NV; aber ich gehe davon aus, dass ATI hier mit dem R500 nicht schlecht dastehen wird.

ShadowXX
2004-04-22, 14:35:03
Original geschrieben von aths
Entwickler haben jetzt Hardware, wo das schon mal funktioniert. Wenn sie jetzt Engines entwickeln, die auf SM 3.0 setzen, ist (angesichts 1 - 2 Jahren Entwicklungszeit) zur Fertigstellung auch die Hardware da, die brauchbare Performance bietet. Vorteil für NV: Entwickelt wird jetzt auf ihren Karten. Den Spieler braucht das nicht groß zu kümmern, falls ATI es nicht gebacken kriegen sollte, performante 3.0+-fähige HW zu bauen, kaufen sie eben eine von NV; aber ich gehe davon aus, dass ATI hier mit dem R500 nicht schlecht dastehen wird.

Ack......

nV hat durch den nv40 definitiv wieder einen Bonus bei den Entwicklern...wobei wir die folgen dieses Boni wohl erst beim nv50 sehen werden...

Xmas
2004-04-22, 15:16:10
Original geschrieben von LovesuckZ
Mit dem PS3.0 unterstuetzt Nvidia jetzt erst richtig HDR und auch MRT. Beides sind nur optional für PS2.x. Und bitte, wenn dies unwichtig sei, warum verwendete es dann schon Gabe für HL2?

Ich bitte darum, HDR und MRT von SM3.0 zu trennen. MRT bietet schon R300, und auch HDR in Teilen (FP16 Filtering und Blending hat der NV40 voraus). Wir wissen noch nicht, was R420 hier bietet.

Quasar
2004-04-22, 18:52:46
Original geschrieben von ShadowXX
9 Zyklen für einen supersimplen "if...then...else" Branch finde ich ehrlich gesagt nicht sehr Performant (rein A-Ops, mit Texturen würde es wahrscheinlich noch schlechter Aussehen).

SM3 ist mehr als nur Branching im Pixelshader. Z.B. kann man laut einiger Entwickler sehr niedliche Partikelsysteme damit machen, die man sonst wohl oder übel der CPU aufbürden muss.

Für Lamer wie mich, die nur eine 1,4GHz-CPU haben, wäre das natürlich von Vorteil. Für ultra-1337e High-End Checker ist das sicherlich unspannend. ;)

ShadowXX
2004-04-22, 19:53:59
Original geschrieben von Quasar
SM3 ist mehr als nur Branching im Pixelshader. Z.B. kann man laut einiger Entwickler sehr niedliche Partikelsysteme damit machen, die man sonst wohl oder übel der CPU aufbürden muss.

Für Lamer wie mich, die nur eine 1,4GHz-CPU haben, wäre das natürlich von Vorteil. Für ultra-1337e High-End Checker ist das sicherlich unspannend. ;)

Das ist mir klar...aber wenn schon so eine simple Verzweigung so viele Takte kostet, was glaubst du, was die restlichen Sachen so kosten werden????
Besonders, wenn diese dann auch noch innerhalb der Shaderpipeline voneinander abhängen und jeder "pixel" eines quads gerne seinen eigenen weg gehen möchte....

Man kann víele schöne sachen mit SM3.0 machen, aber auf dem nv40 werden wir diese Sachen wohl eher in TechDemos, denn in Games zu sehen bekommen.

Nichts desto trotz begrüsse ich, das nV das SM3.0 mit in den Chip integriert hat...
Nur glaube ich nicht, das der nv40 wirklich grosse vorteile daraus ziehen werden kann...

Quasar
2004-04-22, 22:58:52
Das Partikelsystem, was ich sah (ja, es war eine Techdemo) lief mit besagten 60fps laut Counter.

Als dann ein zweiter Partikelstrom hinzugeschaltet wurde, und beide zusammen über ein via Vertex-Texture Lookup geformtes Terrain strömten, ging die Performance runter, ja.

Allerdings waren da laut Eugene auch 500k Partikel gleichzeitigt gerendert.
*shrugs*

Endorphine
2004-04-23, 00:46:55
Öhm, hallo? Ich will ja nicht nerven, aber könnt ihr diese Shader-, Branch- und sonstige offtopic-Diskussionen bitte woanders weiterführen? Hier sind mindestens 15 Seiten offtopic-Diskussion, der ganze Thread ist dadurch momentan komplett im Eimer.

Hier geht's um den anistropen Texturfilter des NV40. Die generellen NV40-Diskussionen haben Platz im Reviewthread. Oder splittet die Diskussion halt ab, die ist hier definitiv nicht ontopic.

Ich wäre der Moderatorenschaft wirklich sehr verbunden, wenn die ganzen Seiten der OT-Diskussion abgesplittet werden würden.

MadManniMan
2004-04-23, 01:46:06
Sorry, daß ich NOCHMAL da einhake, aber warum kürzt man ShaderX.X eigentlich mit SM ab?

stickedy
2004-04-23, 01:55:00
ShaderModel

MadManniMan
2004-04-23, 02:06:34
Original geschrieben von stickedy
ShaderModel

Aso, schön blöd, der Manni... :bonk:

DrumDub
2004-04-23, 02:12:28
Original geschrieben von MadManniMan
Aso, schön blöd, der Manni... :bonk:

das shadermodel beinhaltet pixel und vertex shader. ;)

HOT
2004-04-23, 10:43:00
Original geschrieben von Endorphine
Öhm, hallo? Ich will ja nicht nerven, aber könnt ihr diese Shader-, Branch- und sonstige offtopic-Diskussionen bitte woanders weiterführen? Hier sind mindestens 15 Seiten offtopic-Diskussion, der ganze Thread ist dadurch momentan komplett im Eimer.

Hier geht's um den anistropen Texturfilter des NV40. Die generellen NV40-Diskussionen haben Platz im Reviewthread. Oder splittet die Diskussion halt ab, die ist hier definitiv nicht ontopic.

Ich wäre der Moderatorenschaft wirklich sehr verbunden, wenn die ganzen Seiten der OT-Diskussion abgesplittet werden würden.

Und? Wo ist der Bus? Der Thread ist alles andere als im Arsch :D
Man kann echt übertreiben... Die besten Diskussionen entstehen nunmal, in dem man von einer Sache auf die nächste kommt. Du kannst ja gerne einen neuen AF Thread offenmachen, doch ich denke nicht, dass es noch Sinn macht, da ja hier alles gesagt wurde zu dem thema ;)
Wenn alle anderen gerne darüber diskutiren möchten, wirst du das so akzeptieren müssen ;)

Endorphine
2004-04-23, 11:36:30
Original geschrieben von HOT
Du kannst ja gerne einen neuen AF Thread offenmachen, doch ich denke nicht, dass es noch Sinn macht, da ja hier alles gesagt wurde zu dem thema ;) Noch lange nicht. Das Thema ist erst durch, wenn Erkenntnisse gefunden worden. Bis jetzt ist noch nicht mal geklärt, was der HQ-Regler nun regelt und wo der Leistungsverlust herkommen soll, und ob die Funktion überhaupt schon in den Reviewtreibern aktiviert ist etc. Original geschrieben von HOT
Wenn alle anderen gerne darüber diskutiren möchten, wirst du das so akzeptieren müssen ;) Ich akzeptiere alles, ich hasse es nur, wenn ein Thread mit Offtopicgelaber getrashed wird. Ich will mir nicht 15 Seiten mit OT-Blabla durchlesen müssen, um sicherzustellen, dass ich keine neuen Erkenntnisse zum AF verpasse.

Hier wird 15 Seiten nur Offtopic gelabert und sonst wird bei jeder Kleinigkeit gleich die Modkeule rausgeholt und mit ominösen Punkten gedroht, Threads werden geschlossen usw.? :bonk:

HOT
2004-04-23, 14:20:37
Original geschrieben von Endorphine
Noch lange nicht. Das Thema ist erst durch, wenn Erkenntnisse gefunden worden. Bis jetzt ist noch nicht mal geklärt, was der HQ-Regler nun regelt und wo der Leistungsverlust herkommen soll, und ob die Funktion überhaupt schon in den Reviewtreibern aktiviert ist etc. Ich akzeptiere alles, ich hasse es nur, wenn ein Thread mit Offtopicgelaber getrashed wird. Ich will mir nicht 15 Seiten mit OT-Blabla durchlesen müssen, um sicherzustellen, dass ich keine neuen Erkenntnisse zum AF verpasse.


Gut, aber neue Erkenntnisse gibt es ja nur wenn aths ne gescheite Antwort bekommt, oder NV einen neuen Treiber released. Beides wird wohl nicht so bald passieren. Ansonsten müsste der Thread eigentlich ins Spekuforum. Von daher war das Thema für mich ja erledigt.



Hier wird 15 Seiten nur Offtopic gelabert und sonst wird bei jeder Kleinigkeit gleich die Modkeule rausgeholt und mit ominösen Punkten gedroht, Threads werden geschlossen usw.? :bonk:

Da hst du wohl recht ;)

DanMan
2004-04-25, 02:01:24
Öhm.. ja... back on topic:

Ich tippe, dass, selbst wenn die AF Winkelabhängigkeit per Treiber regelbar ist, nVidia dieses nicht aktivieren wird bevor ATI nicht mit ihrem R420 rauskommt. Bis dahin besteht nämlich keine Veranlassung mit der momentanen Einstellung. Schließlich hat ATI hier z.Zt. keinerlei Vorteile.

aths
2004-04-25, 21:33:36
Original geschrieben von Quasar
Meine Erkenntnis:
Die ROPs sind verantwortlich für das Blending - sowohl Color- als auch Alpha. Richtig? Korrigiere mich, wenn ich falsch liege – inzwischen scheint afaik geklärt, dass diese Probleme nicht durch die ROPs kommen, sondern dadurch dass FC auf NV-Karten mehr 1.1-er Shader verwendet.

Quasar
2004-04-25, 21:41:55
Original geschrieben von aths
Korrigiere mich, wenn ich falsch liege – inzwischen scheint afaik geklärt, dass diese Probleme nicht durch die ROPs kommen, sondern dadurch dass FC auf NV-Karten mehr 1.1-er Shader verwendet.

Du liegst goldrichtig, aber in Bezug auf Far Cry habe ich niemals den ROPs in die Schuhe geschoben, sondern den Austauschshadern (die ich z.T. allerdings für 2.0pp-Shader hielt).

DrumDub
2004-04-25, 22:11:03
Original geschrieben von Quasar
Du liegst goldrichtig, aber in Bezug auf Far Cry habe ich niemals den ROPs in die Schuhe geschoben, sondern den Austauschshadern (die ich z.T. allerdings für 2.0pp-Shader hielt).

es trifft wohl beides zu. mehr 1.1 ps und 2.x ps mit pp: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1750540#post1750540

aths
2004-04-26, 11:15:37
Original geschrieben von Quasar
Du liegst goldrichtig, aber in Bezug auf Far Cry habe ich niemals den ROPs in die Schuhe geschoben, sondern den Austauschshadern (die ich z.T. allerdings für 2.0pp-Shader hielt). Wo wolltest du die ROPs verantwortlich machen?

Gast
2004-04-26, 13:03:14
Original geschrieben von aths
Wo wolltest du die ROPs verantwortlich machen?



;Q

aths
2004-04-26, 13:27:05
Original geschrieben von Gast


;Q Warum sollten die Probleme nur bei X2 zu sehen sein?

Quasar
2004-04-26, 18:48:17
Original geschrieben von aths
Warum sollten die Probleme nur bei X2 zu sehen sein?

Wer sagt denn, daß sie es nur da sein sollten?

Du hast mich gefragt, wo ich die ROPs verantwortlich machen wollte und ich habe geantwortet. Bei X² ist es mir ziemlich stark aufgefallen, auch im GT2 vom 3DMark03 sehe ich einige Bandings, hier habe ich allerdings auf der Radeon und GF4 nicht gegengecheckt.

Wolfi
2004-05-05, 03:27:15
Also es gibt ja jetzt einen neuen Treiber oder ? und ATI hat auch den R420 Released (auch winkelabhängig)
gibt es den jetzt schon etwas neues bzgl AF vom NV40?


Ich bin sauer über die entwicklung beim AF.
für mich war AF immer der größere qualitäts bringer (mehr als AA)

Ein kaufgrund für eine neue graka ist auch das ich weiterhin/wieder quality 8AF nutzen kann,aber das bietet der NV40 bisher nicht (Hab eine Ti4400)
Unglaublich das eine ältere hardware besseres AF bietet.
Aber mit quality AF hätte der NV40 wohl verloren,und speed ist (leider) alles.
Und die Benches der R420 lassen auch nichts gutes in zukunft von NVidia bzgl AF erwarten.

LovesuckZ
2004-05-05, 08:05:09
Original geschrieben von Wolfi
Und die Benches der R420 lassen auch nichts gutes in zukunft von NVidia bzgl AF erwarten.

Da hast du recht. Karten verkaufen sich über den Speed und die AA Qualitaet. Die paar Leute, die AF schaetzen, werden wohl in diesem jahr nichts zu lachen haben...

HOT
2004-05-05, 08:12:03
Original geschrieben von Wolfi
Also es gibt ja jetzt einen neuen Treiber oder ? und ATI hat auch den R420 Released (auch winkelabhängig)
gibt es den jetzt schon etwas neues bzgl AF vom NV40?


Ich bin sauer über die entwicklung beim AF.
für mich war AF immer der größere qualitäts bringer (mehr als AA)

Ein kaufgrund für eine neue graka ist auch das ich weiterhin/wieder quality 8AF nutzen kann,aber das bietet der NV40 bisher nicht (Hab eine Ti4400)
Unglaublich das eine ältere hardware besseres AF bietet.
Aber mit quality AF hätte der NV40 wohl verloren,und speed ist (leider) alles.
Und die Benches der R420 lassen auch nichts gutes in zukunft von NVidia bzgl AF erwarten.


Noch ist nicht aller Tage Abend ;)
Vielleicht wird ja dochnoch ne Serie5 Karte vorgestellt, die haben mit hoher Wahrscheinlichkeit vernünftiges AF.
Mal diesen und nächsten Monat abwarten, wenn sich bis dahin nichts tut müssen wir leider mit dem AF leben :(

aths
2004-05-05, 09:18:47
Original geschrieben von Quasar
Wer sagt denn, daß sie es nur da sein sollten?

Du hast mich gefragt, wo ich die ROPs verantwortlich machen wollte und ich habe geantwortet. Bei X² ist es mir ziemlich stark aufgefallen, auch im GT2 vom 3DMark03 sehe ich einige Bandings, hier habe ich allerdings auf der Radeon und GF4 nicht gegengecheckt. Das wäre aber gut :)

Ich kann mir noch immer nicht vorstellen, dass die NV-Chips solche Probleme in den ROPs haben sollten.

aths
2004-05-05, 09:20:26
Original geschrieben von Wolfi
Ein kaufgrund für eine neue graka ist auch das ich weiterhin/wieder quality 8AF nutzen kann,aber das bietet der NV40 bisher nicht (Hab eine Ti4400)Jopp. Ich bin auch GF4-Ti-verwöhnt, was AF angeht.

Original geschrieben von Wolfi
Unglaublich das eine ältere hardware besseres AF bietet.Es wären Verfahren denkbar, die anders als das GF4-Verfahren arbeiten, und die bei leichtem Qualitätsverlust ggü. GF4 deutlich weniger Füllrate bräuchten. Will sagen, ein klein wenig schlechter darf das AF schon werden, wenn es denn drastischen Leistungsgewinn gäbe. Natürlich darf es nicht dazu führen, dass jetzt ATI imitiert wird.

DrumDub
2004-05-05, 10:53:22
Original geschrieben von aths
Es wären Verfahren denkbar, die anders als das GF4-Verfahren arbeiten, und die bei leichtem Qualitätsverlust ggü. GF4 deutlich weniger Füllrate bräuchten. Will sagen, ein klein wenig schlechter darf das AF schon werden, wenn es denn drastischen Leistungsgewinn gäbe. Natürlich darf es nicht dazu führen, dass jetzt ATI imitiert wird.

denkst du dabei an ein ähnliches verfahren, welches s3 beim deltachrome einsetzt?

aths
2004-05-05, 14:01:09
Original geschrieben von DrumDub
denkst du dabei an ein ähnliches verfahren, welches s3 beim deltachrome einsetzt? Nein. S3-AF müsste verdammt viel Leistung kostet (aber sieht dem Pattern zufolge auch sehr gut aus.)

aths
2004-05-05, 14:02:02
Bezüglich NV40-AF habe ich von NV jetzt eine aussagekräftige Information. Wird bald auf 3DCenter zu lesen sein.

HOT
2004-05-05, 14:05:28
Original geschrieben von DrumDub
denkst du dabei an ein ähnliches verfahren, welches s3 beim deltachrome einsetzt?

Der Deltacrome profitiert ja nur von seiner wahnsinns Texelfüllrate aufgrund der TriTMUs. Die eigentliche Stärke ist der trilineare Filter.

Exxtreme
2004-05-05, 14:05:44
Original geschrieben von HOT
Noch ist nicht aller Tage Abend ;)
Vielleicht wird ja dochnoch ne Serie5 Karte vorgestellt, die haben mit hoher Wahrscheinlichkeit vernünftiges AF.
Mal diesen und nächsten Monat abwarten, wenn sich bis dahin nichts tut müssen wir leider mit dem AF leben :(
Ja. ;(

PowerVR ist jetzt die letzte Hoffnung gescheites AF + SSAA zu bekommen. ;( Diese "Generation" von ATi und NV werde ich wohl überspringen da nichts wirklich Neues geboten wurde. ;(

HOT
2004-05-05, 14:08:37
Original geschrieben von Exxtreme
Ja. ;(

PowerVR ist jetzt die letzte Hoffnung gescheites AF + SSAA zu bekommen. ;( Diese "Generation" von ATi und NV werde ich wohl überspringen da nichts wirklich Neues geboten wurde. ;(

Wenn sich nichts ergibt (besonderes Angebot oder so) wird es bei mir ähnlich ablaufen.
Wenn sich an der Optik nichts ändert bin ich mit meiner 9700 ja zufrieden.

ow
2004-05-05, 14:12:11
.

HOT
2004-05-05, 14:18:54
Original geschrieben von ow
Wieso gehst du da von hoher Wahrscheinlichkeit aus, wo es bis heute noch keine HW von PVR gab, die vernuenftig AF-filtern konnte?

Na ja, ich traue es PowerVR zu, perfekte BQ zu liefern. Wenn du das nicht tust, ist das dir überlassen.
Hoffen darf ich doch ;)

Nasowas
2004-05-05, 14:29:08
Original geschrieben von aths
Bezüglich NV40-AF habe ich von NV jetzt eine aussagekräftige Information. Wird bald auf 3DCenter zu lesen sein.


Hallo aths,

dann weisst ja, was am Wochende zu tun ist :-)).

ow
2004-05-05, 14:38:08
.

ShadowXX
2004-05-05, 14:39:06
Original geschrieben von aths
Bezüglich NV40-AF habe ich von NV jetzt eine aussagekräftige Information. Wird bald auf 3DCenter zu lesen sein.

Könntest du das "bald" zeitlich näher eingrenzen...oder baust du es in einen Artikel mit rein, von dem du noch nicht weisst, wann er fertig ist????

LovesuckZ
2004-05-05, 14:40:18
Original geschrieben von Exxtreme
Diese "Generation" von ATi und NV werde ich wohl überspringen da nichts wirklich Neues geboten wurde. ;(

Du solltest trennen: ATi bietet nichts neues und Nvidia verschlechter wenigsten fast alles :D

HOT
2004-05-05, 15:18:55
Original geschrieben von LovesuckZ
Du solltest trennen: ATi bietet nichts neues und Nvidia verschlechter wenigsten fast alles :D

lansam wirds echt öde....
FÜR EXXTREME bietet keiner der beiden was neues für die BQ. Und für mich auch nicht. Wenn NV für dich neues bietet, dann kauf es dir, aber hör ENDLICH auf zu lästern.

Godmode
2004-05-06, 00:43:31
Original geschrieben von HOT
lansam wirds echt öde....
FÜR EXXTREME bietet keiner der beiden was neues für die BQ. Und für mich auch nicht. Wenn NV für dich neues bietet, dann kauf es dir, aber hör ENDLICH auf zu lästern.

NV biete doch endlich 4XRGMSAA und ich denke das man die Winkelabhängigkeit auch irgendwie ausschalten können wird.

MadMan2k
2004-05-06, 01:00:17
Original geschrieben von bans3i
NV biete doch endlich 4XRGMSAA und ich denke das man die Winkelabhängigkeit auch irgendwie ausschalten können wird.
aber der Exxtreme hat ne Ati - für ihn ist 4xRGMSAA nix neues.
Er hat sogar 6xEEAA mit gammakorrigiertem Downsampling ;)

was man sich für diese Generation hätte wünschen können, wäre 8xAA und korrektes AF auf beiden Seiten.
Aber gekommen ist "nur" ein Speedupdate plus SM3.0 auf der einen und 3dc auf der anderen Seite.
Ersteres ist bei der aktuellen Spielelage IMO noch nicht erforderlich und letztere bringen mir jetzt noch nix.
Daher werde wohl auch ich diese Generation überspringen....

MadManniMan
2004-05-06, 01:10:45
/me ist sayr änttäuscht ub0r das AF der NextGen ;(

/me froyt sich zumindest ab0r darub0r, daß die neuen Karten entgegen seiner Erwartung heftigste Rawpowerschübe erhielten.

/me gayt dav0n ous, daß wir ob der besseren AF-Leistungs seitens der X800er kein non-adaptives bei den NV40-Derivaten sehen werden.

/me hätte sayr gayrn mayr theoretische Quali ( ?-) ) gegenüber seiner R300 gehabt, so wird es fast einzig eine Frage der Preis/Leistung bei 1280 mit 4*/16*. Wobei ATi den Trumpf des 6*GKSGMSAAa zum Auftrumpf0rn hat, während nV eventuell minimal weniger von Banding in jedweder Form betroffen sein wird. -> Zwaikumpf X8Pro vs. 68GT ahoi, wobei erstere ob des 6*AA bei Gleichpreisigkeit den Zuschlag erhielte.


/me frag0rt den ow, was am AF des STG4X00 so $hic3 war! Seinereiner kann sich nicht mehr so recht erinn0rn, ob das AF nicht fin0r Qualität war. Schließlich hatte so ein K1/2 auch finä Tri-TMUs *grübel*



so long, mudmunnimun

(...)

ÄDITÄDIT! ;( ... hab jetzt auch mal das XBit-Labs Review gelesen und muß sag0rn, daß mich die AA/AF-Leistung gegenüber dem NV40 sehr überrascht. Also vom R420 aus gesehen. Und wo ich grad die PCGH anschau - auch hier die bessere Leistung mit AA/AF.
Zumindest für mich wird ein NV40 es schwer haben, außer nV trumpft mit wirklich gutem Preise auf!

Wolfi
2004-05-06, 02:14:40
Original geschrieben von aths
Jopp. Ich bin auch GF4-Ti-verwöhnt, was AF angeht.

Es wären Verfahren denkbar, die anders als das GF4-Verfahren arbeiten, und die bei leichtem Qualitätsverlust ggü. GF4 deutlich weniger Füllrate bräuchten. Will sagen, ein klein wenig schlechter darf das AF schon werden, wenn es denn drastischen Leistungsgewinn gäbe. Natürlich darf es nicht dazu führen, dass jetzt ATI imitiert wird.


Als zusätzliche Option würde ich winkelabhängigkeit oder bessere verfahren auch begrüssen,die aber wenn leistung da ist ich nicht verwenden will (sprich neue Graka Generation)
Ich finde es trauig wenn sich mehr als 4AF kaum lohnt.
Und ich Spiele auch viele alte spiele (zb Gothic) wo ich Locker 8AF mit meiner Ti4400 fahren kann.
Unn wenn ich mir eine neue Graka leiste soll ich jetzt auf die gebotene qualität verzichten (Kopfschüttel)


Schön das du jetzt eine ausage von Nvidia hast.
wann kommt den dein statement dazu ?

LovesuckZ
2004-05-06, 09:39:27
Original geschrieben von MadManniMan
/me gayt dav0n ous, daß wir ob der besseren AF-Leistungs seitens der X800er kein non-adaptives bei den NV40-Derivaten sehen werden.


Richtig.
Der NV40 verliert jetzt schon sehr viel leistung beim stark winkelabhaengigen AF, wie sollte es erst mit dem richtigen aussehen...

Godmode
2004-05-06, 09:48:55
Original geschrieben von LovesuckZ
Richtig.
Der NV40 verliert jetzt schon sehr viel leistung beim stark winkelabhaengigen AF, wie sollte es erst mit dem richtigen aussehen...

Kann man eigentlich sagen wodurch soviel Leistung verloren wird? Sind da die ROPs schlecht, oder welche Einheiten filtern den überhaupt?

LovesuckZ
2004-05-06, 09:52:52
Original geschrieben von bans3i
Kann man eigentlich sagen wodurch soviel Leistung verloren wird? Sind da die ROPs schlecht, oder welche Einheiten filtern den überhaupt?

Das selbe Problem hatte auch der NV30, wobei hier argumentiert wurde, dass er mehr arbeiten müsse.
Warum der NV40 soviel verliert? Ka, aber um einen Treiebrbug haendelt es sich bestimmt nicht.

Exxtreme
2004-05-06, 09:59:05
Original geschrieben von bans3i
NV biete doch endlich 4XRGMSAA und ich denke das man die Winkelabhängigkeit auch irgendwie ausschalten können wird.
Häää? :???:

4x RGMSAA habe ich schon seit 1,5 Jahren auf meiner R9700Pro. SM3.0 bietet ggü. SM2.0 nur punktuelle Verbesserungen und solange es nicht ausgenutzt wird, ist es IMHO ziemlich sinnfrei. Genauso verhält es sich mit 3Dc.

RGSSAA, >6x SGMSAA, 16x AF nicht winkelabhängig ... das wären Features die mich reizen würden.

ow
2004-05-06, 10:44:33
.

ow
2004-05-06, 10:48:38
.

Exxtreme
2004-05-06, 11:09:22
Original geschrieben von ow
Von technischem Fortschritt haeltst du wohl garnix??
Nun ja ... 8x SGMSAA wäre fortschrittlicher genauso wie 16x AF winkelunabhängig. :D Es wäre zwar keine Revolution aber man hätte sofort was davon. SM3.0 und 3Dc sind bis jetzt herstellerabhängige Exklusiv-Features. Ihnen konnte das gleiche passieren wie PS1.4, Truform etc.

LovesuckZ
2004-05-06, 11:21:12
Exxtreme, benutzt du das SM2.0 in Spielen, welches es anbieten? Deiner meinung nach nicht, denn dies war vor 1 3/4 jahr ebenfalls ein "herstellerabhängige[s] Exklusiv-Feature" ohne nutzen...

HOT
2004-05-06, 11:22:21
Original geschrieben von MadMan2k
aber der Exxtreme hat ne Ati - für ihn ist 4xRGMSAA nix neues.
Er hat sogar 6xEEAA mit gammakorrigiertem Downsampling ;)

was man sich für diese Generation hätte wünschen können, wäre 8xAA und korrektes AF auf beiden Seiten.
Aber gekommen ist "nur" ein Speedupdate plus SM3.0 auf der einen und 3dc auf der anderen Seite.
Ersteres ist bei der aktuellen Spielelage IMO noch nicht erforderlich und letztere bringen mir jetzt noch nix.
Daher werde wohl auch ich diese Generation überspringen....

Genau das ;) full Ack

Ich möcht einfach mal eine GFraka die die aktuell wichtigen Features bietet (SM2.0+) und 8xSGMSAA+16xAF Winkelunabhängig, von mir aus auch mit der 6800 trilinear Winkeloptimierung.
Voraussetzung ist nur dass der Chip auch schnell genug dafür ist. ATI hat die Speed für AA/AF, aber an der Quali haperts einfach. Wenn der vernünfitges AF bieten würde, wär der sofort gekauft...

Exxtreme
2004-05-06, 11:33:22
Original geschrieben von LovesuckZ
Exxtreme, benutzt du das SM2.0 in Spielen, welches es anbieten? Deiner meinung nach nicht, denn dies war vor 1 3/4 jahr ebenfalls ein "herstellerabhängige[s] Exklusiv-Feature" ohne nutzen...
SM2.0 war mir beim Kauf der R9700 Pro nicht wichtig. Für mich zählten eher schnelles AA, der trilinear anisotrope Filter und die damals brachiale Performance.

LovesuckZ
2004-05-06, 11:34:31
Original geschrieben von Exxtreme
SM2.0 war mir beim Kauf der R9700 Pro nicht wichtig. Für mich zählten eher schnelles AA, der trilinear anisotrope Filter und die damals brachiale Performance.

Also benutzt du es auch heute nicht?

DrumDub
2004-05-06, 11:34:54
Original geschrieben von Exxtreme
SM3.0 und 3Dc sind bis jetzt herstellerabhängige Exklusiv-Features. Ihnen konnte das gleiche passieren wie PS1.4, Truform etc.

nein, der zweite satz dieser aussage ist falsch, zumindest bezogen auf das sm 3.0. bei 3dc werden wir es sehen, da aber wohl einige spiele kommen, hl2 und ss2 sind bisher bekannt, die es unterstützen und die sache openscource ist, räume ich auch dieser technologie gute chancen ein.

Exxtreme
2004-05-06, 11:35:51
Original geschrieben von LovesuckZ
Also benutzt du es auch heute nicht?
Natürlich benutze ich es heute. :) Wieso sollte ich es nicht benutzen? :???:

LovesuckZ
2004-05-06, 11:37:30
Original geschrieben von Exxtreme
Natürlich benutze ich es heute. :) Wieso sollte ich es nicht benutzen? :???:

"SM2.0 war mir beim Kauf der R9700 Pro nicht wichtig". Es muesste dir heute auch nicht wichtig sein und du ziehst AA und AF jedem SM2.0 Effekt bzw. jeder SM2.0 Speedoptimierung vor.

Exxtreme
2004-05-06, 11:41:12
Original geschrieben von LovesuckZ
"SM2.0 war mir beim Kauf der R9700 Pro nicht wichtig". Es muesste dir heute auch nicht wichtig sein und du ziehst AA und AF jedem SM2.0 Effekt bzw. jeder SM2.0 Speedoptimierung vor.
Doch. Heute ist es mir wichtig denn es gibt Spiele, die davon profitieren. X-D Ja, ich weiss ... das Henne-Ei-Problem. Ohne eine entspr. Verbreitung hat eine Technologie keine Chance. Trotzdem räume ich Features, die ich jetzt nutzen kann, eine höhere Priorität ein.

HOT
2004-05-06, 11:41:20
Original geschrieben von LovesuckZ
Exxtreme, benutzt du das SM2.0 in Spielen, welches es anbieten? Deiner meinung nach nicht, denn dies war vor 1 3/4 jahr ebenfalls ein "herstellerabhängige[s] Exklusiv-Feature" ohne nutzen...

War es ja auch... was wirklich den Ausschlag gegeben hat war die Fillrate und die wahnsinns Speicherbandbreite. Zudem noch überall nutzbares AA/AF, weil die Speed da war.
SM2.0 war netter Bonus, aber weitestgehend egal.
Du kannst es ja sogar an der Praxis festmachen; es gibt nur sehr wenig SM2.0 Titel, die alle vor kurzem erschienen sind und obei die meisten nichtmal optische sondern eher Speedvorteile rausholen aus SM2.0 (SW Galaxies ist so ein Fall).
Farcry ist eine rühmliche Ausnahme. Und selbst DORT sieht man die SM2.0 Vorteile nur wenn man genau darauf achtet. Das meiste ist immernoch SM1.1. Bisher war SM2.0 Luxus, das ist einfach so. Software entwickeln braucht nunmal seine Zeit und man kann damit erst anfangen wenn die Hardware da ist.
Ich halte es sogar für keinen Beinbruch wenn auch NV kein SM3.0 gehabt hätten. Die SM4.0 Karten werden so oder so erscheinen, daran ändert SM3.0 nichts. Der EINZIGE Vorteil, den SM3.0 bringt, ist, dass sich Entwickler schonmal in Richtung SM4.0 bewegen können, sprich, damit experimentieren können. Als Anwender bringt es nichts, da keine optischen Vorteile ggü. SM2.0 zu erwarten sind (SM2.0 ist nunmal DX9 Minimumreferenz) und die Speed durch die Transistoreneinsparungen+mehr Takt wieder rausgeholt werden kann. Siehe ATI.

LovesuckZ
2004-05-06, 11:51:46
Original geschrieben von Exxtreme
Ohne eine entspr. Verbreitung hat eine Technologie keine Chance. Trotzdem räume ich Features, die ich jetzt nutzen kann, eine höhere Priorität ein.

ja, aber wenn du nur auf Speed guckst, und eine technologische unterentwickelte Konkurenz deswegen vorziehen würdes, dann braeuchtest du die Technik auch in Zukunft nicht benutzen. Denn bis auf dem Speed und die halbherzige 3dc Implantierung (wobei man das wohl mit DXT5 irgendwie auffangen kann) bietet der r420 technologisch nichts mehr.

deekey777
2004-05-06, 11:55:20
Original geschrieben von LovesuckZ
ja, aber wenn du nur auf Speed guckst, und eine technologisch unterentwickelte Konkurrenz deswegen vorziehen würdes, dann braeuchtest du die Technik auch in Zukunft nicht benutzen. Denn bis auf dem Speed und die halbherzige 3dc Implantierung (wobei man das wohl mit DXT5 irgendwie auffangen kann) bietet der r420 technologisch nichts mehr.

Lernt denn niemand etwas aus dem FX-Debakel?

Technologisch unterentwickelt: :lolaway:

DrumDub
2004-05-06, 11:56:16
hot

schon richtig, aber du vergisst bei dieser aussage, dass es auch noch einen anderen bereich als anwendungsgebiet von 3d-grakas außer spiele gibt. ich denke, für diesem markt musste nv sm 3.0 liefern genau wie den fp-framebuffer und andere für den spieler (noch) überflüssige features.

Mr. Lolman
2004-05-06, 11:56:29
Original geschrieben von LovesuckZ
ja, aber wenn du nur auf Speed guckst, und eine technologische unterentwickelte Konkurenz deswegen vorziehen würdes, dann braeuchtest du die Technik auch in Zukunft nicht benutzen. Denn bis auf dem Speed und die halbherzige 3dc Implantierung (wobei man das wohl mit DXT5 irgendwie auffangen kann) bietet der r420 technologisch nichts mehr.

Und was hat man vom Technologischen Vorsprung, der z.B. auch bei derder FX immer gepredigt wurde. Hiess es nicht bis vor kurzem, zw. 5950 und 9800XT herrsche Gleichstand. Schaut man sich aktuelle (r420/NV40) Reviews an liegt diese meist ganz hinten, tw. sogar weit abgeschlagen.

Eine featurearme 9800XT schaffts zumindest tw. den Speed der 6800 zu erreichen. (Bleibt aber meistens auch am halben Weg stecken ;))

DrumDub
2004-05-06, 11:58:13
Original geschrieben von deekey777
Technologisch unterentwickelt: :lolaway:

noe. das stimmt. sieh das ganze mal nicht nur aus der perspektive des spielers.

deekey777
2004-05-06, 12:02:40
Original geschrieben von DrumDub
noe. das stimmt. sieh das ganze mal nicht nur aus der perspektive des spielers.

Genau aus der Perspektive sehe ich. Dieses ganze Getue, dass es zu in den nächsten 12-18 Monaten ohne SM 3 nichts läuft, ist doch absoluter Quatsch. Alle Titel mit SM 3 Unterstützung die noch in diesem Jahr erscheinen, werden genau so auf einer X800 laufen. Aber wenn die richtigen SM3 "Hardcore" Games kommen, wird die 6800er genauso :kotz: wie die X800.

DrumDub
2004-05-06, 12:11:43
Original geschrieben von deekey777
Genau aus der Perspektive sehe ich. Dieses ganze Getue, dass es zu in den nächsten 12-18 Monaten ohne SM 3 nichts läuft, ist doch absoluter Quatsch. Alle Titel mit SM 3 Unterstützung die noch in diesem Jahr erscheinen, werden genau so auf einer X800 laufen. Aber wenn die richtigen SM3 "Hardcore" Games kommen, wird die 6800er genauso :kotz: wie die X800.

richtig. denk aber mal an cgi, offline-rendering, cae usw.. allein für diese bereiche musste nv neue features bringen, um die führung in diesen märkten zu behalten. ati konzentriert sich eben auf einen markt mit dem r420, während nv mit dem nv40 mehrere bedienen muss.

deekey777
2004-05-06, 12:14:29
Original geschrieben von DrumDub
richtig. denk aber mal an cgi, offline-rendering, cae usw.. allein für diese bereiche musste nv neue features bringen, um die führung in diesen märkten zu behalten. ati konzentriert sich eben auf einen markt mit dem r420, während nv mit dem nv40 mehrere bedienen kann.

Kein "Normalo" der Welt kauft sich eine HighEnd Grafikkarte, um darauf seine Videos zu bearbeiten. Er kauft sich eine Mainstreamgrafikkarte wie die kommende NV41 - ob diese auch die gleichen Features beherrscht wie die NV40, ist noch nicht klar.

Und für cgi... kauft man bestimmt keine NV40 oder R420.

LovesuckZ
2004-05-06, 12:18:38
Original geschrieben von deekey777
Kein "Normalo" der Welt kauft sich eine HighEnd Grafikkarte, um darauf seine Videos zu bearbeiten.

Er kauft sich solch eine Karte, um damit in die Zukunft gucken zu koennen. Und wer bietet da wohl die bessere Alternative? ATi, mit 6xMSAA und SM2.0 oder Nvidia mit 4xMSAA und SM3.0?
Und das schoenste, unter SM2.0 ist Nvidia nicht mal so deutlich abgeschlagen beim Einsatz von FP32.

DrumDub
2004-05-06, 12:19:08
Original geschrieben von deekey777
Kein "Normalo" der Welt kauft sich eine HighEnd Grafikkarte, um darauf seine Videos zu bearbeiten. Er kauft sich eine Mainstreamgrafikkarte wie die kommende NV41 - ob diese auch die gleichen Features beherrscht wie die NV40, ist noch nicht klar.

Und für cgi... kauft man bestimmt keine NV40 oder R420.

dann schau die mal an was pixar einsetzt. die von mir genannten bereiche haben übrings nix mit video-bearbeitung zu tun.

Exxtreme
2004-05-06, 12:27:09
Original geschrieben von LovesuckZ
ja, aber wenn du nur auf Speed guckst, und eine technologische unterentwickelte Konkurenz deswegen vorziehen würdes, dann braeuchtest du die Technik auch in Zukunft nicht benutzen. Denn bis auf dem Speed und die halbherzige 3dc Implantierung (wobei man das wohl mit DXT5 irgendwie auffangen kann) bietet der r420 technologisch nichts mehr.
Naaah. So "unterentwickelt" ist der R420 auch wieder nicht. Kein Vergleich zu dem, was 3dfx so abgezogen hat. :D Und was mich wundert, daß du NUR auf das Shadermodell schaust.

Und 3Dc lässt sich wohl nicht mit DXTC5 kompensieren da es zuviele Blockartefakte produziert.

Mr. Lolman
2004-05-06, 12:31:49
Original geschrieben von Exxtreme
Naaah. So "unterentwickelt" ist der R420 auch wieder nicht. Kein Vergleich zu dem, was 3dfx so abgezogen hat. :D Und was mich wundert, daß du NUR auf das Shadermodell schaust.


Genau, und selbst mit 3dfx Karten konnte man zu deren Lebzeit gut einwanfrei spielen. Also was soll das herumgejammere..

betasilie
2004-05-06, 12:37:14
Original geschrieben von LovesuckZ
Er kauft sich solch eine Karte, um damit in die Zukunft gucken zu koennen. Und wer bietet da wohl die bessere Alternative? ATi, mit 6xMSAA und SM2.0 oder Nvidia mit 4xMSAA und SM3.0?
Und das schoenste, unter SM2.0 ist Nvidia nicht mal so deutlich abgeschlagen beim Einsatz von FP32.
Du langweilst wirklich! ... Man kann wirklich kaum noch einen Thread lesen, wo Du nicht die selbe Laier ablaufen lässt.

Zum kotzen ist es überall den selben Mist von dir zu lesen wie toll und wie gut doch NV ist. Auch zu NV30 Zeiten hast Du die NV-Karten als die besten der Welt dargestellt, daher glaubt dir doch soweiso keiner mehr, wenn Du was schreibst.

LovesuckZ
2004-05-06, 12:37:49
Original geschrieben von Exxtreme
Naaah. So "unterentwickelt" ist der R420 auch wieder nicht.

Waere der r420 vor 1 3/4 Jahre... aeh falsche Formulierung: Vor 1 3/4 jahr war der r300 wirklich verdammt fortschrittlich. Ein hoeheres "Shadermodell", deutlich besseres Aa und gutem Speed.
Der r420 jetzt ist für mich dementsprechen unterentwickelt, da nun wirklich nicht neues bietet.

Und was mich wundert, daß du NUR auf das Shadermodell schaust.

Die einzigen Vorteile, die der r420 gegenüber dem NV40 hat, ist der hoehere Speed mit AF bzw. AA/AF und der geringere Stromverbrauch.
Beim AA gleichen sich beide aus, dass es bei Nvidia reine Supersampling und hybride Modien gibt und der Unterschied zwischen 4xSGMSAA und 6xSGMSAA in hoeheren Aufloesungen bei den meisten Spielen nicht mehr auffaelt. Man koennte also sagen, ATi's r420 karten koennen sich nur durch den Speed verkaufen...

Exxtreme
2004-05-06, 12:58:05
Original geschrieben von LovesuckZ
Waere der r420 vor 1 3/4 Jahre... aeh falsche Formulierung: Vor 1 3/4 jahr war der r300 wirklich verdammt fortschrittlich. Ein hoeheres "Shadermodell", deutlich besseres AF und gutem Speed.
Der r420 jetzt ist für mich dementsprechen unterentwickelt, da nun wirklich nicht neues bietet.

Naja, ich sehe einen Chip erst dann als unterentwickelt an wenn man Abstriche bei der Bildqualität in Kauf nehmen muss. Und ja, der R420 bietet nichts Revolutionäres aber das trifft IMHO auch auf den NV40 zu.
Original geschrieben von LovesuckZ
Man koennte also sagen, ATi's r420 karten koennen sich nur durch den Speed verkaufen...
Oder durch weniger Hitze, oder durch die geringere Kartengrösse, oder durch einen sehr leisen Lüfter... :D Ansonsten Ack.

Mich persönlich enttäuscht diese "Generation" ziemlich.

aths
2004-05-06, 13:03:47
Original geschrieben von Exxtreme
Naja, ich sehe einen Chip erst dann als unterentwickelt an wenn man Abstriche bei der Bildqualität in Kauf nehmen muss. Und ja, der R420 bietet nichts Revolutionäres aber das trifft IMHO auch auf den NV40 zu.FP-TMUs sind nicht revolutionär? PS-ALUs, die bis zu 4 (Modifier nicht mitgezählt) Instruktionen in einem Takt bearbeiten können, auch nicht?
Original geschrieben von Exxtreme
Mich persönlich enttäuscht diese "Generation" ziemlich. Abgesehen vom AF bin ich vom NV40 begeistert. Nicht begeistert bin ich davon, wie NV offenbar schon wieder, äh, 'optimiert'.

LovesuckZ
2004-05-06, 13:04:09
Original geschrieben von Exxtreme
Und ja, der R420 bietet nichts Revolutionäres aber das trifft IMHO auch auf den NV40 zu.

Nun der NV40 ist gegenüber dem NV35 ein Riesenschritt nach vorne, nicht nur speed- sondern auch featuremaeßig.
ATi hat dagegen, nicht wäre übertrieben, nur sehr geringfügig etwas veraendert. Ich meine, es ist kein Problem, dass SM3.0 nicht zu unterstuetzen, aber das es keine Veraenderung beim AA und bei der Filterung gibt, ist erbaermlich. Denn das haette man sich annehmen koennen...

Oder durch weniger Hitze, oder durch die geringere Kartengrösse, oder durch einen sehr leisen Lüfter... :D Ansonsten Ack.


Nunja, war doch immer so :D Daran gewöhnt man sich beim Kampf Nvidia gegen ATi.

ow
2004-05-06, 13:08:15
.