PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce FX 5950 ("NV38")-Review bei Anandtech!


Seiten : 1 [2]

askibo
2003-10-05, 14:49:45
Original geschrieben von LovesuckZ
Siehe Programmierungsforum. Der normale DX9 Pfad ist für Nvidia overkill. Wer sollte also nun solch eine Engine lizensieren?

Falls die Anand-Werte der neuen 52.er Detos korrekt sind (also keine "Optimierungen" zulasten der BQ etc.) ist die Engine doch schnell genug.

mapel110
2003-10-05, 14:50:20
Original geschrieben von LovesuckZ
Siehe Programmierungsforum. Der normale DX9 Pfad ist für Nvidia overkill. Wer sollte also nun solch eine Engine lizensieren?

tja, mittlerweile erreichen aber wohl die FXsen auch ne anständige performance, siehe neue benches von anandtech.
sprich eigener renderpfad.

mapel110
2003-10-05, 14:52:12
Original geschrieben von Razor
Warte nochmal nächste Woche ab...
:D


warte du doch mal ab, bis das game raus ist, und teste dann mal selbst nach mit dem deto51.75.

LovesuckZ
2003-10-05, 14:52:17
Original geschrieben von mapel110
tja, mittlerweile erreichen aber wohl die FXsen auch ne anständige performance, siehe neue benches von anandtech.
sprich eigener renderpfad.

Du meinst die fast verdopplung der Werte durch dem 52.14?
Warten wir es ab, ob es wirklich so ist.
Zur zeit kann man nur sagen, dass die Engine mit dem DX9 Pfad, sehr Nvidia feindlich ist. Ich verurteile dies nicht, doch sehe ich dadran, dass Valve die FX User herzlich egal sind.

mapel110
2003-10-05, 14:54:22
Original geschrieben von LovesuckZ
Du meinst die fast verdopplung der Werte durch dem 52.14?
Warten wir es ab, ob es wirklich so ist.
Zur zeit kann man nur sagen, dass die Engine mit dem DX9 Pfad, sehr Nvidia feindlich ist. Ich verurteile dies nicht, doch sehe ich dadran, dass Valve die FX User herzlich egal sind.

schon ein dx9 game/bench gesehen, dass anständig auf den FXsen unter voller präzision lief?

LovesuckZ
2003-10-05, 14:58:09
Original geschrieben von mapel110
schon ein dx9 game/bench gesehen, dass anständig auf den FXsen unter voller präzision lief?

Halo.
Ausserdem sage ich es ja, Nvidiafeindlich, wenn jeder "Furz" Shader mit voller Praezision und PS2.0 berechnet wurde...

AlfredENeumann
2003-10-05, 14:58:47
Original geschrieben von Razor

- ATI-Entwickler, die maßgeblich an der Shader-Entwicklung beteiligt waren
(jetzt auch im geleakten, nachweislich echten -!- Source-Code verifiziebar)



Das nennent man dann schlechten Developer-Support ;D

mapel110
2003-10-05, 15:05:04
Original geschrieben von LovesuckZ
Halo.


:lol:

nvidiafeindlich? also dx specs feindlich?! :o

LovesuckZ
2003-10-05, 15:07:13
Original geschrieben von mapel110
:lol:

Oh gott, warte kurz. Ich muss mich mental auf ein niedriges, dein Niveau begeben.
Okay, kann weiter gehen...

nvidiafeindlich? also dx specs feindlich?! :o

Lesen. Danke.

MadManniMan
2003-10-05, 15:10:22
Original geschrieben von LovesuckZ
Oh gott, warte kurz. Ich muss mich mental auf ein niedriges, dein Niveau begeben.
Okay, kann weiter gehen...

Oha, rennt Beta heut mit nem SP-Shirt rum?

B4sh0rn ahoi!


...langsam nervt dein - pardon - großes Maul.

nggalai
2003-10-05, 15:11:33
Hola,
Original geschrieben von LovesuckZ
Das denke ich nicht. So wie sie das Siel bewerben, sind ihnen die FX user vollstaendig egal.
Wozu brauch man sie auch, wenn man schon 6/8 Millionen $ inner hat ohne auch nur ein Spiel zu verkaufen... Was einige Leute hir glaub immernoch übersehen, ist, dass nicht nur Valve mit HL2 zu tun hat. Da hängt noch ein Haupt-Publisher und einige kleinere Vertriebe unten dran. Die möchten auch Geld sehen. HL2 wird von Valve produziert, aber Sierra / Vivendi-Universal wollen auch was abkriegen davon. Und reden entsprechend mit.

Ist zwar schön für Valve, wenn ATI ihnen Geld in die Hand drückt, aber eben--davon hat Valve was, der Publisher jedoch will einfach die Spiele verkaufen können. Und redet entsprechend mit drein, wenn's um so Sachen wie "Releasedatum" und "Zielgruppe" geht. Denen ist das definitiv nicht egal, wenn Valve auch aggressive pro-ATI, anti-NV-Slogans fallen lässt oder gar, wie hier im Thread oft angedeutet, NV absichtlich aussen vor lässt, nur damit sich die "Investition" von ATI auch auszahlt.

93,
-Sascha.rb

LovesuckZ
2003-10-05, 15:12:11
Original geschrieben von MadManniMan
...langsam nervt dein - pardon - großes Maul.

Irgendwie scheinst du echt probleme zu haben. Eventuell liest du seine Antwort auf meinen Beitrag, bevor du irgendwelchen Crap verzapfst.
Oder lass es, koenntes ja sonst sehen, dass du falsch liegst...

MadManniMan
2003-10-05, 15:15:11
Original geschrieben von LovesuckZ
Irgendwie scheinst du echt probleme zu haben. Eventuell liest du seine Antwort auf meinen Beitrag, bevor du irgendwelchen Crap verzapfst.
Oder lass es, koenntes ja sonst sehen, dass du falsch liegst...

Es is mir mehr oder minder sh1c3egal, warum du diese Wortwahl nutzt - wenn nicht gerade eben jene dir entgegengebracht wurde - , denn es geht mir einzig und allein um den Ton.

Teilweise waren die Grünen bei der Christiansen CDU-Politikern freundlicher gegenüber, als dein Ton hier. Das will was heißen.

LovesuckZ
2003-10-05, 15:15:22
Original geschrieben von nggalai
Hola,
Was einige Leute hir glaub immernoch übersehen, ist, dass nicht nur Valve mit HL2 zu tun hat. [...]Die möchten auch Geld sehen. HL2 wird von Valve produziert, aber Sierra / Vivendi-Universal wollen auch was abkriegen davon. Und reden entsprechend mit.

Valve macht sich aber immer mehr zum alleinigen Herrscher von HL2. Siehe Steamverkauf, siehe ATi Sponsoring. Vielleicht hat man ja sogar nen bissl an Sierra / Vivendi-Universal abgegeben.

LovesuckZ
2003-10-05, 15:17:18
Original geschrieben von MadManniMan
Es is mir mehr oder minder sh1c3egal, warum du diese Wortwahl nutzt - wenn nicht gerade eben jene dir entgegengebracht wurde - , denn es geht mir einzig und allein um den Ton.


Wenn dich jemand auf eine ernste Antwort auslachst, weil er anscheinend unwissend war, dann lass ich es mit ihm zu diskutieren -> ergo niedriges Niveau und somit einfach nur Mist entgegen bringen.

mapel110
2003-10-05, 15:19:27
Original geschrieben von LovesuckZ


http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=98353
zum thema halo, hier letztes posting von razor lesen.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=97141&perpage=20&pagenumber=4
und ab hier.

ist ja schön, dass die FXsen genauso viel fps schaffen, wie die ATI-grakas und das bei angeblich auch noch hoher 2.0 shader anzahl (razor hats anzählen lassen wie 3danalyzier), aber 30 fps für beide?! bei der optik?! :lol:
ausserdem gibts in dem bench kaum unterschiede, wenn man ps1.1, ps1.4 oder ps2.0 bencht. da hat wie schön in den threads nachzulesen, der sound mehr einfluss auf die performance.

MadManniMan
2003-10-05, 15:20:53
Original geschrieben von LovesuckZ
Wenn dich jemand auf eine erste Antwort auslachst, weil er anscheinend unwissend war, dann lass ich es mit ihm zu diskutieren -> ergo niedriges Niveau und somit einfach nur Mist entgegen bringen.

Naja, siehste. Dann gehts uns doch um das selbe. Nur daß du dann noch den Fehler machst, das Ignorieren nicht durchzuziehen, sondern den Troll nochmal zu füttern!

Wenn er dir dummkommt: entweder nur ignorieren, oder - wenns zu dicke kommt - den Beitrag melden. Fertig. Aber (quasi Zitat) auf sein Niveau zu gehen, das ist richtig falsch.

LovesuckZ
2003-10-05, 15:25:07
Original geschrieben von mapel110
ist ja schön, dass die FXsen genauso viel fps schaffen, wie die ATI-grakas und das bei angeblich auch noch hoher 2.0 shader anzahl (razor hats anzählen lassen wie 3danalyzier), aber 30 fps für beide?! bei der optik?! :lol:

PS2.0 mit voller Praezisions muessen nicht immer einen optischen Gewinn bringen, vorallen dann, wenn auch eine niedrige Version reiche.

ausserdem gibts in dem bench kaum unterschiede, wenn man ps1.1, ps1.4 oder ps2.0 bencht. da hat wie schön in den threads nachzulesen, der sound mehr einfluss auf die performance.

Was hat der IQ Unterschied damit zu tun, dass Nvidia gleichauf mit ATi im (unbedeutenden) Halo Benchmark ist?
Sound macht bei mir 10% aus, der Wechsel von PS2.0 zu PS1.4 ganze 50%. Also so schlimm ist der Sound auch nicht :)

zeckensack
2003-10-05, 15:48:09
Original geschrieben von LovesuckZ
Halo.
Ausserdem sage ich es ja, Nvidiafeindlich, wenn jeder "Furz" Shader mit voller Praezision und PS2.0 berechnet wurde... Richtig. Sogar Furz-Shader überfordern NV3x.
Da gibt's einfach keine Basis für Optimierungen, schon gar nicht bei "nicht mehr Furz"-Shadern.

"Treat NV3x as DX8 hardware" <- irgendwas falsch an dem Satz?

Demirug
2003-10-05, 16:33:42
Original geschrieben von zeckensack
Richtig. Sogar Furz-Shader überfordern NV3x.
Da gibt's einfach keine Basis für Optimierungen, schon gar nicht bei "nicht mehr Furz"-Shadern.

"Treat NV3x as DX8 hardware" <- irgendwas falsch an dem Satz?

Zecki, das die NV3X eine bescheiden 2.0 Shaderleistung haben ist ja nun wirklich nichts neues mehr. Warum sollte das dann bei "Furz" Shadern anders sein?

Bei der ganzen HL2 Geschichte gibt es IMHO nur zwei mögliche Interpreationen:

1. Jeder hat Dreck am stcken
2. Alles ist eine Folge von vielen Missverständnissen

in jedem fall will aber nun keiner verantwortlich sein und jeder schlägt auf jeden ein.

Auf jeden Fall gibt HL2 mit dem DX9 geplängel vor mehr zu sein als es eigentlich ist. Meine Meinung

Black-Scorpion
2003-10-05, 16:47:58
Original geschrieben von Demirug
Anonym_001, ich weiss nicht was EA und Id von nV bekommen allerdings spricht man davon das nVidia nicht bereit war die von Valve geforderte Summe zu zahlen. Zudem ist die Situation auch eine etwas andere. Bei EA läuft der Vertrag über viele Spiele und bei id gibt es jetzt schon mehrer Lizenznehmer für die D3 Engine also würde man auch hier definitive mehr als ein Spiel sponsern.

Was ich allerdings genau weiss ist das 6 (bzw 8) Mio viel Geld in der Brache sind. Für diese Summe kauft sich ein Publischer (Producer) in Deutschland 3 bis 4 komplette spiele und selbst im Internationalen geschäft bekommt man für 6 Mio locker einen kompletten AAA Titel. Zum Vergleich mal ein paar Zahlen.

Rogue Leader (Gamecube) als Launchtitel in 9 Monaten unter erschwerten bedigungen entwickelt: $3,5 Mio

Heavy Metal: F.A.K.K. 2 als Beispiel für eine entwicklung die auf einer vorhanden Engine aufbaut: etwa $2 Mio

Black & White: Peter Molyneux und EA sind eine Kommbination die geradezu ideal ist wenn es um das schnelle verbrennen von Geld geht. In etwas über 3 Jahren wurden $5.7 Mio durchgebracht.
Mir ging es nicht so sehr um die Zahlen, sondern ums Prinzip.
Fast alle dreschen deswegen auf ATI und Valve ein, obwohl es bis jetzt nur um das eine Spiel geht.
Nur was uns bei dem Deal von NV mit Id und EA erwartet kann noch keiner sagen.
Das sind, wie du ja selbst sagst, Verträge die über mehrere Spiele und ich bin mal gespannt ob dann auch so diskutiert wird wie jetzt..
Wer sagt uns das NV die 6 oder 8 Millionen zuviel waren, weil es eben nur um ein Spiel geht.

Es kann ja auch sein das sie für mehrere Spiele z.B. 20 Millionen bezahlt haben.

Solange man darüber nichts erfährt ist alles Spekulation und dient nur dazu auf Valve und ATI einzudreschen.
Gerade weil keiner hier die genauen Zahlen kennt, finde ich es seltsam das so eine Diskusion läuft.
Wie schon gesagt, bei NV wird sowas hingenommen und bei anderen wird so ein Theater gemacht.

Razor
2003-10-05, 16:49:28
Original geschrieben von mapel110
warte du doch mal ab, bis das game raus ist, und teste dann mal selbst nach mit dem deto51.75.
Mit 'nem Beta-Treiber ?
Wozu ?
???

Razor

mapel110
2003-10-05, 16:51:44
Original geschrieben von Razor
Mit 'nem Beta-Treiber ?
Wozu ?
???

Razor

um zu testen, ob er zurecht nicht zum benchen mit half life 2 zugelassen wurde!

@anonym 001
1. es handelt sich halt um half life2 und nicht um irgendein verbugtes zeug von EA
2. der leistungsunterschied war/ist um einiges extremer, als es in doom3 war/ist
3. über die nvidia deals ist halt wenig bekannt

zeckensack
2003-10-05, 16:53:35
Original geschrieben von Demirug
Zecki, das die NV3X eine bescheiden 2.0 Shaderleistung haben ist ja nun wirklich nichts neues mehr. Warum sollte das dann bei "Furz" Shadern anders sein?Keine Ahnung.
Wenn das eine anerkannte Tatsache ist, dann könnten wir vielleicht endlich die diversen "Wartemer auf Deto 59.12, bevor wir uns ein Urteil fällen"-Spielchen ad acta legen.

Daß schon Trivial-Shader NV3x überfordern, läuft dieser Verzögerungstaktik absolut konträr. Ich bin's Leid lesen zu müssen, wie gewisse Herren hier einfach je nach aktuellem Diskussionsziel beide Standpunkte vertreten. Noch mal zum Notieren (nicht speziell für dich, sondern für die Allgemeinheit). Entweder

1)Auf NV3x kann man doch keine PS2.0-Shader benutzen und erwarten daß es schnell ist

oder

2a)Deto 56.78 wird alles schön schnell machen, und erst wenn dieser Erschienen ist, sind Leistungsvergleiche erlaubt
2b)Spiel xy ist nicht auf NV3x optimiert. Wenn es das wäre, dann wären die 2.0er Shader auch schön schnell.

Diese Front muß dringend geklärt werden, ansonsten hat diese ganze Diskussion überhaupt keinen Sinn.
Über PS1.x müssen wir uns denke ich nicht weiter unterhalten. Daß diese auf den Architekturen der beiden IHVs ziemlich gut laufen ist ja bekannt.

Bei der ganzen HL2 Geschichte gibt es IMHO nur zwei mögliche Interpreationen:

1. Jeder hat Dreck am stcken
2. Alles ist eine Folge von vielen Missverständnissen

in jedem fall will aber nun keiner verantwortlich sein und jeder schlägt auf jeden ein.

Auf jeden Fall gibt HL2 mit dem DX9 geplängel vor mehr zu sein als es eigentlich ist. Meine MeinungDie ganze Sache rund um Valve ist natürlich mehr als merkwürdig.

Nur die Nummer mit der Optimierung fällt ganz klar unter "entweder oder", siehe oben. Wenn hier jemand den Standpunkt vertritt, daß das eine ATI-Optimierung ist, okay, aber dann gilt im gleichen Atemzug eben auch, daß NV3x keine benutzbare PS2.0(+/A/etc)-HW ist.

Und bzgl DX9 im allgemeinen, mir war so als hätte ich vor ~einem Jahr bereits geschrieben, daß das Shadermanagement in DX9 (edit: inklusive Treibermodell, Aufteilung von Verantwortlichkeit, Versionswahn, etc) ein riesen Designfehler ist, und solchem politischen Unsinn Tür und Tor öffnet. Microsoft lacht sich bestimmt von allen beteiligten Parteien am meisten kaputt, zurecht, denn sie kriegen ja nie was ab davon.

Razor
2003-10-05, 17:00:54
Original geschrieben von Anonym_001
Es kann ja auch sein das sie für mehrere Spiele z.B. 20 Millionen bezahlt haben.
Offensichtlich hast Du Demirug überhaupt nicht verstanden...

Die häteste Form der 'Geldverbrennung' hat gerade mal 5,7mio ausgemacht. Spiele-Entwicklung wohlgemerkt. ATI hat an Valve locker 6mio gezahlt. Man kann also gut und gerne davon ausgehen dass ATI hier die gesamte Entwicklung 'gesponsort' hat... nebst Material in Form von Hardware und vor allem auch Entwicklern.

Das mit den 6mio ist übrigens im Quartalsbericht von ATI besonders hervor gehoben. Insofern scheint diese Summe auch für ATI ein Novum zu sein, welches besonders erwähnt werden muss.

http://www.ati.com/home/online/news/atiq403.html
Dann bitte auf die Seite 4 und den 3. Punkt von unten...

Sorry, aber das, was ATI da trieb ist keinesfalls 'normal'. Guten Developer-Support und gar die Bereitstellung von Mensch und Maschine geht ja noch halbwegs klar, aber das schlägt dem Fass glatt den Boden aus.

Razor

Razor
2003-10-05, 17:02:24
Original geschrieben von mapel110
um zu testen, ob er zurecht nicht zum benchen mit half life 2 zugelassen wurde!
Du meinst also, dass die Performance mit dem 51.75 nochmal höher ausgefällt, als mit dem 52.10 ?
OK, DAS wäre ein Grund ihn mal auszuprobieren...
:D

Razor

Razor
2003-10-05, 17:07:44
Original geschrieben von zeckensack
Wenn hier jemand den Standpunkt vertritt, daß das eine ATI-Optimierung ist, okay, aber dann gilt im gleichen Atemzug eben auch, daß NV3x keine benutzbare PS2.0(+/A/etc)-HW ist.
Was bitte hat das eine mit dem anderen zu tun ?
???
Original geschrieben von zeckensack
Microsoft lacht sich bestimmt von allen beteiligten Parteien am meisten kaputt, zurecht, denn sie kriegen ja nie was ab davon.
Jo, der lachende Dritte im Hintergrund...
;-)

Irgend jemand meinte ja mal, dass M$ nun böse auf nVidia sei und sie deswegen nicht mehr an DX10 beteiligt werden (war das beta ?)... was für ein Unsinn. M$ kann das alles doch scheiß egal sein...

Wie heißt es noch gleich ?
Wenn 2 sich streiten, freut sich der Dritte !
Und das scheint M$ zu sein...

Razor

Crushinator
2003-10-05, 17:11:49
Original geschrieben von Razor
Sorry, aber das, was ATI da trieb ist keinesfalls 'normal'. Guten Developer-Support und gar die Bereitstellung von Mensch und Maschine geht ja noch halbwegs klar, aber das schlägt dem Fass glatt den Boden aus. :???: Das verstehe ich nicht so ganz. Genau so hätte ATi ganz Valve kaufen können, der Effekt wäre der selbe gewesen. Wer will denn ATi oder gar nVIDIA vorschreiben, was sie mit ihrem Geld anstellen sollen? Solange kein unlauterer Wettbewerb herrscht ist doch alles in Ordnung.

Ich verstehe auch nicht, wie man sich darüber aufregen kann, ob Spiel a auf Hardware b nicht optimiert ist. Wenn ich Besitzer von b wäre würde ich mir das Spiel entweder nicht zulegen oder mir überlegen, ob es mir so wichtig sei, daß ich dafür Hardware a kaufen würde. Ich persönlich tendiere im Falle von Grafikkarten immer zu Ersterem und würde mir ggf. (hier als Beispiel) DooM3 nicht kaufen, punkt.

Black-Scorpion
2003-10-05, 17:16:24
Original geschrieben von Razor
Offensichtlich hast Du Demirug überhaupt nicht verstanden...

Die häteste Form der 'Geldverbrennung' hat gerade mal 5,7mio ausgemacht. Spiele-Entwicklung wohlgemerkt. ATI hat an Valve locker 6mio gezahlt. Man kann also gut und gerne davon ausgehen dass ATI hier die gesamte Entwicklung 'gesponsort' hat... nebst Material in Form von Hardware und vor allem auch Entwicklern.

Das mit den 6mio ist übrigens im Quartalsbericht von ATI besonders hervor gehoben. Insofern scheint diese Summe auch für ATI ein Novum zu sein, welches besonders erwähnt werden muss.

http://www.ati.com/home/online/news/atiq403.html
Dann bitte auf die Seite 4 und den 3. Punkt von unten...

Sorry, aber das, was ATI da trieb ist keinesfalls 'normal'. Guten Developer-Support und gar die Bereitstellung von Mensch und Maschine geht ja noch halbwegs klar, aber das schlägt dem Fass glatt den Boden aus.

Razor
Die 20 Millionen waren eine fiktive Zahl.
Da aber keiner weis über wieviele Spiele der Deal von NV mit EA geht, weis auch keiner wieviel NV bezahlt hat.
Denk mal darüber nach.
Das "mehrer Spiele" können auch drei sein und dann rechne mal die fiktiven 20 Millionen durch die drei Spiele.
Das ist aber alles Spekulation, so lange keiner was genaues weis. Das ist es was mich an der Diskusion stört.
Man drischt auf Valve und ATI ein und hat keine Ahnung was NV für Deals abgeschlossen hat.

Demirug
2003-10-05, 17:21:14
Original geschrieben von zeckensack
Keine Ahnung.
Wenn das eine anerkannte Tatsache ist, dann könnten wir vielleicht endlich die diversen "Wartemer auf Deto 59.12, bevor wir uns ein Urteil fällen"-Spielchen ad acta legen.

Daß schon Trivial-Shader NV3x überfordern, läuft dieser Verzögerungstaktik absolut konträr. Ich bin's Leid lesen zu müssen, wie gewisse Herren hier einfach je nach aktuellem Diskussionsziel beide Standpunkte vertreten. Noch mal zum Notieren (nicht speziell für dich, sondern für die Allgemeinheit). Entweder

1)Auf NV3x kann man doch keine PS2.0-Shader benutzen und erwarten daß es schnell ist

oder

2a)Deto 56.78 wird alles schön schnell machen, und erst wenn dieser Erschienen ist, sind Leistungsvergleiche erlaubt
2b)Spiel xy ist nicht auf NV3x optimiert. Wenn es das wäre, dann wären die 2.0er Shader auch schön schnell.

Diese Front muß dringend geklärt werden, ansonsten hat diese ganze Diskussion überhaupt keinen Sinn.
Über PS1.x müssen wir uns denke ich nicht weiter unterhalten. Daß diese auf den Architekturen der beiden IHVs ziemlich gut laufen ist ja bekannt.

Ja, PS 1.X (leichte ausnahme 1.4) können wir abharken.

Bei den 2.0 Shadern sitzt man irgendwie leider immer noch zwischen den Stühlen. Es ist klar das man nicht für jeden Pixel 2.0 Shader benutzten kann. Auf der anderen Seite zu sagen das man überhaupt keine 2.0 Shader benutzten kann stimmt aber auch nicht so ganz. Nur wo genau man zwischen diesen beiden Stühlen sitzt weiss wohl leider keiner so genau. nVidia vermeidet es in den Guides klare Zahlen zu nennen.

Und bzgl DX9 im allgemeinen, mir war so als hätte ich vor ~einem Jahr bereits geschrieben, daß das Shadermanagement in DX9 (edit: inklusive Treibermodell, Aufteilung von Verantwortlichkeit, Versionswahn, etc) ein riesen Designfehler ist, und solchem politischen Unsinn Tür und Tor öffnet. Microsoft lacht sich bestimmt von allen beteiligten Parteien am meisten kaputt, zurecht, denn sie kriegen ja nie was ab davon.

Ich weiss perfekt ist es nicht aber die OpenGL Varianten sind leider auch nicht perfekt. Diese Problem wird wohl erst dann gelösst werden können wenn die Limits bei den Grafikkarten so hoch sind das man darauf keine Rücksicht mehr nehmen muss.

Razor
2003-10-05, 17:21:40
Original geschrieben von crushinator
:???: Das verstehe ich nicht so ganz. Genau so hätte ATi ganz Valve kaufen können, der Effekt wäre der selbe gewesen. Wer will denn ATi oder gar nVIDIA vorschreiben, was sie mit ihrem Geld anstellen sollen? Solange kein unlauterer Wettbewerb herrscht ist doch alles in Ordnung.
Und genau hier liegt das Problem...
Oder wie ist die Exclusiv-Vorstellung seitens ATI zu erklären ?
Sie haben ja nicht nur ihre eigenen Karten zugelassen...
Original geschrieben von crushinator
Ich verstehe auch nicht, wie man sich darüber aufregen kann, ob Spiel a auf Hardware b nicht optimiert ist. Wenn ich Besitzer von b wäre würde ich mir das Spiel entweder nicht zulegen oder mir überlegen, ob es mir so wichtig sei, daß ich dafür Hardware a kaufen würde. Ich persönlich tendiere im Falle von Grafikkarten immer zu Ersterem und würde mir ggf. (hier als Beispiel) DooM3 nicht kaufen, punkt.
So ein Quatsch.
Gott sei dank ist die 3dfx-Ära endgültig Geschichte... und Du willst diese Zeiten zurück ?
Warum ?
:???:

Schließlich sehen dann wohl andere Hersteller ebenso schlecht aus (was derzeit natürlich eine Vermutung ist ;-). Aber auch das Erscheinen des Volari könnte ein Grund gewesen sein, warum sich HL2 jetzt (massiv) verspätet...

Razor

Razor
2003-10-05, 17:25:20
Original geschrieben von Anonym_001
Die 20 Millionen waren eine fiktive Zahl.
Da aber keiner weis über wieviele Spiele der Deal von NV mit EA geht, weis auch keiner wieviel NV bezahlt hat.
Denk mal darüber nach.
Warum ?
Hast Du irgend einen Hinweis oder auch nur ein Gerücht, welches diese Deine Bahuptung stützt ?
Ausdenken kann ich mir auch 'ne Menge...
Original geschrieben von Anonym_001
Das "mehrer Spiele" können auch drei sein und dann rechne mal die fiktiven 20 Millionen durch die drei Spiele.
Das ist aber alles Spekulation, so lange keiner was genaues weis. Das ist es was mich an der Diskusion stört.
Man drischt auf Valve und ATI ein und hat keine Ahnung was NV für Deals abgeschlossen hat.
Dann waren Valve und ATI eben so dumm, sich erwischen zu lassen...

Sonst behaupte ich noch, dass 'nen FX mit Deto9000 locker 100x schneller ist, als das fortschrittlichste, was von ATI in den nächsten 10 Jahren kommen wird.

Willst Du mir das Gegenteil beweisen ?
Denk mal darüber nach...

Razor

zeckensack
2003-10-05, 17:42:03
Original geschrieben von Razor
Was bitte hat das eine mit dem anderen zu tun ?
???:|

Beobachtung:
2.0er Shader läuft schlecht.
Begründung:
Die Hardware ist generell ätzend langsam, wenn Fließkomma-Operationen verwendet werden.
Argumentation:
Das ist eine ATI-Optimierung.

Denkfehler: Begründung selektiv vergessen.
________________________________
Beobachtung:
2.0er Shader läuft schlecht.
Begründung:
Die Hardware ist generell ätzend langsam, wenn Fließkomma-Operationen verwendet werden.
Argumentation:
Das wird der Deto 63.44 schon richten.

Denkfehler: Begründung selektiv vergessen.

_________________________________
Disclaimer (nur für den Fall ...):
PS1.x, und damit Fixkomma, können wir abhaken. Läuft supi. Darüber streitet sich auch keiner.

Jetzt klar?

zeckensack
2003-10-05, 17:45:04
Original geschrieben von Razor
Warum ?
Hast Du irgend einen Hinweis oder auch nur ein Gerücht, welches diese Deine Bahuptung stützt ?
Ausdenken kann ich mir auch 'ne Menge...

Dann waren Valve und ATI eben so dumm, sich erwischen zu lassen...

Sonst behaupte ich noch, dass 'nen FX mit Deto9000 locker 100x schneller ist, als das fortschrittlichste, was von ATI in den nächsten 10 Jahren kommen wird.

Willst Du mir das Gegenteil beweisen ?
Denk mal darüber nach...

Razor Bingo! Da du daß scheinbar selbst für Unsinn hältst, kannst du dir bitte in Zukunft Verweise auf Deto 5x.xx und "warten wir's einfach ab" schenken?

Crushinator
2003-10-05, 17:46:25
Original geschrieben von Razor
Und genau hier liegt das Problem...
Oder wie ist die Exclusiv-Vorstellung seitens ATI zu erklären ?
Sie haben ja nicht nur ihre eigenen Karten zugelassen... Wovon redest Du überhaupt, ich komme da gar nicht mehr mit. Habe ich was nicht mitbekommen, und soll etwa HL2 nur noch an Leute verkauft werden, die eine Karte von ATi vorweisen können? Und selbst wenn ja, Borlands C++ Builder läuft auch nur auf Windoofs und nicht unter Solaris/Linux/OS2 oder sonstwas. Ist das jetzt unlauterer Wettbewerb? :naughty:
So ein Quatsch.
Gott sei dank ist die 3dfx-Ära endgültig Geschichte... und Du willst diese Zeiten zurück ?
Warum ? Sorry, aber genau dafür soll ja Diretct3D sorgen, und wenn nVIDIA sich mit VS/PS 2.0 hardwareseitig etwas vertan hat, ist's weder MS noch ATis Schuld. Sie hatten schließlich mind. ein Jahr Zeit, ihre Hardware komplett umzukrempeln als sie merkten, daß sie selbst unter FP16 oft dem FP24 von ATi unterlegen sind. BTW: Wieso hat denn eigentlich Keiner gemeckert, als viele Spiele am liebsten nur noch auf NV-Chips ordentlich liefen? Jetzt aufeinmal soll der Neutralitätswahn ausgebrochen sein? :eyes:
Schließlich sehen dann wohl andere Hersteller ebenso schlecht aus (was derzeit natürlich eine Vermutung ist ;-). Aber auch das Erscheinen des Volari könnte ein Grund gewesen sein, warum sich HL2 jetzt (massiv) verspätet... *hust* HL2 verspätet sich, weil der Source zu so ziemlich allem in dem Game geleaked ist.

Razor
2003-10-05, 17:51:36
Original geschrieben von zeckensack
:|

Beobachtung:
2.0er Shader läuft schlecht.
Begründung:
Die Hardware ist generell ätzend langsam, wenn Fließkomma-Operationen verwendet werden.
Argumentation:
Das ist eine ATI-Optimierung.

Denkfehler: Begründung selektiv vergessen.
________________________________
Beobachtung:
2.0er Shader läuft schlecht.
Begründung:
Die Hardware ist generell ätzend langsam, wenn Fließkomma-Operationen verwendet werden.
Argumentation:
Das wird der Deto 63.44 schon richten.

Denkfehler: Begründung selektiv vergessen.

_________________________________
Disclaimer (nur für den Fall ...):
PS1.x, und damit Fixkomma, können wir abhaken. Läuft supi. Darüber streitet sich auch keiner.

Jetzt klar?
Nö...
:D

Ad1

Beobachtung: 2.0-Shader laufen nicht sonderlich dolle
Begründung: compilierte Shader sind ATI-Optimiert
Argumentation: auf nVidia compilieren (2.0a)

Ad2

Beobachtung: 2.0-Shader laufen nicht sonderlich dolle
Begründung: uncompilierte Shader sind ATI-Optimiert
Argumentation: auch die Guidelines anderer IHV's beachten

Ad3 ( <- der is neu ;-)

Beobachtung: 2.0a-Shader laufen nicht sonderlich dolle
Begründung: Treiber können in ihrer ersten (bzw. zweiten) Version noch nichts damit anfangen
Argumentation: Auf den nächsten offiziellen Deto warten (dauert nicht mehr so lange ;-)

Keine Denkfehler...
Jetzt verstanden ?
:D

Razor

Razor
2003-10-05, 17:53:04
Original geschrieben von zeckensack
Bingo! Da du daß scheinbar selbst für Unsinn hältst, kannst du dir bitte in Zukunft Verweise auf Deto 5x.xx und "warten wir's einfach ab" schenken?
Bezug ?
:???:

Razor

Razor
2003-10-05, 17:58:38
Original geschrieben von crushinator
Wovon redest Du überhaupt, ich komme da gar nicht mehr mit. Habe ich was nicht mitbekommen, und soll etwa HL2 nur noch an Leute verkauft werden, die eine Karte von ATi vorweisen können? Und selbst wenn ja, Borlands C++ Builder läuft auch nur auf Windoofs und nicht unter Solaris/Linux/OS2 oder sonstwas. Ist das jetzt unlaueter Wettbewerb? :naughty:
Dann für Dich noch mal gaaaaanz deutlich:

ATI kauft HL2 von Valve, erzählt der Öffentlichkeit aber nichts davon. Natürlich wird das Game so geproggt, dass nVidia richtig alt aussieht und ATI insbesondere mit dem neuen (alten) Produkt glänzt. Dann wird noch eine Veranstaltung ins Leben gerufen, die Zeigt, wie mies doch die Konkurrenz bei einem Game ist, welches rein nach DX-Spezifikationen geschrieben ist und keinerlei Optimierungen enthält. Selbst mit einer Optimierung für den Konkurrenten (und der Abwesenheit der dazu passenden Treibern ;-), sieht die Konkurrenz mies aus...

Und das soll kein unlauterer Wettbewerb sein ?
:???:
Original geschrieben von crushinator
Sorry, aber genau dafür soll ja Diretctd3D sorgen, und wenn nVIDIA sich mit VS/PS 2.0 hardwareseitig etwas vertan hat, ist's weder MS noch ATis Schuld. Sie hatten schließlich mind. ein Jahr Zeit, ihre Hardware komplett umzukrempeln als sie merkten, daß sie selbst unter FP16 oft dem FP24 von ATi unterlegen sind.
Sind sie das ?
IMO ist sogar der "mixed-mode" (i.e. fp16 UND fp32) teilweise schneller, als das Falgschiff von ATI (natürlich erst einmal nur gerüchteweise ;-).
Original geschrieben von crushinator
BTW: Wieso hat denn eigentlich Keiner gemeckert, als viele Spiele am liebsten nur noch auf NV-Chips ordentlich liefen? Jetzt aufeinmal soll der Neutralitätswahn ausgebrochen sein? :eyes:
Fehlender Dev-Support von ATI ?
Original geschrieben von crushinator
*hust* HL2 verspätet sich, weil der Source zu so ziemlich allem in dem Game geleaked ist.
Jo klar... und die offizielle Medienverdummung greift wieder wunderbar...
:D

Razor

zeckensack
2003-10-05, 18:00:25
Original geschrieben von Razor
Bezug ?
:???:

Razor

Original geschrieben von Razor
Sonst behaupte ich noch, dass 'nen FX mit Deto9000 locker 100x schneller ist, als das fortschrittlichste, was von ATI in den nächsten 10 Jahren kommen wird.

Vergleiche hiermit:
Original geschrieben von Razor
Argumentation: Auf den nächsten offiziellen Deto warten (dauert nicht mehr so lange ;-)

Gast
2003-10-05, 18:08:26
"Dann für Dich noch mal gaaaaanz deutlich:

ATI kauft HL2 von Valve, erzählt der Öffentlichkeit aber nichts davon. Natürlich wird das Game so geproggt, dass nVidia richtig alt aussieht und ATI insbesondere mit dem neuen (alten) Produkt glänzt. Dann wird noch eine Veranstaltung ins Leben gerufen, die Zeigt, wie mies doch die Konkurrenz bei einem Game ist, welches rein nach DX-Spezifikationen geschrieben ist und keinerlei Optimierungen enthält. Selbst mit einer Optimierung für den Konkurrenten (und der Abwesenheit der dazu passenden Treibern ;-), sieht die Konkurrenz mies aus...

Und das soll kein unlauterer Wettbewerb sein ?"



magh ja alles stimmen... aber mich als kunden interessiert nur der fakt: HL2 läuft auf ATI deutlich besser. mir bringt es nichts, dass ich weiss, dass es auf nvidia bei fairer programmierung genausogut laufen könnte...

-> momentan ati kaufen

Razor
2003-10-05, 18:14:46
Original geschrieben von zeckensack
Vergleiche hiermit:
Habe ich je behauptet, dass ein neuer Deto ATI in Grund und Boden stampfen wird ?
:???:

Razor

Razor
2003-10-05, 18:15:51
Original geschrieben von Gast
magh ja alles stimmen... aber mich als kunden interessiert nur der fakt: HL2 läuft auf ATI deutlich besser. mir bringt es nichts, dass ich weiss, dass es auf nvidia bei fairer programmierung genausogut laufen könnte...

-> momentan ati kaufen
Jo.
Und ich vermute mal, dass ATI sich das genau so gedacht hat...
Der Dumme ist dann allerdings wieder der Endanwender.
:-(

Razor

Crushinator
2003-10-05, 18:19:23
Original geschrieben von Razor
Dann für Dich noch mal gaaaaanz deutlich:
Jetzt nochmal für Dich noch deeeeeeeeeeeeuuuuuuuuuutlicher:
ATI kauft HL2 von Valve, erzählt der Öffentlichkeit aber nichts davon. Natürlich wird das Game so geproggt, dass nVidia richtig alt aussieht und ATI insbesondere mit dem neuen (alten) Produkt glänzt. Dann wird noch eine Veranstaltung ins Leben gerufen, die Zeigt, wie mies doch die Konkurrenz bei einem Game ist, welches rein nach DX-Spezifikationen geschrieben ist und keinerlei Optimierungen enthält. Selbst mit einer Optimierung für den Konkurrenten (und der Abwesenheit der dazu passenden Treibern ;-), sieht die Konkurrenz mies aus...

Und das soll kein unlauterer Wettbewerb sein ? :???:
Unlauterer Wettbewerb ist nur, wenn sich ein Marktteilernehmer mit illegalen Mitteln (nicht kostendeckende Preise, unerlaubte Werbung usw.) Vorteile gegenüber anderen im selben freien Markt beschafft.

Mit Deiner Deffinition würde so ziemlich alles, was in der IT-Branche an Studien kursieren unlauterer Wettbewerb sein, dem es wiederum nicht so ist. Es heißt nur: "Besseres Marketing"

Nach Deiner Deffinition würde auch die Präsentation von NV35 und den DooM3-Zahlen darunter fallen.

Sind sie das ?
IMO ist sogar der "mixed-mode" (i.e. fp16 UND fp32) teilweise schneller, als das Falgschiff von ATI (natürlich erst einmal nur gerüchteweise ;-) Und ich bin der Schah von Persien, natürlich nur gerüchteweise.
Fehlender Dev-Support von ATI ? Ich glaube, das kannst Du nicht beurteilen, weil viele (kommerziell) auch andere Erfahrungen gemacht haben, ohne jetzt noch detailierter drauf einzugehen. Aber ich schließe das grundsätzlich nicht aus.
Jo klar... und die offizielle Medienverdummung greift wieder wunderbar...
:D Auch Du wirst es noch irgendwann mitbekommen. :eyes:

Black-Scorpion
2003-10-05, 18:23:36
Original geschrieben von Razor
ATI kauft HL2 von Valve, erzählt der Öffentlichkeit aber nichts davon. Natürlich wird das Game so geproggt, dass nVidia richtig alt aussieht und ATI insbesondere mit dem neuen (alten) Produkt glänzt. Dann wird noch eine Veranstaltung ins Leben gerufen, die Zeigt, wie mies doch die Konkurrenz bei einem Game ist, welches rein nach DX-Spezifikationen geschrieben ist und keinerlei Optimierungen enthält. Selbst mit einer Optimierung für den Konkurrenten (und der Abwesenheit der dazu passenden Treibern ;-), sieht die Konkurrenz mies aus...

Und das soll kein unlauterer Wettbewerb sein ?

Razor
NV kauft D3 von Id, erzählt der Öffentlichkeit aber nichts davon. Natürlich wird das Game so geproggt, dass ATI richtig alt aussieht und nVidia insbesondere mit dem neuen (alten) Produkt glänzt. Dann wird noch eine Veranstaltung ins Leben gerufen., die Zeigt, wie mies doch die Konkurrenz bei einem Game ist, welches Optimierungen für die eigenen Karten enthält. Selbst mit einer Optimierung für den Konkurrenten (und der Abwesenheit der dazu passenden Treibern ;-), sieht die Konkurrenz mies aus...

Und das soll kein unlauterer Wettbewerb sein ?

Damit du mal siehst wie hier mit zweierlei Maß gemessen wird.
Das ist das was ich gemeint habe.
Hier wird über ATI diskutiert und was NV macht ist egal.

Ach ich habe ja vergessen das NV der Hersteller ist dem alle zu Füßen liegen und noch Geld abgeben um für Sie arbeiten zu dürfen.

Razor
2003-10-05, 18:29:22
Original geschrieben von crushinator
Unlauterer Wettbewerb ist nur, wenn sich ein Marktteilernehmer mit illegalen Mitteln (nicht kostendeckende Preise, unerlaubte Werbung usw.) Vorteile gegenüber anderen im selben freien Markt beschafft.
Also hat ATI den Kunden belogen, ihn absichtlich irre geführt und verbucht das Ganze dann also unter aggressives Marketing... korrekt ?
:D

OK, 'unlauterer Wettbewerb' ist massives Lügen wohl nicht... ;)
Original geschrieben von crushinator
Und ich bin der Kaiser von Persien, natürlich nur gerüchteweise.
Ich bezog mich damit auf die Benches von Anand... und kennzeichnete dies als "noch Gerücht".
Das mit dem Kaiser wirst Du Dir allerdings abschminken müssen !
:D
Original geschrieben von crushinator
Aber ich schließe das grundsätzlich nicht aus.
Gut so, denn dies (mieser Dev-Support seitens ATI) ist von vielen unterschiedlichen Seiten bestätigt worden...

Razor

Razor
2003-10-05, 18:32:41
Original geschrieben von Anonym_001
Damit du mal siehst wie hier mit zweierlei Maß gemessen wird.
Das ist das was ich gemeint habe.
Hier wird über ATI diskutiert und was NV macht ist egal.
Nein, bei ATI gibt es definitive Hinweise, bei nVidia nicht.

Dass der Dev-Support seitens nVidia bisher zumindest immer also außerordentlich gut und der von ATI zumindest bis noch vor 'nem halben Jahr noch als äusserst mies bezeichnist/gewertet wurde, ist Dir aber schon klar, oder ?
:???:

Razor

mapel110
2003-10-05, 18:34:24
Original geschrieben von Razor
Du meinst also, dass die Performance mit dem 51.75 nochmal höher ausgefällt, als mit dem 52.10 ?
OK, DAS wäre ein Grund ihn mal auszuprobieren...
:D

Razor

nö, ich meine, dass es bildfehler gibt und/oder bildqualität verloren geht mit dem deto 51.75

Quasar
2003-10-05, 18:34:41
Original geschrieben von ow
Diese Applikationen testen alle die HWTL Leistung und nicht die VS-Leistung, damit lässt sich nicht erkennen ob es 2VS oder 1VS+1HWTL sind.

Meine Beobachtungen sind ja diese:
Sowohl unter HWTL wie beim VS sind GF4ti und R8500 etwa gleich schnell. Das lässt für mich nur den Schluss zu, dass beide Chips identisch mit 2 VS aufgebaut sind.
Sowas wäre auch denkbar, aber für sinnvoll halte ich das nicht.

ArchMark misst sehr wohl auch die VS-Leistung...

Ich halte es für sehr sinnvoll, im Zeitraum der R8500 einen richtigen VS mit einer HW TnL zu koppeln, insbesondere, da abzusehen war, daß eine Mischung aus VS und HW-TnL häufigster Einsatz sein wird. Auch gerade weil sowohl ATi als auch nV als Optimierungsrichtlinie eher HW TnL vorsahen, als VS, würde eine volle plus eine kastrierte VS-Einheit sehr viel Sinn ergeben.

Crushinator
2003-10-05, 18:42:23
Original geschrieben von Razor
(...)
Ich bezog mich damit auf die Benches von Anand... und kennzeichnete dies als "noch Gerücht".
(...)
Gut so, denn dies (mieser Dev-Support seitens ATI) ist von vielen unterschiedlichen Seiten bestätigt worden... und die miese FP-Performance der NV3x auch, aber das interessiert wahrscheinlich nicht. ;)

...und Ananads Zahlen (übrigens immer noch 5 zu 2 für ATi) sind weder von ihm, noch nachvollziehbar. Abgesehen davon kann man schlecht Vaporware gegen "released" benchen. *eg*

Razor
2003-10-05, 18:42:56
Original geschrieben von mapel110
nö, ich meine, dass es bildfehler gibt und/oder bildqualität verloren geht mit dem deto 51.75
Mit 'nem Beta-Treiber ?
Wie verwerflich !
:D

Und was wenn der 52.10 gar eine bessere Performance bringt, ohne diese Mako's zu zeigen ?
Was dann ?
:???:

Razor

LovesuckZ
2003-10-05, 18:44:26
Original geschrieben von crushinator
...und Ananads Zahlen (übrigens immer noch 5 zu 2 für ATi) sind weder von ihm, noch nachvollziehbar. Abgesehen davon kann man schlecht Vaporware gegen "released" benchen. *eg*

Was ist denn Vaporware? HL2? 9800XT? ATi's gute Treiber (:D)?

ow
2003-10-05, 18:45:14
Original geschrieben von Quasar
ArchMark misst sehr wohl auch die VS-Leistung...


Sicher?
Ich habe keine Ahnung, was zecki da genau misst, aber da der Test auf allen Karten läuft glaube ich nicht dass der VS-HW nutzt.


Ich halte es für sehr sinnvoll, im Zeitraum der R8500 einen richtigen VS mit einer HW TnL zu koppeln, insbesondere, da abzusehen war, daß eine Mischung aus VS und HW-TnL häufigster Einsatz sein wird. Auch gerade weil sowohl ATi als auch nV als Optimierungsrichtlinie eher HW TnL vorsahen, als VS, würde eine volle plus eine kastrierte VS-Einheit sehr viel Sinn ergeben.

Halte ich nicht für sinnvoll, weil die HWTL eben zum Vertex-shadern nicht zu gebrauchen ist, umgekehrt kann aber jeder VS HWTL ausführen.

Und es erklärt immer noch nicht, die praktisch identische TL- und VS-Leistung von Gf4 und R8500.

Razor
2003-10-05, 18:45:45
Original geschrieben von crushinator
und die miese FP-Performance der NV3x auch, aber das interessiert wahrscheinlich nicht. ;)
Du meinst Synth-Benches ?
Oder etwa den ATI-Marketing-Gag ?
Oder die bisher ATI-optimierten Shader ?
Was ?

IMO ist es noch zu früh, hier ein endgültiges Urteil zu fällen.
Offensichtlich ist ATI unter ATI-Bedingen sehr viel schneller, als nVidia !
:D
Original geschrieben von crushinator
...und Ananads Zahlen (übrigens immer noch 5 zu 2 für ATi) sind weder von ihm, noch nachvollziehbar. Abgesehen davon kann man schlecht Vaporware gegen "released" benchen.
Jo, was für diesen ganzen HL2-Quatsch gilt !
Herzlichen Dank...
;-)

Razor

mapel110
2003-10-05, 18:46:27
Original geschrieben von Razor
Mit 'nem Beta-Treiber ?
Wie verwerflich !
:D

Und was wenn der 52.10 gar eine bessere Performance bringt, ohne diese Mako's zu zeigen ?
Was dann ?
:???:

Razor

es geht einzig und allein darum, zu beweisen, dass der deto51.75 rechtmässig nicht zum benchen mit half life 2 zugelassen wurde.

Crushinator
2003-10-05, 18:47:01
Original geschrieben von LovesuckZ
Was ist denn Vaporware? HL2? 9800XT? ATi's gute Treiber (:D)? Laß mich mal überlegen :kratz2: Es scheint, daß ob es sich um Deto 5x.xx (Mega-Hyper-hassunichtgehört) handeln könnte.

zeckensack
2003-10-05, 18:49:21
Original geschrieben von Quasar
ArchMark misst sehr wohl auch die VS-Leistung...Nöp.
Lighting performance runs under a vertex shading speed heading, because it constitutes relatively heavy
per vertex computations. However, these are not vertex shaders in the common meaning of the word but rather fixed function
lighting operations. 'Real' vertex shaders are not yet part of ArchMark, but may be sometime.

LovesuckZ
2003-10-05, 18:49:42
Original geschrieben von crushinator
Laß mich mal überlegen :kratz2: Es scheint, daß ob es sich um Deto 5x.xx (Mega-Hyper-hassunichtgehört) handeln könnte.

Hm, das bedeute ja, dass es keinen Deto 5x.xx gaebe und Leo sich seinen Test nur ausgedacht haette...
Vaporware ist für meinen begriff das falsche Wort. :)

Razor
2003-10-05, 18:49:53
Original geschrieben von crushinator
Laß mich mal überlegen :kratz2: Es scheint, daß ob es sich um Deto 5x.xx (Mega-Hyper-hassunichtgehört) handeln könnte.
Oder etwa um Mega-Hyper-supadollaufATIlaufend-HL2 ?
Gibt es das Game schon ?
Gibt's irgendwo 'ne Demo ?
Oder gar unabhängige Benches ?
Ist es gold ?
Nein ?
Schade...
:D

Razor

Razor
2003-10-05, 18:51:07
Original geschrieben von LovesuckZ
Hm, das bedeute ja, dass es keinen Deto 5x.xx gaebe und Leo sich seinen Test nur ausgedacht haette...
Vaporware ist für meinen begriff das falsche Wort. :)
nVidia hat dafür doch einen neuen Begriff !

Der Deto ist ab sofort Bestandteil der "ForceWare"...
;D

Razor

Crushinator
2003-10-05, 18:52:31
Original geschrieben von Razor
Offensichtlich ist ATI unter ATI-Bedingen sehr viel schneller, als nVidia !
:D Was für NV-Fans obiges ist, ist für so ziemlich jeden realitätsnahen Entwickler: FP24 ist auf ATi-Hardware ab R300 sogar in NV-günstigen Fällen aka FP16 meist schneller. Aber lassen wir das, denn die Hoffnung soll ja nie sterben. ;)

Black-Scorpion
2003-10-05, 18:53:59
Original geschrieben von Razor
Nein, bei ATI gibt es definitive Hinweise, bei nVidia nicht.
Ich möcht wirklich mal wissen, in welcher Traumwelt du lebst.
Wie viele Spiele hat NV auf seiner Seite schon beworben und sein LOGO in Spielen untergebracht.
Du glaubst doch nicht, das die Entwickler das für einen feuchten Händedruck machen.
Der Deal mit EA dürfte bisher auch einmalig sein.

Dass der Dev-Support seitens nVidia bisher zumindest immer also außerordentlich gut und der von ATI zumindest bis noch vor 'nem halben Jahr noch als äusserst mies bezeichnist/gewertet wurde, ist Dir aber schon klar, oder ?

Was hat der DEV Support mit dem Thema zu tun.

Crushinator
2003-10-05, 18:56:05
Original geschrieben von LovesuckZ
Hm, das bedeute ja, dass es keinen Deto 5x.xx gaebe und Leo sich seinen Test nur ausgedacht haette...
Vaporware ist für meinen begriff das falsche Wort. :) Das hast Du allerding recht. Einigen wir uns doch bitte auf "noch ungelegtes Ei" und zwar in allen 2 Fällen, nämlich HL2 und Deto Schließmichtot. Wenn Du nichts dagegen hast, klammern wir den 98XT raus. :)

the real Dunkeltier
2003-10-05, 19:12:04
Original geschrieben von ow
Sicher?
Ich habe keine Ahnung, was zecki da genau misst, aber da der Test auf allen Karten läuft glaube ich nicht dass der VS-HW nutzt.



Halte ich nicht für sinnvoll, weil die HWTL eben zum Vertex-shadern nicht zu gebrauchen ist, umgekehrt kann aber jeder VS HWTL ausführen.

Und es erklärt immer noch nicht, die praktisch identische TL- und VS-Leistung von Gf4 und R8500.

Würde die "suchen" Funktion funktionieren, könntest du nach einen Post von mir suchen wo ich es damals erklärt hatte. Aber da die nicht geht, und ich jetzt keinen Bock habe das nochmal rauszusuchen bzw. das neu zu erklären, lasse ich dich jetzt dumm sterben. ^^

Quasar
2003-10-05, 19:52:14
Original geschrieben von ow
Sicher?
Ich habe keine Ahnung, was zecki da genau misst, aber da der Test auf allen Karten läuft glaube ich nicht dass der VS-HW nutzt.



Halte ich nicht für sinnvoll, weil die HWTL eben zum Vertex-shadern nicht zu gebrauchen ist, umgekehrt kann aber jeder VS HWTL ausführen.

Und es erklärt immer noch nicht, die praktisch identische TL- und VS-Leistung von Gf4 und R8500.

Ups, offenbar nicht. Schade, hätte wohl etwas genauer hingucken sollen. Bleibt also nur RightMark3D.


HW-TnL ist zwar zum vertices shaden nicht zu gebrauchen, aber viele "simple" Aufgaben kann es dann wohl doch übernehmen. Und wenn der Treiber so intelligent ist, diese Aufgaben so zu verteilen, daß, egal ob die Anwendung sagt, sie möchte dieses und jenes gern über den VS laufen lassen, die jeweile mind. ausreichende Pipeline genommen wird, hast du bei den Simplo-VS-Tests, wo dann 1 Point Light genommen wird, eben quasi dieselbe Leistung wie eine GF4Ti und erst bei anspruchsvolleren Dingen, wo dann auch wohl eher die Render-Pipeline zum Flaschenhals wird, kommt deine Vertexeinheit nicht mehr ganz hinterher.

Im Endeffekt kriegst du aber für die Transistor-Kosten eines ganzen und eines, sagen wir mal, halben VS (evtl. ähnlich wie der in der GF4MX) während der kritischen Lebensdauer des Produktes die Leistung von zwei vollen Vertexpipelines.

Ist doch gar nicht so dumm.... IMO.

Riptor
2003-10-05, 21:44:17
Original geschrieben von zeckensack
Richtig. Sogar Furz-Shader überfordern NV3x.
Da gibt's einfach keine Basis für Optimierungen, schon gar nicht bei "nicht mehr Furz"-Shadern.

;D Der war gut! ;D

Im Grunde genommen sind wir doch an einem Punkt angelangt: nVidia hat seine Hausarbeiten gemacht und das prinzipiell Beste aus den Treibern gemacht, muss aber wohl auf die volle "Shadergenauigkeit" verzichten, um mit den Radeons mithalten zu können. Deshalb: Auch HL² wird wie zu erwarten war wunderbar auf einer FX5900 laufen werden und Doom III mit Sicherheit auf gut auf einer Radeon 9800 --> :bier:

Kai
2003-10-06, 02:51:46
Original geschrieben von Razor
Und was wenn der 52.10 gar eine bessere Performance bringt, ohne diese Mako's zu zeigen ?
Was dann ?
:???:


Naja, dann fresse ich angesichts der momentanen Tatsachen erst einmal nen Besen samt Stiel. Umsonst hat man die BQ sicher nicht im Beta-Deto reduziert ...

Ich möcht heutzutage kein Deto-Progger sein. Das sind momentan sicher die ärmsten Schweine die man sich vorstellen kann.

(del676)
2003-10-06, 06:50:11
ich frage mich nur warum alle über fp16 meckern?

wenn ich einen shader habe bei dem das ergebnis gleich ist egal ob ich fp16, fp24 oder fp32 benutze werd ich wohl den modus nehmen der am schnellsten ist oder?

und wenn ich einen shader habe dessen ergebnis extrem vom shader abhängt dann nehm ich den besten verfügbaren, ergo fp32 (und nicht den qualitativ minderwertigen fp24)

imho ist dann fp24 zu genau für kleinere shader, und zu wenig genau für richtige shader :P

r@w
2003-10-06, 13:44:02
Original geschrieben von crushinator
Was für NV-Fans obiges ist, ist für so ziemlich jeden realitätsnahen Entwickler: FP24 ist auf ATi-Hardware ab R300 sogar in NV-günstigen Fällen aka FP16 meist schneller. Aber lassen wir das, denn die Hoffnung soll ja nie sterben. ;)
Wolle es mir zwar abgewöhnen, aber...

Quelle ?
:???:

Razor

r@w
2003-10-06, 13:47:37
Original geschrieben von Kai
Naja, dann fresse ich angesichts der momentanen Tatsachen erst einmal nen Besen samt Stiel. Umsonst hat man die BQ sicher nicht im Beta-Deto reduziert ...
Scheinbar doch, denn laut Leo sind die 'Optimierungen' jetzt weg und der 52.10 ist trotzdem noch ein bissel schneller...

Razor

Crushinator
2003-10-06, 15:49:30
Original geschrieben von r@w
(..FP16 meist langsamer)
Quelle ?
:???: Wenn Du das verstehst, was die gerade von sich geben, dann könnte das hier (http://www.beyond3d.com/forum/viewtopic.php?t=8005&postdays=0&postorder=asc&start=0) helfen. Leos Shadermark 2.0 (_pp) Tests mit Deto 52.10 sagen in absoluten Zahlen auch viel aus, oder nicht? =)

LovesuckZ
2003-10-06, 15:50:47
Original geschrieben von crushinator
Wenn Du das verstehst, was die gerade von sich geben, dann könnte das hier (http://www.beyond3d.com/forum/viewtopic.php?t=8005&postdays=0&postorder=asc&start=0) helfen. Leos Shadermark 2.0 (_pp) Tests mit Deto 52.10 sagen in absoluten Zahlen auch viel aus, oder nicht? =)

Shadermark's Ergebnisse muessen nicht zwangslaeufig mit den Ergebnissen in Spielen übereinstimmen.

reunion
2003-10-06, 16:03:14
Original geschrieben von LovesuckZ
Shadermark's Ergebnisse muessen nicht zwangslaeufig mit den Ergebnissen in Spielen übereinstimmen.

Der Shadermark misste die PS2.0 Performace ohne NV-"Extrawurst", das dass bei den meisten Spielen nicht so ist liegt daran dass die FX sonst hoffnugslos abkacken würde.

Crushinator
2003-10-06, 16:07:46
@LS, alles was bisher an DX9-Zeugs (sogar TWIMTBP) mit FP-Einsatz auftaucht, spricht doch eine deutliche Sprache oder etwa nicht? :eyes:

Exxtreme
2003-10-06, 16:11:22
Original geschrieben von reunion
Der Shadermark misste die PS2.0 Performace ohne NV-"Extrawurst", das dass bei den meisten Spielen nicht so ist liegt daran dass die FX sonst hoffnugslos abkacken würde.
Das PS2_A-Profil ist schon eine Extrawurst für die GFFX-Reihe. :)

LovesuckZ
2003-10-06, 16:12:19
Original geschrieben von crushinator
@LS, alles was bisher an DX9-Zeugs (sogar TWIMTBP) mit FP-Einsatz auftaucht, spricht doch eine deutliche Sprache oder etwa nicht? :eyes:

Halo widerspricht aber einigen Theorietestern und auch Tomb Raider.

Original geschrieben von Exxtreme
Das PS2_A-Profil ist schon eine Extrawurst für die GFFX-Reihe. :)

Und das normale für ATi.
Oder gibt es zur Zeit eine andere GPU, die davon profitiert?

StefanV
2003-10-06, 16:13:58
Original geschrieben von r@w
Scheinbar doch, denn laut Leo sind die 'Optimierungen' jetzt weg und der 52.10 ist trotzdem noch ein bissel schneller...

Razor

Nein, sind sie nicht, siehe Nachtrag und im Thread u.A. nggalais Statement...

reunion
2003-10-06, 16:19:17
Original geschrieben von LovesuckZ
Halo widerspricht aber einigen Theorietestern und auch Tomb Raider.


Also Halo ist wohl selbst auf absoluten Higt-End Rechnern praktisch unspielbar, was ich angesichts der "Grafikpracht" als frechheit empfinde. Da meine 9700pro irgendwo zwischen 20 und 30 fps rumhängt würde ich da eher von einem programmierfehler ausgehn, bei dem die Grafikkarte Däumchendreht...

Und soweit ich informiert bin läuft Tomb Raider bei ATI Karten um längen besser als auf NV Karten...


Und das normale für ATi.
Oder gibt es zur Zeit eine andere GPU, die davon profitiert?

Profitieren tun alle nur ist NV zu langsam...

LovesuckZ
2003-10-06, 16:24:14
Original geschrieben von reunion
Also Halo ist wohl selbst auf absoluten Higt-End Rechnern praktisch unspielbar,

aehm, jo...

was ich angesichts der "Grafikpracht" als frechheit empfinde.

doch leider am Thema vorbei :|

Da meine 9700pro irgendwo zwischen 20 und 30 fps rumhängt würde ich da eher von einem programmierfehler ausgehn, bei dem die Grafikkarte Däumchendreht...

Zwischen PS11 und PS2.0 liegen auf meiner 5800 50% an leistung. Zeimlich viel, wenn die Karte nur Daeumchen drehe...

Und soweit ich informiert bin läuft Tomb Raider bei ATI Karten um längen besser als auf NV Karten...

Und?

Profitieren tun alle nur ist NV zu langsam...

Wer ist alle?
Nvidia profitiert vom 2.a Profil aber im schlimmsten genauso viel und im besten deutlich mehr.
Solange wie es keine dritte Macht gibt, sind 2.0 und 2.a Profile, die für jeden GPU das optimalste rausholen.

aths
2003-10-06, 16:33:24
Original geschrieben von Anonym_001
Man drischt auf Valve und ATI ein und hat keine Ahnung was NV für Deals abgeschlossen hat. Erst mal das, und zweitens ist der spezielle Mixed Mode für die FXe ein Zugeständnis an die Nvidia-HW. Folgerung: Valve will Spiele verkaufen, und nicht Nvidia alt aussehen lassen.

askibo
2003-10-06, 16:44:57
Original geschrieben von LovesuckZ
Halo widerspricht aber einigen Theorietestern und auch Tomb Raider.


So wie ich das mitbekommen habe ist Halo momentan völlig unbrauchbar als Benchmark.

LovesuckZ
2003-10-06, 16:53:10
Original geschrieben von askibo
So wie ich das mitbekommen habe ist Halo momentan völlig unbrauchbar als Benchmark.

Der Bench ist unbrauchbar, doch wieso gleich Halo?

askibo
2003-10-06, 17:36:32
Original geschrieben von LovesuckZ
Der Bench ist unbrauchbar, doch wieso gleich Halo?

Hast Recht. Ich hatte deine Ausage nur auf den Halo- Bench bezogen.

Ist Halo aber brauchbar ist für einen Grafikartenvergleich? Bei der unterirdischen Performance hab ich so meine Zweifel. ?-)

ow
2003-10-06, 18:20:43
Original geschrieben von Exxtreme
Das PS2_A-Profil ist schon eine Extrawurst für die GFFX-Reihe. :)

So wie 2.0 die ATi-Extrawurst ist?

betasilie
2003-10-06, 18:23:44
Original geschrieben von ow
So wie 2.0 die ATi-Extrawurst ist?
ATI und M$ können auch nix dazu, wenn NV eine Extrawurst braten will/wollte und sich aus einem falschen Überlegenheitsgefühl von DX9-IHV Sitzungen fernhält.

NV hat nicht mit der frühen Erhältlichkeit und der Performance der R300-Karten gerechnet, ansonsten wäre es nicht so gekommen, wie es gekommen ist.

reunion
2003-10-06, 18:26:06
Original geschrieben von ow
So wie 2.0 die ATi-Extrawurst ist?

Weil NV nicht in der Lage ist ordentliche leistung zu bringen ???

ow
2003-10-06, 18:29:14
Original geschrieben von betareverse
ATI und M$ können auch nix dazu, wenn NV eine Extrawurst braten will/wollte und sich aus einem falschen Überlegenheitsgefühl von DX9-IHV Sitzungen fernhält.

NV hat nicht mit der frühen Erhältlichkeit und der Performance der R300-Karten gerechnet, ansonsten wäre es nicht so gekommen, wie es gekommen ist.

???
Die Extrawurst ist doch eher für ATi, weil die nicht in der Lage waren, FP16 in ihre HW zu implementieren. Hauptsache 'BruteForce' alles mit FP24 rendern, egal ob´s Sinn macht oder nicht. :bonk:

Aquaschaf
2003-10-06, 18:39:18
Vereinfacht doch die Entwicklung von Shadern, wenn es nur ein Format gibt ;) Nun, man kann ATI doch daraus wirklich keinen Vorwurf machen, solange fp24 nicht langsamer als fp16 ist. Würde der NV3x nur fp32 unterstützen, dabei aber eine ordentliche Geschwindigkeit bieten würde ich NVidia daraus auch keinen Vorwurf machen.

Crushinator
2003-10-06, 18:48:59
Original geschrieben von ow
Die Extrawurst ist doch eher für ATi, weil die nicht in der Lage waren, FP16 in ihre HW zu implementieren. Hauptsache 'BruteForce' alles mit FP24 rendern, egal ob´s Sinn macht oder nicht. :bonk: Also, ehrlich. Das hört sich an wie: "Es ist eine Extrawusrt für Ferrari, nur weil sie das nicht hinbekommen einen V8 in die Karre einzubauen. Hauptsache BruteForce und alles mit 12 Zylindern platt machen. Egal ob sinnvoll oder nicht." :D

Wenn ich das richtig sehe, wurde _pp extra für NV mit in die Spezifikation aufgenommen. Vorher waren IMHO FP24 als minimum für PS 2.0 angesagt.

ow
2003-10-06, 19:00:19
Original geschrieben von Aquaschaf
Vereinfacht doch die Entwicklung von Shadern, wenn es nur ein Format gibt ;) Nun, man kann ATI doch daraus wirklich keinen Vorwurf machen, solange fp24 nicht langsamer als fp16 ist. Würde der NV3x nur fp32 unterstützen, dabei aber eine ordentliche Geschwindigkeit bieten würde ich NVidia daraus auch keinen Vorwurf machen.

Hat doch auf die Entwicklung gar keinen Einfluss.
Der HLSL-Code ist doch derselbe, mann muss nur ein paar 'FP16-Kommentare' einflicken für diejenigen Shader, die keine höhere Präzision brauchen.
btw. mache ich ATi keinen Vorwurf, dass sie nur FP14 unterstützen, ich verstehe aber nicht, warum man NV wegen FP16 Vorwürfe macht.

ow
2003-10-06, 19:01:33
Original geschrieben von crushinator


Wenn ich das richtig sehe, wurde _pp extra für NV mit in die Spezifikation aufgenommen. Vorher waren IMHO FP24 als minimum für PS 2.0 angesagt.


Das siehst du falsch. Die Specs wurden AFAIK nicht nachträglich geändert.

Razor
2003-10-06, 19:03:42
Original geschrieben von Stefan Payne
Nein, sind sie nicht, siehe Nachtrag und im Thread u.A. nggalais Statement...
Abwarten... oder wie konnte es passieren, dass Leo dies zuerst vollständig dementierte ?
Schließlich waren die Optimierungen des 51.75 bekannt und Leo stellte in seinem Artikel fest, dass diese nun vollständig von dannen seien...

Allerdings interessiert es mich auch, ob das in irgend einer Weise bestätigt werden kann.

Razor

Razor
2003-10-06, 19:06:31
Original geschrieben von crushinator
Wenn Du das verstehst, was die gerade von sich geben, dann könnte das hier (http://www.beyond3d.com/forum/viewtopic.php?t=8005&postdays=0&postorder=asc&start=0) helfen. Leos Shadermark 2.0 (_pp) Tests mit Deto 52.10 sagen in absoluten Zahlen auch viel aus, oder nicht? =)
Den Thread kenne ich sogar...
;-)

Und was genau darin sagt aus, dass fp16 langsamer ist, als fp24 ?
:???:

Razor

Razor
2003-10-06, 19:07:51
Original geschrieben von crushinator
Wenn ich das richtig sehe, wurde _pp extra für NV mit in die Spezifikation aufgenommen. Vorher waren IMHO FP24 als minimum für PS 2.0 angesagt.
Woher hast Du das denn ?
AFAIK war von INT12 als Minimum die Rede...

Razor

Kai
2003-10-06, 19:16:18
Original geschrieben von r@w
Scheinbar doch, denn laut Leo sind die 'Optimierungen' jetzt weg und der 52.10 ist trotzdem noch ein bissel schneller...

Razor


Achtung! Dieser Artikel hat einen Fehler in dieser Hinsicht, als daß die festgestellten Optimierungen von Unreal Tournament 2003 doch für alle Direct3D-Spiele zutreffen, sofern man das nVidia Control Panel den anisotropen Filter steuern läßt. Der einzige Unterschied zum Treiber 51.75 ist somit nur, daß das Application-Setting einwandfrei funktioniert, die Optimierungen des 51.75 sind aber weiterhin vorhanden und erklären somit auch die höheren Benchmark-Resultate. Diese neue Erkenntnis wird in einem nachfolgenden Artikel noch einmal ausführlich dargestellt werden.


Besen sind ohnehin nicht mein Geschmack ...

Kai
2003-10-06, 19:19:02
Original geschrieben von Razor
Abwarten... oder wie konnte es passieren, dass Leo dies zuerst vollständig dementierte ?
Schließlich waren die Optimierungen des 51.75 bekannt und Leo stellte in seinem Artikel fest, dass diese nun vollständig von dannen seien...

Entschuldigung, aber glaubst du etwa ein ATI-Fanatiker hätte Leo gehackt und seine Treiber modifiziert ?? Was gibt's denn da noch abzuwarten. IMO gibt's nur zwei Möglichkeiten:

a) Der nächste offizielle Detonator geht ab wie Schmidt's Katze -> wegen eben diesen "Optimierungen"

b) Der nächste offizielle Detonator ist genauso "langsam" wie die anderen davor, weil die "Optimierungen" weggefallen sind.

Ich kann nunmal keinen Ochsen melken.

Crushinator
2003-10-06, 19:21:53
Original geschrieben von Razor
Woher hast Du das denn ? AFAIK war von INT12 als Minimum die Rede.. PS 2.0 schreibt eindeutig Floating Point vor, und nachdem ich mir dieses Dokument (http://developer.nvidia.com/docs/IO/8230/D3DTutorial1_Shaders.pdf) (von NV und ATi verfasst) angetan habe, muß ich tatsächlich feststellen, daß sich beide einig sind, daß in PS 2.0 _pp (low precision) erlaubt und mind. 16 Bits haben muß. Also, nehme ich das mit Extrawurst bezüglich _pp wieder zurück. :)

Razor
2003-10-06, 19:22:52
Original geschrieben von Kai

Besen sind ohnehin nicht mein Geschmack ...
Ich habe das schon gelesen...
Nur wie konnte Leo denn nur vorher zu der Feststellung gelangen, dass die 51.75-Optimierungen nun weg sind ?
:???:

Vielleicht solltest Du den Besen noch nicht zu weit weg stellen...
:D

Razor

Razor
2003-10-06, 19:24:40
Original geschrieben von Kai
Ich kann nunmal keinen Ochsen melken.
Du vielleicht nicht...
:D

Warten wir doch einfach noch ein wenig ab.

Razor

Razor
2003-10-06, 19:25:28
Original geschrieben von crushinator
Also, nehme ich das mit Extrawurst bezüglich _pp wieder zurück. :)
Besser ist das...
;-)

Razor

Riptor
2003-10-06, 19:27:09
Original geschrieben von crushinator
Also, ehrlich. Das hört sich an wie: "Es ist eine Extrawurt für Ferrari, nur weil sie das nicht hinbekommen einen V8 in die Karre einzubauen. Hauptsache BruteForce und alles mit 12 Zylindern platt machen. Egal ob Sinnvoll oder nicht." :D

;D

Original geschrieben von ow
Das siehst du falsch. Die Specs wurden AFAIK nicht nachträglich geändert.

Und wo ist dann das Prob? Dass nVidia keinen 12-Zylinder anbietet? :)

reunion
2003-10-06, 19:36:53
Original geschrieben von Razor
Du vielleicht nicht...
:D

Warten wir doch einfach noch ein wenig ab.

Razor

Warum willst du noch abwarten ??
Leo ist auch nur ein Mensch, es hat es offensichtlich übersehn, tatsache ist diese optimierungen sind vorhanden, sonst hätte er diese Warnung wohl kaum hinzugefügt. Und damit steht fest, ja der Det 50 ist schneller, nur bei reduzierter Bildqualität, es gibt keinerlei hinterfenster keinerlei Möglichkeit diesen Cheat zu umgehen, noch viel schlimmer, NV würde damit den quasi Standart der Trilineare Filterung praktisch nicht unterstützen. Das ganze gilt für ALLE Texturstages ist immer aktiv egal ob AF an ist oder nicht, und bringt zudem nur einen mikrigen performancevorteil von ca. 5%, nach Leos Tests.

That´s it

mfg
reu

zeckensack
2003-10-06, 19:37:34
Original geschrieben von Razor
Du vielleicht nicht...
:D

Warten wir doch einfach noch ein wenig ab.

Razor Warte doch alleine.

reunion
2003-10-06, 19:42:33
Original geschrieben von Razor
Ich habe das schon gelesen...
Nur wie konnte Leo denn nur vorher zu der Feststellung gelangen, dass die 51.75-Optimierungen nun weg sind ?
:???:

Vielleicht solltest Du den Besen noch nicht zu weit weg stellen...
:D

Razor

Leo hat es inzwischen bestätigt:

Original geschrieben von Leonidas
Ich bestätige sie hiermit. Der Artikel ist falsch - ich habe mich von dem Application-Kästchen ins Bockshorn jagen lassen.

aths
2003-10-06, 19:54:48
Original geschrieben von ow
???
Die Extrawurst ist doch eher für ATi, weil die nicht in der Lage waren, FP16 in ihre HW zu implementieren. Hauptsache 'BruteForce' alles mit FP24 rendern, egal ob´s Sinn macht oder nicht. :bonk: Tja, und dabei sind sie sowohl schneller als die Konkurrenz, als dass auch zur Krönung die Hardware weniger kostet. Imo hat's ATI hier richtig gemacht. Das kann man ja angesichts der Fakten gar nicht von der Hand weisen... Du willst ATI doch nicht wirklich vorwerfen, "zu genau" zu rendern, zumal sie dabei noch deutlich schneller als die Konkurrenz sind?

Exxtreme
2003-10-06, 20:02:00
Original geschrieben von ow
???
Die Extrawurst ist doch eher für ATi, weil die nicht in der Lage waren, FP16 in ihre HW zu implementieren. Hauptsache 'BruteForce' alles mit FP24 rendern, egal ob´s Sinn macht oder nicht. :bonk:
Ich glaube schon, daß man mit 24-Bit-Registern 16-Bit-Zahlen abbilden kann. ATi macht's aber wohl nicht, weil wohl nichts bringen würde. Es würden halt 8 Bits ungenutzt bleiben.

ow
2003-10-06, 20:10:04
Original geschrieben von aths
Du willst ATI doch nicht wirklich vorwerfen, "zu genau" zu rendern, zumal sie dabei noch deutlich schneller als die Konkurrenz sind?


Habe ich das getan?
Ich könnte ATi höchstens vorwerfen, dass es mit FP16 keinen Speedzuwachs gibt.;)

ow
2003-10-06, 20:11:46
Original geschrieben von Exxtreme
Ich glaube schon, daß man mit 24-Bit-Registern 16-Bit-Zahlen abbilden kann. ATi macht's aber wohl nicht, weil wohl nichts bringen würde. Es würden halt 8 Bits ungenutzt bleiben.

Ack.
Es würde einfach nichts bringen.

Quasar
2003-10-06, 20:17:58
Original geschrieben von aths
Erst mal das, und zweitens ist der spezielle Mixed Mode für die FXe ein Zugeständnis an die Nvidia-HW. Folgerung: Valve will Spiele verkaufen, und nicht Nvidia alt aussehen lassen.

Du weisst doch selber ganz genau, wie schwierig es ist, ein einmal bestehendes Urteil, und sei es schlichtweg falsch, wieder in die rechte Relation zu rücken. (Ich darf hierzu an deinen TnL-Artikel erinnern)

Der erste Eindruck bleibt eben haften und damit ist das Ziel, so es denn eines war, erreicht.

Quasar
2003-10-06, 20:20:09
Original geschrieben von aths
Tja, und dabei sind sie sowohl schneller als die Konkurrenz, als dass auch zur Krönung die Hardware weniger kostet. Imo hat's ATI hier richtig gemacht. Das kann man ja angesichts der Fakten gar nicht von der Hand weisen... Du willst ATI doch nicht wirklich vorwerfen, "zu genau" zu rendern, zumal sie dabei noch deutlich schneller als die Konkurrenz sind?

Ja stell' dir einmal vor, ATi hätte ihre Hardware auf das heutige nV-Format ausgelegt und würde ihre jetzige FP24-Leistung mit FP32 erreichen und bei FP16 sogar noch deutlichst zulegen können!

Dann wäre HL2 sogar mit AA möglich... ;D

Demirug
2003-10-06, 20:23:55
Mein letzer stand in der ganze Genauigkeitsgeschichte ist der folgende:

- Ein früher Entwurf für die DX9 Spec sah vor das FP32 unterstützt werden muss. Der Grund dafür war das MS ja eine langfristige Angleichung von VS und PS plant und die VS ja schon mit FP32 arbeiten. Da FP32 bei den Texturen aber die 4 fache grösses bedeutet hätte und im Grafikbereich schon länger auch ein FP16 Format genutzt wird sollte diese auch für Texturen zur verfügung stehen. (nicht offiziel bestätigt)

- In einem späterer Entwurf gab sich MS dann mit FP24 zufrieden. (nicht offiziel bestätigt)

- Eine Version der Spec enthilt dann einen Fehler und erlaube FP16 als standard bei den Tempregistern in den PS. (bestätigt)

- Nachdem der Fehler korregiert wurde gelten die heute bekannten Festlegungen.

nV hat nun laut eigenen Angaben mit der NV3X Plannung bekonnen als der FP32 Entwurf aktuell war. Zudem hatten sie nachdem die NV2X schon FP32 im Textureshader benutzt haben kaum eine andere Wahl.

The_Invisible
2003-10-07, 11:15:37
Original geschrieben von reunion
Warum willst du noch abwarten ??
Leo ist auch nur ein Mensch, es hat es offensichtlich übersehn, tatsache ist diese optimierungen sind vorhanden, sonst hätte er diese Warnung wohl kaum hinzugefügt. Und damit steht fest, ja der Det 50 ist schneller, nur bei reduzierter Bildqualität, es gibt keinerlei hinterfenster keinerlei Möglichkeit diesen Cheat zu umgehen, noch viel schlimmer, NV würde damit den quasi Standart der Trilineare Filterung praktisch nicht unterstützen. Das ganze gilt für ALLE Texturstages ist immer aktiv egal ob AF an ist oder nicht, und bringt zudem nur einen mikrigen performancevorteil von ca. 5%, nach Leos Tests.

That´s it

mfg
reu

was vielleicht daran liegt das er die unterschiede mit blossen auge garnicht gesehen hat?

ich weiß ja nicht wie ihr spielt aber ich habe keine Lupe neben meinen PC liegen und 10verschiedene Screen-Capture Programme wo man dann in 1600% pixel für pixel vergleicht

mfg

reunion
2003-10-07, 11:30:08
Original geschrieben von The_Invisible
was vielleicht daran liegt das er die unterschiede mit blossen auge garnicht gesehen hat?

ich weiß ja nicht wie ihr spielt aber ich habe keine Lupe neben meinen PC liegen und 10verschiedene Screen-Capture Programme wo man dann in 1600% pixel für pixel vergleicht

mfg

Es geht aber nicht darum ob man es nun mehr oder weniger deutlich sieht, sondern darum das NV BEWUSST die Texturqualität senkt um mehr Leistung herauszuschinden, wodurch eigendlich jeglicher vergleich mit ATI Karten ungültig ist, da NV keine tri filterung bietet, sowohl mit als auch ohne AF.

Denn wenn du so argumentierst dann kann ich auch behaupten das ich keinen Unterschied zwischen NVs AF(das ja falls sich die cheats im offiziellen 50er Deto. bewahrheiten sollte, was sehr warscheindlich ist, auch nicht mehr besser ist als das von ATI) und ATIs AF sehe, oder zwischen NVs AA und ATIs AA.

Also ist dein Argument das man den Unterschied kaum sieht einfach :bonk:

mfg
reu

nggalai
2003-10-07, 11:46:07
Original geschrieben von The_Invisible
was vielleicht daran liegt das er die unterschiede mit blossen auge garnicht gesehen hat?

ich weiß ja nicht wie ihr spielt aber ich habe keine Lupe neben meinen PC liegen und 10verschiedene Screen-Capture Programme wo man dann in 1600% pixel für pixel vergleichtNaja, bei SOLCHEN Sachen brauchst Du echt keine Lupe für:

http://www.nggalai.com/images/3dc/20030927/cockpit.jpg

Kommt also immer auf die verwendete Applikation an. Bei UT2003 stört mich das pseudo-trilineare Filtering nicht die Bohne, Tron2.0 wird für mich so unspielbar.

93,
-Sascha.rb

LovesuckZ
2003-10-07, 11:56:20
Original geschrieben von nggalai
Kommt also immer auf die verwendete Applikation an. Bei UT2003 stört mich das pseudo-trilineare Filtering nicht die Bohne, Tron2.0 wird für mich so unspielbar.


Bezieht sich das auf's AF oder ohne?
Kannst du mal überprüfen, ob bei "No AF" der Treiber richtig trilinear filter, denn der 51.75 macht es...

Exxtreme
2003-10-07, 12:09:58
Original geschrieben von nggalai
Naja, bei SOLCHEN Sachen brauchst Du echt keine Lupe für:

http://www.nggalai.com/images/3dc/20030927/cockpit.jpg

Kommt also immer auf die verwendete Applikation an. Bei UT2003 stört mich das pseudo-trilineare Filtering nicht die Bohne, Tron2.0 wird für mich so unspielbar.

93,
-Sascha.rb
Aua. Da sieht eine hohe Stufe Bi-AF wohl besser aus. :D

r@w
2003-10-07, 12:49:06
Original geschrieben von reunion
Warum willst du noch abwarten ??
Ist der offizielle Deto schon da ?
:???:

Sehr viel Hoffnung habe ich da aber auch nicht mehr...
:-(

Razor

r@w
2003-10-07, 12:51:09
Original geschrieben von aths
Du willst ATI doch nicht wirklich vorwerfen, "zu genau" zu rendern, zumal sie dabei noch deutlich schneller als die Konkurrenz sind?
Gibt's dazu schon Vergleichstests ?
Reines fp16 gegen reines fp24...
Und fp24 ist dann schneller ?
Wo ?
:???:

Razor

P.S.: Ich sage ja nicht, dass es nicht so ist, aber AFAIK gibt's dazu noch keinerlei Info's...

r@w
2003-10-07, 12:55:22
Original geschrieben von Exxtreme
Aua. Da sieht eine hohe Stufe Bi-AF wohl besser aus. :D
Nö.
;D

Razor

r@w
2003-10-07, 12:56:24
Original geschrieben von LovesuckZ
Bezieht sich das auf's AF oder ohne?
Kannst du mal überprüfen, ob bei "No AF" der Treiber richtig trilinear filter, denn der 51.75 macht es...
Tatsächlich ?
Das würde dann aber bedeuten, dass der 51.75 noch weniger 'optimiert' war, als jetzt der 52.10 !
Irgendetwas stimmt doch an dieser ganzen Geschichte nicht...

Razor

LovesuckZ
2003-10-07, 13:01:35
Original geschrieben von r@w
Tatsächlich ?


Siehe letztes Posting (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=98302&perpage=50&pagenumber=2)

Exxtreme
2003-10-07, 13:02:25
Original geschrieben von r@w
Nö.
;D

Razor
Ich fürchte doch.

Denn sobald diese komische Optimierung zum Einsatz kommt, wird nicht alles mit der vollen AF-Stufe gefiltert. Reine "unoptimierte" Bi-AF-Filterung würde wohl besser aussehen.

Guckst du Screenshots:
http://www.3dcenter.org/artikel/2003/10-04_a.php

ow
2003-10-07, 13:05:48
Original geschrieben von Exxtreme
Ich fürchte doch.

Denn sobald diese komische Optimierung zum Einsatz kommt, wird nicht alles mit der vollen AF-Stufe gefiltert. Reine "unoptimierte" Bi-AF-Filterung würde wohl besser aussehen.

Guckst du Screenshots:
http://www.3dcenter.org/artikel/2003/10-04_a.php


Bilineares Filtern ist der groesste Mist, das kann niemals besser aussehen als trilineares Filtern. Weder mit noch ohne AF.

r@w
2003-10-07, 13:12:30
Original geschrieben von LovesuckZ
Siehe letztes Posting (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=98302&perpage=50&pagenumber=2)
Mega Krass !
Original geschrieben von LovesuckZ
Und nun zum Abschluss: Ich bin verwirrt ?-)
So halte ich mich nun an Deine Worte...
"Und ich erst !"
:freak:

Was stimmt denn nun ?
:???:

Also beim 51.75 kam bei Dir nun folgendes heraus:
- Stage 0 immer trilienar, egal ob 'application' oder 'noAF'
- Stage >0 pseudo-trilinear bei 'application' und echt trilinear bei 'noAF'
(umgekehrt würde ja eigentlich mehr Sinn machen ;-)

Jetzt bin ich richtig verwirrt...
Und offensichtlich ist mit dem 51.75 doch noch trilineres Filtern möglich gewesen, was aber von Leo (oder war das aths ?) aber negiert wurde. Beim 52.10 sagte er dann, dass es weg sei und nun ist es aber so, wie es beim 51.75 nicht war ?
Ähm...
:freak:

Razor

Exxtreme
2003-10-07, 13:12:43
Original geschrieben von ow
Bilineares Filtern ist der groesste Mist, das kann niemals besser aussehen als trilineares Filtern. Weder mit noch ohne AF.
Wenn der AF-Level gleich ist dann gebe ich dir recht.

Naja, ich spiele öfter mit bilinearen Filter. Bin halt ein Pixelfetischist und kein Texturfetischist. :D

r@w
2003-10-07, 13:15:15
Original geschrieben von Exxtreme
Ich fürchte doch.
Nö, sicher nicht.
Original geschrieben von Exxtreme
Denn sobald diese komische Optimierung zum Einsatz kommt, wird nicht alles mit der vollen AF-Stufe gefiltert. Reine "unoptimierte" Bi-AF-Filterung würde wohl besser aussehen.

Guckst du Screenshots:
http://www.3dcenter.org/artikel/2003/10-04_a.php
Und ?
Wo darf ich dort eine besseres "Bi-AF" bestaunen ?
:???:

Razor

r@w
2003-10-07, 13:16:20
Original geschrieben von Exxtreme
Naja, ich spiele öfter mit bilinearen Filter. Bin halt ein Pixelfetischist und kein Texturfetischist. :D
Reicht für echtes trilineares Filtern die Leistung nicht mehr ?
:D

Razor

Exxtreme
2003-10-07, 13:18:29
Original geschrieben von r@w
Reicht für echtes trilineares Filtern die Leistung nicht mehr ?
:D

Razor
Kommt darauf an welches Spiel. Mir ist aber 16x bi-AF lieber als 4x Tri-AF... wenn die Leistung nicht mehr reicht.

MadManniMan
2003-10-07, 13:29:36
Original geschrieben von ow
Bilineares Filtern ist der groesste Mist, das kann niemals besser aussehen als trilineares Filtern. Weder mit noch ohne AF.

Theoretisch ists suboptimal, aber in der Spielepraxis ist ein 128tap bi-AF schon verdammt gut.
Welche Spieleerfahrungen hast denn du mit einer solchen Einstellung, bzw. äquivalentem?

LovesuckZ
2003-10-07, 15:11:25
Original geschrieben von r@w
Also beim 51.75 kam bei Dir nun folgendes heraus:
- Stage 0 immer trilienar, egal ob 'application' oder 'noAF'
- Stage >0 pseudo-trilinear bei 'application' und echt trilinear bei 'noAF'
(umgekehrt würde ja eigentlich mehr Sinn machen ;-)


Nicht ganz richtig:
Trilinear nur, wenn AF per Spiel geregelt werden kann und man im Treiber auf "No AF" stellt! Ansonsten bleibt auch bei "No AF" alles wie gehabt...
:schlag:

reunion
2003-10-07, 15:51:30
Original geschrieben von r@w
Mega Krass !

So halte ich mich nun an Deine Worte...
"Und ich erst !"
:freak:

Was stimmt denn nun ?
:???:

Also beim 51.75 kam bei Dir nun folgendes heraus:
- Stage 0 immer trilienar, egal ob 'application' oder 'noAF'


Nein, der 52.10 filtert auf ALLEN Stages nur pseudo trilinear:

Siehe dazu das:

Original geschrieben von nggalai
Der Treiber bietet kein "echtes" trilineares Filtering. ALLE texture stages werden IMMER pseudo-trilinear gefiltert. Es gibt keine Option, das zu ändern. Wer das nicht will, darf durch trial-and-error in der Registry rumwüten.

"Application controlled" funktioniert aber--es werden die texture stages genau mit dem Grad anisotrop gefiltert, den die Applikation anfordert. Einfach nie mit "echtem" trilinearem Filtering.

93,
-Sascha.rb
[
- Stage >0 pseudo-trilinear bei 'application' und echt trilinear bei 'noAF'
(umgekehrt würde ja eigentlich mehr Sinn machen ;-)


Razor

Echt tri nur wenn App tri AF anfordert (was ja nach deiner eigenen Aussage nur bei ca. 2% der Apps zutrifft ;)) und man gleichzeitig noAF im CP eingestellt hat. Sonst IMMER pseudo tri.

nggalai
2003-10-07, 16:04:52
Hi reunion,

zwei Hinweise:

1) Razor spricht vom 51.75er, nicht von den 52er-Treibern.

2) Ich hab' mit gutem Grund immer "52.1x" geschrieben und nicht "52.10". Ich hab den 52.10er nicht selbst testen können, will zu dem speziellen Treiber also nix sagen.

93,
-Sascha.rb

reunion
2003-10-07, 16:43:28
Original geschrieben von nggalai
Hi reunion,

zwei Hinweise:

1) Razor spricht vom 51.75er, nicht von den 52er-Treibern.

2) Ich hab' mit gutem Grund immer "52.1x" geschrieben und nicht "52.10". Ich hab den 52.10er nicht selbst testen können, will zu dem speziellen Treiber also nix sagen.

93,
-Sascha.rb

Verhalten sich da nicht alle 5x.xx Treiber gleich???

betasilie
2003-10-07, 16:54:04
Original geschrieben von ow
Bilineares Filtern ist der groesste Mist, das kann niemals besser aussehen als trilineares Filtern. Weder mit noch ohne AF.
2*AF-tri sieht nicht so gut aus, wie 8*AF-bi. ... Ich habe da anfangs mal mit meiner 9700 rumgestestet und bin afair zu diesem Ergebniss gekommen.

MadManniMan
2003-10-07, 17:20:21
Original geschrieben von betareverse
2*AF-tri sieht nicht so gut aus, wie 8*AF-bi. ... Ich habe da anfangs mal mit meiner 9700 rumgestestet und bin afair zu diesem Ergebniss gekommen.

Veruchs gar nicht erst, Beta.

Ich hatte auch dutzendweise Bären gefressen, bis ich irgendwann mal mitbekam, daß ow nicht/kaum zockt und sich nur ob der Theorie, zumindest aber nicht des Spielens wegen für Grakas interessiert. Von daher sind seine Ansichten zumindest nachvollziehbar.

:ratlos:

nggalai
2003-10-07, 17:42:17
Original geschrieben von reunion
Verhalten sich da nicht alle 5x.xx Treiber gleich??? Ich hab' einen Treiber der Serie, den 52.10er, nicht selbst testen können. Ergo KANN ich auf diese Frage keine Antwort geben. Vielleicht tut er's, vielleicht auch nicht. Wenn ich Leos Kommentare so lese, scheint er aus der Reihe der 52.xx zu tanzen, mit seiner Texturfilterung. Rede ich mit Betatestern darüber, dann scheint Leo falsch zu liegen. So oder so ist der 52.10er eh aus Sicht von NV "abgehakt" und nicht weiter relevant.

Warten wir doch mitm Urteilen und Verdammen, bis die neuen Referenz-Treiber da sind. ;)

93,
-Sascha.rb

LovesuckZ
2003-10-07, 17:44:20
Original geschrieben von nggalai
Rede ich mit Betatestern darüber, dann scheint Leo falsch zu liegen.

Welchen bezug?
Sag schon, gib's richtiges trilinear oder nicht :)

nggalai
2003-10-07, 17:48:28
Original geschrieben von LovesuckZ
Welchen bezug?
Sag schon, gib's richtiges trilinear oder nicht :) Hab' bei Leo nachgefragt: Seine Formulierung war nur missverständlich, nicht falsch. Auch beim 52.10er gibts NIE echtes trilineares Filtering, egal was man umstellt und ausprobiert.

Damit kann ich 52.1x wirklich so stehen lassen: Alle Treiberrevisionen des 52er Branches unterstützen nur mit Cheat-Blockern und Registry-Hacken echtes trilineares Filtering. Ohne grossen Aufwand kriegt man nur pseudo-trilinear aus den Treibern.

93,
-Sascha.rb

LovesuckZ
2003-10-07, 17:49:59
Original geschrieben von nggalai
Damit kann ich 52.1x wirklich so stehen lassen: Alle Treiberrevisionen des 52er Branches unterstützen nur mit Cheat-Blockern und Registry-Hacken echtes trilineares Filtering. Ohne grossen Aufwand kriegt man nur pseudo-trilinear aus den Treibern.


Inwieweit kommt Nvidia damit durch's WHQL (hoffe so richtig) Programm von MS?

Crushinator
2003-10-07, 17:52:07
Original geschrieben von LovesuckZ
Inwieweit kommt Nvidia damit durch's WHQL (hoffe so richtig) Programm von MS? WHQL schreibt IMHO gar nichts bezüglich AA/AF/Texturfilter-Qualität vor, also kämen sie durch.

Black-Scorpion
2003-10-07, 17:57:46
Original geschrieben von nggalai
Warten wir doch mitm Urteilen und Verdammen, bis die neuen Referenz-Treiber da sind. ;)

93,
-Sascha.rb
Dumme Frage, der Deto 5x.xx soll doch der erste "richtige" Treiber für die FX Karten sein.
Oder gibt es schon einen.
Wenn nein, stelle ich mir die Frage, warum es NV nicht schafft ein halbes Jahr nach Einführung der FX einen Final Treiber rauszubringen.
Wenn das Spiel so weiter geht, ist die 5800/5900 Serie die erste Karte die bis zur Einführung einer neuen Serie keinen optimierten Treiber hat.
Darüber sollte man sich mal Gedanken machen was bei NV zur Zeit alles nicht läuft.

PS. Das soll kein Flame sein, sondern eine ernsthafte Frage.

'edit' Kaufe ein "r"

reunion
2003-10-07, 17:58:51
Original geschrieben von nggalai
Hab' bei Leo nachgefragt: Seine Formulierung war nur missverständlich, nicht falsch. Auch beim 52.10er gibts NIE echtes trilineares Filtering, egal was man umstellt und ausprobiert.


Auch nicht wenn die App das anfordert???

nggalai
2003-10-07, 18:00:49
Original geschrieben von LovesuckZ
Inwieweit kommt Nvidia damit durch's WHQL (hoffe so richtig) Programm von MS? Sagen wir's mal so:

Rate mal, weshalb diese komischen "NV von DX10 ausgeschlossen!!!!11111111einseins"-Gerüchte aufgekommen sind . . .

93,
-Sascha.rb

P.S. Du hast PM.rb

LovesuckZ
2003-10-07, 18:01:23
Original geschrieben von Anonym_001
Dumme Frage, der Deto 5x.xx soll doch der erste "richtige" Treiber für die FX Karten sein.

Sollte. Aber einige Dinge sind schon in den 45.23 gerusht (Shaderoptimierung).

Wenn nein, stelle ich mir die Frage, warum es NV nicht schafft ein halbes Jahr nach Einführung der FX einen Final Treiber rauszubringen.

Es gibt doch schon Final Treiber :|
Nicht zu vergessen, ATI brauchte jebenfalls nen halbes Jahr, um den Stutterbug zu beseitigen.

Wenn das Spiel so weiter geht, ist die 5800/5900 Serie die erste Karte die bis zur Einführung einer neuen Serie keinen optimierten Treiber hat.

Oehm, noe, eigentlich nicht...

Darüber sollte man sich mal Gedanken machen was bei NV zu Zeit alles nicht läuft.


Die Gruende warum der Treiber zu spaet kommt ist der, dass Nvidia einfach ein paar Dinge vernachlaessigt und unterschaetz hat (nicht ATi).

nggalai
2003-10-07, 18:02:58
Original geschrieben von reunion
Auch nicht wenn die App das anfordert??? Richtig. Wenn die Applikation trilinear fordert, kommt pseudo-trilinear raus.

Man kann sich jetzt natürlich darüber streiten, wo "trilinear" anfängt und wo's aufhört, und wie breit der MIP-Map-Streifen sein darf damit's noch als trilinear durchgeht, aber die Lehrbücher sind da eigentlich ziemlich strikt. Und wie man am Tron2.0-Shot sehen kann, ist eine solche Optimierung auch bei weitem nicht immer "unsichtbar."

93,
-Sascha.rb

reunion
2003-10-07, 18:12:14
Original geschrieben von nggalai
Sagen wir's mal so:

Rate mal, weshalb diese komischen "NV von DX10 ausgeschlossen!!!!11111111einseins"-Gerüchte aufgekommen sind . . .

93,
-Sascha.rb

P.S. Du hast PM.rb

Heißt das jetzt das da doch was wahres dran ist, oder... ???

nggalai
2003-10-07, 18:14:09
Original geschrieben von reunion
Heißt das jetzt das da doch was wahres dran ist, oder... ??? Mist. Muss weniger unklar schreiben.

Nein, heisst's nicht. Aber habt ihr euch noch nie überlegt, wie man auf die Idee kommen kann, ein solches Gerücht zu basteln und zu verbreiten? Dass man eventuell was falsch interpretiert hat, und dann zu dieser Schlussfolgerung kommen kann?

93,
-Sascha.rb

Mr. Lolman
2003-10-07, 18:16:20
Original geschrieben von LovesuckZ
Es gibt doch schon Final Treiber :|
Nicht zu vergessen, ATI brauchte jebenfalls nen halbes Jahr, um den Stutterbug zu beseitigen.


Naja ,nicht ganz ein halbes Jahr, obwohl das Problem wirklich ärgerlich war. Aber egal, geschickte User fanden relativ schnell ein Lösung um das Problem in den Griff zu bekommen.

Wenn die Taskleiste nicht mit blinkenden Icons übersäht war, wars sogar möglich überhaupt nichts von dem Stutterbug mitzubekommen. (Ich hatte ihn nur kurzzeitig beim Cat. 3.0, der einen OpenGL Bug hatte und iirc relativ bald mit einer 2. Revision gefixt wurde.)

Ausserdem machten viele User den Fehler das Ruckeln auf ihrem schlecht konfigurierten System ATis Stutterbug zuzuschreiben. Nichtsdestotrotz wars ein ärgerliches Problem, und ich bin froh, dass ATi es enddgültg in den Griff bekommen hat. (nun aber genug OT;))

Black-Scorpion
2003-10-07, 18:24:02
Original geschrieben von LovesuckZ
Sollte. Aber einige Dinge sind schon in den 45.23 gerusht (Shaderoptimierung).
Aber einen Treiber der direkt auf die FX zugeschnitten ist gibt es nicht. Die 4x.xx Treiber sind ja eigentlich für die GF4 Serie und sind nur angepasst.


Oehm, noe, eigentlich nicht...
Das bezog sich darauf, das es bis jetzt immer noch keinen Final Treiber gibt. Was sich aber nur auf die richtigen Treiber für die FX bezog und nicht auf die angepassten 4x.xx Treiber.


Die Gruende warum der Treiber zu spaet kommt ist der, dass Nvidia einfach ein paar Dinge vernachlaessigt und unterschaetz hat (nicht ATi).
Das meinte ich ja.
Ich frage mich ernsthaft was die die ganze Zeit getrieben haben.

Crushinator
2003-10-07, 18:50:30
WHQL-Specs aktuell (V 2.1, HCT 12.0 Beta, 09/2003): TestSpec.chm von MS selbst (http://download.microsoft.com/download/0/e/a/0ea89c31-193e-4903-a238-df9732cf948a/TestSpec.chm)

AlfredENeumann
2003-10-07, 19:02:27
Original geschrieben von LovesuckZ
Nicht zu vergessen, ATI brauchte jebenfalls nen halbes Jahr, um den Stutterbug zu beseitigen.



Oh. Irgendwas habe ich falsch gemacht. Ich hatte keinen Stutterbug.:kratz2: :grübel:

reunion
2003-10-07, 19:16:02
Original geschrieben von AlfredENeumann
Oh. Irgendwas habe ich falsch gemacht. Ich hatte keinen Stutterbug.:kratz2: :grübel:

Komisch ich auch nicht...hmm

LovesuckZ
2003-10-07, 19:17:42
Original geschrieben von Mr. Lolman
Wenn die Taskleiste nicht mit blinkenden Icons übersäht war, [...]

Bei mir reichte schon Speedfan und jedes Game war überaus unspielbar.

[B]Original geschrieben von Anonym_001
Aber einen Treiber der direkt auf die FX zugeschnitten ist gibt es nicht. Die 4x.xx Treiber sind ja eigentlich für die GF4 Serie und sind nur angepasst.

Beim 44.03 kann man sich schreiten, ob er FX tauglich waere, doch der 45.23 laeuft fast rund um perfekt auf den FX Karten, dazu fixt er die miese PS1.4 Performance (siehe meine Halo Vergleiche), da er schon eine Form der Shaderoptimierung hat.

Das bezog sich darauf, das es bis jetzt immer noch keinen Final Treiber gibt. Was sich aber nur auf die richtigen Treiber für die FX bezog und nicht auf die angepassten 4x.xx Treiber.

Es gibt keinen Final Deto 5x.xx, dafür einen 45.23, der in Shader Spiele vernünftige Leistung bringt.

askibo
2003-10-07, 19:21:51
Original geschrieben von nggalai
Mist. Muss weniger unklar schreiben.

Nein, heisst's nicht. Aber habt ihr euch noch nie überlegt, wie man auf die Idee kommen kann, ein solches Gerücht zu basteln und zu verbreiten? Dass man eventuell was falsch interpretiert hat, und dann zu dieser Schlussfolgerung kommen kann?

93,
-Sascha.rb

Hat Nvidia etwa Zoff mit Microsoft wegen der WHQL Zertifizierung der neuen Treiber? (na, hab ich 100 Punkte? ;) )

Gibts dazu auch Gerüchte, weist du da was drüber oder hast du blos geraten?

reunion
2003-10-07, 19:28:41
Original geschrieben von LovesuckZ
Beim 44.03 kann man sich schreiten, ob er FX tauglich waere, doch der 45.23 laeuft fast rund um perfekt auf den FX Karten, dazu fixt er die miese PS1.4 Performance (siehe meine Halo Vergleiche), da er schon eine Form der Shaderoptimierung hat.


Naja der Deto. 45.23 ist z.B.: immernochnicht in der Lage alle Shader des Shadermark 2.0 darzustellen...

Es gibt keinen Final Deto 5x.xx, dafür einen 45.23, der in Shader Spiele vernünftige Leistung bringt.

Kommt drauf an wie man vernünftige Leistung definiert ;)

LovesuckZ
2003-10-07, 19:31:07
Original geschrieben von reunion
Naja der Deto. 45.23 ist z.B.: immernochnicht in der Lage alle Shader des Shadermark 2.0 darzustellen...

und? Kommt dies in Spielen zu tragen? Und da HL2 sowieso erst im April kommt, stoert mich das zur Zeit überhaupt nicht.

Kommt drauf an wie man vernünftige Leistung definiert ;)

Bis auf TR6 laeufen die restlichen 2/3 aller DX9 Spiele auf meiner 5800 zu frieden stellend.

StefanV
2003-10-07, 19:35:36
Original geschrieben von askibo
Hat Nvidia etwa Zoff mit Microsoft wegen der WHQL Zertifizierung der neuen Treiber? (na, hab ich 100 Punkte? ;) )

Gibts dazu auch Gerüchte, weist du da was drüber oder hast du blos geraten?

Naja, soweit ich informiert bin, hat M$ die WHQL Zertifizierung geändert.

Früher hat man bei jedem Schrott Treiber ein WHQL Zertifikat bekommen, woran sich M$ in letzter Zeit etwas gestört haben.

Ensprechend haben sie die Tests geändert, worunter auch unter anderem ein BQ Test mit dem Ref Rast gehört.

Tja und da nV ja dummerweise etwas 'cheatet', dürften sie mindestens durch den BQ Test rasseln...

Schlecht für nV, IMO gut fürs WHQL Logo, welches durch die geänderten Tests an Wert gewinnt...

AFAIK war das auch der Grund, warum der Cata 3.5 gecancelt wurde und gleich durch 3.7 ersetzt wurde...

Black-Scorpion
2003-10-07, 19:48:10
Original geschrieben von Stefan Payne
AFAIK war das auch der Grund, warum der Cata 3.5 gecancelt wurde und gleich durch 3.7 ersetzt wurde...
Der einzige der gecancelt wurde war der Cat3.3.
Und der wurde auch nicht ersetzt.

Tesseract
2003-10-07, 19:53:13
Original geschrieben von Anonym_001
Der einzige der gecancelt wurde war der Cat3.3.

stimmt, ich hab den offiziellen 3.5er sogar noch auf der platte
sowie alle anderen mit ausnahme vom 3.3er

Quasar
2003-10-07, 20:27:22
Original geschrieben von Stefan Payne
AFAIK war das auch der Grund, warum der Cata 3.5 gecancelt wurde und gleich durch 3.7 ersetzt wurde...

Du meinst doch nicht etwa....

Nein, das würde ja bedeuten, daß....

Also das mag ich nun wirklich nicht glauben...

Black-Scorpion
2003-10-07, 20:35:50
Original geschrieben von Quasar
Du meinst doch nicht etwa....

Nein, das würde ja bedeuten, daß....

Also das mag ich nun wirklich nicht glauben...
Brauchst du auch nicht. ;)
Der Cat3.5 wurde nicht gecancelt.

betasilie
2003-10-07, 21:09:55
Original geschrieben von LovesuckZ
Bei mir reichte schon Speedfan und jedes Game war überaus unspielbar.

Speedfan ist auch nicht irgendein Task. Alle Systemmonitore haben es in ihrem eingestellten Intervall auf sich das System kurz zu stoppen, je nach MB-Chipsatz und den verbauten Sensoren.

Dass mit dem Stuttering stimmt übrigens nicht! Das Stuttering war Chipsatzspezifisch, weil einige MB/Chipsatzhersteller Mist gebaut haben. Mit einem SIS 735/745 habe ich immer Stuttering gehabt, mit einem NForce2-Chipsatz war das Phänomen sofort verschwunden.

Razor
2003-10-07, 21:15:27
Hi nggalai,
Original geschrieben von nggalai
Alle Treiberrevisionen des 52er Branches unterstützen nur mit Cheat-Blockern und Registry-Hacken echtes trilineares Filtering.
"Cheatblocker" ?
Gibt's die jetzt doch für die verschlüsselten Treiber ?

"Registery-Hacks" ?
Also ist es doch möglich, via Registery-Hack echtes Tri(-AF) zu bekommen ?

Insobesndere Letzteres wäre ja hochinteressant !

Razor

Razor
2003-10-07, 21:16:44
Original geschrieben von nggalai
P.S. Du hast PM.rb
Will auch PM...
:-(

Razor

nggalai
2003-10-07, 21:29:43
Hola,
Original geschrieben von Razor
"Registery-Hacks" ?
Also ist es doch möglich, via Registery-Hack echtes Tri(-AF) zu bekommen ?

Insobesndere Letzteres wäre ja hochinteressant !NV hat angedeutet, dass es Registry-Settings gäbe, womit man wieder "normales" Texturfiltering erhalten würde. Naja, offenbar liefern die neuen Treiber auf alten Karten (GF4Ti) "korrektes" Texturfiltering, ist also nicht so, als ob der Treiber die Fähigkeit dazu nicht hätte--es ist einfach nicht freigegeben.

Unwinder arbeitet anscheinend bereits an einer solchen Option für den nächsten RivaTuner. Aber genaues weiss man noch nicht.

93,
-Sascha.rb

Razor
2003-10-07, 21:38:36
Thx for the Info !
;-)

Das läßt ja zumindest noch hoffen...
Schaun' mer mal, wie sich die 'echten' Deto's geben.

Razor

Demirug
2003-10-07, 21:41:48
Original geschrieben von nggalai
Naja, offenbar liefern die neuen Treiber auf alten Karten (GF4Ti) "korrektes" Texturfiltering, ist also nicht so, als ob der Treiber die Fähigkeit dazu nicht hätte--es ist einfach nicht freigegeben.

93,
-Sascha.rb

Ich würde mal sagen die TMUs der NV2X Chips haben kein programierbares triband deswegen ist da nichts mit einer solchen Optimierung machbar,

mapel110
2003-10-07, 21:46:23
Original geschrieben von Demirug
Ich würde mal sagen die TMUs der NV2X Chips haben kein programierbares triband deswegen ist da nichts mit einer solchen Optimierung machbar,

aha, also deswegen bringen die performance AF modi auf den geforce4 nix. hat mich damals nämlich echt gewundert.

nggalai
2003-10-07, 21:53:45
Original geschrieben von Demirug
Ich würde mal sagen die TMUs der NV2X Chips haben kein programierbares triband deswegen ist da nichts mit einer solchen Optimierung machbar, :idea: Genau! Das macht Sinn!

Danke! :)

93,
-Sascha.rb

Birdman
2003-10-07, 22:51:27
Original geschrieben von betareverse
Dass mit dem Stuttering stimmt übrigens nicht! Das Stuttering war Chipsatzspezifisch, weil einige MB/Chipsatzhersteller Mist gebaut haben. Mit einem SIS 735/745 habe ich immer Stuttering gehabt, mit einem NForce2-Chipsatz war das Phänomen sofort verschwunden.
das halte ich für ein dummes Gerücht das aus der ATi Fanboy Ecke gekrochen ist. Wenn dies stimmen würde wären ja fast alle Chipsätze faul. (auch die von Intel und Via, die ja immer so hoch gelobt werden)
Ausserdem ist komisch, dass diese Probleme NUR ATi Chips und zudem NUR einige Catalyst Versionen betrafen....schon komisch sowas.
Was zudem auch verwirrend ist, ist die Tatsache dass ein "removed Stuttering Bug" im Changelog eines offiziellen Ati Treibers zu finden ist...weiss nicht ob dies einfach nur zur Dekoration dort steht.

Gast
2003-10-07, 22:56:12
Original geschrieben von Birdman
das halte ich für ein dummes Gerücht das aus der ATi Fanboy Ecke gekrochen ist. Wenn dies stimmen würde wären ja fast alle Chipsätze faul. (auch die von Intel und Via, die ja immer so hoch gelobt werden)
Ausserdem ist komisch, dass diese Probleme NUR ATi Chips und zudem NUR einige Catalyst Versionen betrafen....schon komisch sowas.
Was zudem auch verwirrend ist, ist die Tatsache dass ein "removed Stuttering Bug" im Changelog eines offiziellen Ati Treibers zu finden ist...weiss nicht ob dies einfach nur zur Dekoration dort steht.

Da bist du aber schlecht informiert. Stuttering gab/gibt es auch auf der GF FX.

Exxtreme
2003-10-08, 09:38:55
Original geschrieben von Birdman
das halte ich für ein dummes Gerücht das aus der ATi Fanboy Ecke gekrochen ist. Wenn dies stimmen würde wären ja fast alle Chipsätze faul. (auch die von Intel und Via, die ja immer so hoch gelobt werden)
Ausserdem ist komisch, dass diese Probleme NUR ATi Chips und zudem NUR einige Catalyst Versionen betrafen....schon komisch sowas.
Was zudem auch verwirrend ist, ist die Tatsache dass ein "removed Stuttering Bug" im Changelog eines offiziellen Ati Treibers zu finden ist...weiss nicht ob dies einfach nur zur Dekoration dort steht.
Also der Stuttering-Bug tratt nur bei starker 2D-Aktivität auf, sprich wenn man viele nette blinkende Icons im Systray hatte.

Und das war auch der Grund warum ich nicht von den Bug betroffen war.

EL_Mariachi
2003-10-08, 09:47:25
Original geschrieben von betareverse

Dass mit dem Stuttering stimmt übrigens nicht! Das Stuttering war Chipsatzspezifisch, weil einige MB/Chipsatzhersteller Mist gebaut haben. Mit einem SIS 735/745 habe ich immer Stuttering gehabt, mit einem NForce2-Chipsatz war das Phänomen sofort verschwunden.


jup das mit dem stuttering kann ich auch bestätigen !
hab vorher auch nen SIS chipsatz für meinen P4 gehabt ...
jetzt mit nem Intel Chipsatz tritt stuttering bei mir auch nicht mehr auf !

Birdman
2003-10-08, 13:03:07
Original geschrieben von Exxtreme
Also der Stuttering-Bug tratt nur bei starker 2D-Aktivität auf, sprich wenn man viele nette blinkende Icons im Systray hatte.

Und das war auch der Grund warum ich nicht von den Bug betroffen war.
nein, diese Aussage ist sicher nicht korrekt.
Ich bin einer der fast keine Tasks am alufen hat und schon gar keine überflüssigen Icons unten recht. Bei mir sind genau 2 zu sehen - die Zeit und die Lautstärke-regelung.
Und trotzdem hats bei RC gestuttert - selbst noch mit dem Stutterfix im 3dAnalyzer.