PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidias Antwort auf alle PS2.0-Probleme...


Sphinx
2003-09-17, 00:17:39
NVIDA's Money Lures EIDOS To Pull Patch

EIDOS Interactive, the publisher for Tomb Raider: Angel of Darkness issued a patch a couple of weeks ago for the game which happened to include a way to use the game as a DX9 benchmark. Since it shows NVIDIA hardware performing slower than ATI, EIDOS has pulled it down. Remember, this is a "Way it's meant to be played" game, which means NVIDIA has paid EIDOS marketing money. Here's a bs statement from EIDOS Europe:

ZITAT :
"It has come to the attention of Eidos that an unreleased patch for Tomb Raider: AOD has unfortunately been used as the basis for videocard benchmarking. While Eidos and Core appreciate the need for modern benchmarking software that utilizes the advanced shading capabilities of modern graphics hardware, Tomb Raider: AOD Patch 49 was never intended for public release and is not a basis for valid benchmarking comparisons. Core and Eidos believe that Tomb Raider: AOD performs exceptionally well on NVIDIA hardware." - Paul Baldwin, Eidos

-> QUELLE: GAMERS_DEPOT : http://www.gamersdepot.com

Al-CAlifAX
2003-09-17, 00:20:24
Naja wers glaubt ;)

betasilie
2003-09-17, 00:30:51
Original geschrieben von Sphinx
Core and Eidos believe that Tomb Raider: AOD performs exceptionally well on NVIDIA hardware." [/i]- Paul Baldwin, Eidos
:rofl: ... Ich hoffe, dass der NV40 eine Granate wird, damit diese Lächerlichkeiten bald mal aufhören.

Asuka
2003-09-17, 00:33:54
Original geschrieben von Sphinx
NVIDA's Money Lures EIDOS To Pull Patch

EIDOS Interactive, the publisher for Tomb Raider: Angel of Darkness issued a patch a couple of weeks ago for the game which happened to include a way to use the game as a DX9 benchmark. Since it shows NVIDIA hardware performing slower than ATI, EIDOS has pulled it down. Remember, this is a "Way it's meant to be played" game, which means NVIDIA has paid EIDOS marketing money. Here's a bs statement from EIDOS Europe:

ZITAT :
"It has come to the attention of Eidos that an unreleased patch for Tomb Raider: AOD has unfortunately been used as the basis for videocard benchmarking. While Eidos and Core appreciate the need for modern benchmarking software that utilizes the advanced shading capabilities of modern graphics hardware, Tomb Raider: AOD Patch 49 was never intended for public release and is not a basis for valid benchmarking comparisons. Core and Eidos believe that Tomb Raider: AOD performs exceptionally well on NVIDIA hardware." - Paul Baldwin, Eidos

-> QUELLE: GAMERS_DEPOT : http://www.gamersdepot.com Da hat Eidos wohl kalte Füße bekommen... wie arm! :down:

Gast
2003-09-17, 00:56:41
Das klingt nun aber arg peinlich. Nicht nur für Eidos, sondern auch für nVidia.

Kai
2003-09-17, 01:14:25
Wenn ihr wüsstet ...

Langsam kotzt mich diese ganze Kacke an.

Asuka
2003-09-17, 01:16:57
Original geschrieben von Kai
Wenn ihr wüsstet ...

Langsam kotzt mich diese ganze Kacke an. Da bist du nicht allein...

Kai
2003-09-17, 01:25:26
Original geschrieben von Asuka
Da bist du nicht allein...

Wer den Patch noch haben will sollte sich beeilen: http://www.filefront.com/r.b/page__file_info/_filepath__/pub2/Tomb_Raider_6/Official_Files/TRAOD_PC_PATCH_V49_ALL_LANGUAGES.exe/_clear__page,filepath/_output.html

BlueRaven
2003-09-17, 03:11:38
Original geschrieben von betareverse
:rofl: ... Ich hoffe, dass der NV40 eine Granate wird, damit diese Lächerlichkeiten bald mal aufhören.


das glaube ich net, das der NV40 der Hammer wird aber naja abwarten heißt es wenn ATI wieder mit einen neuen Chip gegen NV40 antretten tut und dann wieder Nvidia ins schwitzen kommt oder vielleicht ATI

Dann können wir uns wieder auf neue Cheatet Treiber und Hardware Probleme gefasst machen.

Die Jungs von Nvidia müssen echt etwas tun das die wieder die Nr.1 in HighEnd bereich sind ansonsten wird es eng für Nvidia im 3D HighEnd bereich.

Wenn noch XGI mit dem Duo ding einen Volltreffer landet, ans weitere will nicht denken.




MFG
BlueRaven

Merlin31
2003-09-17, 04:32:05
Original geschrieben von BlueRaven
das glaube ich net, das der NV40 der Hammer wird aber naja abwarten heißt es wenn ATI wieder mit einen neuen Chip gegen NV40 antretten tut und dann wieder Nvidia ins schwitzen kommt oder vielleicht ATI

Dann können wir uns wieder auf neue Cheatet Treiber und Hardware Probleme gefasst machen.

Die Jungs von Nvidia müssen echt etwas tun das die wieder die Nr.1 in HighEnd bereich sind ansonsten wird es eng für Nvidia im 3D HighEnd bereich.

Wenn noch XGI mit dem Duo ding einen Volltreffer landet, ans weitere will nicht denken.




MFG
BlueRaven


Ist doch klar dann heist es Back to the Basic !!!

Dann optimiert ATI und NV das man denken könnte man zockt mit ner CGA Grafikk. *g
Hauptsache man bekommt mit der R420 oder NV40 dann min 100.000 Aqua Benchies.
So wird das noch enden.
Je mehr Konkurenz je schlechter die Grafik *oh weh

Ikon
2003-09-17, 09:46:40
*autsch* dieser Schlussatz ist an Heuchelei wirklich nicht mehr zu überbieten. Wenn ein solches Verhalten aus den Marketing-Zahlungen resultiert, dann sind diese wohl alles andere als positiv zu bewerten.

nggalai
2003-09-17, 10:03:14
Original geschrieben von Ikon
*autsch* dieser Schlussatz ist an Heuchelei wirklich nicht mehr zu überbieten. Wenn ein solches Verhalten aus den Marketing-Zahlungen resultiert, dann sind diese wohl alles andere als positiv zu bewerten. Der Schlusssatz da ist nur die Spitze des Eisberges. Ich informier mich gerade, was wir alles von den Hintergründen bringen dürfen, ohne dass wir wen in die Scheisse reiten, aber in einem Wort lässt sich die ganze Situation so zusammenfassen:

Nicaragua?

93,
-Sascha.rb

ShadowXX
2003-09-17, 11:37:23
Original geschrieben von nggalai
Der Schlusssatz da ist nur die Spitze des Eisberges. Ich informier mich gerade, was wir alles von den Hintergründen bringen dürfen, ohne dass wir wen in die Scheisse reiten, aber in einem Wort lässt sich die ganze Situation so zusammenfassen:

Nicaragua?

93,
-Sascha.rb

Das hört sich interessant an...wird ein neuer Artikel, oder bleib es 'lieber' innerhalb des Forums?

J.S.Shadow

P.S.
btw. Die Behauptung von Core das der 49Patch ein leaked Beta sein soll, ist ja wohl das letzte...ich habe mir den über einen Link von EIDOS 'itself' geholt...dh. sie haben ihn selbst offiziell 'angeboten'.

BlueRaven
2003-09-17, 13:08:50
Nvidia bietet Officielle Detos an und wenn diese Detos net so laufen wie man gehoft hat, dann wird es schnell in Beta umgenannt damit die leute net denken was ein schei*** Treiber.

ShadowXX
2003-09-17, 13:47:25
Auf diese Taktik von nV habe ich schon öfter hingewiesen...nur wurde es bis jetzt immer als 'unfug' abgetan....

Nun aber hat sich nV mit Ihren wiedersprüchlichen Aussagen selbst ins Knie geschossen....

J.S.Shadow

x-dragon
2003-09-17, 14:01:29
Original geschrieben von ShadowXX
Auf diese Taktik von nV habe ich schon öfter hingewiesen...nur wurde es bis jetzt immer als 'unfug' abgetan....

Nun aber hat sich nV mit Ihren wiedersprüchlichen Aussagen selbst ins Knie geschossen....

J.S.Shadow Da ist nur noch die Frage wie du "offiziell" in dem Fall definierst. Denn "offiziell" wurde doch bisher eigentlich keine Beta-Treiber von Nvidia veröffentlicht, oder? Das welche an die Presse/spez. Webseiten verschickt wurden ok, aber veröffentlicht werden sollte der Treiber noch nicht. Und das dieser Treiber zusätzlich zu den Optimierungen anscheind auch ein paar Bugs enthält (die ja unteranderem Schuld sein sollen an der schlechten Bildqualität, laut Nvidia), war so glaube ich auch nicht geplant. Und das sie kurz vor der Veröffentlichung von HL2 ein wenig in Panik geraten kann man wohl auch nachvollziehen, schliesslich wollen/wollte sich viele für das Spiel eine neue (Highend-)Grafikkarten kaufen und dann sowas ...

ShadowXX
2003-09-17, 14:20:15
Original geschrieben von X-Dragon
Da ist nur noch die Frage wie du "offiziell" in dem Fall definierst. Denn "offiziell" wurde doch bisher eigentlich keine Beta-Treiber von Nvidia veröffentlicht, oder? Das welche an die Presse/spez. Webseiten verschickt wurden ok, aber veröffentlicht werden sollte der Treiber noch nicht. Und das dieser Treiber zusätzlich zu den Optimierungen anscheind auch ein paar Bugs enthält (die ja unteranderem Schuld sein sollen an der schlechten Bildqualität, laut Nvidia), war so glaube ich auch nicht geplant. Und das sie kurz vor der Veröffentlichung von HL2 ein wenig in Panik geraten kann man wohl auch nachvollziehen, schliesslich wollen/wollte sich viele für das Spiel eine neue (Highend-)Grafikkarten kaufen und dann sowas ...

Ist ok...aber dann sollen Sie es zugeben und nicht so tun als wenn alle nV an den Kragen wollen.
Sie haben diese Detos an die Testsites/Valvue herrausgegeben und um Test mit dieses Detos gebeten...
Und als sich dann herrausstellte das diese Detos nicht das 'gelbe vom Ei' sind (wieso und warum auch immer) wurde so extrem zurüchgerudert, dass sich sehr wahrscheinlich viele Tester auf den Schlips getreten fühlen.
Valve hat Sie ja fast davor bewahrt, indem Sie nicht mit dem Deto getestet haben.....

(kurzform: zuerst meckert nv das man den deto51 nicht benutzt und dann regt man sich 2 minuten später auf das man ihn benutzt...was denn nun...)

J.S.Shadow

P.S.
ich habe nichts persönlich gegen die HW von nV, aber etwas gegen deren PR/Marketing...Man sollte Niederlagen auch manchmal eingestehen.
Falls D3 ohne irgendwelchen Optimierungen schneller auf einer nV läuft als auf einer ATI, beglückwünsche ich nV und JC zuerst....

x-dragon
2003-09-17, 14:43:14
Original geschrieben von ShadowXX
Ist ok...aber dann sollen Sie es zugeben und nicht so tun als wenn alle nV an den Kragen wollen.
Sie haben diese Detos an die Testsites/Valvue herrausgegeben und um Test mit dieses Detos gebeten...
Und als sich dann herrausstellte das diese Detos nicht das 'gelbe vom Ei' sind (wieso und warum auch immer) wurde so extrem zurüchgerudert, dass sich sehr wahrscheinlich viele Tester auf den Schlips getreten fühlen.
Valve hat Sie ja fast davor bewahrt, indem Sie nicht mit dem Deto getestet haben.....

(kurzform: zuerst meckert nv das man den deto51 nicht benutzt und dann regt man sich 2 minuten später auf das man ihn benutzt...was denn nun...)

J.S.Shadow

P.S.
ich habe nichts persönlich gegen die HW von nV, aber etwas gegen deren PR/Marketing...Man sollte Niederlagen auch manchmal eingestehen.
Falls D3 ohne irgendwelchen Optimierungen schneller auf einer nV läuft als auf einer ATI, beglückwünsche ich nV und JC zuerst.... Dem kann ich mich voll und ganz anschliessen, aber anscheind versucht Nvidia diese Probleme vollständig mit dem nächsten offiziellen Treiber beheben zu wollen, aber ob das ausreichen wird ...

So wie es bisher aussieht hat Nvidia bei Doom3 zumindest schon mal den Vorteil, das ihre eigenen spezifische OpenGL-Funktionen unterstützt werden (eigener Render-Pfad). Aber ansonsten lassen sich diese Spiele natürlich nur sehr schwer vergleichen da OpenGL/Directx. Aber bis Doom3 rauskommt wird es sowie schon ein paar neue Grafikkarten wie auch neue Treiber geben :).

Exxtreme
2003-09-17, 15:01:22
Original geschrieben von ShadowXX

(kurzform: zuerst meckert nv das man den deto51 nicht benutzt und dann regt man sich 2 minuten später auf das man ihn benutzt...was denn nun...)

J.S.Shadow

Ist eine reine FUD-Kampagne.

Als NV über den 3DMark03 rumgemeckert hat weil dieser keine Shader hat, die zur Architektur passen, haben sie auch verschwiegen, daß die damaligen Treiber keinen Nutzen aus dem PS2.0_A-Profil ziehen konnten. Thomas von www.tommti-systems.de hat das mit dem Shadermark belegen können und NV sagt jetzt selber, daß das PS2.0_A-Profil alleine nicht ausreicht.

ShadowXX
2003-09-17, 15:05:14
Original geschrieben von Exxtreme
Ist eine reine FUD-Kampagne.

Als NV über den 3DMark03 rumgemeckert hat weil dieser keine Shader hat, die zur Architektur passen, haben sie auch verschwiegen, daß die damaligen Treiber keinen Nutzen aus dem PS2.0_A-Profil ziehen konnten. Thomas von www.tommti-systems.de hat das mit dem Shadermark belegen können und NV sagt jetzt selber, daß das PS2.0_A-Profil alleine nicht ausreicht.

Hast du für deinen lezten Satz zufällig eine Quelle von nV?
Das möchte ich gerne mal Schwarz auf Weiß lesen, das nV etwas zugibt....

Exxtreme
2003-09-17, 15:09:07
Original geschrieben von ShadowXX
Hast du für deinen lezten Satz zufällig eine Quelle von nV?
Das möchte ich gerne mal Schwarz auf Weiß lesen, das nV etwas zugibt....
Reicht Demirug als Quelle?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1199437#post1199437

Ich weiss aber nicht, woher er es hat.

ShadowXX
2003-09-17, 15:20:03
Original geschrieben von Exxtreme
Reicht Demirug als Quelle?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1199437#post1199437

Ich weiss aber nicht, woher er es hat.

Mir persönlich ist Demirug als Quelle mehr als genug....

Black-Scorpion
2003-09-17, 15:20:58
Original geschrieben von Exxtreme
Reicht Demirug als Quelle?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1199437#post1199437

Ich weiss aber nicht, woher er es hat.

Demirug hat doch mal gesagt (finde den Thread nicht) das die NV3x alle kleinere Unterschiede haben.
Und der Treiber deshalb für jeden nacharbeiten muß.

StefanV
2003-09-17, 15:25:43
Original geschrieben von Anonym_001
Demirug hat doch mal gesagt (finde den Thread nicht) das die NV3x alle kleinere Unterschiede haben.
Und der Treiber deshalb für jeden nacharbeiten muß.

...womit sich nV einmal mehr ein Bein gestellt hat...

Demirug
2003-09-17, 15:31:19
Die Informationen sind vom Sim Dietrich. Ich könnte auch die ganzen einzelnen Texte zusammenkopieren und posten nur wäre das dann alles etwas aus dem Kontext geriessen weil es sich um Antworten auf verschiedene Fragen handelt.

Tigerchen
2003-09-17, 15:39:51
Original geschrieben von ShadowXX
J.S.Shadow

P.S.
ich habe nichts persönlich gegen die HW von nV, aber etwas gegen deren PR/Marketing...Man sollte Niederlagen auch manchmal eingestehen.
Falls D3 ohne irgendwelchen Optimierungen schneller auf einer nV läuft als auf einer ATI, beglückwünsche ich nV und JC zuerst....


Sagt mal arbeitet Brian Burke eigentlich immer noch bei nV?(Ex-PR-Mann von 3dfx)

BlackBirdSR
2003-09-17, 16:05:39
Original geschrieben von Tigerchen

Sagt mal arbeitet Brian Burke eigentlich immer noch bei nV?(Ex-PR-Mann von 3dfx)

also wenn ich mir so anhöre, wie einige Leute gerade über ihn schimpfen... JA!
Er ist bestimmt wieder total beschäftigt momentan ;)

Andre
2003-09-17, 16:12:10
Original geschrieben von ShadowXX
P.S.
ich habe nichts persönlich gegen die HW von nV, aber etwas gegen deren PR/Marketing...Man sollte Niederlagen auch manchmal eingestehen.
Falls D3 ohne irgendwelchen Optimierungen schneller auf einer nV läuft als auf einer ATI, beglückwünsche ich nV und JC zuerst....

Das ist ein gutes Stichwort.
Ich persönlich denke, dass die User der heutigen Hardware eine erhebliche Mitschuld an dem momentan katastrophalen Ereignissen haben. Mal unabhängig von ATI und NV muss man doch festhalten, dass die Bench- und Zahlengeilheit heutzutage kranke Ausmaße angenommen hat. Hersteller werden wegen Kleinigkeiten überall zerrissen, weil es User geil finden, etwas gefunden zu haben. Oder 0,5 FPS hier und dort führen zu wahren Diskussionen über Seiten. Ich habe nichts gegen investigative Ansätze, was auch zwingend notwendig ist, um Fehler aufzudecken. Es kommt auf den Grad und das Überspannen des Bogens an. Wenn ich mir anschaue, wie über einen fehlenden Pixel auf einem 1600x1200-Picture diskutiert wird, lache ich mich nass.
Jeder will DEN Cheat entdeckt haben, jeder will dem anderen Betrug vorwerfen. Damals wurde ATI in vielen Fällen ungerechtfertigt angegriffen, heute NV, morgen wer anders.
Man führt das Benchmarking ad absurdum IMHO.
Und das die Hersteller dann mit allen Tricks versuchen, sich diesem Prozess zu entziehen, ist, betriebs- und marktstrategisch eine logische Konsequenz.
Ich gebe zu, mich mittlerweile aus den ganzen Diskussionen hier und anderswo komplett rauszuhalten - weil ich für mich andere Prioritäten gesetzt habe. Ich besitze immer noch eine TI4200 und bin zufrieden bisher. Ich habe besseres zu tun, als bei jedem Treiber zu schaun, ob ein Pixel links oben fehlt oder bei 153456486453-Vergrößerung richtig gerendert worden ist. Aber jeder setzt eigene Prioritäten, die ich auch voll akzeptiere.
Trotzdem gefällt mir der Ton in der Kommunikation nicht, jeder schreibt Cheat, verwendet fragwürdige Testumgebungen oder reimt sich Dinge zusammen, die wir weder wissen noch bestätigen können.
Ich bin mittlerweile neutral gegenüber ATI und NV, würde ich behaupten. Aber diejenigen, welche jetzt ATI vorne sehen und jubeln sollten sich fragen, ob ATI nicht auch Methoden anwenden wird, die wenigen schmecken werden. So ist das nunmal in der Wirtschaft. Ich würde mir wünschen, dass man etwas emotionsloser an die Sache rangeht und vielmehr noch, dass beide großen Hersteller pari liegen würden - undzwar auf legalem Wege. Doch dank des derzeitigen "investigativen Journalimus" sehe ich wenig Chancen. Also, happy flaming =)

Endorphine
2003-09-17, 16:25:29
Original geschrieben von Andre
Das ist ein gutes Stichwort.
Hersteller werden wegen Kleinigkeiten überall zerrissen, weil es User geil finden, etwas gefunden zu haben. Oder 0,5 FPS hier und dort führen zu wahren Diskussionen über Seiten.
[...]
Ich würde mir wünschen, dass man etwas emotionsloser an die Sache rangeht und vielmehr noch, dass beide großen Hersteller pari liegen würden - undzwar auf legalem Wege. Doch dank des derzeitigen "investigativen Journalimus" sehe ich wenig Chancen. Also, happy flaming =)
:up: Full ACK.

Damit stellst du aber auch einige von Leonidas' Artikeln aus der letzten Zeit in Frage.

BlueRaven
2003-09-17, 16:28:15
Original geschrieben von Andre
Das ist ein gutes Stichwort.
Ich persönlich denke, dass die User der heutigen Hardware eine erhebliche Mitschuld an dem momentan katastrophalen Ereignissen haben. Mal unabhängig von ATI und NV muss man doch festhalten, dass die Bench- und Zahlengeilheit heutzutage kranke Ausmaße angenommen hat. Hersteller werden wegen Kleinigkeiten überall zerrissen, weil es User geil finden, etwas gefunden zu haben. Oder 0,5 FPS hier und dort führen zu wahren Diskussionen über Seiten. Ich habe nichts gegen investigative Ansätze, was auch zwingend notwendig ist, um Fehler aufzudecken. Es kommt auf den Grad und das Überspannen des Bogens an. Wenn ich mir anschaue, wie über einen fehlenden Pixel auf einem 1600x1200-Picture diskutiert wird, lache ich mich nass.
Jeder will DEN Cheat entdeckt haben, jeder will dem anderen Betrug vorwerfen. Damals wurde ATI in vielen Fällen ungerechtfertigt angegriffen, heute NV, morgen wer anders.
Man führt das Benchmarking ad absurdum IMHO.
Und das die Hersteller dann mit allen Tricks versuchen, sich diesem Prozess zu entziehen, ist, betriebs- und marktstrategisch eine logische Konsequenz.
Ich gebe zu, mich mittlerweile aus den ganzen Diskussionen hier und anderswo komplett rauszuhalten - weil ich für mich andere Prioritäten gesetzt habe. Ich besitze immer noch eine TI4200 und bin zufrieden bisher. Ich habe besseres zu tun, als bei jedem Treiber zu schaun, ob ein Pixel links oben fehlt oder bei 153456486453-Vergrößerung richtig gerendert worden ist. Aber jeder setzt eigene Prioritäten, die ich auch voll akzeptiere.
Trotzdem gefällt mir der Ton in der Kommunikation nicht, jeder schreibt Cheat, verwendet fragwürdige Testumgebungen oder reimt sich Dinge zusammen, die wir weder wissen noch bestätigen können.
Ich bin mittlerweile neutral gegenüber ATI und NV, würde ich behaupten. Aber diejenigen, welche jetzt ATI vorne sehen und jubeln sollten sich fragen, ob ATI nicht auch Methoden anwenden wird, die wenigen schmecken werden. So ist das nunmal in der Wirtschaft. Ich würde mir wünschen, dass man etwas emotionsloser an die Sache rangeht und vielmehr noch, dass beide großen Hersteller pari liegen würden - undzwar auf legalem Wege. Doch dank des derzeitigen "investigativen Journalimus" sehe ich wenig Chancen. Also, happy flaming =)


gebe dir vollkommen recht =)

ShadowXX
2003-09-17, 16:50:39
Original geschrieben von Andre
Das ist ein gutes Stichwort.
Ich persönlich denke, dass die User der heutigen Hardware eine erhebliche Mitschuld an dem momentan katastrophalen Ereignissen haben. Mal unabhängig von ATI und NV muss man doch festhalten, dass die Bench- und Zahlengeilheit heutzutage kranke Ausmaße angenommen hat. Hersteller werden wegen Kleinigkeiten überall zerrissen, weil es User geil finden, etwas gefunden zu haben. Oder 0,5 FPS hier und dort führen zu wahren Diskussionen über Seiten. Ich habe nichts gegen investigative Ansätze, was auch zwingend notwendig ist, um Fehler aufzudecken. Es kommt auf den Grad und das Überspannen des Bogens an. Wenn ich mir anschaue, wie über einen fehlenden Pixel auf einem 1600x1200-Picture diskutiert wird, lache ich mich nass.
Jeder will DEN Cheat entdeckt haben, jeder will dem anderen Betrug vorwerfen. Damals wurde ATI in vielen Fällen ungerechtfertigt angegriffen, heute NV, morgen wer anders.
Man führt das Benchmarking ad absurdum IMHO.
Und das die Hersteller dann mit allen Tricks versuchen, sich diesem Prozess zu entziehen, ist, betriebs- und marktstrategisch eine logische Konsequenz.
Ich gebe zu, mich mittlerweile aus den ganzen Diskussionen hier und anderswo komplett rauszuhalten - weil ich für mich andere Prioritäten gesetzt habe. Ich besitze immer noch eine TI4200 und bin zufrieden bisher. Ich habe besseres zu tun, als bei jedem Treiber zu schaun, ob ein Pixel links oben fehlt oder bei 153456486453-Vergrößerung richtig gerendert worden ist. Aber jeder setzt eigene Prioritäten, die ich auch voll akzeptiere.
Trotzdem gefällt mir der Ton in der Kommunikation nicht, jeder schreibt Cheat, verwendet fragwürdige Testumgebungen oder reimt sich Dinge zusammen, die wir weder wissen noch bestätigen können.
Ich bin mittlerweile neutral gegenüber ATI und NV, würde ich behaupten. Aber diejenigen, welche jetzt ATI vorne sehen und jubeln sollten sich fragen, ob ATI nicht auch Methoden anwenden wird, die wenigen schmecken werden. So ist das nunmal in der Wirtschaft. Ich würde mir wünschen, dass man etwas emotionsloser an die Sache rangeht und vielmehr noch, dass beide großen Hersteller pari liegen würden - undzwar auf legalem Wege. Doch dank des derzeitigen "investigativen Journalimus" sehe ich wenig Chancen. Also, happy flaming =)

auch von mir ein full ack....
Aber ich glaube nicht, das die Hersteller jemals wieder zurückrudern werden.....
In dem Moment, wo sich einer von beide 'benachteiligt' fühlen wird, wird er jeden Trick versuchen um an die Performance des anderen heranzukommen.
Da Spielen natürlich Benches mit eine Rolle...nur wie gesagt...wenn irgendeiner meint er wird von Bench A benachteiligt und Hersteller z sogar bevorzugt, wird er anfangen zu tricksen...
Und das unabhängig von Usern die einen falschen Pixel finden...

J.S.Shadow

Ikon
2003-09-17, 16:55:41
Original geschrieben von Andre
Ich persönlich denke, dass die User der heutigen Hardware eine erhebliche Mitschuld an dem momentan katastrophalen Ereignissen haben. Mal unabhängig von ATI und NV muss man doch festhalten, dass die Bench- und Zahlengeilheit heutzutage kranke Ausmaße angenommen hat.
[...]
Man führt das Benchmarking ad absurdum IMHO.

Wohl wahr, aber den User dafür anzuprangern halte ich für falsch. Auch wenn so mancher "Proll" sich an den Zahlen aufgeilen kann, so muss es dem Normal-User möglich sein, die Leistung seiner (zukünftigen) Hardware einzuschätzen. Das war und ist der primäre Zweck von Benchmarks -> die Hersteller und mittlerweile sogar die Erschaffer der Benchmarks führen diesen ad absurdum.

Original geschrieben von Andre
Hersteller werden wegen Kleinigkeiten überall zerrissen, weil es User geil finden, etwas gefunden zu haben. Oder 0,5 FPS hier und dort führen zu wahren Diskussionen über Seiten. Ich habe nichts gegen investigative Ansätze, was auch zwingend notwendig ist, um Fehler aufzudecken. Es kommt auf den Grad und das Überspannen des Bogens an.
[...]
Jeder will DEN Cheat entdeckt haben, jeder will dem anderen Betrug vorwerfen.

Nun, man muss sich fragen wer die Vorlage gegeben hat, womit wir wieder bei den Herstellern wären. Dem User kann man nicht ankreiden um die Leistung der Hardware wissen zu wollen, dem Hersteller dagegen sehr wohl wenn er Kaufentscheidungen zu seinen Gunsten zu manipulieren versucht.

Original geschrieben von Andre
Und das die Hersteller dann mit allen Tricks versuchen, sich diesem Prozess zu entziehen, ist, betriebs- und marktstrategisch eine logische Konsequenz.

Aber jeder Hersteller entscheidet selbst wie er diese logische Konsequenz in die Praxis umsetzt und aktuell hat sich dabei IMHO nVidia besonders negativ hervorgetan (wenn auch in gewisser Weise gezwungenermaßen durch die minder konkurrenzfähige CineFX-Architektur). Man kann ihnen nicht verdenken, dass sie ihr Produkt so gut wie möglich darstellen wollen, aber über Art und Umfang der (Be-)Werbung entscheiden nunmal sie selbst. Hier passt auch die Metapher vom überspannten Bogen wieder ins Bild ...

x-dragon
2003-09-17, 16:58:46
Also da sollte man meiner Meinung nach grundsätzlich schon unterscheiden. Auf der einen Seite dieser Hype um den 3DMark-Benchmark und ähnlichen und zum anderen Vergleichstest bei den mehrere verschiedene Programme/Spiele als Basis dienen und dann auch keine Grafikkarte als die perfekte Lösung angepriesen wird, nur weil sie insgesamt 1 Frame/1 Punkt mehr hat als eine andere Karte.

Man braucht ja nur mal ein wenig im Bechmark-Forum lesen, mit was für Tricks dort teilweise gearbeitet wird, um ein paar mehr Punkte zu bekommen, und dann regen "die" sich auf weil Grafikkartenhersteller ähnliches gleich in die Treiber einbauen ... ist schon eine seltsame Welt :).

Aber unsere Grafikfetischisten bei der Arbeit zuzuschauen, finde ich schon ganz interessant, was man aus einem bzw zwei Screenshots so alles rauslesen kann ... aber mit der Realität haben solche Untersuchungen/Vergleiche leider oft wenig zu tun, da mindenstens 90% aller Spieler solche "Grafikfehler" nie auffallen würde (ich kenne auch einige LAN-Spieler die nix mit AA oder AF anfangen können). Und wenn sie auffallen sind es einfache Fehler im Spiel bzw im Treiber die mit einem Patch später behoben werden können.

ShadowXX
2003-09-17, 17:09:11
Original geschrieben von X-Dragon
Aber unsere Grafikfetischisten bei der Arbeit zuzuschauen, finde ich schon ganz interessant, was man aus einem bzw zwei Screenshots so alles rauslesen kann ... aber mit der Realität haben solche Untersuchungen/Vergleiche leider oft wenig zu tun, da mindenstens 90% aller Spieler solche "Grafikfehler" nie auffallen würde (ich kenne auch einige LAN-Spieler die nix mit AA oder AF anfangen können). Und wenn sie auffallen sind es einfache Fehler im Spiel bzw im Treiber die mit einem Patch später behoben werden können.

full ack...versuche ich schon seit Ewigkeiten zu 'predigen'....

Ich würde sogar eine Zahl über 90% nehmen....ein paar von den im Benchmarkforum erwähnten Fehlern musste ich Regelrecht suchen....

J.S.Shadow

Omnicron
2003-09-17, 17:21:11
Wenn das mit den "Optimierungen" so weitergeht, spielen wir in ein paar Jahren HL3 in festgesetztem 640x480 und mit wirkungslosen AA u. AF Modi, dafür aber in der festen Gewissheit mit 1200 FPS garantiert die beste 500€ Karte zu haben.

BlueRaven
2003-09-17, 17:29:04
Jepp das mit den Optimierungen muss aufhören sonst wird es bald keine gescheiten Grafikkarten mehr geben und am Ende steht der Kunde mit einer Grafikkarte das nicht mal anständige Treiber hat.


Ich selbst halte nix von Benchmark Proggis, ich lade es mir nur runter weil es schöne Grafik hat mehr auch nicht.



MFG
BlueRaven

R360
2003-09-17, 19:41:47
[QUOTE][SIZE=1]Original geschrieben von Ikon Dem User kann man nicht ankreiden um die Leistung der Hardware wissen zu wollen, dem Hersteller dagegen sehr wohl wenn er Kaufentscheidungen zu seinen Gunsten zu manipulieren versucht.

Zita Ende:

Das sehr ich auch so, ohne die jetzt rausgekommen DX9-Anwedungen hätten wir weiterhin an den FX-Weihnachtsmann geglaubt.....

...Benchmarks sind ein Muss und nv hat dieses Tool ja selber letztes & dieses Jahr auf der Cebit immer wieder gerne gezeigt....

Leonidas
2003-09-17, 23:33:27
Original geschrieben von Andre
Ich persönlich denke, dass die User der heutigen Hardware eine erhebliche Mitschuld an dem momentan katastrophalen Ereignissen haben. Mal unabhängig von ATI und NV muss man doch festhalten, dass die Bench- und Zahlengeilheit heutzutage kranke Ausmaße angenommen hat. Hersteller werden wegen Kleinigkeiten überall zerrissen, weil es User geil finden, etwas gefunden zu haben. Oder 0,5 FPS hier und dort führen zu wahren Diskussionen über Seiten. Ich habe nichts gegen investigative Ansätze, was auch zwingend notwendig ist, um Fehler aufzudecken. Es kommt auf den Grad und das Überspannen des Bogens an. Wenn ich mir anschaue, wie über einen fehlenden Pixel auf einem 1600x1200-Picture diskutiert wird, lache ich mich nass.
Jeder will DEN Cheat entdeckt haben, jeder will dem anderen Betrug vorwerfen. Damals wurde ATI in vielen Fällen ungerechtfertigt angegriffen, heute NV, morgen wer anders.
Man führt das Benchmarking ad absurdum IMHO.
Und das die Hersteller dann mit allen Tricks versuchen, sich diesem Prozess zu entziehen, ist, betriebs- und marktstrategisch eine logische Konsequenz.


Das sehe ich nicht so. Du vermischst hier Ursache und Wirkung ziemlich heftig. NV+ATI cheaten, weil die User Marks-geil sind. Sie entziehen sich damit aber nicht diesem Prozeß, sondern treiben ihn vielmehr noch weiter an!

Leonidas
2003-09-17, 23:37:43
Original geschrieben von Andre
Ich habe besseres zu tun, als bei jedem Treiber zu schaun, ob ein Pixel links oben fehlt oder bei 153456486453-Vergrößerung richtig gerendert worden ist. Aber jeder setzt eigene Prioritäten, die ich auch voll akzeptiere.
Trotzdem gefällt mir der Ton in der Kommunikation nicht, jeder schreibt Cheat, verwendet fragwürdige Testumgebungen oder reimt sich Dinge zusammen, die wir weder wissen noch bestätigen können.


Tut mir leid, kann ich nicht so sehen. Ich bin nicht bereit, einen Treiber als schneller zu erklären, wenn dessen höhere Leistung letztlich über eine abgesenkte BQ erreicht wurde. Und wenn ich dafür eine 153456486453-Vergrößerung ansetzen muß, um dies nachzuweisen, dann werde ich das tun müssen.

Der Punkt ist hier nicht die Kleinlichkeit der Cheat-Findenden, sondern daß die Hersteller versuchen, eine nicht vorhandene Mehr-Performance schlicht vorzugaukeln. Und dies muß meiner Meinung nach zu Sprache gebracht werden.

PS: Würde es im Treiber einen Super HighQuality-Modus geben, wäre mir dies alles voll egal. Die Hersteller dürfen gern optimieren, möglicherweise nutze ich diese Optimierungen vielleicht sogar selber. Aber nicht "schnellere Treiber" herausgeben, welche eben nicht wirklich schneller sind, sondern nur optimierter.

Leonidas
2003-09-17, 23:40:16
Original geschrieben von Omnicron
Wenn das mit den "Optimierungen" so weitergeht, spielen wir in ein paar Jahren HL3 in festgesetztem 640x480 und mit wirkungslosen AA u. AF Modi, dafür aber in der festen Gewissheit mit 1200 FPS garantiert die beste 500€ Karte zu haben.


Exakt dieses Problem sehe ich. Alle Optimierungen der jüngeren Vergangenheit sind einzeln für sich kaum feststellbar. Aber beide Hersteller gehen hier immer wieder kleinere Stücke weiter. Über einen längeren Zeitraum betrachtet kommt so eine erhebliche Verschlechtung der BQ heraus. Und für was? Für mehr fps?

Sphinx
2003-09-17, 23:54:06
Was ich schlimmer an all diesen Diskussionen finde ist das die Spieleentwickler/Benchmarkentwickler sich enthalten...

Gast
2003-09-18, 00:00:36
Die werden doch alle irgendwo gesponsort und unterstützt....
Und man wird doch dem lieben Geldgeber keins auswischen wollen ;)
Siehe Valve-ATi und ID-NVidia

Objektive Bewertungen werden Hersteller wohl selten abgeben. Und selbst wenn - wer würde das noch glauben....

Gast
2003-09-19, 00:05:29
Was sind PS2.0 Probleme?

BlueRaven
2003-09-19, 00:38:28
PixelShader 2.0 Probleme

Exxtreme
2003-09-19, 09:33:32
Original geschrieben von BlueRaven
PixelShader 2.0 Probleme
Naja, rein technisch gesehen hat NV keine Probleme mit den Pixelshadern. Deren Performance ist halt nicht konkurrenzfähig.

LovesuckZ
2003-09-19, 10:18:31
Original geschrieben von Exxtreme
Naja, rein technisch gesehen hat NV keine Probleme mit den Pixelshadern. Deren Performance ist halt nicht konkurrenzfähig.

Was sich eigentlich theoretisch nur auf die NV Karten unter dem NV35 beziehen sollte...
(jaja ich weiß, Theorie und Praxis sind 2 verscheidene Sachen)

Exxtreme
2003-09-19, 10:32:09
Original geschrieben von LovesuckZ
Was sich eigentlich theoretisch nur auf die NV Karten unter dem NV35 beziehen sollte...
(jaja ich weiß, Theorie und Praxis sind 2 verscheidene Sachen)
Also theoretisch ist der NV35 nur etwas langsamer als der R350 was PS2.0-Leistung angeht.

Nur leider ist das so, daß mam beim NV35 praktisch nie den Idealwert erreicht, was aber beim R350 ohne Probleme geht.... habe ich mir sagen lassen.

LovesuckZ
2003-09-19, 10:36:49
Original geschrieben von Exxtreme
Nur leider ist das so, daß mam beim NV35 praktisch nie den Idealwert erreicht, was aber beim R350 ohne Probleme geht.... habe ich mir sagen lassen.

Ich weiß nicht, wie man die theoretische PS2.0 Leistung ermittelt. Nach Demirug's Moeglichkeit sollte es kein Problem sein, den Idealwert zu erreichen...

Demirug
2003-09-19, 10:47:26
Original geschrieben von Exxtreme
Also theoretisch ist der NV35 nur etwas langsamer als der R350 was PS2.0-Leistung angeht.

Nur leider ist das so, daß mam beim NV35 praktisch nie den Idealwert erreicht, was aber beim R350 ohne Probleme geht.... habe ich mir sagen lassen.

Um es ein wenig zu relativieren. Die Vorraussetzungen um auf einem R350 den Peak zu erreichen sind viel viel (2 mal ist volle Absicht) geringer als beim NV35.

Zudem ist beim R350 der Peak auch recht hoch. 9120 MI/s wenn man die Vector3 + Skalar Option berücksichtigt oder eben 6080 MI/s. Reine Rechenshader mit V3+S liegen dann bei 6080 MI/s ohne sind es noch 3040 MI/s.

Beim NV35 kommen wir auf 6000 MI/s bei einem eher texturelastigen Shader bzw 4000 MI/s bei einem reinen Rechenshader.

Alles jetzt bei >= 2.0 Shader.

Rein von der Rechenleistung wäre also schon einiges verfügbar nur verpufft davon bei den NV3X derzeit einfach viel zu viel.

Exxtreme
2003-09-19, 10:48:27
Original geschrieben von LovesuckZ
Ich weiß nicht, wie man die theoretische PS2.0 Leistung ermittelt. Nach Demirug's Moeglichkeit sollte es kein Problem sein, den Idealwert zu erreichen...
In künstlichen Tests dürfte es tatsächlich kein Problem darstellen... das ist ja das Problem. Wichtig ist die Praxis. Schau dir mal die Füllratenwerte an, die Zeckis Archmark rausspuckt und welche nutzbare Füllrate du in Spielen tatsächlich hast. :)

Demirug
2003-09-19, 10:53:28
Original geschrieben von Exxtreme
In künstlichen Tests dürfte es tatsächlich kein Problem darstellen... das ist ja das Problem. Wichtig ist die Praxis. Schau dir mal die Füllratenwerte an, die Zeckis Archmark rausspuckt und welche nutzbare Füllrate du in Spielen tatsächlich hast. :)

Füllrate != Shaderleistung. Das verhältniss zwischen PS und TMUs ist wie das zwischen einer CPU und dem Copro. Die TMUs (Copro) warten auf aufträge vom dem PS (CPU) und wenn der Copro nicht schnell genug ist blockiert er der CPU. Bei einem Füllratentest ist das ganze aber so ausgelegt das man den PS möglichst nicht belastet und die TMUs an den Anschlag fährt.

Exxtreme
2003-09-19, 10:55:29
Original geschrieben von Demirug
Füllrate != Shaderleistung. Das verhältniss zwischen PS und TMUs ist wie das zwischen einer CPU und dem Copro. Die TMUs (Copro) warten auf aufträge vom dem PS (CPU) und wenn der Copro nicht schnell genug ist blockiert er der CPU. Bei einem Füllratentest ist das ganze aber so ausgelegt das man den PS möglichst nicht belastet und die TMUs an den Anschlag fährt.
Ich weiss. :)

Ich wollte nur den Unterschied zwischen Theorie und Praxis aufzeigen und da kam mir das Beispiel Füllrate gerade recht. :)

Radeonator@work
2003-09-19, 12:26:22
Original geschrieben von Demirug
Rein von der Rechenleistung wäre also schon einiges verfügbar nur verpufft davon bei den NV3X derzeit einfach viel zu viel.

Heisst das, es wäre möglich via Treiber noch Leistung zu holen bzw "nur" via Programm oder ist voraussichtlich erst ab der nächsten nv Graka Generation (er)möglich(t) ?

Demirug
2003-09-19, 12:28:24
Original geschrieben von Radeonator@work
Heisst das, es wäre möglich via Treiber noch Leistung zu holen bzw "nur" via Programm oder ist voraussichtlich erst ab der nächsten nv Graka Generation (er)möglich(t) ?

Das ist die zentrale Frage die wohl nur nV wirklich beantworten kann. Die werden aber einen Teufel tun.

mapel110
2003-09-19, 12:37:45
wenn man sieht, wo nv performance beim deto51 "herbeizaubert", dann dürfte die frage wohl beantwortet sein.

Winter[Raven]
2003-09-19, 12:43:15
Mapel, merkst du nicht das du mit deinem Deto. 51.71 nervst ? ... Herr Gott, zum Welchem mal den nochmal ... der war BETA und uralt.

entweder hast du wieder Bock rumzuflammen, oder du willst es oder kannst es ned verstehen.

*kopf schüttel*

[dzp]Viper
2003-09-19, 12:58:27
Original geschrieben von Winter[Raven]
Mapel, merkst du nicht das du mit deinem Deto. 51.71 nervst ? ... Herr Gott, zum Welchem mal den nochmal ... der war BETA und uralt.



jaja uralt und NV hatte denoch gewollt, dass er für den HL2 benchmark benutzt werden sollte ... löl :D

ich wills eigentlich nicht sagen, aber überall wo was gegen den 51.75 gesagt wird, kommst du sofort mit "ahhh das is doch nur ne beta version .. mähhhhhhh"

*help*

:|

x-dragon
2003-09-19, 13:02:55
Original geschrieben von [dzp]Viper
jaja uralt und NV hatte denoch gewollt, dass er für den HL2 benchmark benutzt werden sollte ... löl :D

ich wills eigentlich nicht sagen, aber überall wo was gegen den 51.75 gesagt wird, kommst du sofort mit "ahhh das is doch nur ne beta version .. mähhhhhhh"

*help*

:| Es ist kein offiziell veröffentlicher Treiber und anscheind hat der Treiber auch noch ein paar Bugs, also was soll da man über die Performance eines fehlerhaften Beta-Treibers diskutieren?

zeckensack
2003-09-19, 13:03:51
OT:
Original geschrieben von Exxtreme
In künstlichen Tests dürfte es tatsächlich kein Problem darstellen... das ist ja das Problem. Wichtig ist die Praxis. Schau dir mal die Füllratenwerte an, die Zeckis Archmark rausspuckt und welche nutzbare Füllrate du in Spielen tatsächlich hast. :) AM wird noch diesen Monat ein Update erfahren.
Mit von der Partie sind zwei Shader-Tests für die DX9-Klasse.
Arbeitstitel:
"pure computation.full vectors"; FLOPs/s
"pure computation.rgb/a co-issue"; FLOPs/s
"texture indirection"; i/s

Das ganze wird pseudozufällig, um jegliche statische Treiberoptimierung zu unterbinden. >= 3,6 Mio mögliche Permutationen für "pure computation", da muß ich mal schauen. Ich werde zudem MADs nehmen, weil die nicht kommutativ sind.

[dzp]Viper
2003-09-19, 13:07:04
Original geschrieben von X-Dragon
Es ist kein offiziell veröffentlicher Treiber und anscheind hat der Treiber auch noch ein paar Bugs, also was soll da man über die Performance eines fehlerhaften Beta-Treibers diskutieren?

hö ? wo is da der bezug zu dem, was du von mir gequotet hast ?
Das der treiber beta ist, wissen glaube ich ALLE hier (wenn auch manche meinen, das er eher alpha statt beta ist ...)
Und meine meinung ist einfach nur die, dass eine firma nicht einfach vorschreiben darf, dass ein betatreiber der noch voller bugs ist zum benchmarken benutzt werden soll. Ende.

LovesuckZ
2003-09-19, 13:11:57
Koennte ein Mod bitte die Sache ab mapel raushauen? Genug 51.75 bashthreads haben wir schon genug.

Radeonator@work
2003-09-19, 13:13:47
Jo, der Treiber ist Beta und zudem Schrott ;)
Vielleicht wird ja die "echte" Det 5 Reihe wirklich was bringen...wäre wünschenswert. Da Grakas allerdings eh keine hohe haltwertszeit bei mir haben, ists eigentlich egal ;)

[dzp]Viper
2003-09-19, 13:14:48
Original geschrieben von LovesuckZ
Koennte ein Mod bitte die Sache ab mapel raushauen? Genug 51.75 bashthreads haben wir schon genug.

ja bitte - glaube auch das dies die vernüftigste lösung sein würde!

ShadowXX
2003-09-19, 13:17:50
Original geschrieben von [dzp]Viper
hö ? wo is da der bezug zu dem, was du von mir gequotet hast ?
Das der treiber beta ist, wissen glaube ich ALLE hier (wenn auch manche meinen, das er eher alpha statt beta ist ...)
Und meine meinung ist einfach nur die, dass eine firma nicht einfach vorschreiben darf, dass ein betatreiber der noch voller bugs ist zum benchmarken benutzt werden soll. Ende.

Das der Beta ist ja auch OK und auch das darauf dauernd hingewiesen wird...

Aber Uralt?
Dann ist der offizielle Deto von Nv ja Steinzeit....
Also einen Treiber aus dem letzten Monat würde ich nicht als Uralt bezeichnen....

Und ausserdem:
Woher willst du sein 'wahres' Alter eigentlich kennen?
Und jetzt sag nicht aus dem beigelegten Readme.txt oder wie die restlich txt's und inf's auch heissen mögen.
Und auch das Datum 'an' den Files ist nicht besonders aussagekräftig....

J.S.Shadow

Piffan
2003-09-19, 13:49:35
Ich finde es witzig, wie manche plötzlich "philosophisch" werden und eine gewisse Reife entdecken....Plötzlich werden kritische User in die Ecker von Spinnern gestellt, plötzlich sind Benchmarks generell Schrott...

Nee, Andre, so einfach gayt das nicht...

Hm, hat das mit plötzlicher Reife vielleicht doch nix zu tun?

- aber liegts vielleicht auch nur daran, dass von Tag zu Tag klarer wird, dass der FX erbärmlich floppt, wenn man ihm beim Spieleproggen keine Extrawurst brät?

Ich bin heilfroh, dass es erstmal nix ist mit dem Pseudomonopol von NV....

Nehmen wir doch mal an, dass NV schneller mit der FX gekommen wäre und Ati mit der R300 nicht so mächtig ins Kontor von NV geschossen hätte...Dann würden weiterhin alle die ach so tolle Hardware von NV bejubeln und Ati wäre weiterhin in der Loser- Rolle....

Statt zu flamen, sollten sich alle freuen, dass es NV nicht besser geht als damals 3dFX, die sind ja auch prächtig auf die Schnauze gefallen mit ihrer Masche, ihre Hardware als absoluten Standard am Markt durchzudrücken....

Schön, dass es immer noch einen Wettbewerb gibt! Benches und kritische User: ja , bitte!

@ Leo: Full ack, lass dich nicht beirren. Deine Seiten sind die Bastion gegen den Marketingsumpf, der derzeit zum Himmel stinkt!

ShadowXX
2003-09-19, 13:54:07
Original geschrieben von Piffan
Ich finde es witzig, wie manche plötzlich "philosophisch" werden und eine gewisse Reife entdecken....Plötzlich werden kritische User in die Ecker von Spinnern gestellt, plötzlich sind Benchmarks generell Schrott...

Nee, Andre, so einfach gayt das nicht...

Hm, hat das mit plötzlicher Reife vielleicht doch nix zu tun?

- aber liegts vielleicht auch nur daran, dass von Tag zu Tag klarer wird, dass der FX erbärmlich floppt, wenn man ihm beim Spieleproggen keine Extrawurst brät?

Ich bin heilfroh, dass es erstmal nix ist mit dem Pseudomonopol von NV....

Nehmen wir doch mal an, dass NV schneller mit der FX gekommen wäre und Ati mit der R300 nicht so mächtig ins Kontor von NV geschossen hätte...Dann würden weiterhin alle die ach so tolle Hardware von NV bejubeln und Ati wäre weiterhin in der Loser- Rolle....

Statt zu flamen, sollten sich alle freuen, dass es NV nicht besser geht als damals 3dFX, die sind ja auch prächtig auf die Schnauze gefallen mit ihrer Masche, ihre Hardware als absoluten Standard am Markt durchzudrücken....

Schön, dass es immer noch einen Wettbewerb gibt! Benches und kritische User: ja , bitte!

@ Leo: Full ack, lass dich nicht beirren. Deine Seiten sind die Bastion gegen den Marketingsumpf, der derzeit zum Himmel stinkt!

absolutes ACK!!!

J.S.Shadow

Piffan
2003-09-19, 13:55:05
Original geschrieben von LovesuckZ
Koennte ein Mod bitte die Sache ab mapel raushauen? Genug 51.75 bashthreads haben wir schon genug.

Warum raushauen? Darf man die merkwürdigen Aussagen von NV etwa nicht mehr verwerten? Einerseits maulen die rum, dass keiner mit dem neuen Deto bencht, andererseits dürfen die das ja gar nicht...:kratz2:

Sucks: Wenn dir was nicht passt, dann soll es rausgehauen werden...schon kehr somisch. Imho gehört der Hinweis auf die Eierei mit den Detos zum Topic, also nix raushauen!

LovesuckZ
2003-09-19, 14:01:11
Piffan,
les dich erstmal durch die frueheren Bashthreads des Treibers, dann wirst du wissen, warum das raus soll. Denn das, was Mapel gesagt hat, war nur nen billiger Flame und wollte niemand wissen (vorallem nicht Radeonator@work). Man koennte auch Spam sagen...

Kai
2003-09-19, 14:01:28
Ich würde gerne einmal den Hintergrund dieser ganzen Fanboy-Geschichten begreifen (bei ATI genau wie bei nVidia). Warum macht man das? Wahrscheinlich ist es gar nicht verhinderbar, genau wie die Mercedes-Fahrer gegen die BMW-Fahrer bashen und umgekehrt. Das gehört zum "Mensch sein" und wir werden es nie abstellen können.

Ich für meinen Teil nehme mir eigentlich immer nur das, das mir gerade am meisten gefällt. Das ist eine Weisheit an die ich mich schon ziemlich lange halte. Es ist mir in diesem speziellen Fall egal ob die Hardware die ich mag jetzt von nVidia oder ATI kommt. Andere mögen ebenfalls andere Ansprüche haben als ich, aber warum meckern die denn dann?

Ich wünsche nVidia nicht den Untergang, noch wünsche ich, das ich als Sturmtruppler in roter Rüstung dem ATImperium dienen darf. Das ist doch Bullshit hoch drei. Ob wir jetzt hier die letzte Bastion gegen die allgemeine Userverarschung sind ist doch sowieso schnurzegal. nVidianer kaufen nVidia-Hardware und ATI'ler die ihre. Nur finde ich es schade, das das gemeinsame Hobby langsam zum Krieg der Welten mutiert - und die Hardwarehersteller lachen uns aus und reiben sich die Hände.

Ich werde jedenfalls nicht von ATI bezahlt :ratlos:

Andre
2003-09-19, 14:10:17
Piffan,

einmal mehr zeigt sich, dass du vorschnell schreibst.

"Ich finde es witzig, wie manche plötzlich "philosophisch" werden und eine gewisse Reife entdecken....Plötzlich werden kritische User in die Ecker von Spinnern gestellt, plötzlich sind Benchmarks generell Schrott..."

Benchmark sind nicht schrott. Auch Leos/aths Artikel sind vollkommen in Ordnung. Meine Worte richteten sich gegen die schreienden User, die ohne nachzudenken alles aufnehmen und weitergeben.

"Nee, Andre, so einfach gayt das nicht..."

Doch, so einfach geht das Piffan.

"Hm, hat das mit plötzlicher Reife vielleicht doch nix zu tun?"

Hat dein Post mit Lesen und verstehen auch nicht viel zu tun? Allein dein Post zeigt mir, dass ich recht habe. Man äußert sich kritisch gegen die Tendenzen => Schublade auf, was Piffan?

"aber liegts vielleicht auch nur daran, dass von Tag zu Tag klarer wird, dass der FX erbärmlich floppt, wenn man ihm beim Spieleproggen keine Extrawurst brät?"

Nö, geht mir am Arsch ab.
Das interessiert mich schon lange nicht mehr.

"Ich bin heilfroh, dass es erstmal nix ist mit dem Pseudomonopol von NV...."

Aber du unterstützt, dass ATI zu einem werden könnte? Komisch.

"Nehmen wir doch mal an, dass NV schneller mit der FX gekommen wäre und Ati mit der R300 nicht so mächtig ins Kontor von NV geschossen hätte...Dann würden weiterhin alle die ach so tolle Hardware von NV bejubeln und Ati wäre weiterhin in der Loser- Rolle...."

Und so ist es umgekehrt, so what?

"Statt zu flamen, sollten sich alle freuen, dass es NV nicht besser geht als damals 3dFX, die sind ja auch prächtig auf die Schnauze gefallen mit ihrer Masche, ihre Hardware als absoluten Standard am Markt durchzudrücken...."

Wo habe ich geflamed, Piffan. Link bitte.

"Schön, dass es immer noch einen Wettbewerb gibt! Benches und kritische User: ja , bitte!"

Kritisch, ja, paranoid bitte nicht.

Piffan
2003-09-19, 14:12:12
Original geschrieben von Kai
Ich würde gerne einmal den Hintergrund dieser ganzen Fanboy-Geschichten begreifen (bei ATI genau wie bei nVidia). Warum macht man das? Wahrscheinlich ist es gar nicht verhinderbar, genau wie die Mercedes-Fahrer gegen die BMW-Fahrer bashen und umgekehrt. Das gehört zum "Mensch sein" und wir werden es nie abstellen können.

Ich für meinen Teil nehme mir eigentlich immer nur das, das mir gerade am meisten gefällt. Das ist eine Weisheit an die ich mich schon ziemlich lange halte. Es ist mir in diesem speziellen Fall egal ob die Hardware die ich mag jetzt von nVidia oder ATI kommt. Andere mögen ebenfalls andere Ansprüche haben als ich, aber warum meckern die denn dann?

Ich wünsche nVidia nicht den Untergang, noch wünsche ich, das ich als Sturmtruppler in roter Rüstung dem ATImperium dienen darf. Das ist doch Bullshit hoch drei. Ob wir jetzt hier die letzte Bastion gegen die allgemeine Userverarschung sind ist doch sowieso schnurzegal. nVidianer kaufen nVidia-Hardware und ATI'ler die ihre. Nur finde ich es schade, das das gemeinsame Hobby langsam zum Krieg der Welten mutiert - und die Hardwarehersteller lachen uns aus und reiben sich die Hände.

Ich werde jedenfalls nicht von ATI bezahlt :ratlos:

Es geht mir und vielen anderen nicht ums Bashing, sondern ums Kontern des Selben! So wie ich damals für NV oft mir nen Wolf schrieb, tue ich das jetzt wieder! Aber nicht pro- Ati, sondern kontra Schwachsinn, egal auf welcher Seite. Es ist nun mal ein Fakt, dass NV momentan den Kürzeren zieht. Der Grund ist ein "alternatives" Design....wären sie allein am Markt, wäre alles in Butter, keiner würde was merken. Nun gibts aber ne stärkere Alternative, und da will ich nicht, dass dies im Marketing und Fanboy- Gesabbele aus den Augen verloren wird!

Ich bin beruflich überhaupt nicht in EDV oder dergl involviert, komme von einer völlig anderen Fakultät und habe lediglich zu viel Zeit für mein liebstes Hobby....

Andre
2003-09-19, 14:12:48
Original geschrieben von Piffan
Sucks: Wenn dir was nicht passt, dann soll es rausgehauen werden...schon kehr somisch. Imho gehört der Hinweis auf die Eierei mit den Detos zum Topic, also nix raushauen!

Warum muss man eigentlich immer annehmen, dass jemand etwas tut, um eine Firma zu schützen, Herr Piffan?
Ich erinnere mich auf jeden Fall noch sher gut, als du ganz anders argumentiert hast - und du willst mir was von Reife erzählen =)

Andre
2003-09-19, 14:14:31
Original geschrieben von Piffan
Es geht mir und vielen anderen nicht ums Bashing, sondern ums Kontern des Selben!

..indem du mir vorwirst, ich hätte keine Fähigkeit zur Weiterentwicklung?
Komm, Piffan, du flamest genauso mit, wie andere Kandidaten hier - mit Diskussion hat das nix mehr zu tun.

Piffan
2003-09-19, 14:16:36
Original geschrieben von Andre

Kritisch, ja, paranoid bitte nicht.

Wo ist die Grenze zwischen "technischer" Analyse und Paranoya?

Wie Leo sagte, es geht nicht um kinkerlitzchen, sondern um Klarstellungen, worauf Performanc- Gewinne beruhen....

Machen wir uns nix vor; je öfter Treiber releast werden und je mehr von sagenhaften Gewinnen erzählt wird, um so kritischer sollten wir sein.......

Wenn Du so über den Dingen stehst, wie du vorgibst, dann hättest Du doch gar nicht schreiben sollen...Also calm down ;)

Kai
2003-09-19, 14:17:22
Original geschrieben von Andre
Nö, geht mir am Arsch ab.
Das interessiert mich schon lange nicht mehr.


Und das ist kein Spruch, dafür kenne ich Andre zu gut ;)

Piffan
2003-09-19, 14:18:28
Original geschrieben von Andre
..indem du mir vorwirst, ich hätte keine Fähigkeit zur Weiterentwicklung?
Komm, Piffan, du flamest genauso mit, wie andere Kandidaten hier - mit Diskussion hat das nix mehr zu tun.

Klar flame ich, du etwa nicht? Dein Versuch, manche als Spinner, die sich an einzelnen Pixeln hochziehen, war auch nicht die feine Art.....;)

Andre
2003-09-19, 14:19:21
Original geschrieben von Piffan
Wenn Du so über den Dingen stehst, wie du vorgibst, dann hättest Du doch gar nicht schreiben sollen...Also calm down ;)

Darf ich trotzdem schreiben, auch wenn ich nicht mit Leib, Leben und Seele an meiner Graka hänge? Bitte, Piffan.

Radeonator@work
2003-09-19, 14:20:04
Ich könnte mir vorstellen das, wenn NV früher rausgekommen wäre, die Progger sich auf deren Spezifikationen hätten einlassen müssen. Dadurch hätte die FX dann viel besser ausgesehen und für ATi hätte ein extra Pfad eingetragen werden müssen.

Spekulation : Nvidias Art&Weise die PS2.0 Spezifikationen zu erfüllen ist zu komplex, um allgemein angesteuert zu werden. Programme müssten also Renderpfade bekommen, die direkt auf die FX Architektur zugeschnitten sind. Das wiederrum würde einen erheblichen Mehraufwand zur folge haben...

DrFreaK666
2003-09-19, 14:21:42
Ach Leute. Beruhigt euch doch bitte mal wieder.
Ist ja echt zum Kotzen. Ab und zu ist es ja witzig aber in letzter zeit nervbt es nur noch.
Wenn ihr euch blöd anmachen wollt dann schreibt euch doch PMs. Diese funktion wird imo sowieso zu wenig genutzt...

Greetz

Radeonator@work
2003-09-19, 14:21:55
Shit was vergessen...

Obwohl das zu 3dFX und Savage4 Zeiten ja noch gang und gebe war (Glide und diese spezielen S3 Render Pfade)

Piffan
2003-09-19, 14:23:11
Original geschrieben von Andre
..indem du mir vorwirst, ich hätte keine Fähigkeit zur Weiterentwicklung?
Komm, Piffan, du flamest genauso mit, wie andere Kandidaten hier - mit Diskussion hat das nix mehr zu tun.

Warum verbietest Du mir dann eine Weiterentwicklung? Man kann die Marken durchaus wechseln, wenn man seinen Grundsätzen treu bleibt....

Was mir früher an NV gefiel, nämlich die totale Kompatibilität, finde ich halt bei Ati...habe kein Spiel, welches nicht funzt. Was will ich als Zocker mehr? Preis und Leistung stimmen, der Nimbus von NV ist für mich endgültig verraucht...

Die Marketingsch**** von Ati habe ich an gegebener Stelle auch gebrandmarkt, es ging um die 9800 SE, die schon an Betrug grenzt....

Also Einäugigkeit vorzuwerfen, ist lächerlich...

Apropo: Es wird mal wieder albern, darum packe ich jetzt meine Sachen für WE in den Wohnwagen und tschüss....

DrFreaK666
2003-09-19, 14:24:49
Original geschrieben von Radeonator@work
Shit was vergessen...

Obwohl das zu 3dFX und Savage4 Zeiten ja noch gang und gebe war (Glide und diese spezielen S3 Render Pfade)

Nur dass unter Glide (anscheinend) kinderleicht zu programmieren war. Das kann man nicht unbedingt mit den komplexen Shadern vergleichen. Und der S3-Rnderpfad (S3 Metal??) wurde nicht wirklich oft genutzt, oder doch?

Exxtreme
2003-09-19, 14:25:26
Original geschrieben von Radeonator@work
Ich könnte mir vorstellen das, wenn NV früher rausgekommen wäre, die Progger sich auf deren Spezifikationen hätten einlassen müssen. Dadurch hätte die FX dann viel besser ausgesehen und für ATi hätte ein extra Pfad eingetragen werden müssen.

Spekulation : Nvidias Art&Weise die PS2.0 Spezifikationen zu erfüllen ist zu komplex, um allgemein angesteuert zu werden. Programme müssten also Renderpfade bekommen, die direkt auf die FX Architektur zugeschnitten sind. Das wiederrum würde einen erheblichen Mehraufwand zur folge haben...
Und das glaube ich wiederum nicht. :)

Die PS-HW der NV3X-Serie ist so aufgebaut, daß man leistungsmässig nur sehr selten nah ans theoretische Maximum kommt. Und diese Probleme hat die R3x0-Serie halt nicht.

Und das ist der Grund warum ich nicht daran glaube, daß ein "Wunderdeto" + ein angepasstes Shaderprofil viel reissen werden.

Nicht die Shader sind das Problem sondern die Hardware... IMHO.

LovesuckZ
2003-09-19, 14:32:09
Original geschrieben von Exxtreme
Und das glaube ich wiederum nicht. :)
Die PS-HW der NV3X-Serie ist so aufgebaut, daß man leistungsmässig nur sehr selten nah ans theoretische Maximum kommt. Und diese Probleme hat die R3x0-Serie halt nicht.

Koennen die Shader (Berechnungen) immer nur ein 1:1 Verhaeltnis von Texture:Arithmetik haben?

Nicht die Shader sind das Problem sondern die Hardware... IMHO.

Wobei ich das Problem beim NV35 nicht begreife... (ich unwissender)

Radeonator
2003-09-19, 14:39:00
Eben das ist auch mein Problem, es will in meinen Kopf net rein, wo das Problem wirklich steckt...aber anscheinen ist das derzeit bei Nv net anders, die scheinens auch net wirklich zu wissen ;)

Kann da nicht mal jemand Licht ins Dunkel bringen ???

Demirug
2003-09-19, 14:40:19
Original geschrieben von LovesuckZ


Koennen die Shader (Berechnungen) immer nur ein 1:1 Verhaeltnis von Texture:Arithmetik haben? [/SIZE]

Nein, die Tendenz geht eher zu > 1:4. Da beim R300 aber scheinbar die TMUs noch sehr eng mit den entsprechenden Teil des PS verbunden sind gleicht man dieses Verhältniss mit besseren Filtern wieder etwas aus.

Wobei ich das Problem beim NV35 nicht begreife... (ich unwissender)

Im Prinzip immer noch das gleiche wie beim NV30. Zu lange Pipeline bei zu kleinem Registerfile.

LovesuckZ
2003-09-19, 14:44:15
Original geschrieben von Demirug
Nein, die Tendenz geht eher zu > 1:4.

Nicht gut für meine 5800 :)
/edit: Sollte dann eine 5900U nicht mind. genauso schnell sein wie die 9800pro?


Im Prinzip immer noch das gleiche wie beim NV30. Zu lange Pipeline bei zu kleinem Registerfile.

Das koennen aber nicht die Gruende dafür sein, dass eine 9600 in HL2 (auch wenn ich den Ergebnissen skeptisch gegenüber stehe) gleichschnell wie die 5900U sei.
In TR6 schafft sie wenigsten 9600pro Niveau.

Radeonator
2003-09-19, 14:44:41
Original geschrieben von Demirug
Im Prinzip immer noch das gleiche wie beim NV30. Zu lange Pipeline bei zu kleinem Registerfile.

Das heisst ?

Exxtreme
2003-09-19, 14:45:49
Original geschrieben von Radeonator
Das heisst ?
Die Pipelines laufen leer.

Crushinator
2003-09-19, 14:54:59
Original geschrieben von Radeonator@work
Shit was vergessen...

Obwohl das zu 3dFX und Savage4 Zeiten ja noch gang und gebe war (Glide und diese spezielen S3 Render Pfade) Ja, aber die Spezial-Pfade zu der Zeit waren nicht annähernd so komplex wie die heutige Problematik mit den Shadern. Damals gab's eine extra Bibliothek für Glide & Co. womit man - wenn die API-Beschreibung gut war - schnell zum Ziel kam. Heute gibt's zwar eine oder zwei einheitliche API(s) aber mit vielen Wegen zum selben Ziel zu erlangen halt mit unterschiedlicher Performance. Dazu kommen Shader-Sprache(n), die selbst in Komplexität jenseits von gut und böse sind. Ich persönlich verstehe jedenfalls nur noch Bahnhof, wenn ich anfange ein Beispielprogramm für DX9-Shader Anwendungen durchzustudieren, wohingegen ich schon zu OS/2-Zeiten innerhalb von 4 Std. einen rotiernden Elefanten per DIVE auf den Schirm zauberte. =)

Ich weiß, nennt mich alten Sack. :D

Demirug
2003-09-19, 14:58:57
Original geschrieben von LovesuckZ

Das koennen aber nicht die Gruende dafür sein, dass eine 9600 in HL2 (auch wenn ich den Ergebnissen skeptisch gegenüber stehe) gleichschnell wie die 5900U sei.
In TR6 schafft sie wenigsten 9600pro Niveau. [/SIZE]

Doch, weil die aufgrund des zu klein gewordenen Registerfiles ganz schnell 50% oder noch mehr von der Leistung fehlen der Rest kann dann noch daher kommen das die HL2-Shader gut auf die Verwednung von Vec3+Skalar ausgelegt sind.

Iceman346
2003-09-19, 15:42:35
Original geschrieben von LovesuckZ

Das koennen aber nicht die Gruende dafür sein, dass eine 9600 in HL2 (auch wenn ich den Ergebnissen skeptisch gegenüber stehe) gleichschnell wie die 5900U sei.
In TR6 schafft sie wenigsten 9600pro Niveau. [/SIZE]

Bei den HL2 Benches wurden auch 9600 Pros verwendet, das Pro fehlte lediglich in den Diagrammen.

LovesuckZ
2003-09-19, 16:10:20
Original geschrieben von Iceman346
Bei den HL2 Benches wurden auch 9600 Pros verwendet, das Pro fehlte lediglich in den Diagrammen.

Die man sich aber zusammenreimen kann. Und da der HL2 Bench anscheinend nicht Bandbreitenlimitiert sei, waere die 5900U auf 9600 Niveau.

DrumDub
2003-09-19, 16:30:11
Original geschrieben von LovesuckZ
Die man sich aber zusammenreimen kann. Und da der HL2 Bench anscheinend nicht Bandbreitenlimitiert sei, waere die 5900U auf 9600 Niveau.

??? bei 1024x767 vielleicht, aber darüber? abgesehen davon sind 75mhz gpu-takt unterschied auch kein pappenstiel.

LovesuckZ
2003-09-19, 16:38:20
Original geschrieben von DrumDub
??? bei 1024x767 vielleicht, aber darüber? abgesehen davon sind 75mhz gpu-takt unterschied auch kein pappenstiel.

http://www.beyond3d.com/misc/hl2/index.php?p=6

9600pro ist doppel so schnell in 2 von 3 Benches. Dann waere eine 9600 immer noch 50% schneller.

DrumDub
2003-09-19, 17:13:46
Original geschrieben von LovesuckZ
http://www.beyond3d.com/misc/hl2/index.php?p=6

9600pro ist doppel so schnell in 2 von 3 Benches. Dann waere eine 9600 immer noch 50% schneller.

doppelt so schnell? hast du auf den graphen geguckt? das sind nämlich keine fps sondern die fillrate. im ersten benchmark ist die 9600pro ca. 30% schneller in den anderen beiden zwischen 55 und 87% schneller.

interessant ist aber, dass in höheren auflösungen wird der abstand sogar größer und nicht kleiner. meine vermutung war also falsch.

da hat hl2 mit der speicherbandbreite ja anscheinend null probleme. nen vergleich 9600 gegen 9600pro fänd ich aber trotzdem in diesem zusammenhang interessant.

Spartakus
2003-09-19, 17:45:44
Ist das normal hier, dass einige User "über ihren Schatten springen" und krampfhaft versuchen, andere mies zu machen? Is mir in anderen Foren noch gar nicht so stark aufgefallen.

LovesuckZ
2003-09-19, 18:12:38
Original geschrieben von DrumDub
doppelt so schnell? hast du auf den graphen geguckt? das sind nämlich keine fps sondern die fillrate. im ersten benchmark ist die 9600pro ca. 30% schneller in den anderen beiden zwischen 55 und 87% schneller.

Ich weiß, aber in 1280*1024 isses fast doppelt so schnell...

nen vergleich 9600 gegen 9600pro fänd ich aber trotzdem in diesem zusammenhang interessant.

Zieh 25% von den ergebnissen ab. Okay, sagen wir 35% wegen der geringeren Speicherbandbreite.

zeckensack
2003-09-19, 18:24:45
Original geschrieben von DrumDub
??? bei 1024x767 vielleicht, aber darüber? abgesehen davon sind 75mhz gpu-takt unterschied auch kein pappenstiel. Bandbreitenlimitierungen sind ziemlich unabhängig von der Auflösung (bei der Füllrate ist das bekanntermaßen ganz anders).

Die geforderte Bandbreite ist - vereinfacht gesehen - ein Quantum pro Pixel. Wenn bei einer bestimmten Auflösung die Bandbreite bremst, obwohl noch genug Füllrate und T&L/VS-Leistung vorhanden wäre, dann ist das auch bei allen höheren Auflösungen so.

Gast
2003-09-19, 20:29:01
Original geschrieben von Exxtreme
Die Pipelines laufen leer.


Yep. Sieht man sehr schön hier :

http://www.graphicshardware.org/presentations/Buck.ppt

Auf Seite 23 !!

Bei 8 Register-Files benötigt die NV3x-Architektur 4mal länger als bei 2 Registern. ergo liegen 75% der Hardware brach.

Wie Nvidia überhaupt auf die Idee gekommen ist, nur 2 Register zu benutzen, wo doch bereits 8 Register für die X86-Architektur ein Hindernis darstellen. <Kopf-Schüttel>

Die Hardware-Designer von Nvidia haben hier einen ganz großen Bock geschossen

Radeonator
2003-09-19, 22:41:21
Gibt es theoretisch nicht die Möglichkeit, diesen Leerlauf zu umgehen ???

LovesuckZ
2003-09-19, 22:48:42
Original geschrieben von Radeonator
Gibt es theoretisch nicht die Möglichkeit, diesen Leerlauf zu umgehen ???

Weniger Temp Register benutzen oder die Shader umstrukturieren.

Radeonator
2003-09-19, 22:57:36
Also doch frühestens in den nächsten (nv 4x) Karten :(

oder gibt es die möglichkeit die Register Nutzung via Treiber zu optimieren ???

Radeonator
2003-09-19, 22:57:36
Doppelpost...

mrdigital
2003-09-19, 22:59:21
theoretisch gibt es mehrere Möglichkeiten, das Leerlaufen einer Pipeline zu verhindern, allerdings sind für die meisten Änderungen an der Hardware (sprich im Chipdesign) nötig. Von der Softwareseite (der Treiber) lässt sich dem Problem nur in gewissen Grenzen beikommen. Dazu muss man halt die Ursachen für das Leerlaufen der Pipe analysieren, wobei ich nun von dem Pipe Problemen bei GraKas nicht so viel weiss, aber es werden sicherlich ähnliche Ursachen wie bei einer CPU sein (wobei bei ner CPU die Pipe vor allem wegen Sprüngen, bzw konditionalen Abfragen leerlaufen und das ist nun nicht mit DX9 das Problem, da es in DX9 keine Verzweigungen gibt, wenngleich die nV Chips Verzweigungen beherrschen). ABer wie die anderen hier schon gesagt haben, liegts wohl an daran, das die Pipe keine Daten mehr bekommt. Abhilfe wäre das Register File grösser zu machen oder dafür zu Sorgen, dass mehr Daten in die Pipe Geschaufelt werden (schnellere/ effizientere Speicheranbindung, Cache-SPeicher in der GPU). Ansonsten gilt es halt die Codeabfolge, die ein Pipe-Stall verursacht so gut es geht zu vermeiden, aber so wie ich das hier mitbekommen habe ist es auf nV Hardware schwer, diesen Stall zu vermeiden...
An die GraKaPros hier : ist das RegFile wirklich nur 2 Worte gross (klein)?

LovesuckZ
2003-09-19, 22:59:22
Original geschrieben von Radeonator
Also doch frühestens in den nächsten (nv 4x) Karten :(

Da wird Nvidia wohl den Speicher nen bissl vergroeßern.

oder gibt es die möglichkeit die Register Nutzung via Treiber zu optimieren ???

Eigentlich sollte das gehen.
Ansonsten muss Nvidia eben nen bissl mehr arbeit bei den Spielentwickler leisten.

Demirug
2003-09-19, 23:04:56
Original geschrieben von Radeonator
Also doch frühestens in den nächsten (nv 4x) Karten :(

oder gibt es die möglichkeit die Register Nutzung via Treiber zu optimieren ???

Der 2.A Compiler ist da schon ganz gut was die Reduktion von Temps angeht. Einfache Fälle erkennt auch der Treiber schon. Hier bringt auch die Reduktion auf FP16 etwas weil man für die gleichen Kosten wie für eine FP32 Wert auch zwei FP16 Werte speichern kann.

Es scheint da auch noch sowas wie Kettenrechnungen zu geben von denen der Chip profitieren kann. Mit Kettenrechnungen meine ich Shadercode welcher bei aufeinanderfolgenden Anweisungen immer wieder in das gleiche Tempregister schreibt und mit diesem Wert sofort weiter rechnet.

Demirug
2003-09-19, 23:23:55
Original geschrieben von mrdigital
theoretisch gibt es mehrere Möglichkeiten, das Leerlaufen einer Pipeline zu verhindern, allerdings sind für die meisten Änderungen an der Hardware (sprich im Chipdesign) nötig. Von der Softwareseite (der Treiber) lässt sich dem Problem nur in gewissen Grenzen beikommen. Dazu muss man halt die Ursachen für das Leerlaufen der Pipe analysieren, wobei ich nun von dem Pipe Problemen bei GraKas nicht so viel weiss, aber es werden sicherlich ähnliche Ursachen wie bei einer CPU sein (wobei bei ner CPU die Pipe vor allem wegen Sprüngen, bzw konditionalen Abfragen leerlaufen und das ist nun nicht mit DX9 das Problem, da es in DX9 keine Verzweigungen gibt, wenngleich die nV Chips Verzweigungen beherrschen). ABer wie die anderen hier schon gesagt haben, liegts wohl an daran, das die Pipe keine Daten mehr bekommt. Abhilfe wäre das Register File grösser zu machen oder dafür zu Sorgen, dass mehr Daten in die Pipe Geschaufelt werden (schnellere/ effizientere Speicheranbindung, Cache-SPeicher in der GPU). Ansonsten gilt es halt die Codeabfolge, die ein Pipe-Stall verursacht so gut es geht zu vermeiden, aber so wie ich das hier mitbekommen habe ist es auf nV Hardware schwer, diesen Stall zu vermeiden...
An die GraKaPros hier : ist das RegFile wirklich nur 2 Worte gross (klein)?

Das erste Problem ist das die Pipeline in einem Pixelprozessor schon immer recht lang ist um die Latenzen des Speicher auszugleichen. Im NV3X ist die Pipeline aber ultra lang geworden (man hat in die tiefe gebaut). Das Registerfile ist nun in der unglücklichen Lage für jeden Pixelblock (2*2 Pixel) welcher sich in der Pipeline befindet den kompletten Registersatz zu speichern. Und wenn in das Registerfile eben nicht so viele Pixel passen wie es stufen gibt läuft sie leer. Das ist kein Stall sondern eine Blase die dann durch die Pipeline läuft. Stalls kann es natürlich auch noch geben aber das ist eine andere Baustelle.

Was die grösses des RegFiles angeht so gehe ich da von 16 KB aus bei einer Pipeline mit so um die 100 Stufen.

Gerüchten zufolgen will/hat man beim NV40 mehr in die breite gebaut. Die Pipeline wäre dadurch kürzer was bei gleicher RegFile grösse mehr Temp-Regs pro Pixel erlauben würde bevor es wieder zur Blasenbildung kommt.

mrdigital
2003-09-19, 23:34:30
verbauen die da wirklich 100 Stufen lange Pipes in Grakas? Wow und staun....ich hab ja schon Schwierigkeiten eine Pentium(1) Pipe zu überblicken, aber bei 100 Stufen stelle ich mir das nun wiklich nicht trivial vor, die Pipe-Blase (schon wieder was gelernt ;) ) zu vermeiden, bzw die kritischen Codefolgen zu erkennen und zu vermeiden.... wie Abhängig sind denn die Pipestufen voneinander? Können GPU Pipes auch out of order ausführen?

Demirug
2003-09-19, 23:55:40
Der ganze Texturesampleteil haut relative stark rein. Wie schreibt nv immer so schön: "Deeply pipelined cache - Many hits and misses in flight"

Ist auch notwendig um die Speicherlatenzen auszugleichen.

Pixelprozessoren sind eher wie VLIW Prozessoren. Sie füheren viele Anweisungen gleichzeitig durch aber halten sich genau an den Code den sie bekommen. Eine Out of Order Unit wurde einfach zu viel Platz wegnehmen. Daher muss der Treiber das umstrukturieren des Code übernehmen.

Radeonator
2003-09-20, 02:42:37
Ist es dann nicht möglich diese "Blasen" in Segmente zu zerteilen und dann geordnet in die Pipe zu bringen, um dann eine ganze Folge ohne leerlauf zu formieren ?

Demirug
2003-09-20, 09:15:02
Original geschrieben von Radeonator
Ist es dann nicht möglich diese "Blasen" in Segmente zu zerteilen und dann geordnet in die Pipe zu bringen, um dann eine ganze Folge ohne leerlauf zu formieren ?

Radeonator, wie die Blasen durch die Pipeline laufen ist völlig egal da sie so oder so verlorene Rechenleistung darstellen. Es geht darum die Blasen aus der Pipe herauszuhalten.

Kai
2003-09-20, 12:33:48
Original geschrieben von Demirug
Radeonator, wie die Blasen durch die Pipeline laufen ist völlig egal da sie so oder so verlorene Rechenleistung darstellen. Es geht darum die Blasen aus der Pipe herauszuhalten.

Wie wär's mit nem Ausgleichsbehälter? :D

Demirug
2003-09-20, 12:50:10
Original geschrieben von Kai
Wie wär's mit nem Ausgleichsbehälter? :D

Denn gibt es ja aber der ist zu klein.

Kai
2003-09-20, 13:00:14
Original geschrieben von Demirug
Denn gibt es ja aber der ist zu klein.

Wie zu klein? Ich hab ja keine Ahnung von was ihr hier redet, aber wie kann denn ein Ausgleichsbehälter zu klein sein? Hauptsache die Luft kommt raus - oder strömt das, was durch die Pipe muss etwa zu schnell dafür?

Gast
2003-09-20, 13:15:43
Tja, dann sollte man doch fragen, wie es möglich ist, daß die nvidia Pipeline openGl sehr wohl flott realisiert und beim PS2 eben nicht... , oder andersrum: womöglich hat ati noch erhebliche Reserven bei openGl?

up

Demirug
2003-09-20, 13:21:51
Original geschrieben von Kai
Wie zu klein? Ich hab ja keine Ahnung von was ihr hier redet, aber wie kann denn ein Ausgleichsbehälter zu klein sein? Hauptsache die Luft kommt raus - oder strömt das, was durch die Pipe muss etwa zu schnell dafür?

Stell dir folgendes vor:

Du hast eine Pipeline die mit einem Ausgleichsbehälter verbunden ist. Wie du dich sicherlich noch aus dem Physikunterricht errinern kannst verändert Wasser in abhänigkeit der Temperatur das Volumen. Nimmt das Volumen ab (die Dichte erhöht sich) muss Wasser aus dem Ausgleichsbehälter nachlaufen. Wenn dieser Leer ist strömt Luft in den Kreislauf.

Ein ähnliches Problem haben nun die NV3X Chips. Es gibt einen Speicher (Ausgleichsbehälter) aus dem sich die einzelnen Pixel in der Pipeline bedienen können. Braucht ein Pixel viel von diesem Speicher (höhere Dichte) dann reicht der Speicher nicht mehr für alle Pixel die sich theoretisch in der Pipeline befinden könnten (Luft in der Pipeline).

zeckensack
2003-09-20, 13:22:41
Original geschrieben von Gast
Tja, dann sollte man doch fragen, wie es möglich ist, daß die nvidia Pipeline openGl sehr wohl flott realisiert und beim PS2 eben nicht... , oder andersrum: womöglich hat ati noch erhebliche Reserven bei openGl?

up Die NV30-Shader sind unter OpenGL genauso gut oder schlecht wie unter DX Graphcis.

Gast
2003-09-20, 13:23:37
Original geschrieben von Gast
Tja, dann sollte man doch fragen, wie es möglich ist, daß die nvidia Pipeline openGl sehr wohl flott realisiert und beim PS2 eben nicht... , oder andersrum: womöglich hat ati noch erhebliche Reserven bei openGl?

up

Wirklich?

Die NV3x sind doch unter ARB2 ebenfalls grottenlangsam. Erst, wenn man wieder die alten Register-Combiner (FX12) und hin-und-wieder FP16 benutzt, dann erreichen die NV3x volle Speed.

Also ich kann hier bei bestem Willen keinen Unterschied zwischen OpenGL und DX9 erkennen.

Kai
2003-09-20, 13:31:21
Original geschrieben von Demirug
Stell dir folgendes vor:

Du hast eine Pipeline die mit einem Ausgleichsbehälter verbunden ist. Wie du dich sicherlich noch aus dem Physikunterricht errinern kannst verändert Wasser in abhänigkeit der Temperatur das Volumen. Nimmt das Volumen ab (die Dichte erhöht sich) muss Wasser aus dem Ausgleichsbehälter nachlaufen. Wenn dieser Leer ist strömt Luft in den Kreislauf.

Ein ähnliches Problem haben nun die NV3X Chips. Es gibt einen Speicher (Ausgleichsbehälter) aus dem sich die einzelnen Pixel in der Pipeline bedienen können. Braucht ein Pixel viel von diesem Speicher (höhere Dichte) dann reicht der Speicher nicht mehr für alle Pixel die sich theoretisch in der Pipeline befinden könnten (Luft in der Pipeline).

Krass. Thx @ Demi, jetzt hab ich endlich mal was geschnallt!

Demirug
2003-09-20, 13:38:24
Original geschrieben von Gast
Also ich kann hier bei bestem Willen keinen Unterschied zwischen OpenGL und DX9 erkennen.

Der Unterschied ist das man bei OpenGL die FP und Int Formate in einem Shader kombinieren kann aber unter DX eben nicht.

Gast
2003-09-20, 15:37:52
@Zeckensack:
Denk mal 3 Monate zurück, als Anand, uns ALLE erstaunt hat mit seinem Artikel
==> NVIDIA's Back with NV35 - GeForceFX 5900 Ultra (http://www.anandtech.com/video/showdoc.html?i=1821&p=1)

Der Doom3 Bench war die Sensation schlechthin..., gerade mal 3 Monate her =)
==> Doom 3 Performance (http://www.anandtech.com/video/showdoc.html?i=1821&p=22)

Wie ist das möglich? =)

Hier noch eine interessante Antwort von John Carmack:

Hi John,

No doubt you heard about GeForce FX fiasco in Half-Life 2. In your opinion, are these results representative for future DX9 games (including Doom III) or is it just a special case of HL2 code preferring ATI features, as NVIDIA suggests?

Unfortunately, it will probably be representative of most DX9 games. Doom has a custom back end that uses the lower precisions on the GF-FX, but when you run it with standard fragment programs just like ATI, it is a lot slower. The precision doesn't really matter to Doom, but that won't be a reasonable option in future games designed around DX9 level hardware as a minimum spec.

John Carmack



Quelle:
Doom3Maps.de (http://doom3maps.ngz-network.de/comment.php?461)

up

zeckensack
2003-09-20, 15:45:19
Gast,
das hat aber weniger mit OpenGL vs DXG zu tun, als mit dem 'ungewöhnlichen' Anforderungsprofil von Doom 3. NV3x leidet unter den Shadern, kann aber im Gegenzug die Optimierungen für 'farblose' Pixel voll ausspielen. Beim Rendern von Schattenvolumen mutiert NV3x von 4x2 zu einem 8x0-Design, was zusammen mit dem hohen Takt eine ziemlich brutale Füllrate ergibt.

Und D3 ist eben eine Mischung aus beidem.

LovesuckZ
2003-09-20, 17:53:42
Koennen PS2.0 Shader auch mit wenigen Registers geschrieben werden?

Demirug
2003-09-20, 17:58:58
Original geschrieben von LovesuckZ
Koennen PS2.0 Shader auch mit wenigen Registers geschrieben werden?

Ja und nein. Es hängt immer von Shader ab wie viele Register man mindestens braucht.

Chris Lux
2003-09-21, 10:51:27
für mich klingt das wieder nach dem problem, das dx9 IMO min 24bit genauigkeit fordert und nvidia somit ihre 32bit nutzen muss (sie haben ja nur unterstützung für 16 und 32 bit in den nv3x prozessoren). laut carmack brechen ja die nv3x auf die hälfte der leistung ein beim übergang von 16 zu 32bit. in doom3 nutzt er nur 16bit genauigkeit, weil diese genauigkeit für dieses spiel ausreichend ist. ich denke, wenn man in treibern eine option hätte, die die genauigkeit in dx9 titeln auf 16bit heruntersetzen lässt würden die dx9 titel auch auf nvidia hardware sehr gut mit den ati modellen mithalten können. das ist das was ich aus dem statement carmacks herauslese.

also, imo wäre es ein guter zug von nvidia so eine option anzubieten unter dem banner qualitätseinbußen (die keiner merken würde).

LovesuckZ
2003-09-21, 10:56:03
Original geschrieben von Hans Ohlo
laut carmack brechen ja die nv3x auf die hälfte der leistung ein beim übergang von 16 zu 32bit.

Da irrt sich der liebe Carmack, wenn er dies wirklich gesagt haben sollte.

Winter[Raven]
2003-09-21, 11:17:56
laut carmack brechen ja die nv3x auf die hälfte der leistung ein beim übergang von 16 zu 32bit

ahhhh ... hast ne Quelle ?
Ich ahbe weder was in den .plans gefunden noch beim googeln ... :)

Kai
2003-09-21, 11:22:40
Original geschrieben von Winter[Raven]
ahhhh ... hast ne Quelle ?
Ich ahbe weder was in den .plans gefunden noch beim googeln ... :)

Da brauch man keine Quelle für, es stimmt doch gar nicht - ich denke mal Ohlo verwechselt da was.

nggalai
2003-09-21, 11:54:52
Original geschrieben von Winter[Raven]
ahhhh ... hast ne Quelle ?
Ich ahbe weder was in den .plans gefunden noch beim googeln ... :) Naja, das lässt sich zumindest ansatzweise aus den JC-Aussagen zusammenschustern und dann fehlinterpretieren.

Stand der Dinge WAR am Jan 29, 2003:

- Mit NV3x-Pfad ist eine 5800er meist ein klein wenig schneller als eine R300, aber auch so gibt's einige Szenen, wo die R300 schneller ist.

- Die R300 rechnet immer mit FP24-Genauigkeit.

- Der NV3x-Pfad ist ein Mix aus FX12, FP16 und FP32.

- Unter FP32 (full precision) ist die NV30 halb so schnell wie im NV3x-Pfad. Daraus folgt, dass die NV30 den ARB2-Pfad in etwa halb so schnell abarbeiten kann wie die R300.

(http://www.webdog.org/cgi-bin/finger.plm?id=1)

Ist also nicht so, dass laut Carmack die NV3x von FP16 auf FP32 die Leistung halbieren, sondern von einem Mischmasch aus FX12, FP16 und FP32 (dessen genauen Aufbau öffentlich umbekannt ist) auf reines FP32 die Leistung halbiert. Doch ein gewisser Unterschied.

93,
-Sascha.rb

ow
2003-09-21, 12:32:21
Original geschrieben von Hans Ohlo
für mich klingt das wieder nach dem problem, das dx9 IMO min 24bit genauigkeit fordert und nvidia somit ihre 32bit nutzen muss

Nein, stimmt so nicht ganz.
Minimum ist FP16, diese Genauigkeit muss aber explizit von der App. angefordert werden, default ist min. FP24.

zeckensack
2003-09-21, 15:14:24
Ack @ ow.
Was unter DXG wirklich fehlt, sind die FX12-Operationen. Die sind nur unter OpenGL verfügbar.
Ich weise allerdings nochmal darauf hin, daß sich die Leistung der Doom 3-Engine nur zu einem gewissen Teil durch die Shader ergibt =)

Chris Lux
2003-09-21, 17:56:06
hi nochmal,
die quelle war das .plan update damals, welches nggalai zitiert. dies und das letzte statement haben mich schliessen lassen, was ich geschrieben habe mit der 16 und 32 bit genauigkeit. mich würde dann interessieren mit welche genauigkeit hl2 dann anfordert, ich denke das werden 24bit sein, womit die nv3x auf 32 ausweichen müssen. (und ja zeckensack ;) das wird nicht alles sein, was _nicht_ auf nvidia optimiert wurde, _gegen_ möchte ich nicht sagen, aber 8mio dollar sprechen da eine deutliche sprache ;))

Ikon
2003-09-21, 18:11:43
Original geschrieben von Hans Ohlo
... mich würde dann interessieren mit welche genauigkeit hl2 dann anfordert, ich denke das werden 24bit sein, womit die nv3x auf 32 ausweichen müssen.

Nein, angeblich setzt der NV3x-Pfad von HL2 auf "Low-Precision" (FP16?). Zumindest hier sind NV3x-Chips eher bevorteilt im Bezug auf Geschwindigkeit.

Demirug
2003-09-21, 18:29:48
Original geschrieben von Hans Ohlo
hi nochmal,
die quelle war das .plan update damals, welches nggalai zitiert. dies und das letzte statement haben mich schliessen lassen, was ich geschrieben habe mit der 16 und 32 bit genauigkeit. mich würde dann interessieren mit welche genauigkeit hl2 dann anfordert, ich denke das werden 24bit sein, womit die nv3x auf 32 ausweichen müssen. (und ja zeckensack ;) das wird nicht alles sein, was _nicht_ auf nvidia optimiert wurde, _gegen_ möchte ich nicht sagen, aber 8mio dollar sprechen da eine deutliche sprache ;))

Man kann unter DX nicht wirklich eine Genauigkeit anfordern. Die Spezifikation sagt aus das jede Rechnung mit FP24 ausgeführt und das Ergebniss auch in diesem Format gespeichert werden muss. Der Shaderschreiber kann aber nun einzelne Anweisungen mit einem Hinweiss versehen (pp) das auch eine geringere Genauigkeit ausreicht. In diesem Fall erlaubt die Spec ein Absenken auf FP16 für diese Anweisung und das Ergebniss darf entsprechend auch in einem FP16 Register gespeichert werden. Einen Shader ohne diese Hinweisse muss nVidia also komplett mit FP32 laufen lassen.

zeckensack
2003-09-21, 18:31:11
Hans Ohlo,
der 'mixed mode'-Pfad von HL2 wurde ja bereits gebencht, und mit dem full-precision-Pfad verglichen. In ersterem werden mittels _pp-Suffix FP16-Operationen angefordert.
FX12 ist unter DXG nicht verfügbar. Höchstens ein sehr cleverer Treiber kann hier noch die 'benötigte' Präzision zusätzlich absenken, was aber eine durchaus riskante Angelegenheit ist.

Demirug
2003-09-21, 18:44:13
Original geschrieben von zeckensack
Hans Ohlo,
der 'mixed mode'-Pfad von HL2 wurde ja bereits gebencht, und mit dem full-precision-Pfad verglichen. In ersterem werden mittels _pp-Suffix FP16-Operationen angefordert.
FX12 ist unter DXG nicht verfügbar. Höchstens ein sehr cleverer Treiber kann hier noch die 'benötigte' Präzision zusätzlich absenken, was aber eine durchaus riskante Angelegenheit ist.

Riskant ist relative. Es mathematisch exakt ermittelbar mit welcher Genauigkeit ein Zwischenergbeniss berechnet und gespeichert werden muss wenn der Zahlenraum und die Genauigkeit des Endwertes und der Eingangsgrössen bekannt sind.

zeckensack
2003-09-21, 18:45:48
Original geschrieben von Demirug
Riskant ist relative. Es mathematisch exakt ermittelbar mit welcher Genauigkeit ein Zwischenergbeniss berechnet und gespeichert werden muss wenn der Zahlenraum und die Genauigkeit des Endwertes und der Eingangsgrössen bekannt sind. Eben ;)

Demirug
2003-09-21, 18:48:05
Original geschrieben von zeckensack
Eben ;)

Welche Eingangsgrösse ist den nicht bekannt ???

zeckensack
2003-09-21, 18:58:16
Original geschrieben von Demirug
Welche Eingangsgrösse ist den nicht bekannt ??? Der Output des VS und Konstanten, die nicht direkt im PS-Code deklariert sind.

(wobei ich nicht weiß, ob DXG letzteres überhaupt kann???)

Demirug
2003-09-21, 19:11:07
Original geschrieben von zeckensack
Der Output des VS und Konstanten, die nicht direkt im PS-Code deklariert sind.

(wobei ich nicht weiß, ob DXG letzteres überhaupt kann???)

Der Output des VS ist uninteresant weil sie im PS als eingänge deklariert werden müssen. Dabei ist übrigens auch ein _pp erlaubt. Die Color Register haben nur einen gesicherten Bereich von 0-1 und 8 Bit.

Natürlich darf man Konstanten auch von extern übergeben sonst wäre ja einige Effekte gar nicht machbar. Aber auch hier ist festgelegt wie gross der Zahlenraum und die Genauigkeit sein muss. AFAIR ist FP16 das minimum.

Interesant sind noch die Stellen im Code an denen es zu einem schnellen Wechsel im Format kommt. Also die Textureoperationen. Da kann ja durchaus ein FP32 Wert reingehen und ein INT8 Wert herauskommen. Dummerweise weiss man das aber erst zu dem Zeitpunkt genau wenn der Drawcall kommt.