PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neuer Detonator mit Verschlüsselung!!


silverhawk
2003-07-09, 06:34:06
Neuer Detonator mit Verschlüsselung
Dienstag, 08. Jul. 2003

Beim Grafikkarten-Hersteller eVGA gibt es einen neuen WHQL-zertifizierten Detonator-Treiber 44.67. Als wichtigste Neuerung - neben vermutlichen Bugfixes und Performance-Optimierungen - ist die Verschlüsselung des Codes zu nennen.

Durch Checksummen wird der Treiber bei jedem Ausführen auf seine Unversehrtheit überprüft. Modifikationen sollen damit verhindert werden. So ist es mit dem neuen Treiber beispielsweise nicht mehr möglich das Anti-Cheat-Skript von Digit-Life auszuführen. Durch dieses Skript konnten Optimierungen für bekannte Benchmark-Programme aufgedeckt werden, die zu Verfälschungen der Ergebnisse führen. Nach der Deaktivierung dieser "Optimierungen" war teilweise ein signifikanter Performance-Einbruch zu ermitteln.

NVIDIA scheint solchen Kontrollen seitens der Anwender und Tester aus dem Weg gehen zu wollen, in dem man den Quell-Code verschlüsselt. Die Kontrolle wird damit drastisch erschwert und vielleicht unmöglich gemacht. Ob dies der richtige Weg ist, bleibt abzuwarten.
Quelle: Tweakpc


*lol* dies würde dann ja auch heißen das man im falle eines cheats dies nicht mehr nachvollziehen könnte.... echt ne kranke sache von nvidia seine treiber zu verschlüsseln!

Zool
2003-07-09, 07:33:19
Werden denn auch die Ini.files mit einer Checksum versehen? So, daß man sich nicht mehr seine Sachen wie Bildwiederholfrequenz anpassen kann?
Was passiert mit den Omega-Treibern? Da wird ja auch heftig an den Standard NV-Treibern rumgeschraubt und gebastelt.

Naja vielleicht ist das auch nur Testblase von NV um zu sehen wie der Rest der Welt drauf reagiert.

mirp
2003-07-09, 07:49:36
Die Einstellungen stehen in keiner INI, sondern in der Registry und lassen sich auch weiterhin ändern.

Es wird eh keine Omega-Treiber des Detonators mehr geben: http://www.omegacorner.com/

Axel
2003-07-09, 07:59:32
Was soll man davon halten?
Anstatt die Karten auf den Tisch zu legen, kapselt sich nvidia immer mehr ab und nährt damit den Verdacht, daß sie nicht ohne Cheat Leistung zeigen können. Gerade im Hinblick auf die gezeigten Ergebnisse der letzten Wochen, wäre eine offenere Treiberpolitik wünschenswert.

seahawk
2003-07-09, 08:56:26
Man kann auch argumentieren, dass Mitbewerber den Treiber gezielt nach Optimierungen untersuchen und diese dann als CHeats an die Presse verraten. Davor muss man sich schützen.

Imo ist danach jeder NV-Benchmark nichts mehr wert.

BlueRaven
2003-07-09, 09:35:49
Ich glaube ohne die Cheats würde die Leistung der NV35 auf einer ATI Radeon 9700 Pro sinken.

Wobei andere Hersteller sie bemühen Hardware seittiges Performance zu zeigen machen es sie die anderen Leicht und Frizieren ihre Treiber.

Man bekommt den verdacht das nicht im Chip die Power steht sondern in den Treibern von Nvidia, damit wäre die Karte halb so schnell wie man denkt.


Das ist vielleicht ein Marketing blabla oder sie meinen es ernst.


MFG
BLueRaven

cl55amg
2003-07-09, 09:37:34
Original geschrieben von seahawk
Man kann auch argumentieren, dass Mitbewerber den Treiber gezielt nach Optimierungen untersuchen und diese dann als CHeats an die Presse verraten. Davor muss man sich schützen.

Imo ist danach jeder NV-Benchmark nichts mehr wert.

wenn ich für nv arbeiten würde dann hätte ich genau das selbe vorgeschlagen!
das umstrittene anti cheat script hat bei ati auch einiges "verändert" doch davon redet niemand...
man könnte fast meinen das die presse nvidia auf dem kicker hat.
und genau davor wollen sie sich schützen.die geforce fx lebt nun mal von eigenwilligen optimierungen, und solange die bildqualität nicht darunter leidet, gibt es auch kein problem.
hält mich in verschlüsselter treiber davon ab mir in den nächsten tagen eine fx 5900 zu kaufen?

bestimmt nicht!

Pirx
2003-07-09, 09:42:51
nV mag zwar nen guten Entwicklersupport haben, aber durch solcherart immer wieder gern lancierten Aktionen machen sie Ihre Glaubwürdigkeit zunichte. Sind sie eigentlich mal auf die augedeckten Treiberanpassungen eingegangen?

BlueRaven
2003-07-09, 09:43:38
Original geschrieben von cl55amg
wenn ich für nv arbeiten würde dann hätte ich genau das selbe vorgeschlagen!
das umstrittene anti cheat script hat bei ati auch einiges "verändert" doch davon redet niemand...
man könnte fast meinen das die presse nvidia auf dem kicker hat.
und genau davor wollen sie sich schützen.die geforce fx lebt nun mal von eigenwilligen optimierungen, und solange die bildqualität nicht darunter leidet, gibt es auch kein problem.
hält mich in verschlüsselter treiber davon ab mir in den nächsten tagen eine fx 5900 zu kaufen?

bestimmt nicht!


Mir wäre lieber ein Hersteller der nichts verstecken sollte. Und nicht seine Grafikkarte mit Optimierungen auf den beinen hält.

Ich schwanke auch seit tagen zwischen ATI Radeon 9800 Pro oder eine GeForceFX 5900 / Ultra zu kaufen und schaue mir wie blöd immo die neuesten reviews an.


MFG
BlueRaven

Exxtreme
2003-07-09, 09:44:46
Original geschrieben von seahawk
Man kann auch argumentieren, dass Mitbewerber den Treiber gezielt nach Optimierungen untersuchen und diese dann als CHeats an die Presse verraten. Davor muss man sich schützen.

Tja, und diese gegenseitige Kontrolle hat dafür gesorgt, daß keiner der beiden zuviel Mist fabriziert hat.

cl55amg
2003-07-09, 09:57:59
Original geschrieben von Pirx
nV mag zwar nen guten Entwicklersupport haben, aber durch solcherart immer wieder gern lancierten Aktionen machen sie Ihre Glaubwürdigkeit zunichte. Sind sie eigentlich mal auf die augedeckten Treiberanpassungen eingegangen?

wie sollten sie denn?
weil ein paar freaks ein script gemacht haben und ein paar andere sich darüber aufregen...
es geht nur darum ob kohle geschaufelt wird...
solange ihre karten brav über den ladentisch gehen, ist alles gut.
90% der kunden werden nie erfahren das es so ein script gegeben hat, und wenn, dann verstehen sie es nicht.
würde eine computer zeitschrift das bringen, und sagen das nv und ati cheaten. dann würden sie erstmal die nächste zeit keine neuen grafikkarten sehen und sich eine klage einfangen.
die sache ist in ein paar tagen vergessen...

egdusp
2003-07-09, 10:05:02
Original geschrieben von BlueRaven
Mir wäre lieber ein Hersteller der nichts verstecken sollte. Und nicht seine Grafikkarte mit Optimierungen auf den beinen hält.


Wenn du öfter mal im Technologieforum bei Demirugs Posts vorbeischaust, dann wüßtest du, dass NV auf Treiberoptimierungen angewiesen ist, da
1.) die Entwickler oft zu blöd sind um vernünftige Optimierungen einzubauen (es ist schon lage möglich die maximale AF Stufe je Textur festzulegen, macht aber kaum einer)
2.) die GFFX eine neue Technologie ist, die mit alten (oder unoptimierten) Spielen/engines schlecht zurechtkommt, trotzdem aber prinzipiell sehr leistungsstark

Wie man an Dawn (und ATI) sieht, scheint NV aber auch Probleme zu haben (gehabt haben) die volle Leistungsfähigkeit ihrer Hardware auszunutzen, und müssen dies deswegen Schritt für Schritt mit den Treibern machen.

mfg
egdusp

Firepower
2003-07-09, 10:07:24
Verschlüsselte Treiber laden doch geradezu ein entschlüsselt zu werden.

Ich glaub nicht, daß die Sache in ein paar Tagen vergessen ist. Aufgedeckte Cheats gibts doch schon lange (ATIs Quake-cheat)
und wirds auch noch lange geben.

cl55amg
2003-07-09, 10:09:37
Original geschrieben von egdusp
Wenn du öfter mal im Technologieforum bei Demirugs Posts vorbeischaust, dann wüßtest du, dass NV auf Treiberoptimierungen angewiesen ist, da
1.) die Entwickler oft zu blöd sind um vernünftige Optimierungen einzubauen (es ist schon lage möglich die maximale AF Stufe je Textur festzulegen, macht aber kaum einer)
2.) die GFFX eine neue Technologie ist, die mit alten (oder unoptimierten) Spielen/engines schlecht zurechtkommt, trotzdem aber prinzipiell sehr leistungsstark

Wie man an Dawn (und ATI) sieht, scheint NV aber auch Probleme zu haben (gehabt haben) die volle Leistungsfähigkeit ihrer Hardware auszunutzen, und müssen dies deswegen Schritt für Schritt mit den Treibern machen.

mfg
egdusp


langsam!
die gewrappte dawn hat weniger effekte und polygone als auf nv karten auch mit dem neuen wrapper...das kann dir auch demirug bestätigen!

die fx kommt wirklich mit aktuellen programmen nicht so gut zurecht,die volle leistungsfähigkeit wird sich in zukunft zeigen(z.b. doom3!)

Endorphine
2003-07-09, 10:09:54
Mal ne kleine Anmerkung: eine Checksumme hat nur indirekt etwas mit Verschlüsselung zu tun. Verschlüsselung stützt sich heute für verschiedene Zwecke (wie Authentisierung) gern auf verschiedene Arten von Quersummenberechnung (MD4, MD5, SHA1/2 etc.). Eine Checksumme allein macht doch aber noch keine Verschlüsselung... :kicher:

Ausserdem - was spräche dagegen, zu schauen, welche Checksum nVidia verwendet (CRC32 z.B.) und die dann einfach neu zu berechnen und wieder in den Treiber zu integrieren? Sehe da irgendwie kein grosses Problem. Verschlüsselung != Checksum.

Demirug
2003-07-09, 10:12:53
Die Sache ist doch ganz einfach.

stell euch einfach mal vor das jemand ständig eurer Schubladen durchwühlt. Bisher war es euch egal weil ihr ja auch seine durchstöbert habt. Nun hat aber dieser nette Wühler neuerdings schwer gefallen daran gefunden aller Welt zu erzählen was ihr so alles tief in eurer Schublade vergraben habt. Das ruft natürlich noch mehr Wühler auf den Plan auch eurer Schubladen zu durchstöbern. Irgenwann reicht es euch dann einfach und ihr hängt ein Schloss davor. Das wird zwar auch irgendwie aufzubekommen sein aber fürs erste schaut mal keiner mehr in die Schubladen.

Exxtreme
2003-07-09, 10:12:56
Original geschrieben von Endorphine
Mal ne kleine Anmerkung: eine Checksumme hat nur indirekt etwas mit Verschlüsselung zu tun. Verschlüsselung stützt sich heute für verschiedene Zwecke (wie Authentisierung) gern auf verschiedene Arten von Quersummenberechnung (MD4, MD5, SHA1/2 etc.). Eine Checksumme allein macht doch aber noch keine Verschlüsselung... :kicher:

Ausserdem - was spräche dagegen, zu schauen, welche Checksum nVidia verwendet (CRC32 z.B.) und die dann einfach neu zu berechnen und wieder in den Treiber zu integrieren? Sehe da irgendwie kein grosses Problem. Verschlüsselung != Checksum.
Doch, die Treiber sind verschlüsselt und werden zur Laufzeit entschlüsselt... AFAIR.

Gast
2003-07-09, 10:16:59
Original geschrieben von cl55amg
langsam!
die gewrappte dawn hat weniger effekte und polygone als auf nv karten auch mit dem neuen wrapper...das kann dir auch demirug bestätigen!

die fx kommt wirklich mit aktuellen programmen nicht so gut zurecht,die volle leistungsfähigkeit wird sich in zukunft zeigen(z.b. doom3!)

AFAIK gibt es einen neuen Wrapper. Und der zeigt alles.

Endorphine
2003-07-09, 10:17:12
Original geschrieben von Exxtreme
Doch, die Treiber sind verschlüsselt und werden zur Laufzeit entschlüsselt... AFAIR. Dann lass ich den Treibercode eben in einem Emulator ablaufen und warte, bis die Entschlüsselungsroutine mir alles fein säuberlich entpackt liefert. Irgendwie vergrössert das nur den Aufwand. Wenn man an den Treiber rankommen möchte dann geht das auch mit Verschlüsselung noch.

Da müsste nVidia schon mehr Aufwand betreiben und etwas wie einen Hardwaredongle in ihren GPUs mitliefern. Dann besteht ne realistische Chance, den Treiber wirklich auf absehbare Zeit unknackbar zu machen.

Endorphine
2003-07-09, 10:18:32
Original geschrieben von Demirug
Die Sache ist doch ganz einfach.

stell euch einfach mal vor das jemand ständig eurer Schubladen durchwühlt. Bisher war es euch egal weil ihr ja auch seine durchstöbert habt. Nun hat aber dieser nette Wühler neuerdings schwer gefallen daran gefunden aller Welt zu erzählen was ihr so alles tief in eurer Schublade vergraben habt. Das ruft natürlich noch mehr Wühler auf den Plan auch eurer Schubladen zu durchstöbern. Irgenwann reicht es euch dann einfach und ihr hängt ein Schloss davor. Das wird zwar auch irgendwie aufzubekommen sein aber fürs erste schaut mal keiner mehr in die Schubladen. Warum sich nVidia zu dem Schritt entschloss war doch von Anfang an klar :)

cl55amg
2003-07-09, 10:21:03
Original geschrieben von Gast
AFAIK gibt es einen neuen Wrapper. Und der zeigt alles.

ich habe in meinem post genau geschrieben das der neue wrapper auch nicht alles zeigt!

wer lesen kann ist klar im vorteil unreg

Gast
2003-07-09, 10:21:41
Original geschrieben von Demirug
Die Sache ist doch ganz einfach.

stell euch einfach mal vor das jemand ständig eurer Schubladen durchwühlt. Bisher war es euch egal weil ihr ja auch seine durchstöbert habt. Nun hat aber dieser nette Wühler neuerdings schwer gefallen daran gefunden aller Welt zu erzählen was ihr so alles tief in eurer Schublade vergraben habt. Das ruft natürlich noch mehr Wühler auf den Plan auch eurer Schubladen zu durchstöbern. Irgenwann reicht es euch dann einfach und ihr hängt ein Schloss davor. Das wird zwar auch irgendwie aufzubekommen sein aber fürs erste schaut mal keiner mehr in die Schubladen.



Ich würd mich auf meine eigentliche Arbeit konzentrieren und versuchen dort Fortschritte zu machen, statt mich auf die Art 'interessant' zu machen.

PS: Im Falle von Nvidia.:)

Birdman
2003-07-09, 10:21:58
imho sinkt Nvidia mit dieser Aktion nochmals deutlich tiefer im Niveau und der Glaubwürdigkeit.
Mittlerweile kann selbst ich als an sich Pro-Nvidia eingestellter, meinen Kumpels keine Nvidia Karten mehr empfehlen. Man weiss echt nicht wohin sich das entwickelt und ob man nicht bald auf dem BQ-Niveau von SIS angekommt, nur damit der 3dMurks genug Punkte ausspuckt.
Da ist eine Radeon9700/9800 das imho sichere und schnellere Paket. Damit laufen wenigstens alle Applikation genug schnell und WENN Ati mal ihre "Cheats" entfernen sollte, verliert man max. 30%
Bei Nvidia muss man damit rechnen 130% zu verlieren, und dies würde dann echt schmerzhaft werden.

cl55amg
2003-07-09, 10:28:51
Original geschrieben von Birdman
imho sinkt Nvidia mit dieser Aktion nochmals deutlich tiefer im Niveau und der Glaubwürdigkeit.
Mittlerweile kann selbst ich als an sich Pro-Nvidia eingestellter, meinen Kumpels keine Nvidia Karten mehr empfehlen. Man weiss echt nicht wohin sie das entwickelt und ob man nicht bald auf die BQ-Niveau von SIS angekommt, nur damit der 3dMurks genug Punkte ausspuckt.
Da ist eine Radeon9700/9800 das imho sicherer und schnellere Paket, damit laufen wenigstens alle Applikation genug schnell und WENN Ati Ihre "Cheats" entfernen sollten verliert man max. 30% ..... bei Nvidia muss man damit rechnen 130% zu verlieren, und dies würde dann echt schmerzhaft werden.

sag mal, liest du computer bild?
du bist ja echt ein sachkundiger mensch der mit diesem post beweist das es hier auch leute gibt die wissen wovon sie reden...
wenn es dir spass macht leuten zu empfehlen was für grafikkarten sie sich holen sollen, dann geh doch mal ins giga forum.
ich glaub da frägt gerade jemand was für ne karte er braucht um quake 4 zu spielen(ohne cheats versteht sich)

beeil dich!

Demirug
2003-07-09, 10:29:38
Original geschrieben von Endorphine
Dann lass ich den Treibercode eben in einem Emulator ablaufen und warte, bis die Entschlüsselungsroutine mir alles fein säuberlich entpackt liefert. Irgendwie vergrössert das nur den Aufwand. Wenn man an den Treiber rankommen möchte dann geht das auch mit Verschlüsselung noch.

Da müsste nVidia schon mehr Aufwand betreiben und etwas wie einen Hardwaredongle in ihren GPUs mitliefern. Dann besteht ne realistische Chance, den Treiber wirklich auf absehbare Zeit unknackbar zu machen.

Nur eine Frage der Verhältnissmässigkeiten. Wenn man sich nicht ganz blöd anstellt braucht man für das einbauen eines Obfuscators viel weniger Zeit als ein anderer diesen wieder zu entfernen. Man bindet damit beim "Gegner" mehr Kräfte als auf der eigenen Seite.

Wenn man einen "Gegner" schon nicht aufhalten kann muss man versuchen in zu bremsen. Business is war (http://www.adforceone.com/brochure images/default_test.gif)

BlueRaven
2003-07-09, 10:32:22
Original geschrieben von Demirug
Nur eine Frage der Verhältnissmässigkeiten. Wenn man sich nicht ganz blöd anstellt braucht man für das einbauen eines Obfuscators viel weniger Zeit als ein anderer diesen wieder zu entfernen. Man bindet damit beim "Gegner" mehr Kräfte als auf der eigenen Seite.

Wenn man einen "Gegner" schon nicht aufhalten kann muss man versuchen in zu bremsen. Business is war


Business is war da gebe ich dir 100% recht.




MFG
BlueRaven

Endorphine
2003-07-09, 10:36:54
Original geschrieben von Demirug
Nur eine Frage der Verhältnissmässigkeiten. Wenn man sich nicht ganz blöd anstellt braucht man für das einbauen eines Obfuscators viel weniger Zeit als ein anderer diesen wieder zu entfernen. Man bindet damit beim "Gegner" mehr Kräfte als auf der eigenen Seite.

Wenn man einen "Gegner" schon nicht aufhalten kann muss man versuchen in zu bremsen. Business is war Unterm Strich würde ich aber behaupten, dass nVidia mehr verliert (Ansehen/Respekt in der Szene) als gewinnt. Statt das Aufkommen von Anti-Cheat Skripten zum Anlass zu nehmen, sich lieber mehr einer sauberen Treiberentwicklung zu widmen, die Mehrperformance für alle Anwendungen erschliesst und Bugs für jeden behebt zieht sich nVidia gekränkt in ein Schneckenhaus zurück und sichert den Treiber lieber gegen bösartige Hacker ab, die "Optimierungen" finden und deaktivieren möchten. :nono:

Bei solchen Machenschaften muss sich IMHO niemand wundern, wenn nVidia immer mehr Anhänger verliert und sich langsam aber sicher zum Microsoft der GPU-Hersteller entwickelt.

Richthofen
2003-07-09, 10:58:13
Original geschrieben von Endorphine
Unterm Strich würde ich aber behaupten, dass nVidia mehr verliert (Ansehen/Respekt in der Szene) als gewinnt. Statt das Aufkommen von Anti-Cheat Skripten zum Anlass zu nehmen, sich lieber mehr einer sauberen Treiberentwicklung zu widmen, die Mehrperformance für alle Anwendungen erschliesst und Bugs für jeden behebt zieht sich nVidia gekränkt in ein Schneckenhaus zurück und sichert den Treiber lieber gegen bösartige Hacker ab, die "Optimierungen" finden und deaktivieren möchten. :nono:

Bei solchen Machenschaften muss sich IMHO niemand wundern, wenn nVidia immer mehr Anhänger verliert und sich langsam aber sicher zum Microsoft der GPU-Hersteller entwickelt.

Warum gleich so kompliziert.
Sie entwickln sich eher zum Intel der GPU Hersteller und da stört es ja auch keinen.

Und ansonsten kann ich deine ANsicht auch nur bedingt teilen. Die Masse der Kunden ist dumm und die meissten von denen haben da gar nix mitbekommen und in spätestens paar Monaten wenn die neuen GPUs kommen, kräht kein Hahn mehr danach.
Eigentlich nur ne Frage der Zeit, bis ATI nachzieht, wenn sie nicht schon damit begonnen haben.

Sir Integral Wingate Hellsing
2003-07-09, 11:15:16
Hm, wenn ATi auch noch so anfangen würde, dann wäe auch da Schluss für die Omega-Treiber.

@Richthofen: Mag ja ne logische Konsequenz von NVIDIA sein (das mit dem Verschlüsseln), aber Du musst zugeben : Glaubwürdiger macht sie das nicht...

Exxtreme
2003-07-09, 11:20:25
Original geschrieben von Richthofen
Und ansonsten kann ich deine ANsicht auch nur bedingt teilen. Die Masse der Kunden ist dumm und die meissten von denen haben da gar nix mitbekommen und in spätestens paar Monaten wenn die neuen GPUs kommen, kräht kein Hahn mehr danach.
Eigentlich nur ne Frage der Zeit, bis ATI nachzieht, wenn sie nicht schon damit begonnen haben.
ATi wird's wohl nicht machen. :)

Unwinder hat sogar eine R9800 bekommen von ATi:

"ATI offered to send R9800 sample, even considering the fact that I warned them that I'll use the board for further application detects investigation. So either the company is pretty confident that I won't find any cheats more, or there are really no cheats left and ATIAntiDetector blocks absolutely everything. The only thing I can say: I respect such reaction. "

Sir Integral Wingate Hellsing
2003-07-09, 11:24:25
Original geschrieben von Exxtreme
ATi wird's wohl nicht machen. :)

Unwinder hat sogar eine R9800 bekommen von ATi:

"ATI offered to send R9800 sample, even considering the fact that I warned them that I'll use the board for further application detects investigation. So either the company is pretty confident that I won't find any cheats more, or there are really no cheats left and ATIAntiDetector blocks absolutely everything. The only thing I can say: I respect such reaction. "

Tja, da hat sich seine Arbeit wohl mal bezahlt gemacht ;)
Daumen hoch!

mapel110
2003-07-09, 11:27:20
ehm, ich hatte die frage schonmal in nem anderen thread geschrieben, hab den aber leider aus den augen verloren.
deswegen hier nochmal :)

wie siehts denn eigentlich mit der notwendigen erkennung von spielen aus (betreff:grakafehler,abstürze usw) ?
die wird doch durch das script auch geblockt?!

Exxtreme
2003-07-09, 11:28:33
Original geschrieben von mapel110
wie siehts denn eigentlich mit der notwendigen erkennung von spielen aus (betreff:grakafehler,abstürze usw) ?
die wird doch durch das script auch geblockt?!
AFAIK ja.

Demirug
2003-07-09, 11:28:50
Original geschrieben von mapel110
ehm, ich hatte die frage schonmal in nem anderen thread geschrieben, hab den aber leider aus den augen verloren.
deswegen hier nochmal :)

wie siehts denn eigentlich mit der notwendigen erkennung von spielen aus (betreff:grakafehler,abstürze usw) ?
die wird doch durch das script auch geblockt?!

Zumindestens bei NV blockt das script jede Erkennung egal für was sie gut ist.

Mr. Lolman
2003-07-09, 11:30:31
Original geschrieben von cl55amg
ich habe in meinem post genau geschrieben das der neue wrapper auch nicht alles zeigt!

wer lesen kann ist klar im vorteil unreg

Nanana, nicht so frech, der Unreg hats sicher gelesen, sonst wäre sein Posting garnicht zustande kommen. Aber wo fehlen Effekte? Beim alten Wrapper fehlten die Wimpern von Dawn, welche mit dem neuen Wrapper jetzt vorhanden sind. Was fehlt denn noch?

Die DOOM3 Geschwindigkeit ist auch nicht so für voll zu nehemn. NV siegt nur, wenn man Texturcompression verwendet, und aufs AF verzichtet. Wenn ich mir eine 500€ Karte kaufen, dann will ich das Spiel schon mit vollen Details spielen. (Medium Quality Tests bei Highend Karten :balla: :bonk: )

Axel
2003-07-09, 11:30:55
Original geschrieben von Exxtreme
ATi wird's wohl nicht machen. :)

Unwinder hat sogar eine R9800 bekommen von ATi:


ATi will doch nur seine Adresse in Erfahrung bringen, um ihn dann richtig zur Brust zu nehmen. ;)

Exxtreme
2003-07-09, 11:32:53
Original geschrieben von Axel
ATi will doch nur seine Adresse in Erfahrung bringen, um ihn dann richtig zur Brust zu nehmen. ;)
Smiley nicht übersehen. ;)

Aber da Unwinder in Russland hockt, kann ATi nichts machen. RE ist dort AFAIK legal.

mapel110
2003-07-09, 11:34:07
Original geschrieben von Demirug
Zumindestens bei NV blockt das script jede Erkennung egal für was sie gut ist.

und da treten keine grakafehler auf ?!
schon erstaunlich, wenn ja(also keine grakafehler).

cl55amg
2003-07-09, 11:34:56
Original geschrieben von Demirug
Zumindestens bei NV blockt das script jede Erkennung egal für was sie gut ist.

das script blockt auch reguläre performance optimierungen und bugfixes für spiele.deshalb würde ich sagen ist das script für den a**** und in ein paar tagen vergessen...

Exxtreme
2003-07-09, 11:35:36
Original geschrieben von mapel110
und da treten keine grakafehler auf ?!
schon erstaunlich, wenn ja(also keine grakafehler).
Hmm, ich installiere vielleicht das ATiAntiDetect-Script am WE und lasse dann einige EA-Spiele laufen. :D

Demirug
2003-07-09, 11:37:07
Original geschrieben von Mr. Lolman
Nanana, nicht so frech, der Unreg hats sicher gelesen, sonst wäre sein Posting garnicht zustande kommen. Aber wo fehlen Effekte? Beim alten Wrapper fehlten die Wimpern von Dawn, welche mit dem neuen Wrapper jetzt vorhanden sind. Was fehlt denn noch?

Irgenwas mit den Augen. AFAIK ein Tränenfilm shader.

Die DOOM3 Geschwindigkeit ist auch nicht so für voll zu nehemn. NV siegt nur, wenn man Texturcompression verwendet, und aufs AF verzichtet. Wenn ich mir eine 500€ Karte kaufen, dann will ich das Spiel schon mit vollen Details spielen. (Medium Quality Tests bei Highend Karten :balla: :bonk: )

Bei den D3 Tests blickt ja sowieso keiner durch was da abgelaufen ist.

Birdman
2003-07-09, 11:37:30
Original geschrieben von cl55amg
sag mal, liest du computer bild?
du bist ja echt ein sachkundiger mensch der mit diesem post beweist das es hier auch leute gibt die wissen wovon sie reden...
wenn es dir spass macht leuten zu empfehlen was für grafikkarten sie sich holen sollen, dann geh doch mal ins giga forum.
ich glaub da frägt gerade jemand was für ne karte er braucht um quake 4 zu spielen(ohne cheats versteht sich)

beeil dich!
Uhm, ich habe halt auch Kumpels im RealLive und da ich von denen derjenige mit der meisten Erfahrung und Wissen bin, hauen die mich jeweils an wenn was neues in die Kiste soll.
Und wieso soll ich denen dann ine Geforce empfehlen, wenn man fürs gleiche Geld ein besseres Produkt erhält.

btw. bis vor einem halben jahr habe ich noch jedem eine GF4 reingedrückt, 2x eine ti4600 und 3x ne 4200er....wobei man letztere auch heute noch empfehlen kann, sofern einer keine grösseren Ansprüche stellt.

Riptor
2003-07-09, 11:42:33
Original geschrieben von Demirug
Bei den D3 Tests blickt ja sowieso keiner durch was da abgelaufen ist.

Full Ack! :) Schade, dass trotzdem die breite Masse alles glaubt, was THG und Co. ihnen da vorgesetzt hat.

cl55amg
2003-07-09, 11:43:23
Original geschrieben von Mr. Lolman

Die DOOM3 Geschwindigkeit ist auch nicht so für voll zu nehemn. NV siegt nur, wenn man Texturcompression verwendet, und aufs AF verzichtet. Wenn ich mir eine 500€ Karte kaufen, dann will ich das Spiel schon mit vollen Details spielen. (Medium Quality Tests bei Highend Karten :balla: :bonk: )

jaja, wenn du das spiel mit vollen effekten spielen willst, dann wird das mit einer radeon vielleicht schwierig!
den herr carmack meinte ja das doom vielleicht exclusive "fx" schatteneffekte kriegt.aber steht noch nicht fest.
allerdingst steht es bei stalker fest das es fx only features gibt.

also komm bloß nicht mit "volle details!"

Demirug
2003-07-09, 11:45:50
Disassembler rulez :D

kodiert ist scheinbar nur der DX Treiber. OpenGL und Systemtreiber wurde wohl noch nicht angefasst. Alles in allem IMHO aber viel zu auffällig und vorallem viel zu viel kodiert da bleibt ja kaum unkoodierter Code übrig den man nach der Dekoderfunktion durchsuchen muss.

PS: In dem Treiber gibt es eine Andeutung bezüglich "Video shader" und noch andere merkwürdigkeiten (bezüglich Features) die eine genauerer untersuchung bedürfen.

Mr. Lolman
2003-07-09, 11:47:21
Original geschrieben von cl55amg
das script blockt auch reguläre performance optimierungen und bugfixes für spiele.deshalb würde ich sagen ist das script für den a**** und in ein paar tagen vergessen...

Das Script war ja nicht dazu da, damit Leute wieder in Full Quality spielen können, sondern um Optimierungen/Cheats ausfindig zu machen. Wenn mit dem Script bei UT2003 dass AF plötzlich besser wird, liegt das sicher nicht an einem Bugfix...

StefanV
2003-07-09, 12:18:49
Original geschrieben von cl55amg
wenn ich für nv arbeiten würde dann hätte ich genau das selbe vorgeschlagen!
das umstrittene anti cheat script hat bei ati auch einiges "verändert" doch davon redet niemand...
man könnte fast meinen das die presse nvidia auf dem kicker hat.
und genau davor wollen sie sich schützen.die geforce fx lebt nun mal von eigenwilligen optimierungen, und solange die bildqualität nicht darunter leidet, gibt es auch kein problem.
hält mich in verschlüsselter treiber davon ab mir in den nächsten tagen eine fx 5900 zu kaufen?

bestimmt nicht!

1. Ich nicht...
Solche Aktionen sollte man eigentlich als Unternehmung unterlassen, da der Eindruck entstehen könnte, daß man versucht was zu vertuschen, was dazu führen könnte, daß man sich selbst den Ruf ruiniert, was dazu führen könnte, daß die Konsumenten das Vertrauen verlieren, was dazu führen könnte, daß die Konsumenten sich verstärkt bei der Konkurenz umschauen wird, was mindestens einen sehr starken Umsatzrückgang zur Folge hat...

Ich würde Designfehler eingestehen und in die aktuellen Produkte nicht mehr Energien als nötig reinstecken und mich auf die nächsten Produkte konzentrieren, was ja bei AMD (K6 -> als man gemerkt hat, daß man mit dem K6-2/3 keinen Blumentopf gewinnen kann, hat man sich voll auf den K7 konzentriert) schonmal funktioniert hat...

2. nur seltsamerweise hats bei ATI sogut wie nischts gebracht...
Wobei Unwider auch selbst gesagt hat, daß die Optimierungen in den ATI Treibern schwerer außer Kraft zu setzen sind...

3. überleg mal, warum die Presse NV aufm Kieker haben könnte??
Vielleicht deswegen, weil sie in letzter Zeit nur Müll fabrizieren??
Und das NV versucht den Müll zu verdecken??
Siehe ja NV3x Shaderleistung im Vergleich zur Rx3x0...

4. dich vielleicht nicht aber diverse andere Kunden eventuell...
Und auch noch nicht gleich aber in Zukunft...

NV sollte sich lieber stärker auf die kommenden Produkte konzentrieren anstatt sich mit Cheating einen Namen zu machen, davon hätten sie auf lange Sicht mehr...

StefanV
2003-07-09, 12:29:17
Original geschrieben von Exxtreme
ATi wird's wohl nicht machen. :)

Unwinder hat sogar eine R9800 bekommen von ATi:

"ATI offered to send R9800 sample, even considering the fact that I warned them that I'll use the board for further application detects investigation. So either the company is pretty confident that I won't find any cheats more, or there are really no cheats left and ATIAntiDetector blocks absolutely everything. The only thing I can say: I respect such reaction. "

...oder ATI hat sie gleich gut genug versteckt *eg*...

Auf JEDEN FALL ists massig gute PR seitens der Presse, die ATI auch noch nichtmal wirklich was kostet...
Da schmeißt man doch gerne noch ein kleines 'Bonscher' hinterher, meint ihr nicht?? :naughty:

Gast
2003-07-09, 12:45:54
Original geschrieben von silverhawk
*lol* dies würde dann ja auch heißen das man im falle eines cheats dies nicht mehr nachvollziehen könnte.... echt ne kranke sache von nvidia seine treiber zu verschlüsseln!


Das Disassemblieren und Hacken von Software wird von JEDER Firma verboten und es ist NVs gutes Recht sich dagegen zu schuetzen.

Gast
2003-07-09, 12:49:28
Original geschrieben von Demirug
Die Sache ist doch ganz einfach.

stell euch einfach mal vor das jemand ständig eurer Schubladen durchwühlt. Bisher war es euch egal weil ihr ja auch seine durchstöbert habt. Nun hat aber dieser nette Wühler neuerdings schwer gefallen daran gefunden aller Welt zu erzählen was ihr so alles tief in eurer Schublade vergraben habt. Das ruft natürlich noch mehr Wühler auf den Plan auch eurer Schubladen zu durchstöbern. Irgenwann reicht es euch dann einfach und ihr hängt ein Schloss davor. Das wird zwar auch irgendwie aufzubekommen sein aber fürs erste schaut mal keiner mehr in die Schubladen.

Full ack.

Ich finde es gradezu peinlich, wie hier ueber eine Firma hergezoegen wird, nur weil diese versucht, ihr geistiges Eigentum zu schuetzen.

btw. schaun wir mal, wann ATi denn nachzieht.

Sumpfmolch
2003-07-09, 12:51:24
Original geschrieben von cl55amg
das script blockt auch reguläre performance optimierungen und bugfixes für spiele.deshalb würde ich sagen ist das script für den a**** und in ein paar tagen vergessen...

gerade da war man ja dabei sich durchzuwühlen welche optimierung für welches game zuständig ist und was sie bewirkt. also ob es eine gute optimierung ohne bildqualitätsverlust, oder ein bugfix oder ob es sich eben um treibercheaterei handelt wie ati und nvidia sich bei ut2003 erlauben beim af ;)

...dem hat nun nvidia den riegel erst mal vorgeschoben...das absolut dümmste was man tun kann um vorwürfe zu entkräften :klick:

Sumpfmolch
2003-07-09, 12:52:05
Original geschrieben von Gast
Full ack.

Ich finde es gradezu peinlich, wie hier ueber eine Firma hergezoegen wird, nur weil diese versucht, ihr geistiges Eigentum zu schuetzen.

btw. schaun wir mal, wann ATi denn nachzieht.

af cheaten in ut2003..tolles geistiges eigentum (da schließ ich ati mit ein) :D

Razor@Work
2003-07-09, 12:57:33
Original geschrieben von Gast
AFAIK gibt es einen neuen Wrapper. Und der zeigt alles.
Hab' ich noch nix von gehört...

Razor

Razor@Work
2003-07-09, 12:59:14
Original geschrieben von Endorphine
Dann lass ich den Treibercode eben in einem Emulator ablaufen und warte, bis die Entschlüsselungsroutine mir alles fein säuberlich entpackt liefert. Irgendwie vergrössert das nur den Aufwand. Wenn man an den Treiber rankommen möchte dann geht das auch mit Verschlüsselung noch.

Da müsste nVidia schon mehr Aufwand betreiben und etwas wie einen Hardwaredongle in ihren GPUs mitliefern. Dann besteht ne realistische Chance, den Treiber wirklich auf absehbare Zeit unknackbar zu machen.
Ich glaube nicht, dass es darum geht, die 'Optimierungen' für immer unkenntlich zu machen...
Vielmehr soll einfach nur verhindert werden, dass irgendjemand die Treiber verändert und dem dürfte man durch die Verschlüsselung entgegen gewirkt haben.

Razor

Exxtreme
2003-07-09, 13:05:46
Original geschrieben von Razor@Work
Ich glaube nicht, dass es darum geht, die 'Optimierungen' für immer unkenntlich zu machen...
Vielmehr soll einfach nur verhindert werden, dass irgendjemand die Treiber verändert und dem dürfte man durch die Verschlüsselung entgegen gewirkt haben.

Razor
Naja, ich denke, daß es darum geht, zu vertuschen, ob man in irgendeinen Benchmark "optimiert" hat oder nicht. Die Applikationen, bei denen die "Optimierungen" greifen, konnte Unwinder auch vorher nicht aus dem Treiber extrahieren. Bis auf das AnitDetect-Script waren alle Patch-Skripte eigentlich positiv zu werten.

Black-Scorpion
2003-07-09, 13:11:08
Original geschrieben von Razor@Work
Hab' ich noch nix von gehört...

Razor

Hier gibt es den neuen Wrapper.
http://www.rage3d.com/articles/atidawning/

seahawk
2003-07-09, 13:11:53
Für mich sieht es anch einer Verzweifelungstat von NV aus. Wenn die Cheats keinen sichtbaren Unterschiede haben, dann können Sie eigentlich dazustehen, denn dann ist es eine tolle Optimierung.

Aber wahrscheinlich ist die gesamte FX Serie ohne Cheats in aktuellen Spielen nicht mehr konkurrenzfähig.

Razor@Work
2003-07-09, 13:20:32
Original geschrieben von Exxtreme
Naja, ich denke, daß es darum geht, zu vertuschen, ob man in irgendeinen Benchmark "optimiert" hat oder nicht. Die Applikationen, bei denen die "Optimierungen" greifen, konnte Unwinder auch vorher nicht aus dem Treiber extrahieren. Bis auf das AnitDetect-Script waren alle Patch-Skripte eigentlich positiv zu werten.
Na ja, also irgendwie ist Deine Argumentation hier nicht ganz schlüssig, oder ?

Schließlich hat man ja ALLE Treiber vor dem (inoffiziellen) 44.67 zur Verfügung um genau und haarklein zu analysieren, was nVidia da nun getrieben hat (inkl. dem Wiederaufleben der Murks03-'performance' beim 44.65 !).

Der Treiber kann jetzt aber nicht mehr verändert werden und was bitte ist aus nVidia's Sicht jetzt an den bisherigen Patch-Scripten als 'positiv' zu bewerten ?

Ich denke eher, dass man zukünftig vermeiden möchte, dass irgendwer ins Nähkästlein nVidia's schaut. Insbesondere wird dies wohl für die 5x.xx'er Deto's gelten, die ja wohl nochmals auf Performance getrimmt werden. Auch dürfte der NV40 demnächst in die Treiber integriert werden, bei dem man wohl sicher stellen möchte, dass bei diesem keine technischen Details über's RE offen gelegt werden.

Fakt ist, dass es JEDER Firma zugestanden werden muss, das eigene geistige Eigentum zu schützen. Nichts desto trotz sollte dies nicht dazu ermächtigen, nun fröhlich daruf los zu cheaten. So ist jetzt die Meßlatte für die Reviewer einfach höher gesteckt worden, da nun mit Argusaugen auf die dargestellte Qualität geachtet werden muss. Nix mehr, mit einfach nur Bechmaks an sich vorbei zischen zu lassen, sondern Detail-Arbeit ist nun gefragt.

Ich finde diese Entwicklung eigentlich sehr positiv, da es dadurch zwar vielleicht insgesamt weniger Reviews geben wird, dafür aber mehr, die qualitativ hochwertiger sind.

Also ich bin jetzt mal wirklich gespannt, wie sich das Ganze weiter entwickeln wird !

Razor

aths
2003-07-09, 13:21:51
Original geschrieben von Axel
Was soll man davon halten?
Anstatt die Karten auf den Tisch zu legen, kapselt sich nvidia immer mehr ab und nährt damit den Verdacht, daß sie nicht ohne Cheat Leistung zeigen können. Gerade im Hinblick auf die gezeigten Ergebnisse der letzten Wochen, wäre eine offenere Treiberpolitik wünschenswert. Wahrscheinlich, weil die Leistung ansonsten unzureichend wäre. Sie stehen offensichtlich vor der Wahl, dass ihre HW plötzlich schwachbrüstiger wird, was dann auch bei jenen Fragen aufwirft die vom AntiCheat-Patch nichts wissen, aber natürlich merken dass ihnen beim 3DMark 20% der Punkte fehlen. Oder dass sie eben weiterhin Leistung vorgaukeln, die physikalisch nicht vorhanden ist.

Ich bin ziemlich sicher, dass Unwinder schon Ideen hat wie man dieser Verschlüsselung Herr werden könnte. Nvidia legte ihm ja auch Steine in den Weg, als er Scripte schrieb um aus einer GeForce eine Quadro zu machen. Als NV dafür sorgte, dass der Treiber etwas ausliest was nicht softwaremäßig modifizierbar ist, patchte Unwinder diesen Teil des Detonators einfach weg :D

Bei Treiber-"Verbesserungen" in der Vergangenheit wurde ja auch schon bemerkt, dass diese vor allem für Q3 und den 3DMark gilt. Damals hoffte ich noch, dass es sich um Optimierungen handelt von denen auch andere Anwendungen profitieren könnten. Das ist bei Shaderreplacement und Co., und spezieller Applikations-Abfrage aber natürlich nicht der Fall.

Pathfinder
2003-07-09, 13:25:50
Original geschrieben von Demirug
Zumindestens bei NV blockt das script jede Erkennung egal für was sie gut ist.

Deshalb ist es sinnvoll, applikationsspezifische Anpassungen samt deren Zweck als Teil der Treiberdistribution zu veröffentlichen.

Dies Schritt läßt nur die Schlußfolgerung zu, daß NVidia nun weiterhin beabsichtigt, den Kunden bezüglich der tatsächlichen Leistungsfähigkeit der NV3x Chips hinters Licht zu führen. Treiber und Hardware bilden eine Einheit und sind als ein Produkt zu sehen.

Ein Vergleich:
Man stelle sich vor, ein Automagazin würde zu Testzwecken ein hinsichtlich Leistung modifizierte Testwagen an Stelle eines Serienwagens erhalten, ohne davon zu wissen. Gleichzeit und um auf Nummer Sicher zu gehen, besorgt das Magazin sich anonym einen normalen Serienwagen. Nun fällt ein eklatanter Leistungsunterschied zwischen Serienwagen und Testmodell auf. Das Testmodell scheint irgendwie die doppelte Leistung des Serienmodells zu haben. Um dies zu überprüfen, möchte das Magazin unter die Motorhaube schauen, aber leider ist es ihnen verboten ...

Wer würde noch ein Auto von diesem Hersteller kaufen?

Pathfinder

Razor@Work
2003-07-09, 13:26:19
Original geschrieben von Anonym_001
Hier gibt es den neuen Wrapper.
http://www.rage3d.com/articles/atidawning/
Den kenne ich doch schon...
;-)

Nur habe ich noch nichts davon gehört, dass nun alle nVidia-spezifischen Extensions von einem solchen Wrapper 'interpretiert' werden können.

Auch ist diese 'Emulation' noch immer nicht vollständig... so werden einige Details (wie z.Bsp. die Augen) noch immer nicht korrekt dargestellt und IMO ist dieses Detail das 'augenschlich' aufwändigste Teil der ganze Dawn-Demo. Die Augen wirken tatsächlich 'echt'... der Glanz, die Detials und auch die Spiegelungen auf der feucht glänzenden Oberfläche... einfach grandios !

Schade nur, dass wir auf Games dieser Qualität noch eine ganze Weile werden warten dürfen...
:-(

Razor

Gast
2003-07-09, 13:27:49
Original geschrieben von seahawk
Für mich sieht es anch einer Verzweifelungstat von NV aus. Wenn die Cheats keinen sichtbaren Unterschiede haben, dann können Sie eigentlich dazustehen, denn dann ist es eine tolle Optimierung.

Aber wahrscheinlich ist die gesamte FX Serie ohne Cheats in aktuellen Spielen nicht mehr konkurrenzfähig.
Wie schon gesagt... der 44.67 unterscheidet sich in Punkto Leistung und Qualität eigentlich kaum von dem 44.65 und letzerer ist unverschlüsselt.

Wo soll daran also bitte eine 'Verzweiflungstat' ersichtlich sein ?
???

Razor

Gast
2003-07-09, 13:32:08
Original geschrieben von Razor@Work

Vielmehr soll einfach nur verhindert werden, dass irgendjemand die Treiber verändert
Razor


so ist es.
und dass unwinder mit seiner Hackerei mit einem Bein im Knast steht scheint auch niemanden wirklich zu interessieren.:|

Exxtreme
2003-07-09, 13:32:20
Original geschrieben von Razor@Work
Na ja, also irgendwie ist Deine Argumentation hier nicht ganz schlüssig, oder ?

Schauen wir mal. :)
Original geschrieben von Razor@Work
Schließlich hat man ja ALLE Treiber vor dem (inoffiziellen) 44.67 zur Verfügung um genau und haarklein zu analysieren, was nVidia da nun getrieben hat (inkl. dem Wiederaufleben der Murks03-'performance' beim 44.65 !).

So wie ich es mitgekriegt habe, sind die Dateinamen im Treiber verschlüsselt abgelegt. Und deswegen kann Unwinder diese nicht extrahieren. Und einen ganzen Treiber zu disassemblieren und seine Funktionsweise zu verstehen dürfte sehr langwierig werden. Deswegen glaube ich nicht, daß jemand ausser Nvidia eine Ahnung hat, wie die Treiber richtig funktionieren. Unwinders Arbeit war eher ein Kratzen an der Oberfläche.
Original geschrieben von Razor@Work
Der Treiber kann jetzt aber nicht mehr verändert werden und was bitte ist aus nVidia's Sicht jetzt an den bisherigen Patch-Scripten als 'positiv' zu bewerten ?
Hmm, AFAIK war die TS-Optimierung auch auf Unwinders Mist gewachsen. Man konnte mehr Leistung rausholen und der BQ-Verlust hielt sich trotzdem in Grenzen. Wenn das nicht positiv ist...
Original geschrieben von Razor@Work
Ich denke eher, dass man zukünftig vermeiden möchte, dass irgendwer ins Nähkästlein nVidia's schaut. Insbesondere wird dies wohl für die 5x.xx'er Deto's gelten, die ja wohl nochmals auf Performance getrimmt werden. Auch dürfte der NV40 demnächst in die Treiber integriert werden, bei dem man wohl sicher stellen möchte, dass bei diesem keine technischen Details über's RE offen gelegt werden.

Wie gesagt, die Funktionsweise eines Treibers per Disassemblierung zu verstehen ist normalerweise seeeehr zeit aufwendig. <-- alte Rechtschreibung ruhlt einfach. :D
Original geschrieben von Razor@Work
Fakt ist, dass es JEDER Firma zugestanden werden muss, das eigene geistige Eigentum zu schützen. Nichts desto trotz sollte dies nicht dazu ermächtigen, nun fröhlich daruf los zu cheaten. So ist jetzt die Meßlatte für die Reviewer einfach höher gesteckt worden, da nun mit Argusaugen auf die dargestellte Qualität geachtet werden muss. Nix mehr, mit einfach nur Bechmaks an sich vorbei zischen zu lassen, sondern Detail-Arbeit ist nun gefragt.

Da gebe ich dir recht. Ich denke aber nicht, daß sich die "üblichen Verdächtigen" ändern werden.
Original geschrieben von Razor@Work
Ich finde diese Entwicklung eigentlich sehr positiv, da es dadurch zwar vielleicht insgesamt weniger Reviews geben wird, dafür aber mehr, die qualitativ hochwertiger sind.

Hoffentlich ja, wenn die Reviewer aus der Sache gelernt haben.
Original geschrieben von Razor@Work
Also ich bin jetzt mal wirklich gespannt, wie sich das Ganze weiter entwickeln wird !

Razor
Ich auch.

Sir Integral Wingate Hellsing
2003-07-09, 13:33:45
Original geschrieben von Gast
Wie schon gesagt... der 44.67 unterscheidet sich in Punkto Leistung und Qualität eigentlich kaum von dem 44.65 und letzerer ist unverschlüsselt.

Wo soll daran also bitte eine 'Verzweiflungstat' ersichtlich sein ?
???

Razor

Das NV anscheinend Angst hat, dass vielleicht mehr herauskommen könnte, als es schon passiert ist?
Bzw um zukünftige "Optimierungen" besser verstecken zu können...

Exxtreme
2003-07-09, 13:34:17
Original geschrieben von Gast
so ist es.
und dass unwinder mit seiner Hackerei mit einem Bein im Knast steht scheint auch niemanden wirklich zu interessieren.:|
Wer soll ihn denn anklagen? Eine US-Firma? Er darf sich halt nicht in den Staaten blicken lassen.

Sir Integral Wingate Hellsing
2003-07-09, 13:34:47
Original geschrieben von Pathfinder
Ein Vergleich:
Man stelle sich vor, ein Automagazin würde zu Testzwecken ein hinsichtlich Leistung modifizierte Testwagen an Stelle eines Serienwagens erhalten, ohne davon zu wissen. Gleichzeit und um auf Nummer Sicher zu gehen, besorgt das Magazin sich anonym einen normalen Serienwagen. Nun fällt ein eklatanter Leistungsunterschied zwischen Serienwagen und Testmodell auf. Das Testmodell scheint irgendwie die doppelte Leistung des Serienmodells zu haben. Um dies zu überprüfen, möchte das Magazin unter die Motorhaube schauen, aber leider ist es ihnen verboten ...

Wer würde noch ein Auto von diesem Hersteller kaufen?

Pathfinder

Guter Vergleich! So könnte man es einen unerfahrenen Anwender erklären.

Mr. Lolman
2003-07-09, 13:36:22
Original geschrieben von Sumpfmolch
...oder ob es sich eben um treibercheaterei handelt wie ati und nvidia sich bei ut2003 erlauben beim af ;)
...
Original geschrieben von Mr. Lolman
ATi hat in UT2003 nicht gecheatet. Bitte auch diesen Thread dazu durchlesen:

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=81049

Seit jemand diese falschen Screenshots bei B3D gepostet hat und Leo das in die News übernahm, hält sich dieses Gerücht hartnäckig...

Razor@Work
2003-07-09, 13:40:52
Original geschrieben von aths
Wahrscheinlich, weil die Leistung ansonsten unzureichend wäre. Sie stehen offensichtlich vor der Wahl, dass ihre HW plötzlich schwachbrüstiger wird, was dann auch bei jenen Fragen aufwirft die vom AntiCheat-Patch nichts wissen, aber natürlich merken dass ihnen beim 3DMark 20% der Punkte fehlen. Oder dass sie eben weiterhin Leistung vorgaukeln, die physikalisch nicht vorhanden ist.
Sorry, aber das ist doch hirnrissig...

Das der offizielle M$-Compiler für DX9 ATI-Hardware bevorzugt, ist aber hoffentlich nicht an Dir vorüber gegangen, oder ? Auch sind 'legale' Optimierungen völlig legitim, wie sie vermutlich auch bei ATI zu Hauf zu finden sind (nicht alles ist ein Cheat ;-).

Insofern muss man doch die Frage stellen, ob beispielsweise der Murks überhaupt korrekte Zahlen auswirft, oder aber nicht doch (wie von vielen vermutet) derzeit einfach einen bestimmten IHV bevorzugt (ob absichtlich oder nicht, sei jetzt mal dahin gestellt).
Original geschrieben von aths
Ich bin ziemlich sicher, dass Unwinder schon Ideen hat wie man dieser Verschlüsselung Herr werden könnte. Nvidia legte ihm ja auch Steine in den Weg, als er Scripte schrieb um aus einer GeForce eine Quadro zu machen. Als NV dafür sorgte, dass der Treiber etwas ausliest was nicht softwaremäßig modifizierbar ist, patchte Unwinder diesen Teil des Detonators einfach weg :D
Was jetzt schwieriger werden dürfte, wenn der Treiber mit Checksummen eine Modifikation feststellen kann und damit dessen korrekte Ausführung verhindert. Auch waren die Treiber damals nicht verschlüsselt, insofern der Aufwand für ein erneutes RE massiv gestiegen sein dürfte und nun bei jedem neuen Treiber-Release zum Tragen kommt.
Original geschrieben von aths
Bei Treiber-"Verbesserungen" in der Vergangenheit wurde ja auch schon bemerkt, dass diese vor allem für Q3 und den 3DMark gilt. Damals hoffte ich noch, dass es sich um Optimierungen handelt von denen auch andere Anwendungen profitieren könnten. Das ist bei Shaderreplacement und Co., und spezieller Applikations-Abfrage aber natürlich nicht der Fall.
Shaderreplacemnt ist OK, wenn der Output nicht verändert wird. Auch ist gegen eine "spezielle Applikations-Abfrage" nichts einzuwenden, wenn es um effektive Fehlerbeseitigung oder eben Engine-spezifische Optimierungen geht (ohne die BQ zu beeinträchtigen !).

Bis denne

Razor

ShadowXX
2003-07-09, 13:41:41
Original von cl55amg:
jaja, wenn du das spiel mit vollen effekten spielen willst, dann wird das mit einer radeon vielleicht schwierig!
den herr carmack meinte ja das doom vielleicht exclusive "fx" schatteneffekte kriegt.aber steht noch nicht fest.
allerdingst steht es bei stalker fest das es fx only features gibt.
also komm bloß nicht mit "volle details!"


du sagst es...wir wissen nicht wie sich irgendeine GraKa bei Doom3 mit Full Details schlagen wird, da das noch niemand gebencht hat (zumindest keine zuverlässige Quelle).
Wir wissen also auch nicht wie schnell ein nv30/nv35/nv40 mit D3/FullDetail sein wird.
Wenn ich jetzt aufzählen würde eas Carmack alles gesagt haben soll, wäre ich 2 Stunden beschäftigt und wor wüssten immer noch nicht was davon wahr/halwahr/falsch ist.....warten wir doch einfach auf den release von D3 bevor wir uns streiten welche Karte darin schneller/besser ist.
Gilt auch für Stalker, das sich übrigens letztens mal wieder um 1 Jahr verschoben hat....

Asserdem ist auch bei den SW-Herstellern inzwischen viel PR dabei. Es kommt ganz darauf an, wer die Fragen stellt...
Beispiel:
Wenn Planet3DNow Spielehersteller X fragt, werden diese Antworten: beste Performance auf einem AMD...
Wenn nun PlanetISSE2 (;D) fragt:
beste Performance auf einem Intel...

J.S.Shadow

try2fixit
2003-07-09, 13:45:24
@ cl55amg:

Ich kann ja auch verstehen, daß Du traurig bist. Du hast doch bestimmt schon die FX5900 Ultra (zumindest fest vorbestellt). Und dann hast Du bestimmt vor Deinen ganzen Freunden über die ach so schlechten Radeon-Karten hergezogen. Sich jetzt einzugestehen, daß NVIDIA nur noch Murks macht....ist anscheinend schon seeehr problematisch für Dich.

PS:

1. Ich lese keine Computerbild, sondern C´t (solltest Du vielleicht auch lieber mal lesen...kann sein, daß es noch bildet!)

2. Ja, ich habe nach ca. 6 NVIDIA Karten (Elsa Erazor, Elsa Erazor III, Elsa Erazor X2, Elsa Gladiac Ultra, Creative TI-500 und Visiontek TI-4600)doch tatsächlich zur Radeon (erst 9700Pro, jetzt 9800Pro/256) gegriffen....und stell Dir vor, ich bin mindestens genauso zufrieden.

3. Ich akzeptiere keine Cheater; das ist einfach mein Prinzip.

4. Wenn ich etwas kaufe, dann möchte ich nicht nachher erfahren, daß ich beschissen wurde.

5. Wenn einer ein sauberes Gewissen hat, dann braucht er nichts zu verstecken / zu verschlüsseln (und Geistiges Eigentum lasse ich als Argument in diesem Fall nicht gelten: bisher wurde ja auch nicht verschlüsselt).

6. Wenn sich daß nicht ändert, werde ich (in meiner Funktion als korrekter PC-Händler) meine Kunden korrekt darüber informieren, und sie dann selber entscheiden lassen.

7. Wenn sich da nicht gaaaaanz schnell was ändert, dann war das meine letzte NVIDIA Karte!

MfG

Mario

Exxtreme
2003-07-09, 13:47:48
Original geschrieben von Razor@Work
Sorry, aber das ist doch hirnrissig...

Das der offizielle M$-Compiler für DX9 ATI-Hardware bevorzugt, ist aber hoffentlich nicht an Dir vorüber gegangen, oder ? Auch sind 'legale' Optimierungen völlig legitim, wie sie vermutlich auch bei ATI zu Hauf zu finden sind (nicht alles ist ein Cheat ;-).

Insofern muss man doch die Frage stellen, ob beispielsweise der Murks überhaupt korrekte Zahlen auswirft, oder aber nicht doch (wie von vielen vermutet) derzeit einfach einen bestimmten IHV bevorzugt (ob absichtlich oder nicht, sei jetzt mal dahin gestellt).

Das spielt keine Rolle ob der MS-Compiler-Code mit ATis HW besser harmoniert oder nicht. Ein Benchmark ist nicht dazu da um zu zeigen wie schnell die HW sein könnte sondern wie schnell diese tatsächlich in diesem Benchmark ist.
Original geschrieben von Razor@Work
Was jetzt schwieriger werden dürfte, wenn der Treiber mit Checksummen eine Modifikation feststellen kann und damit dessen korrekte Ausführung verhindert. Auch waren die Treiber damals nicht verschlüsselt, insofern der Aufwand für ein erneutes RE massiv gestiegen sein dürfte und nun bei jedem neuen Treiber-Release zum Tragen kommt.

Alles, was auf'm PC lief, ist bis jetzt geknackt worden. Unwinder findet sicherlich einen Weg. Irgendwannmal muss der Treiber im Speicher unverschlüsselt vorliegen. Und ich denke, daß Unwinder das Fachwissen dazu hat.
Original geschrieben von Razor@Work
Shaderreplacemnt ist OK, wenn der Output nicht verändert wird. Auch ist gegen eine "spezielle Applikations-Abfrage" nichts einzuwenden, wenn es um effektive Fehlerbeseitigung oder eben Engine-spezifische Optimierungen geht (ohne die BQ zu beeinträchtigen !).

Bis denne

Razor
Hehe, das sehen aber einige Spiele-Entwickler anders wenn "ihre" mühsam geproggten Shader ausgetauscht werden. Da gab es mal ein Interview auf Driverheaven.net (???).

ShadowXX
2003-07-09, 13:53:19
--------------------------------------------------------------------------------
Original geschrieben von Razor@Work
Sorry, aber das ist doch hirnrissig...

Das der offizielle M$-Compiler für DX9 ATI-Hardware bevorzugt, ist aber hoffentlich nicht an Dir vorüber gegangen, oder ? Auch sind 'legale' Optimierungen völlig legitim, wie sie vermutlich auch bei ATI zu Hauf zu finden sind (nicht alles ist ein Cheat ;-).

Insofern muss man doch die Frage stellen, ob beispielsweise der Murks überhaupt korrekte Zahlen auswirft, oder aber nicht doch (wie von vielen vermutet) derzeit einfach einen bestimmten IHV bevorzugt (ob absichtlich oder nicht, sei jetzt mal dahin gestellt).


--------------------------------------------------------------------------------

das hört sich langsam so an, als wenn ATI M$ dazu gezwungen hat auf Ihre HW zu Optimieren....

J.S.Shadow

Gast
2003-07-09, 13:55:53
Original geschrieben von Pathfinder
Deshalb ist es sinnvoll, applikationsspezifische Anpassungen samt deren Zweck als Teil der Treiberdistribution zu veröffentlichen.

Dies Schritt läßt nur die Schlußfolgerung zu, daß NVidia nun weiterhin beabsichtigt, den Kunden bezüglich der tatsächlichen Leistungsfähigkeit der NV3x Chips hinters Licht zu führen. Treiber und Hardware bilden eine Einheit und sind als ein Produkt zu sehen.

Ein Vergleich:
Man stelle sich vor, ein Automagazin würde zu Testzwecken ein hinsichtlich Leistung modifizierte Testwagen an Stelle eines Serienwagens erhalten, ohne davon zu wissen. Gleichzeit und um auf Nummer Sicher zu gehen, besorgt das Magazin sich anonym einen normalen Serienwagen. Nun fällt ein eklatanter Leistungsunterschied zwischen Serienwagen und Testmodell auf. Das Testmodell scheint irgendwie die doppelte Leistung des Serienmodells zu haben. Um dies zu überprüfen, möchte das Magazin unter die Motorhaube schauen, aber leider ist es ihnen verboten ...

Wer würde noch ein Auto von diesem Hersteller kaufen?

Pathfinder

Schon mal einen gekapselten Motor gesehen an den man ohne Spezialwerkzeug nicht ran kommt? Da schaut man dann nur noch unter die Haube um eine zweite Haube zu sehen.

EDIT: Das war ich. Kecks war weg. Demirug

Sir Integral Wingate Hellsing
2003-07-09, 13:58:14
Original geschrieben von Gast
Schon mal einen gekapselten Motor gesehen an den man ohne Spezialwerkzeug nicht ran kommt? Da schaut man dann nur noch unter die Haube um eine zweite Haube zu sehen.

Es geht hier ums Prinzip!

Gast
2003-07-09, 13:59:58
Original geschrieben von Exxtreme
Wer soll ihn denn anklagen? Eine US-Firma? Er darf sich halt nicht in den Staaten blicken lassen.


???

Natuerlich kann er von US Firmen belangt werden oder denkst du Russland waere ein rechtsfreier Raum, in dem jeder auf das geistige Eigentum aus anderen Staaten was scheissen kann?

Razor@Work
2003-07-09, 14:01:48
Original geschrieben von Exxtreme
So wie ich es mitgekriegt habe, sind die Dateinamen im Treiber verschlüsselt abgelegt. Und deswegen kann Unwinder diese nicht extrahieren. Und einen ganzen Treiber zu disassemblieren und seine Funktionsweise zu verstehen dürfte sehr langwierig werden. Deswegen glaube ich nicht, daß jemand ausser Nvidia eine Ahnung hat, wie die Treiber richtig funktionieren. Unwinders Arbeit war eher ein Kratzen an der Oberfläche.
Also ich habe das so verstanden, dass Unwinder einfach die ganze 'Optimierungs'-Routine deaktiviert hat. Er hat doch geschrieben, dass bei nVidia alles in einer Routine zu finden war und bei ATI eben nicht (sondern im ganzen Treiber und in den Subroutinen verteilt). Somit deaktiviert dieser Patch eifach alle Optimierungen, die in dem Treiber enthalten sind... ganz egal, ob es sich hierbei um Bugfixes, Optimierungen oder gar Cheats handelte. Das ging bei ATI eben nicht...

Und wenn jetzt jemand tatsächlich daran interessiert ist, per RE den kompletten Treiber zu entschlüsseln, dann kann er dies doch ungehindert mit den Treibern bis 44.65 tun, oder ?

Wer also ins Detail gehen möchte kann dies noch immer tun... der 44.67 ändert daran nichts.
Original geschrieben von Exxtreme
Hmm, AFAIK war die TS-Optimierung auch auf Unwinders Mist gewachsen. Man konnte mehr Leistung rausholen und der BQ-Verlust hielt sich trotzdem in Grenzen. Wenn das nicht positiv ist...
Nicht für nVidia... denn wie Du ja sicher weißt, wird damit die vorgesehene Arbeitsweise des Treibers verändert und die BQ teils erheblich gesenkt (siehe z.Bsp. die 'spezielle' Anpassung von UT2003). Und wenn jetzt irgend ein Hansel die frei verfügbare Optimierung in die Hände bekommt und sich dann bei Freunden über die schlechtere BQ der nVidia-Karte beschwert, ist das für nVidia rufschädigend.

Warum also sollte nVidia kein Recht dazu haben, so etwas zu verhindern ?
???
Original geschrieben von Exxtreme
Wie gesagt, die Funktionsweise eines Treibers per Disassemblierung zu verstehen ist normalerweise seeeehr zeit aufwendig. <-- alte Rechtschreibung ruhlt einfach. :D
Dem stimme ich zu (Rechschreibung ;-) !

Aber es ist möglich. Derzeit wohl sogar noch recht einfach...
Dies wird ja auch zukünftig nicht verhindert (ist halt nur noch aufwändiger ;-), nur wird jetzt sehr effektiv verhindert, dass an der vorhandenen Struktur Veränderungen vorgenommen werden können.
Original geschrieben von Exxtreme
Da gebe ich dir recht. Ich denke aber nicht, daß sich die "üblichen Verdächtigen" ändern werden.
Ist vermutlich anzunehmen...
Trotzden trage ich die Hoffnung in mir, dass dem nicht so sein wird.

Und wenn es nur dadurch geschieht, dass solche 'verdächtigen' Reviews permanent wiederlegt und damit an Glaubwürdigkeit verlieren werden. Dies dann an die große Glocke gehängt wird und damit Verbreitung findet...

Ein schöner Traum... ich weiß...
;-)
Original geschrieben von Exxtreme
Hoffentlich ja, wenn die Reviewer aus der Sache gelernt haben.
Einige haben ja schon gelernt... (andere noch nicht ;-).
Ich denke mal, dass zumindest die Chance besteht, dass dies jetzt Runde machen wird.

Razor

ShadowXX
2003-07-09, 14:03:40
@Demirug,

das stimmt zwar, aber es gibt für gekapselte Motoren Diagnosecomputer
-> Und Mercedes,Audi und Co werden sich hüten, das diese cheaten...


J.S.Shadow

/Edit:
Gast -> Demirug

Demirug
2003-07-09, 14:05:33
Original geschrieben von Exxtreme
Das spielt keine Rolle ob der MS-Compiler-Code mit ATis HW besser harmoniert oder nicht. Ein Benchmark ist nicht dazu da um zu zeigen wie schnell die HW sein könnte sondern wie schnell diese tatsächlich in diesem Benchmark ist.

Ja das alte Thema wo man die Grenze ziehen soll.

Alles, was auf'm PC lief, ist bis jetzt geknackt worden. Unwinder findet sicherlich einen Weg. Irgendwannmal muss der Treiber im Speicher unverschlüsselt vorliegen. Und ich denke, daß Unwinder das Fachwissen dazu hat.

Er hat SoftIce. ;)

Hehe, das sehen aber einige Spiele-Entwickler anders wenn "ihre" mühsam geproggten Shader ausgetauscht werden. Da gab es mal ein Interview auf Driverheaven.net (???).

Was aber der Schwachsinn überhaupt ist weil der mühsam geproggte Shader sowieso nochmal übersetzt werden muss. Das wäre das gleiche wenn ich mich aufregen würde das eine CPU meinen Code umsortiert und nicht in der Rheienfolge ausführt wie ich in mal programmiert habe.

Razor@Work
2003-07-09, 14:06:46
Original geschrieben von Sir Integral Wingate Hellsing
Das NV anscheinend Angst hat, dass vielleicht mehr herauskommen könnte, als es schon passiert ist?
Bzw um zukünftige "Optimierungen" besser verstecken zu können...
Versteh' ich nicht...
Was soll denn am 44.67 so anders sein, als am 44.65 ?
???

Das mit den zukünftigen 'Optimierungen' könnte sein... muss aber nicht.
Auf jedem Fall steht es jedem frei, per RE lückenlos jeden Cheat aufzudecken, den nVidia in den bisherigen Treibern vorgenommen hat. Und wenn es tatsächlich so sein sollte, dass viele, viele Engines/Games 'gecheatet' und damit zu lasten der BQ hinsichtlich Ihrer Performance 'optimiert' wurden, dann wird dies die Runde machen und damit die ganze Arbeit und Reputation vernichten, die sich nVidia in den letzten Jahren aufgebaut hatte.

Daran ändert ein verschlüsselter 44.67 überhaupt rein gar nichts !

Razor

seahawk
2003-07-09, 14:07:16
Original geschrieben von ShadowXX
das hört sich langsam so an, als wenn ATI M$ dazu gezwungen hat auf Ihre HW zu Optimieren....

J.S.Shadow

Naja sie hatten zumindest ein Interesse daran, dass DX9 möglichst zeitnah zum Erscheinen ihrer DX9 Karten erhältlich wird.

Da die entsprechende Hardware von NV noch nicht so weit war, ist es wahrscheinlich, dass der erste Code auf ATI Hardware ausgerichtet wurde.

Gast
2003-07-09, 14:08:06
Original geschrieben von Sir Integral Wingate Hellsing
Guter Vergleich! So könnte man es einen unerfahrenen Anwender erklären.
Einem Proto-Typen unter die Haube schauen ?
(oder besser: in den Motor ;-)
DAS wurde noch niemanden gestattet !
:D

Razor

Demirug
2003-07-09, 14:10:40
Original geschrieben von Razor@Work
Also ich habe das so verstanden, dass Unwinder einfach die ganze 'Optimierungs'-Routine deaktiviert hat. Er hat doch geschrieben, dass bei nVidia alles in einer Routine zu finden war und bei ATI eben nicht (sondern im ganzen Treiber und in den Subroutinen verteilt). Somit deaktiviert dieser Patch eifach alle Optimierungen, die in dem Treiber enthalten sind... ganz egal, ob es sich hierbei um Bugfixes, Optimierungen oder gar Cheats handelte. Das ging bei ATI eben nicht...

im nv-Treiber gibt es eine Funktion welche Hashkeys berechnen kann. Diese bekommt nun von verschiedenen Stellen Datenpackte (Applikationsname, Shadercode, ...) übergeben. Danach wird geprüft ob der Hashcode mit einem hinterlegten übereinstimmt und falls ja eine entsprechenden Massnahme eingeleitet. Unwinder hat nun einfach die Funktion zum Berechnen das Hashs so verändert das sie bei gleichem Input einen anderen Hash berechnet und das wars.

Bei ATI konnte er keine so zentrale Funktion finden.

Sir Integral Wingate Hellsing
2003-07-09, 14:11:38
Original geschrieben von Gast
Einem Proto-Typen unter die Haube schauen ?
(oder besser: in den Motor ;-)
DAS wurde noch niemanden gestattet !
:D

Razor

Wie gesagt: Es geht ums Prinzip (und nicht ums Korinthen-Kacken) ! :stareup:

Razor@Work
2003-07-09, 14:12:01
Original geschrieben von Mr. Lolman
Seit jemand diese falschen Screenshots bei B3D gepostet hat und Leo das in die News übernahm, hält sich dieses Gerücht hartnäckig...
Was zu beweisen wäre...

Razor

ShadowXX
2003-07-09, 14:13:49
Original von seahawk:
Naja sie hatten zumindest ein Interesse daran, dass DX9 möglichst zeitnah zum Erscheinen ihrer DX9 Karten erhältlich wird.

Da die entsprechende Hardware von NV noch nicht so weit war, ist es wahrscheinlich, dass der erste Code auf ATI Hardware ausgerichtet wurde.


Das kann man aber nicht ATI als Nachteil anrechnen (...böses böses ATI, ist einfach vor nv mit der HW fertig...)
....ausserdem stand der nv30 doch auch schon sehr zeitig und wenn es keine verzögerungen bei der Produktion gegeben hätte wäre die Karte so ca. mir den r300-Karten rausgekommen...
Die nv-HW war M$ sicher bekannt....

J.S.Shadow

Demirug
2003-07-09, 14:14:03
Original geschrieben von ShadowXX
das hört sich langsam so an, als wenn ATI M$ dazu gezwungen hat auf Ihre HW zu Optimieren....

J.S.Shadow

Nein. Zumindestens nicht direkt.

ATI sind aber die einzigen die 2.0 Shaderhardware haben. Warum sollte dann also MS einen Compiler bauen der bei Verwendung des 2.0 Targets für was anderes als ATI optimiert?

Für die anderen Chips mit 2.0+ Shader gibt es andere Targets die waren eben nur noch nicht fertig als DX9 releast wurde.

Sir Integral Wingate Hellsing
2003-07-09, 14:14:08
Original geschrieben von Razor@Work
Versteh' ich nicht...
Was soll denn am 44.67 so anders sein, als am 44.65 ?
???

Das mit den zukünftigen 'Optimierungen' könnte sein... muss aber nicht.
Auf jedem Fall steht es jedem frei, per RE lückenlos jeden Cheat aufzudecken, den nVidia in den bisherigen Treibern vorgenommen hat. Und wenn es tatsächlich so sein sollte, dass viele, viele Engines/Games 'gecheatet' und damit zu lasten der BQ hinsichtlich Ihrer Performance 'optimiert' wurden, dann wird dies die Runde machen und damit die ganze Arbeit und Reputation vernichten, die sich nVidia in den letzten Jahren aufgebaut hatte.

Daran ändert ein verschlüsselter 44.67 überhaupt rein gar nichts !

Razor

Oh doch, das tut er!
Ich glaube kaum das NV die Verschlüsselung zum Schutze des "geistigem Eigentums" gemacht hat, denn dann hätte sowas vieeel früher kommen müssen!
Ich hoffe auch nicht, dass ATi auf den selben Trichter kommt...

Mr. Lolman
2003-07-09, 14:14:50
Original geschrieben von Razor@Work
Was zu beweisen wäre...

Razor

Muss ich jetzt volle tri-AF Screeenshots von UT2003 posten? Könnte man dann nicht noch immer sagen, dass die von einer anderen GraKa stammen?

/edit: ausserdem ist es offensichtlich, dass die B3D Screenshots falsch sind, oder die Radeons ercheaten sich beim Perfomance AF neuerdings mittels trilinearem Filter eine bessere BQ :balla:...

Gast
2003-07-09, 14:18:26
Original geschrieben von try2fixit

2. Ja, ich habe nach ca. 6 NVIDIA Karten (Elsa Erazor, Elsa Erazor III, Elsa Erazor X2, Elsa Gladiac Ultra, Creative TI-500 und Visiontek TI-4600)doch tatsächlich zur Radeon (erst 9700Pro, jetzt 9800Pro/256) gegriffen....und stell Dir vor, ich bin mindestens genauso zufrieden.

3. Ich akzeptiere keine Cheater; das ist einfach mein Prinzip.




Punkt 2 und 3 widersprechen sich, da ATi ebenfalls cheatet.

Exxtreme
2003-07-09, 14:23:28
Original geschrieben von Razor@Work
Also ich habe das so verstanden, dass Unwinder einfach die ganze 'Optimierungs'-Routine deaktiviert hat. Er hat doch geschrieben, dass bei nVidia alles in einer Routine zu finden war und bei ATI eben nicht (sondern im ganzen Treiber und in den Subroutinen verteilt). Somit deaktiviert dieser Patch eifach alle Optimierungen, die in dem Treiber enthalten sind... ganz egal, ob es sich hierbei um Bugfixes, Optimierungen oder gar Cheats handelte. Das ging bei ATI eben nicht...

Also die Routine wurde nicht deaktiviert sondern leicht verändert. Der Treiber kann aus verschiedenen Dingen wie Texturinhalt, Dateiname, Shader etc. eine Prüfsumme (so eine Art Quersumme nur komplizierter) generieren. Und wenn mehrere dieser Faktoren übereinstimmen, dann leitet der Treiber Maßnahmen ein. Unwinder hat diese Prüfsummen-Funktion leicht geändert, sodaß diese falsche Prüfsummen generiert. Und ja, alle applikationsspezifischen Teile des Treibers werden so ausser Kraft gesetzt da die Bedingungen, die diese applikationsspezifischen Code-Teile aktivieren, durch die umgebogene Prüfsummen-Funktion niemals eintreten werden.
Original geschrieben von Razor@Work
Und wenn jetzt jemand tatsächlich daran interessiert ist, per RE den kompletten Treiber zu entschlüsseln, dann kann er dies doch ungehindert mit den Treibern bis 44.65 tun, oder ?

Klar kann man das, wenn man das Knowhow und zuviel Zeit hat. ;)

Original geschrieben von Razor@Work
Nicht für nVidia... denn wie Du ja sicher weißt, wird damit die vorgesehene Arbeitsweise des Treibers verändert und die BQ teils erheblich gesenkt (siehe z.Bsp. die 'spezielle' Anpassung von UT2003). Und wenn jetzt irgend ein Hansel die frei verfügbare Optimierung in die Hände bekommt und sich dann bei Freunden über die schlechtere BQ der nVidia-Karte beschwert, ist das für nVidia rufschädigend.

Warum also sollte nVidia kein Recht dazu haben, so etwas zu verhindern ?
???

Klar können sie's verhindern... oder zumindest Unwinder viele Steine in den Weg legen.

Nur wenn jemand derartige Patches einspielt, der weiß meistens was er tut und was ihn erwartet. Der DAU kriegt sowas normalerweise gar nicht mit... ausser die CB meint wieder, die DAUs zu BILDen.
Original geschrieben von Razor@Work
Dem stimme ich zu (Rechschreibung ;-) !

Aber es ist möglich. Derzeit wohl sogar noch recht einfach...
Dies wird ja auch zukünftig nicht verhindert (ist halt nur noch aufwändiger ;-), nur wird jetzt sehr effektiv verhindert, dass an der vorhandenen Struktur Veränderungen vorgenommen werden können.

Sehe ich auch so... mit allen Vor- und Nachteilen. :)
Original geschrieben von Razor@Work
Ist vermutlich anzunehmen...
Trotzden trage ich die Hoffnung in mir, dass dem nicht so sein wird.

Optimismus ist Mangel an Information. ;)
Original geschrieben von Razor@Work
Und wenn es nur dadurch geschieht, dass solche 'verdächtigen' Reviews permanent wiederlegt und damit an Glaubwürdigkeit verlieren werden. Dies dann an die große Glocke gehängt wird und damit Verbreitung findet...

Naja, du hast 3 Reviews, in denen 1 GraKa verliert und 3 Reviews, in denen die gleiche GraKa gewinnt. Welche Reviews sagen das Richtige?
Original geschrieben von Razor@Work
Ein schöner Traum... ich weiß...
;-)

Einige haben ja schon gelernt... (andere noch nicht ;-).
Ich denke mal, dass zumindest die Chance besteht, dass dies jetzt Runde machen wird.

Razor
Das hoffe ich auch. Die Reviewer sollten aber auch mal auf den Monitor schauen und nicht nur Whitepapers abschreiben. ;)

Razor@Work
2003-07-09, 14:25:07
Original geschrieben von Exxtreme
Das spielt keine Rolle ob der MS-Compiler-Code mit ATis HW besser harmoniert oder nicht. Ein Benchmark ist nicht dazu da um zu zeigen wie schnell die HW sein könnte sondern wie schnell diese tatsächlich in diesem Benchmark ist.
Und welche Aussage hätte ein solcher Benchmark ?
Richtig, keinen !

Bei unbekannten oder kaum genutzten Synthies mag das ja richtig sein, nicht aber bei welchen, die sogar von Resellern wie DELL benutzt werden, um die Hardware hinsichtlich ihrer Leistung zu prüfen und bewerten.

Auch screibst sich FM auf die Fahne, eine 'unabhängige' Aussage über die Spieleformance in zukünftigen Games zu machen. Insofern hat sich damit dann doch Deine Anmwerkung wohl vollends erledigt, oder ?
Original geschrieben von Exxtreme
Alles, was auf'm PC lief, ist bis jetzt geknackt worden. Unwinder findet sicherlich einen Weg. Irgendwannmal muss der Treiber im Speicher unverschlüsselt vorliegen. Und ich denke, daß Unwinder das Fachwissen dazu hat.
RE (=Reverse Engeneering ;-) ist aber etwas, was einen Treiber (oder ein Stück Software) grundlegend verändert. Einfach nur eine Routine per Hack zu deaktivieren ist sicherlich leichter, als einen kompletten Treiber zu dissassemblieren, diesen dann in seiner Arbeitsweise in wohl so zeimlich allen Teilen zu verändern und dann zu recompilieren. Das Ergebnis wäre dann etwas völlig anderes, als das, was vorher da war und der Aussagegehalt damit dann auch gleich Null.

Wie gesagt: Eine Analyse des Treibers wird auch mit der Verschlüsselung nicht verhindert, eine Veränderung dessen aber schon...
Original geschrieben von Exxtreme
Hehe, das sehen aber einige Spiele-Entwickler anders wenn "ihre" mühsam geproggten Shader ausgetauscht werden. Da gab es mal ein Interview auf Driverheaven.net (???).
War das nicht auf B3D ?
Egal, wenn ich recht entsinne, gab es nur einen, dem das nicht egal war. Eigentlich war die einhellige Meinung, dass wenn der Output nicht verändert wird und damit das Ganze so dargestellt wird, wie sich der Entwickler das vorstellte, es völlig wurscht ist.

Razor

ShadowXX
2003-07-09, 14:33:29
Original von Demirug:

Nein. Zumindestens nicht direkt.

ATI sind aber die einzigen die 2.0 Shaderhardware haben. Warum sollte dann also MS einen Compiler bauen der bei Verwendung des 2.0 Targets für was anderes als ATI optimiert?

Für die anderen Chips mit 2.0+ Shader gibt es andere Targets die waren eben nur noch nicht fertig als DX9 releast wurde.


das ist mir klar...aber manche hier versuchen ATI daraus einen Strick zu drehen.
Man könnte auch andersherum Fragen:
warum musste nv sich eine Extrawurst mit den 2.0+ Shadern bauen??
Bzw.->hat das überhaupt was damit zu tun wie schnell/langsam eine Karte 2.0 Code abarbeitet..(gilt auch für ATIs PixelShader 1.4 beim r200)...und als weitere Frage: wären die nv30-Shader schneller wenn Sie nur 2.0 gekonnt hätten müssten.

Die Antwort ist wahrscheinlich nein...Und das haben Sie ja auch selbst bemerkt (innerhalb von 3-4 Monaten kam der Update auf nv35, mit dem 'Hauptfeature' schnellere Shader....)

J.S.Shadow

Razor@Work
2003-07-09, 14:34:33
Original geschrieben von ShadowXX
das hört sich langsam so an, als wenn ATI M$ dazu gezwungen hat auf Ihre HW zu Optimieren....

J.S.Shadow
Dann ist das jetzt irgendwie falsch rüber gekommen...

Das Release der ersten DX9-Version (und dem zugehörigen SDK) ist ja unter recht merkwürdigen Umständen vonstatten gegangen... vermutlich weil ATI DX9-Hardware am Markt hatte, obwohl es noch kein DX9 gab. So wurde eiligst ein Release zusammen gebastelt welches erst einmal per Compiler die ATI-Hardware vollständig unterstützte, Besonderheiten anderer IHV's (also auch nVidia's) nicht berücksichtigte... dies wurde im neuesten Beta-SDK von Microsoft für die NV3x-Hardware nachgereicht...

Sicher mag der Ablauf auch ein anderer gewesen sein, aber so wären zumindest diverse 'Unstimmigkeiten' bei Release von DX9 erklärbar (u.a. dass ein Beta-Release plötzlich zum Public-Release mutierte).

Wie dem auch sei, Fakt ist, dass neuere (noch nicht offizielle) SDK's für DX9 zusätzliche Zielpfade für den Compiler in sich tragen und so den 'Spezialitäten' anderer IHV'S (derzeit nur nVidia) Rechnung tragen.

Technisch versiertere Leutz ala Demirug z.Bsp. können das sicher besser erklären !
:D

Razor

Exxtreme
2003-07-09, 14:40:39
Original geschrieben von Razor@Work
Und welche Aussage hätte ein solcher Benchmark ?
Richtig, keinen !

Jeder Benchmark hat eine Aussagekraft.. und zwar sagt er aus, wie gut ein Stück Hard-/Software mit dem Benchmark harmoniert. Und dessen muss man sich bewusst sein. :)

Auch div. Timedemos von Spielen sagen im Prinzip nur aus, wie gut die Hard-/Software mit dieser Timedemo zusammenarbeitet. :)
Original geschrieben von Razor@Work
Bei unbekannten oder kaum genutzten Synthies mag das ja richtig sein, nicht aber bei welchen, die sogar von Resellern wie DELL benutzt werden, um die Hardware hinsichtlich ihrer Leistung zu prüfen und bewerten.

Wenn die DELL meinen, daß sie es so machen müssen, dann lasse ich sie. ;)
Original geschrieben von Razor@Work
Auch screibst sich FM auf die Fahne, eine 'unabhängige' Aussage über die Spieleformance in zukünftigen Games zu machen. Insofern hat sich damit dann doch Deine Anmwerkung wohl vollends erledigt, oder ?

Diese ist auch "unabhängig". Sie haben nichts Herstellerspezifisches benutzt. Wenn die HW von NV schlecht damit zurechtkommt -> Pech für NV. Es hat damals auch kaum jemanden gejuckt, daß die HW von 3dfx schlecht mit 3DM2000 zurechtkam weil 3dfx keine HW-T&L-Unit hatte.
Original geschrieben von Razor@Work
RE (=Reverse Engeneering ;-) ist aber etwas, was einen Treiber (oder ein Stück Software) grundlegend verändert. Einfach nur eine Routine per Hack zu deaktivieren ist sicherlich leichter, als einen kompletten Treiber zu dissassemblieren, diesen dann in seiner Arbeitsweise in wohl so zeimlich allen Teilen zu verändern und dann zu recompilieren. Das Ergebnis wäre dann etwas völlig anderes, als das, was vorher da war und der Aussagegehalt damit dann auch gleich Null.

RE meint, daß man rausfindet, wie etwas funktioniert. Wenn man was ändert, dann ist es "Patchen".
Original geschrieben von Razor@Work
Wie gesagt: Eine Analyse des Treibers wird auch mit der Verschlüsselung nicht verhindert, eine Veränderung dessen aber schon...

Naja, Unwinder muss nur die Funktion, welche den Treiber auf die Richtigkeit prüft, patchen.

Razor@Work
2003-07-09, 14:45:04
Original geschrieben von Sir Integral Wingate Hellsing
Wie gesagt: Es geht ums Prinzip (und nicht ums Korinthen-Kacken) ! :stareup:
Und es geht um Patentschutz...
Auch darum, dass ReverseEngeneering zumindest in unseren Breitengraden gesetzlich verboten ist.

Wie bitte geht das mit Deiner Forderung konform ?
???

Razor

Razor@Work
2003-07-09, 14:47:42
Original geschrieben von Sir Integral Wingate Hellsing
Oh doch, das tut er!
Ich glaube kaum das NV die Verschlüsselung zum Schutze des "geistigem Eigentums" gemacht hat, denn dann hätte sowas vieeel früher kommen müssen!
Ich hoffe auch nicht, dass ATi auf den selben Trichter kommt...
Warum sollten sie das nicht ?

Und eine effektive Verhinderung der Analyse ist mit der Verschlüsselung auch nicht gewährleistet, sondern lediglich eine Veränderung ihres Produktes...

Razor

Gast
2003-07-09, 14:51:34
Original geschrieben von Mr. Lolman
Muss ich jetzt volle tri-AF Screeenshots von UT2003 posten? Könnte man dann nicht noch immer sagen, dass die von einer anderen GraKa stammen?

/edit: ausserdem ist es offensichtlich, dass die B3D Screenshots falsch sind, oder die Radeons ercheaten sich beim Perfomance AF neuerdings mittels trilinearem Filter eine bessere BQ...
Wus ?

Soweit ich weiß wurden die Aufnahmen mit dem 'quality' AF von ATI gemacht.
Und ich sage ja gar nicht, dass Du nicht recht haben könntest, nur steht Deine Vermutung derzeit alleine im Raum und wurde durch keine zweite Meinung belegt.
DAS ist es, was ich fordere... mehr nicht !
;-)

Razor

Gast
2003-07-09, 14:52:23
Original geschrieben von ShadowXX
das ist mir klar...aber manche hier versuchen ATI daraus einen Strick zu drehen.
Man könnte auch andersherum Fragen:
warum musste nv sich eine Extrawurst mit den 2.0+ Shadern bauen??


J.S.Shadow

Andersrum:
Warum versucht man NV als Technologiefuehrer aus dessen technologischer Ueberlegenheit einen Strick zu drehen?
Warum diese 2.0 Extrawurst fuer ATi?
Haette es 2.0+ als kleinster Standard nicht getan?

StefanV
2003-07-09, 14:57:22
Original geschrieben von Gast
???

Natuerlich kann er von US Firmen belangt werden oder denkst du Russland waere ein rechtsfreier Raum, in dem jeder auf das geistige Eigentum aus anderen Staaten was scheissen kann?

Und wie bitteschön, wenn rus. Gerichte die Klage nicht annehmen und die Urteile von AMI Gerichten nicht anerkennen??

Und laut aktueller Gesetzlage scheint es nicht illegal zu sein, was Unwider macht...

Exxtreme
2003-07-09, 14:58:49
Original geschrieben von Gast
Andersrum:
Warum versucht man NV als Technologiefuehrer aus dessen technologischer Ueberlegenheit einen Strick zu drehen?
Warum diese 2.0 Extrawurst fuer ATi?
Haette es 2.0+ als kleinster Standard nicht getan?
Hmm, also 2.0+ sehe ich nicht als Standard an, sorry. Ein Standard ist nur dann ein Standard, wenn etwas ganz genau definiert ist. Dieses '+' ist mir zu schwammig.

Razor@Work
2003-07-09, 15:05:09
Original geschrieben von Exxtreme
Also die Routine wurde nicht deaktiviert sondern leicht verändert. Der Treiber kann aus verschiedenen Dingen wie Texturinhalt, Dateiname, Shader etc. eine Prüfsumme (so eine Art Quersumme nur komplizierter) generieren. Und wenn mehrere dieser Faktoren übereinstimmen, dann leitet der Treiber Maßnahmen ein. Unwinder hat diese Prüfsummen-Funktion leicht geändert, sodaß diese falsche Prüfsummen generiert. Und ja, alle applikationsspezifischen Teile des Treibers werden so ausser Kraft gesetzt da die Bedingungen, die diese applikationsspezifischen Code-Teile aktivieren, durch die umgebogene Prüfsummen-Funktion niemals eintreten werden.
Die Routine wurde defakto deaktiviert, oder ?
;-)

Aber danke, dass Du dies etwas präziser formuliert hast, als ich es tat !
Original geschrieben von Exxtreme
Klar kann man das, wenn man das Knowhow und zuviel Zeit hat. ;)
Siehst Du ?
;-)
Original geschrieben von Exxtreme
Klar können sie's verhindern... oder zumindest Unwinder viele Steine in den Weg legen.
Wie gesagt, eine Routine leicht zu verändern (im compilierten, unverschlüsselten Code wohlgemerkt) ist etwas anderes, als ein System ausser kraft zu setzen, welches sich selbst auf Konsistenz prüft...
Original geschrieben von Exxtreme
Nur wenn jemand derartige Patches einspielt, der weiß meistens was er tut und was ihn erwartet. Der DAU kriegt sowas normalerweise gar nicht mit... ausser die CB meint wieder, die DAUs zu BILDen.
Folgendes Scenario:
1:"Ey alder, da gibt's 'nen Proggi, det macht Deine 'Punkte' besser !"
2:"Echt ? Sach' doch mal, wo ich mir das ziehen kann !"
1:"Klar alder, ist sogar auffer Heft-CD des BILDers druf'..."
2:"Is dat denn schwierig ?"
1:"Nö... is 'ne Anleitung dabei..."

So oder ähnlich, gell ?
;-)
Original geschrieben von Exxtreme
Sehe ich auch so... mit allen Vor- und Nachteilen. :)
Vorteile für nVidia...
Nachteile für die AF-'gestraften' gf3-Nutzer...
;-)
Original geschrieben von Exxtreme
Optimismus ist Mangel an Information. ;)
Pessimismus aber auch...
Original geschrieben von Exxtreme
Naja, du hast 3 Reviews, in denen 1 GraKa verliert und 3 Reviews, in denen die gleiche GraKa gewinnt. Welche Reviews sagen das Richtige?
Diejenigen, die dies mit Bildchen und detaillierten Untersuchungen belegen und von anderen bestätigt werden. Die andern, die nur Ergebnisse posten (wie es z.Bsp. Chip gerne tut) und nicht einmal konkrete Angaben zu den getroffenen Eistellungen machen, werden das Nachsehen haben... hoffentlich...
Original geschrieben von Exxtreme
Das hoffe ich auch. Die Reviewer sollten aber auch mal auf den Monitor schauen und nicht nur Whitepapers abschreiben. ;)
Vor allen Dingen sollen sie das Bild auf dem Moni auch mal ohne "timedemo 1" näher ansehen... auch wenn man dazu vielleicht eine Brille braucht...
:D

Razor

Gast
2003-07-09, 15:07:17
Original geschrieben von Exxtreme
Hmm, also 2.0+ sehe ich nicht als Standard an, sorry. Ein Standard ist nur dann ein Standard, wenn etwas ganz genau definiert ist. Dieses '+' ist mir zu schwammig.

Das '+' ist aber ganz genau definiert, frag doch Demirug, was 2.0 extended Shader sind.

Demirug
2003-07-09, 15:09:23
Original geschrieben von ShadowXX
das ist mir klar...aber manche hier versuchen ATI daraus einen Strick zu drehen.
Man könnte auch andersherum Fragen:
warum musste nv sich eine Extrawurst mit den 2.0+ Shadern bauen??

Weil sich die IHVs in diesem Stadium der Plannung leider nicht genügend absprechen und so jeder erst mal das einplannt was er für richtig hält und dann bekommt MS den Job aus den unterschiedlichen Vorstellungen eine gemeinsame Spec zu machen.

Bzw.->hat das überhaupt was damit zu tun wie schnell/langsam eine Karte 2.0 Code abarbeitet..(gilt auch für ATIs PixelShader 1.4 beim r200)...und als weitere Frage: wären die nv30-Shader schneller wenn Sie nur 2.0 gekonnt hätten müssten.

Ja die Struktur des Codes den der Compiler rauswirft hat eine grosse Auswirkung darauf wie schnell dieser ausgeführt werden kann. Das ist so ähnlich wie damals beim Pentium. Dieser hatte zwar mit der U und V Pipe die möglichkeit Code schneller auszuführen aber dieser musste entsprechend von programmierer oder dem Compiler vorsortiert sein. Die Fähigkeit zur Laufzeit selbst umzusortieren wurde erst später implementiert.

Das Codestruktur / Speed Verhältniss ergibt sich nicht aus dem Featureset sondern aus dem Design der Pixelpipeline. Hätte also nv mit dem gleichen Design nur das 2.0 Featureset implementiert hätten sie das gleiche Problem bekommen.

Die Antwort ist wahrscheinlich nein...Und das haben Sie ja auch selbst bemerkt (innerhalb von 3-4 Monaten kam der Update auf nv35, mit dem 'Hauptfeature' schnellere Shader....)

J.S.Shadow

Das es ein Update gab liegt doch darin begründet das sie aufgrund von Problemen bei der Fertigung nicht so konnten wie sie wollten.

Razor@Work
2003-07-09, 15:14:50
Original geschrieben von ShadowXX
das ist mir klar...aber manche hier versuchen ATI daraus einen Strick zu drehen.
Man könnte auch andersherum Fragen:
warum musste nv sich eine Extrawurst mit den 2.0+ Shadern bauen??
Bzw.->hat das überhaupt was damit zu tun wie schnell/langsam eine Karte 2.0 Code abarbeitet..(gilt auch für ATIs PixelShader 1.4 beim r200)...und als weitere Frage: wären die nv30-Shader schneller wenn Sie nur 2.0 gekonnt hätten müssten.

Die Antwort ist wahrscheinlich nein...Und das haben Sie ja auch selbst bemerkt (innerhalb von 3-4 Monaten kam der Update auf nv35, mit dem 'Hauptfeature' schnellere Shader....)

J.S.Shadow
Sorry, Shadow, aber Du bringst hier einiges durcheinander...

1) Nicht ATI soll daraus ein Strick gedreht werden, sondern für nVidia ist das zu einem Fallstrick geworden.

2) Eine primäre Eigenschaft der 2.0 Shader ist die freiere Programmierbarkeit. Wie ein IHV das realisiert, bleibt denen überlassen. Worum es hier aber geht, ist der Compiler des SDK's, welcher den Source-Code (die Shader) in Maschinen-Code (Assembler) übersetzen muss und zwar so, dass es die Hardware vesteht. Der Aufbau der Hardware ist aber von IHV zu IHV verschieden (zwangsläufig, da eigene Entwicklungen) und so muss der Compiler die unterschiedlichen Architekturen berücksichtigen (wie auch bei den CPU's und deren Extrensions). Dies hat der erste Compiler aber noch nicht getan... jetzt tut er es und wenn M$ dies im nächsten offiziellen DSK immer noch tut (wovon auszugehen ist), dann wird das wohl seinen Grund haben, oder ?

3) PS2.0+ heißt einfach nur, dass die Hardware einfach mehr kann, als in den Specs zu PS2.0 gefordert wurde. Mit IHV-spezifischen Arbeitsweisen der Hardware hat dies aber nichts zu tun.

4) Die generelle Shaderperformance steht auf einem völlig anderen Blatt. So ist hier einfach beim NV35 die Anzahl der ShaderOP's verdoppelt worden (wie beim NV25 die Anzhal der VertexShader im Vergleich zum NV20 verdoppelt wurde). Aber auch das hat wenig mit IHV-spezifischen Arbeitsweisen zu tun...

Razor

Demirug
2003-07-09, 15:16:23
Original geschrieben von Gast
Das '+' ist aber ganz genau definiert, frag doch Demirug, was 2.0 extended Shader sind.

2.0+ gibt es eigentlich nicht da hat Exxtreme schon recht und als 2.0 extended Shader darf sich jeder Shader schimpfen der ein bischen mehr kann als 2.0 es aber für 3.0 nicht gerreicht hat. Im Moment ist das alles noch einfach weil es nur zwei Anbieter gibt. Aus diesem Grund benutzt der Shadercompiler auch etwas andere Bezeichungen.

ps_2_0 erzeugt einen Pixelshader für die 2.0 Norm welcher von den Optimierungen her zu der ATI Architektur passt.

ps_2_A erzeugt einen Pixelshader welcher der 2.0 extended Norm entspricht sich dabei aber auf die Erweiterungen beschrängt welcher die NV3X Chips auch beherschen. Zudem wird er auch für die NV3X Architektur optimiert.

ps_2_B wird irgendwann noch kommen.

Exxtreme
2003-07-09, 15:19:29
Original geschrieben von Gast
Das '+' ist aber ganz genau definiert, frag doch Demirug, was 2.0 extended Shader sind.
So, jetzt kommt noch ein IHV, dessen Shader auch über die 2.0'er hinausgehen. Wessen '+' ist nun das Richtige?

P.S. Danke Demirug. :)

ShadowXX
2003-07-09, 15:30:47
@Razor:

1) Nicht ATI soll daraus ein Strick gedreht werden, sondern für nVidia ist das zu einem Fallstrick geworden.


...aber manche hier versuchen ATI daraus einen Strick zu drehen....


2) Eine primäre Eigenschaft der 2.0 Shader ist die freiere Programmierbarkeit. Wie ein IHV das realisiert, bleibt denen überlassen. Worum es hier aber geht, ist der Compiler des SDK's, welcher den Source-Code (die Shader) in Maschinen-Code (Assembler) übersetzen muss und zwar so, dass es die Hardware vesteht. Der Aufbau der Hardware ist aber von IHV zu IHV verschieden (zwangsläufig, da eigene Entwicklungen) und so muss der Compiler die unterschiedlichen Architekturen berücksichtigen (wie auch bei den CPU's und deren Extrensions). Dies hat der erste Compiler aber noch nicht getan... jetzt tut er es und wenn M$ dies im nächsten offiziellen DSK immer noch tut (wovon auszugehen ist), dann wird das wohl seinen Grund haben, oder ?


...das ist mir klar, es war auch nur auf meine Aussage davor bezogen...

3.) siehe 2.)


4) Die generelle Shaderperformance steht auf einem völlig anderen Blatt. So ist hier einfach beim NV35 die Anzahl der ShaderOP's verdoppelt worden (wie beim NV25 die Anzhal der VertexShader im Vergleich zum NV20 verdoppelt wurde). Aber auch das hat wenig mit IHV-spezifischen Arbeitsweisen zu tun...


...also genau das was ich gesagt habe: nv hat erkannt das Ihre Shader nicht schnell genug sind und hat sie deshalb verbessert...


Ich wollte nie die Aussage treffen das nv's shader schlecht sind oder nicht gut zu Programmieren....es geht mir darum das Einige die teilweise schlechte Performance der fx'e sozusagen auf ATI abschieben.

J.S.Shadow

Razor@Work
2003-07-09, 15:31:52
Original geschrieben von Exxtreme
Jeder Benchmark hat eine Aussagekraft.. und zwar sagt er aus, wie gut ein Stück Hard-/Software mit dem Benchmark harmoniert. Und dessen muss man sich bewusst sein. :)

Auch div. Timedemos von Spielen sagen im Prinzip nur aus, wie gut die Hard-/Software mit dieser Timedemo zusammenarbeitet. :)
Das ist mir durchaus bewußt, Exxtreme...
;-)

Allerdings hat FM einen anderen Anspruch, der dieser Definition zuwieder läuft, oder ?
Würden sie sagen, dieser Bench sagt NICHTS über die Performance in zukünftigen Games aus, würde ich ja gar nichts sagen !
;-)
Original geschrieben von Exxtreme
Wenn die DELL meinen, daß sie es so machen müssen, dann lasse ich sie. ;)
Nicht, wenn sie nicht wissen, was sie tun !
:D
Original geschrieben von Exxtreme
Diese ist auch "unabhängig". Sie haben nichts Herstellerspezifisches benutzt. Wenn die HW von NV schlecht damit zurechtkommt -> Pech für NV. Es hat damals auch kaum jemanden gejuckt, daß die HW von 3dfx schlecht mit 3DM2000 zurechtkam weil 3dfx keine HW-T&L-Unit hatte.
Es gab auch damals schon Stimmen, die gerufen haben:
"Leute eßt KEINE Scheiße, dass mit den Fliegen ist dummfug !"
(zu denen ich damals wie heute auch gehöre ;-)

Ansonsten siehe oben...
Original geschrieben von Exxtreme
RE meint, daß man rausfindet, wie etwas funktioniert. Wenn man was ändert, dann ist es "Patchen".
Was Du meinst ist "Analyse", "ReverseEngeneering" geht ein Stück weiter. Auch ist "Patchen" nur die Veränderung eines Teils von etwas besehenden, nicht aber ein "Recompilieren" eines Disassemblierten und veränderten Source-Codes...
Original geschrieben von Exxtreme
Naja, Unwinder muss nur die Funktion, welche den Treiber auf die Richtigkeit prüft, patchen.
Je nach Verschüsselungsmethode und Integration in die Struktur kann das ein Ding der Unmöglichkeit werden. Oder meinst Du, dass ein entsprechender Aufwand für nur ein einziges Treiber-Release nicht doch 'ein wenig' zu groß wäre... selbst für jemanden mit zuviel Zeit dürften so 1-2 Wochen Arbeit 'etwas' zu viel sein... ;-)

Er muss erst die Verschlüsselung 'knacken' (bei einer 512Bit-Verschlüsselung bräuchte er dazu eine Großrechenanlage, wie sie z.Bsp. nVidia besitzt ;-). Dann sollte der Schlüssel nicht mehrfach gewechselt werden (das herus zu bekommen erfordert dann schon 'ein wenig' mehr investigation... Sollte er das geschafft haben, dann muss er noch die Stellen im Code finden, welche die Konsistenzprüfung vornehmen (und hoffen, dass diese nicht überall verteilt sind). Dann muss er eventuell die Stellen im Code finden, die überprüfen, ob der Code zur Konsistenzprüfung korrekt arbeitet... etc.ppp.

Wie geagt... 'einfach' wird dies sicher nicht und eventuell besitzt Unwinder nicht einmal die technische Voraussetzung dafür. KnowHow alleine reicht nicht unbedingt...

Aber wir werden ja sehen, ob er es hinbekommt und dann gibt's bestimmt auch Info's darüber, wie genau nVidia bei der 'Verschlüsselung' vorgegangen ist...

"Wir werden sehen... wir sind ja nicht blind !"
(oder doch ? ;-)

Razor

Razor@Work
2003-07-09, 15:34:19
Original geschrieben von Exxtreme
Hmm, also 2.0+ sehe ich nicht als Standard an, sorry. Ein Standard ist nur dann ein Standard, wenn etwas ganz genau definiert ist. Dieses '+' ist mir zu schwammig.
PS2.0 ist DER Standard. Punkt.
(den nVidia übrigens auch mit abgesegnet hat ;-)

Wie aber der Compiler einen solchen PS2.0-Code compiliert dagegen nicht.
Hier wurde offenbar ATI-Hardware als Basis genommen...
(was auch sonst ;-)

Razor

Razor@Work
2003-07-09, 15:35:35
Original geschrieben von Gast
Das '+' ist aber ganz genau definiert, frag doch Demirug, was 2.0 extended Shader sind.
Nein, ist es nicht...
'+' sagt lediglich aus, dass die Hardware mehr leistet, als das, was in PS2.0 spezifiziert wurde.

Razor

Razor@Work
2003-07-09, 15:50:40
Original geschrieben von ShadowXX
...also genau das was ich gesagt habe: nv hat erkannt das Ihre Shader nicht schnell genug sind und hat sie deshalb verbessert...
Na ja, zumindest haben sie sie in diesem Punkt schneller gemacht...
Vermutlich auch, um nicht nur 'Bugfixing' gegenüber dem NV30 zu trieben...
:D
Original geschrieben von ShadowXX
Ich wollte nie die Aussage treffen das nv's shader schlecht sind oder nicht gut zu Programmieren....es geht mir darum das Einige die teilweise schlechte Performance der fx'e sozusagen auf ATI abschieben.
OK, dann wurdest Du wohl mißverstanden.

ATI ist zwar vermutlich nicht ganz unschuldig daran, dass DX9 'so früh' released wurde, letztendlich trägt aber M$ die Schuld daran, hier nachgegeben zu haben.

Razor

Axel
2003-07-09, 15:59:18
Der DX9-Standard ist doch der kleinste gemeinsame Nenner aller Chipentwickler. Dazu gehören auch Matrox, SIS und wahrscheinlich auch PowerVR.
Das die erste Version auf ATi optimiert ist, halte ich für unwahrscheinlich. Vielleicht hat ja MS auch kurz vor release gesehen, daß NV sein eigenes Süppchen kocht, die mit den vorhandenen nicht harmoniert und musste DX9 anpassen.
Ich würde auch gern wissen, wie ATis Hardware mit shadern für NVs Hardware fertig werden würde und wie die Diskussion dann laufen würde.

ShadowXX
2003-07-09, 16:00:52
Original von Razor:

ATI ist zwar vermutlich nicht ganz unschuldig daran, dass DX9 'so früh' released wurde, letztendlich trägt aber M$ die Schuld daran, hier nachgegeben zu haben.


darauf kann man sich einigen....

J.S.Shadow

Exxtreme
2003-07-09, 16:04:29
Original geschrieben von Axel
Der DX9-Standard ist doch der kleinste gemeinsame Nenner aller Chipentwickler. Dazu gehören auch Matrox, SIS und wahrscheinlich auch PowerVR.
Das die erste Version auf ATi optimiert ist, halte ich für unwahrscheinlich. Vielleicht hat ja MS auch kurz vor release gesehen, daß NV sein eigenes Süppchen kocht, die mit den vorhandenen nicht harmoniert und musste DX9 anpassen.
Ich würde auch gern wissen, wie ATis Hardware mit shadern für NVs Hardware fertig werden würde und wie die Diskussion dann laufen würde.
Naja, DX9 enthält wiederum VS/PS2.0 und VS/PS3.0. Alles dazwischen ist eigentlich lufleerer Raum und kein Standard, der von MS abgesegnet wurde.

Und langsam wird es auffällig, daß NVs HW überall dann schlecht abschneidet, wenn die Technik NICHT von denen kommt.

ShadowXX
2003-07-09, 16:04:58
Original von Axel:
Der DX9-Standard ist doch der kleinste gemeinsame Nenner aller Chipentwickler. Dazu gehören auch Matrox, SIS und wahrscheinlich auch PowerVR.
Das die erste Version auf ATi optimiert ist, halte ich für unwahrscheinlich. Vielleicht hat ja MS auch kurz vor release gesehen, daß NV sein eigenes Süppchen kocht, die mit den vorhandenen nicht harmoniert und musste DX9 anpassen.
Ich würde auch gern wissen, wie ATis Hardware mit shadern für NVs Hardware fertig werden würde und wie die Diskussion dann laufen würde.


Das ist glaube ich ein bisschen wie mit der Henne und dem Ei...
Soweit ich das mal mitbekommen habe, informiert sich M$ bei den IHV's was Sie Grundlegendes planen und baut daraus dann ein DX...das dann aber wohl noch an M$'s Pläne angepassert/erweitert wird.

Ich glaube Demirug kann das besser erklären....

J.S.Shadow

Axel
2003-07-09, 16:08:35
Original geschrieben von Exxtreme
Naja, DX9 enthält wiederum VS/PS2.0 und VS/PS3.0. Alles dazwischen ist eigentlich lufleerer Raum und kein Standard, der von MS abgesegnet wurde.


Stimmt schon, die haben meines Wissens nach mit der Zeit den DX9 immer mehr erweitert. Am Anfang gabs aber nur 2.0.


Original geschrieben von ShadowXX
Soweit ich das mal mitbekommen habe, informiert sich M$ bei den IHV's was Sie Grundlegendes planen und baut daraus dann ein DX...das dann aber wohl noch an M$'s Pläne angepassert/erweitert wird.

Ich glaube Demirug kann das besser erklären....

J.S.Shadow

Sicher entsteht sowas immer in Zusammenarbeit. Aber ich habe den Eindruck, daß die Verschiebungen von DX9 auch mit NV und deren Anforderungen zusammenhängen.

Gast
2003-07-09, 16:11:59
Original geschrieben von Axel
Der DX9-Standard ist doch der kleinste gemeinsame Nenner aller Chipentwickler. Dazu gehören auch Matrox, SIS und wahrscheinlich auch PowerVR.
Das die erste Version auf ATi optimiert ist, halte ich für unwahrscheinlich. Vielleicht hat ja MS auch kurz vor release gesehen, daß NV sein eigenes Süppchen kocht, die mit den vorhandenen nicht harmoniert und musste DX9 anpassen.
Ich würde auch gern wissen, wie ATis Hardware mit shadern für NVs Hardware fertig werden würde und wie die Diskussion dann laufen würde.
Es geht hier doch gar nicht um den 'Standard' DX9, auch nicht um die Specs von PS/VS2.0 und höher. Es geht hier um den Compiler im ersten SDK, welcher lediglich ATI-'freundlichen' Code erzeugt (wohl auch, weil damals keine finale nVidia-Hardware zur Verfügung stand).

Um es hier noch einmal klar zu sagen: der Source-Code bleibt gleich, lediglich der compilierte Assembler-Code ist für die jeweilige Hardware unterschiedlich. Keiner verlangt, dass die Shader in der Hochsprache schon so geschrieben werden, wie es ein IHV wünscht...

Razor

P.S.: endlich ist Feierabend ;) somit geht's jetzt ab in heimatliche Gefilde, wenn ich heute auch irgendwie nicht wirklich viel geschafft habe...
:D

Razor@Work
2003-07-09, 16:14:04
Original geschrieben von Axel
Sicher entsteht sowas immer in Zusammenarbeit. Aber ich habe den Eindruck, daß die Verschiebungen von DX9 auch mit NV und deren Anforderungen zusammenhängen.
Klar, deswegen ist darin ja auch schon VS/PS3.0 sepzifiziert, welches wohl derzeit von KEINEM IHV geboten wird... sorry, aber das ist wirklich sehr weit hergeholt...

Razor

P.S.: nu aber... *eg*

Endorphine
2003-07-09, 16:19:23
Original geschrieben von Axel
Der DX9-Standard ist doch der kleinste gemeinsame Nenner aller Chipentwickler. Dazu gehören auch Matrox, SIS und wahrscheinlich auch PowerVR.
Das die erste Version auf ATi optimiert ist, halte ich für unwahrscheinlich. Ist aber eine Tatsache. DX7 ist NV10 und DX8 NV20. Was mit den PS 1.4-Fähigkeiten geschah weisst du ja.

Bei DX9 hat ATI zur Abwechslung mal den "Zuschlag" bekommen. Dass VS/PS 2.0 genau der R300 entsprechen ist also kein Zufall.

Endorphine
2003-07-09, 16:22:21
Original geschrieben von Razor@Work
'+' sagt lediglich aus, dass die Hardware mehr leistet, als das, was in PS2.0 spezifiziert wurde. Nicht "mehr leistet" sondern "theoretisch mehr Möglichkeiten bietet". Ein kleiner aber feiner Unterschied :D

Leonidas @ Mozilla
2003-07-09, 16:31:49
Original geschrieben von silverhawk
Neuer Detonator mit Verschlüsselung
Dienstag, 08. Jul. 2003

Beim Grafikkarten-Hersteller eVGA gibt es einen neuen WHQL-zertifizierten Detonator-Treiber 44.67. Als wichtigste Neuerung - neben vermutlichen Bugfixes und Performance-Optimierungen - ist die Verschlüsselung des Codes zu nennen.

Durch Checksummen wird der Treiber bei jedem Ausführen auf seine Unversehrtheit überprüft. Modifikationen sollen damit verhindert werden. So ist es mit dem neuen Treiber beispielsweise nicht mehr möglich das Anti-Cheat-Skript von Digit-Life auszuführen. Durch dieses Skript konnten Optimierungen für bekannte Benchmark-Programme aufgedeckt werden, die zu Verfälschungen der Ergebnisse führen. Nach der Deaktivierung dieser "Optimierungen" war teilweise ein signifikanter Performance-Einbruch zu ermitteln.

NVIDIA scheint solchen Kontrollen seitens der Anwender und Tester aus dem Weg gehen zu wollen, in dem man den Quell-Code verschlüsselt. Die Kontrolle wird damit drastisch erschwert und vielleicht unmöglich gemacht. Ob dies der richtige Weg ist, bleibt abzuwarten.
Quelle: Tweakpc



Schön, daß TweakPC 3DCenter lesen kann.

Leonidas @ Mozilla
2003-07-09, 16:38:24
Original geschrieben von Exxtreme
Wer soll ihn denn anklagen? Eine US-Firma? Er darf sich halt nicht in den Staaten blicken lassen.


Was im übrigen heutzutage für jeden klar denkenden Menschen gilt - egal, ob man was ausgefressen hat oder nicht.

Leonidas @ Mozilla
2003-07-09, 16:42:45
Original geschrieben von Exxtreme
So, jetzt kommt noch ein IHV, dessen Shader auch über die 2.0'er hinausgehen. Wessen '+' ist nun das Richtige?




Beispielsweise S3, die es wieder anders als nVidia machen.

Demirug
2003-07-09, 17:00:41
Original geschrieben von Exxtreme
Naja, DX9 enthält wiederum VS/PS2.0 und VS/PS3.0. Alles dazwischen ist eigentlich lufleerer Raum und kein Standard, der von MS abgesegnet wurde.

Und langsam wird es auffällig, daß NVs HW überall dann schlecht abschneidet, wenn die Technik NICHT von denen kommt.

Alles zwischen 2.0 und 3.0 ist 2.0 extended und sehr wohl abgesegnet sonst könnte man es gar nicht benutzten.

Demirug
2003-07-09, 17:03:27
Original geschrieben von Axel
Stimmt schon, die haben meines Wissens nach mit der Zeit den DX9 immer mehr erweitert. Am Anfang gabs aber nur 2.0.

Ja in den ersten Betas gab es nur 2.0 Shader.

Sicher entsteht sowas immer in Zusammenarbeit. Aber ich habe den Eindruck, daß die Verschiebungen von DX9 auch mit NV und deren Anforderungen zusammenhängen.

Es wurde verschoben weil sich MS entschlossen hat das sie kein DX 9.1 wollen.

Exxtreme
2003-07-09, 17:05:58
Original geschrieben von Demirug
Alles zwischen 2.0 und 3.0 ist 2.0 extended und sehr wohl abgesegnet sonst könnte man es gar nicht benutzten.
Ja, aber es ist so gesehen kein Standard. Wenn ich xS2.0-Code schreibe, dann 'kann' es jede xS2.0-fähige GraKa. Wenn ich xS2.0+ nehme, dann sieht das anders aus. Es kann sein, daß S3s ihr xS2.0+ auf einer GFFX nicht funktioniert.

Von daher würde ich als Entwickler von sowas Undefinierten wie xS2.0+ die Finger lassen.

P.S. Ausser wenn jeder IHV eine Extra-Wurst bekommt. Dann kann man machen was man will. Aber dann könnte man gleich OpenGL nehmen. :D

Demirug
2003-07-09, 17:12:40
Original geschrieben von Endorphine
Ist aber eine Tatsache. DX7 ist NV10 und DX8 NV20. Was mit den PS 1.4-Fähigkeiten geschah weisst du ja.

Bei DX9 hat ATI zur Abwechslung mal den "Zuschlag" bekommen. Dass VS/PS 2.0 genau der R300 entsprechen ist also kein Zufall.

naja wenn man es unbedingt so sehen will.

DX7 ist so ein wilder mischmasch das man da keine Hauptschuldigen festmachen kann.

Bei DX8 sage ich nur mal VS und PS 1.0.

Den Basislevel darf eben immer der mit der technologisch schwächsten Chip festlegen.

EDIT: PS 2.0 entsprechen nicht genau dem R300 nur fast.

Demirug
2003-07-09, 17:16:33
Original geschrieben von Exxtreme
Ja, aber es ist so gesehen kein Standard. Wenn ich xS2.0-Code schreibe, dann 'kann' es jede xS2.0-fähige GraKa. Wenn ich xS2.0+ nehme, dann sieht das anders aus. Es kann sein, daß S3s ihr xS2.0+ auf einer GFFX nicht funktioniert.

Von daher würde ich als Entwickler von sowas Undefinierten wie xS2.0+ die Finger lassen.

P.S. Ausser wenn jeder IHV eine Extra-Wurst bekommt. Dann kann man machen was man will. Aber dann könnte man gleich OpenGL nehmen. :D

Deswegen ja HLSL. OpenGL ist noch eine Spur schlimmer aber es wird ja besser aber das ist hier jetzt noch mehr OT.

Razor
2003-07-09, 17:27:15
Original geschrieben von Exxtreme
Ja, aber es ist so gesehen kein Standard. Wenn ich xS2.0-Code schreibe, dann 'kann' es jede xS2.0-fähige GraKa. Wenn ich xS2.0+ nehme, dann sieht das anders aus. Es kann sein, daß S3s ihr xS2.0+ auf einer GFFX nicht funktioniert.

Von daher würde ich als Entwickler von sowas Undefinierten wie xS2.0+ die Finger lassen.

P.S. Ausser wenn jeder IHV eine Extra-Wurst bekommt. Dann kann man machen was man will. Aber dann könnte man gleich OpenGL nehmen. :D
Jetzt redest Du aber Unsinn, Exxtreme...

Es gibt defakto keinen VS/PS2.0+ (ich bevorzuge diese Schreibweise ;-). Es gibt nur 2.0, welches grob die Mindstanforderungen an Features umschreibt und 3.0, welches wohl das Maximum von DX9 darstellt. Alles dazwischen ist 2.0+ oder eben 3.0-... wie man's nimmt halt.

'-' klingt aber irgendwie nach "kann weniger"... '+' ist da kontruktiver und suggeriert "kann mehr"...
:D

Insofern kann ich getrost Effekte kreiern, die bestimmte Funktionen/Features aus dem 'Zwischenreich' nutzen, nur laufen diese eben nur auf Karten, die die genutzten Features auch unterstützen. Das war unter den vorangegangenen DX'ern ja auch nicht anders, warum sollte dies plötzlich nicht mehr 'sinnvoll' sein ?
???

VS/PS3.0-DX9-Karten werden diese Effekte dann auf jeden Fall darstellen können...

Razor

Black-Scorpion
2003-07-09, 17:30:10
Original geschrieben von Exxtreme
Von daher würde ich als Entwickler von sowas Undefinierten wie xS2.0+ die Finger lassen.

Und du glaubst wirklich das sich die Entwickler(z.B. EA) das entgehen lassen. Die einzigen die das wieder ausbaden dürfen sind die Käufer.


P.S. Ausser wenn jeder IHV eine Extra-Wurst bekommt. Dann kann man machen was man will.

Das machen sie ja jetzt schon nicht (für alle). ;)
Für mich als Käufer, sieht es so aus als wenn nur einer immer seine Extrawurst bekommt.

Razor
2003-07-09, 17:34:53
Original geschrieben von Anonym_001
Für mich als Käufer, sieht es so aus als wenn nur einer immer seine Extrawurst bekommt.
ATI ?
:D

Razor

Mr. Lolman
2003-07-09, 17:43:41
Nein, die mit ihren eigenen Renderingpfaden :D

Black-Scorpion
2003-07-09, 17:53:01
Original geschrieben von Razor
ATI ?
:D

Razor

Nächster Versuch. ;)

mapel110
2003-07-09, 17:57:05
naja, damals wars mit bump-mapping und der geforce2 reihe genauso.

Razor
2003-07-09, 17:59:45
Original geschrieben von Anonym_001
Nächster Versuch. ;)
SiS ?
;D

Razor

Razor
2003-07-09, 18:01:13
Original geschrieben von Mr. Lolman
Nein, die mit ihren eigenen Renderingpfaden :D
Das am besten noch unter D3D, gell ?
:lol:

Razor

mapel110
2003-07-09, 18:14:36
Original geschrieben von Razor
Das am besten noch unter D3D, gell ?
:lol:

Razor

gibts doch. was gibts da zu :lol:en ???

ow
2003-07-09, 18:44:28
Original geschrieben von Exxtreme
Naja, DX9 enthält wiederum VS/PS2.0 und VS/PS3.0. Alles dazwischen ist eigentlich lufleerer Raum und kein Standard, der von MS abgesegnet wurde.



Soso.... das DX9SDK sagt dazu aber was ganz anderes:

->

Demirug
2003-07-09, 19:02:39
Original geschrieben von mapel110
gibts doch. was gibts da zu :lol:en ???

Ist eine reine Definitionsfrage. In der Regel spricht man von getrennten Renderpfanden wenn andere API-Befehle benutzt werden. Die Unterschiede also Hardcoded in der Engine sind.

Bei D3D kann man von einem DX7 und einem DX8/9 Renderpfad renden wenn die Engines beides unterstützt. Die Unterschiede zwischen DX8/9 (sowie unterschiedlichen DX8/9 Chips) erfordern keinen Code Änderungen sonder lediglich eine Konfigurationsänderung.

Ihr habt also beide irgendwie recht.

Gast
2003-07-09, 19:07:15
Original geschrieben von try2fixit
@ cl55amg:

Ich kann ja auch verstehen, daß Du traurig bist. Du hast doch bestimmt schon die FX5900 Ultra (zumindest fest vorbestellt). Und dann hast Du bestimmt vor Deinen ganzen Freunden über die ach so schlechten Radeon-Karten hergezogen. Sich jetzt einzugestehen, daß NVIDIA nur noch Murks macht....ist anscheinend schon seeehr problematisch für Dich.

PS:

1. Ich lese keine Computerbild, sondern C´t (solltest Du vielleicht auch lieber mal lesen...kann sein, daß es noch bildet!)

2. Ja, ich habe nach ca. 6 NVIDIA Karten (Elsa Erazor, Elsa Erazor III, Elsa Erazor X2, Elsa Gladiac Ultra, Creative TI-500 und Visiontek TI-4600)doch tatsächlich zur Radeon (erst 9700Pro, jetzt 9800Pro/256) gegriffen....und stell Dir vor, ich bin mindestens genauso zufrieden.

3. Ich akzeptiere keine Cheater; das ist einfach mein Prinzip.

4. Wenn ich etwas kaufe, dann möchte ich nicht nachher erfahren, daß ich beschissen wurde.

5. Wenn einer ein sauberes Gewissen hat, dann braucht er nichts zu verstecken / zu verschlüsseln (und Geistiges Eigentum lasse ich als Argument in diesem Fall nicht gelten: bisher wurde ja auch nicht verschlüsselt).

6. Wenn sich daß nicht ändert, werde ich (in meiner Funktion als korrekter PC-Händler) meine Kunden korrekt darüber informieren, und sie dann selber entscheiden lassen.

7. Wenn sich da nicht gaaaaanz schnell was ändert, dann war das meine letzte NVIDIA Karte!

MfG

Mario


ein pc händler ist daran interessiert seine produkte zu verkaufen und nicht seinen umsatz durch nicht eindeutig bewiesene verleumdungen zu schmälern.
ich habe mir eine fx 5900 im großhandel für 304 euro bestellt, und zwar heute abend!ich bin durchaus im stande mir meine eigene meinung zu bildung und habe davor sehr viele radeons gehabt!mit denen ich zufrieden war!(außer der bnc bug...)
ja ich lese ct und weiß auch das die ct nicht die offenbarung der hardware welt ist, sowie jeder der sich etwas in diesem gebiet auskennt...
wenn du dich mit mir battlen willst dann musst du dich etwas mehr anstrengen. ich bin nicht nagus oder mr.lolmann

und vor allem bin ich kein nv\ati fanboy!

LovesuckZ
2003-07-09, 19:08:29
Das Problem, welches sich bei mir seit dem digit-life.com enstanden ist, ist, wer macht das Referenzbild? Eigentlich die Entwickler, doch so wie es aussieht, unterscheidet sich im 3dmark2003 das ASC deutlich vom Referenzbild von Futuremark. Somit ist es nun die Frage, welchen Nutzen bringt dieses Script, wenn es auch anders als das referenzbild ausieht...

Exxtreme
2003-07-09, 19:10:08
Original geschrieben von LovesuckZ
Das Problem, welches sich bei mir seit dem digit-life.com enstanden ist, ist, wer macht das Referenzbild? Eigentlich die Entwickler, doch so wie es aussieht, unterscheidet sich im 3dmark2003 das ASC deutlich vom Referenzbild von Futuremark. Somit ist es nun die Frage, welchen Nutzen bringt dieses Script, wenn es auch anders als das referenzbild ausieht...
Das Referenzbild kann man ganz leicht per RefRast erzeugen. Das ist nämlich der "echte" Standard wie es auszusehen hat. :)

Demirug
2003-07-09, 19:11:44
Original geschrieben von Exxtreme
Das Referenzbild kann man ganz leicht per RefRast erzeugen. Das ist nämlich der "echte" Standard wie es auszusehen hat. :)

Den ATI dann nie erreichen kann. Refrast rechnet immer mit fp32.

EDIT: Mit den R3xx Chips meine ich jetzt natürlich.

Exxtreme
2003-07-09, 19:13:23
Original geschrieben von Demirug
Den ATI dann nie erreichen kann. Refrast rechnet immer mit fp32.

EDIT: Mit den R3xx Chips meine ich jetzt natürlich.
Kann man den RefRast nicht auf 24 Bit beschränken?

Wobei es an meiner Aussage trotzdem nicht ändert. :D

Razor
2003-07-09, 19:16:41
Original geschrieben von Exxtreme
Kann man den RefRast nicht auf 24 Bit beschränken?

Wobei es an meiner Aussage trotzdem nicht ändert. :D
An Deiner Aussage ändert sich nichts, aber Demirug hätte dann recht.
ATI ist derzeit nicht in der Lage, ein Bild zu erzeugen, wie es der Ref-Rast 'vorsieht'...
:D

Razor

Demirug
2003-07-09, 19:18:51
Original geschrieben von Exxtreme
Kann man den RefRast nicht auf 24 Bit beschränken?

Wobei es an meiner Aussage trotzdem nicht ändert. :D

Nein leider nicht. Das beste ist ja das der DX9 Refrast auch alle 1.X Shader mit FP32 rechnet.

Gast
2003-07-10, 09:48:15
Original geschrieben von Demirug
Den ATI dann nie erreichen kann. Refrast rechnet immer mit fp32.

EDIT: Mit den R3xx Chips meine ich jetzt natürlich.

Sorry Demirug, aber das ist Unfug. Wenn die volle Genauigkeit nicht ausgeschöpft wird, wird durchaus das Referenzbild erreicht.

Und ATi liegt näher am Referenzbild als nVidia, obwohl letztere - theoretisch - alles in fp32 rechnen könnten.

Gruß

Jörg

Demirug
2003-07-10, 10:39:36
Original geschrieben von Gast
Sorry Demirug, aber das ist Unfug. Wenn die volle Genauigkeit nicht ausgeschöpft wird, wird durchaus das Referenzbild erreicht.

Wenn man das Bild des Refrast als das Mass aller Dinge definiert (was ich nicht tuhe) kann ATI dieses nicht erreichen weil da im Grenzbereich einfach ein paar Bits fehlen. Aber auch nVidia kommt trotz fp32 nicht immer exakt auf das Bild des Refrast weil die FP-Einheit der NV3X Chips nicht vollständig IEEE konform ist im Gegensatz zur FP-Einheit einer CPU. Da den NV3X Chips aber nicht die Bits fehlen liegt man näher daran.

Und ATi liegt näher am Referenzbild als nVidia, obwohl letztere - theoretisch - alles in fp32 rechnen könnten.

Gruß

Jörg

Wo gibt es Vergleiche ATI und nv gegen Refrast die definitive gleich skaliert wurden?

Mr. Lolman
2003-07-10, 10:42:02
Original geschrieben von Demirug
Da den NV3X Chips aber nicht die Bits fehlen liegt man näher daran.


Woher willst du das wissen, wenn du gleichzeitig

Wo gibt es Vergleiche ATI und nv gegen Refrast die definitive gleich skaliert wurden?
fragst?

Demirug
2003-07-10, 10:50:54
Original geschrieben von Mr. Lolman
Woher willst du das wissen, wenn du gleichzeitig

fragst?

Die Frage hätte eigentlich lauten sollen wie unser Gast (Jörg) zu seiner erkenntniss gekommen ist. Da man einen solchen Vergleich nur mit gleich skalierten Bildern machen kann fragte ich eben danach wo ich mir die auch mal anschauen könnte um im Zweifelsfall meine Meinung zu revidieren.

Besagte Meinung passiert auf der Grundlage das die FP-Einheit eines NV3X technologisch näher an der FP-Einheit einer CPU ist als die FP-Einheit des R3xx und auf dem Vergleichs-Bild des Nature Tests wo man beim 44.65 eben nichts sieht. Für den PS 2.0 Test wo es ja bei beiden unterschiede gibt sollte man eben mal noch gleich skalieren.

Radeonator@work
2003-07-10, 13:17:56
Ist ja gar köstlich was hier wieder gesabbelt wird...
Habe mir eine FX5800 geholt und bin mehr als zufrieden (so wie alle 5800er Besitzer ;) )
Cheating in 3dMurks...oh nein nun haben meine spiele bestimmt ne sauschlechte BQ :lol:
Fest steht : Alle bescheissen in Benchmarks, da DAU&co sich davon beeindrucken lassen und glauben das irgendeine Aussagekraft dahinter steht. Tut es aber nicht! Zudem hat man mit dem vorgänger Treiber selbst mit geänderter exe Datei noch genügend 3dMurks. Toll ist das natürlich nicht, das alle "optimieren", auch das vorgehen seitens NV ist mir sehr suspekt. Die FX5800 ist jedoch eine sehr gute Karte mit excellenter BQ, daran ändert ein "gecheatetes 3dMurks Ergebnis auch nix...

mapel110
2003-07-10, 13:24:48
Original geschrieben von Radeonator@work
Die FX5800 ist jedoch eine sehr gute Karte mit excellenter BQ, daran ändert ein "gecheatetes 3dMurks Ergebnis auch nix...

mag ja sein, aber hier gehts um die vergleichbarkeit von 3d-karten. und das ist nur anhand zweier punkte möglich.
bildqualität und leistung.

eins von beiden sollte gleich sein, um zwei karten miteinander vergleichen zu können. und da es schwer ist, etwas auf konstanter fps-basis zu halten um somit bildqualität zu vergleichen, muss man halt versuchen, die bildqualität gleich zu halten und die fps zu messen.
aber da machts einem nvidia nunmal schwerer als ATI.

Radeonator@work
2003-07-10, 13:45:56
Original geschrieben von mapel110
mag ja sein, aber hier gehts um die vergleichbarkeit von 3d-karten. und das ist nur anhand zweier punkte möglich.
bildqualität und leistung.

eins von beiden sollte gleich sein, um zwei karten miteinander vergleichen zu können. und da es schwer ist, etwas auf konstanter fps-basis zu halten um somit bildqualität zu vergleichen, muss man halt versuchen, die bildqualität gleich zu halten und die fps zu messen.
aber da machts einem nvidia nunmal schwerer als ATI.

Da nimmt man einen Custom Benchmark. Am besten ein nicht so populäres Game mit selbstgemachtem Timedemo und fertig...

Mr. Lolman
2003-07-10, 13:51:32
Original geschrieben von Radeonator@work
Da nimmt man einen Custom Benchmark. Am besten ein nicht so populäres Game mit selbstgemachtem Timedemo und fertig...

Das Pyramiddemo ist eigentlich ganz toll :stareup:

Gast
2003-07-10, 15:09:48
Nvidia sagt, der 3DMark03 ist völlig nutzlos

aber trotzdem bringen sie Treiber, die nur den 3DMark03 - Score verbessern :

http://www.extremetech.com/article2/0,3973,1188119,00.asp


Zudem ist der Treiber verschlüsselt, so dass Futuremark die Treiber nicht mehr nach Chea.. ähh "Optimierungen" durchsuchen kann.

Lustig das Spielchen.

Radeonator@work
2003-07-10, 15:19:25
Was ihr zu versuchen scheint ist zwei Karten auf identisches BQ/AF zu bringen, was meiner Meinung nach aber der falsche sowie nicht machbare weg ist! ATI und NV benutzen unteschiedliche verfahren, also kann lediglich ein subjektiver Eindruck entstehen von Vergleichbarkeit.Bei ATi ist das AF und bei NV das AA die "schwäche" . Ich empfinde es in der Praxis jedoch kaum warnehmbar, ausser in einigen wenigen Situationen.

Wenn ihr alle so genau wisst wie ein fairer Benchmark auszusehen hat, macht doch mal bitte selbst welche ;)

aths
2003-07-10, 15:49:09
Jedenfalls sehe ich die Parhelia-Ergebnisse inzwischen im neuen Licht.

Richthofen
2003-07-10, 15:53:06
Original geschrieben von Gast
Nvidia sagt, der 3DMark03 ist völlig nutzlos

aber trotzdem bringen sie Treiber, die nur den 3DMark03 - Score verbessern :

http://www.extremetech.com/article2/0,3973,1188119,00.asp


Zudem ist der Treiber verschlüsselt, so dass Futuremark die Treiber nicht mehr nach Chea.. ähh "Optimierungen" durchsuchen kann.

Lustig das Spielchen.

isser ja auch. Die Optimierung auf den Benchmark ändert ja nichts daran, dass der Benchmark für die Tonne ist.

Gast
2003-07-10, 15:57:24
Original geschrieben von Richthofen
isser ja auch. Die Optimierung auf den Benchmark ändert ja nichts daran, dass der Benchmark für die Tonne ist.

Trotzdem investiert Nvidia viel Zeit und Mühe um die Benchmark-Ergebnisse, die ja ach so Sinn- und Nutzlos sind auf ein konkurrenzfähiges Niveau hochzupuschen.

Nvidia verschwendet also Geld, oder?

Radeonator
2003-07-10, 21:26:08
:zzz: Fanboys brauchen keine Argumente, können nicht lesen und wiederholen sich in einer Tour...wird euch lüüd das nicht irgendwann mal zu öde ???

Leute wie ihr geilen sich doch an den Synthetischen Bench proggis auf, die Spiele Performance ist halt oft zu dicht beieinander und dann würden eure ach so tollen "Argumente" halt nicht ziehen, nicht war liebe Fanboy gemeinde ;)

Zum Topic ist fast alles gesagt/geschrieben worden, ihr müsstet nur mal lesen lernen...

tb
2003-07-20, 19:25:53
Original geschrieben von aths
Ich bin ziemlich sicher, dass Unwinder schon Ideen hat wie man dieser Verschlüsselung Herr werden könnte. Nvidia legte ihm ja auch Steine in den Weg, als er Scripte schrieb um aus einer GeForce eine Quadro zu machen. Als NV dafür sorgte, dass der Treiber etwas ausliest was nicht softwaremäßig modifizierbar ist, patchte Unwinder diesen Teil des Detonators einfach weg :D


Die nächste Version von 3D-Analyze wird für DirectX 8 und 9 ein "Anti Detect" Feature bieten, welches bisher folgendes bewirkt:

-Änderung des EXE Namen
-distortion/verrauschen von Vertex und Pixel Shadern (alle Versionen)
-distortion/verrauschen der Texturen
-distortion/verrauschen der Vertex Buffer

Somit sind bisherige Prüfsummenbasierende Detektionsalgorithmen erstmal weg vom Fenster. Schwerer sind evtl. Algorithmen zu überlisten, welche nach bestimmten Mustern von DirectX Aufrufen Ausschau halten und diese evtl. ändern...

Hoffentlich bekomme ich bald ein gffx Testexemplar, damit ich 3DA auch testen kann. Die Radeon 9700 (Cat. 3.6) spricht bisher nur bei 3D-Mark 2001 SE an, dort genau beim Nature Test, wie schon im Digit-Life Artikel beschrieben.

Thomas

Mr. Lolman
2003-07-20, 19:31:56
Thomas, hast du meine Mail erhalten?

tb
2003-07-20, 19:44:22
Bin mir jetzt nicht ganz sicher, ob die Mail von Dir war (hab jetzt keine Lust Linux zu booten um in meine Mails zu schauen ;)), aber falls Du die mit dem Digit-Life Link und den Vorschlägen (verrrauschen etc.) geschrieben hast, dann ja.

Thomas

Exxtreme
2003-07-20, 20:09:00
Hi Thomas,

wie sieht's aus mit 32-Bit-Z-Buffer unter D3D erzwingen?

Danke im Voraus.

Mr. Lolman
2003-07-20, 20:12:53
Original geschrieben von tb
Bin mir jetzt nicht ganz sicher, ob die Mail von Dir war (hab jetzt keine Lust Linux zu booten um in meine Mails zu schauen ;)), aber falls Du die mit dem Digit-Life Link und den Vorschlägen (verrrauschen etc.) geschrieben hast, dann ja.

Thomas


Hmm, ich fragte dich, ob es nicht möglich ist mittles 3dA ab der 1. Mipmapstufe Colormipmaps zu forcieren...

tb
2003-07-20, 20:19:07
Original geschrieben von Exxtreme
Hi Thomas,

wie sieht's aus mit 32-Bit-Z-Buffer unter D3D erzwingen?

Danke im Voraus.

Kommt auch rein. Kein Problem.

Thomas

tb
2003-07-20, 20:20:37
Original geschrieben von Mr. Lolman
Hmm, ich fragte dich, ob es nicht möglich ist mittles 3dA ab der 1. Mipmapstufe Colormipmaps zu forcieren...

Ich schau mal. Sollte es keine größeren Probleme geben, bau ich es ein.

Thomas

Gastel
2003-07-20, 20:30:36
Kannste schon sagen wann der heißersehnte 3DA kommt?

Mr. Lolman
2003-07-20, 21:11:00
Original geschrieben von tb
Ich schau mal. Sollte es keine größeren Probleme geben, bau ich es ein.

Thomas

Wär schon sehr fett. Im Moment gibts nur ein d3d Spiel (UT2003) in dem man Colormipmaps anzeigen kann, und genau da wird gecheatet. Wär doch sehr interessant herauszufinden, ob das echt nur ein Zufall war, oder ob sich das quer durch die Bank zieht...

tb
2003-07-21, 03:02:02
http://www.tommti-systems.de/temp/mipmap.jpg

Hier mal ein Beispiel von AquaMark 2.3. Mit dem ColorMipMapping gibt es unter DX ein Problem:

Es funtkioniert nur bei Programmen, welche CreateTexture(...) verwenden. UT2003 und AquaMark sind dafür Beispiele. 3D-Mark 2001 und IGI 2 verwenden jedoch einen anderen Weg. Hier werden Texturen über CreateSurface(...) erstellt, was weiter nicht schlimm wäre, jedoch ist jede MipMap eine Surface, deswegen gehen bei dem CreateSurface Aufruf die Informationen verloren, ob und um welche MipMap es sich handelt. Dort könnte ich wahrscheinlich einfach nur bunte Texturen erzeugen, was dir Übergänge auch deutlich machen sollte...

Thomas

Quasar
2003-07-21, 03:11:28
Serious Sam kann das auch in beiden Versionen.... wie schaut's damit aus?

tb
2003-07-21, 05:17:45
Original geschrieben von Quasar
Serious Sam kann das auch in beiden Versionen.... wie schaut's damit aus?

Wie gesagt, die Spiele Engine weiss ja, wann welcher MipMap Level generiert wird und kann dementsprechend auch eine Farbkodierung vornehmen. 3DA sieht ja nur die Diretcx Aufrufe und hat somit keine Ahnung, was die Engine dahinter will...
Bei 3DA wird's "Methode 1" (color mipmap's wie gewohnt)und "Methode 2" color mipmap's und zusätzlich/leider auch color texturen) geben. Hier mal ein Bsp von der Chaser Demo. Für die Übergänge dürfte es reichen....

http://www.tommti-systems.de/temp/mipmap2.jpg

Thomas

Quasar
2003-07-21, 10:59:48
Original geschrieben von tb
Wie gesagt, die Spiele Engine weiss ja, wann welcher MipMap Level generiert wird und kann dementsprechend auch eine Farbkodierung vornehmen. 3DA sieht ja nur die Diretcx Aufrufe und hat somit keine Ahnung, was die Engine dahinter will...
Bei 3DA wird's "Methode 1" (color mipmap's wie gewohnt)und "Methode 2" color mipmap's und zusätzlich/leider auch color texturen) geben. Hier mal ein Bsp von der Chaser Demo. Für die Übergänge dürfte es reichen....

http://www.tommti-systems.de/temp/mipmap2.jpg

Thomas

Sorry, ich meinte eigentlich Mr.Lolman. :)

Richthofen
2003-07-21, 11:51:32
Original geschrieben von Gast
Trotzdem investiert Nvidia viel Zeit und Mühe um die Benchmark-Ergebnisse, die ja ach so Sinn- und Nutzlos sind auf ein konkurrenzfähiges Niveau hochzupuschen.

Nvidia verschwendet also Geld, oder?

Nö sie tun alles um ihre Verkaufszahlen anzukurbeln.
Das hab ich nicht zu kritisieren. Ist für mich ok weil Geschäft ist eben Geschäft.
Ohne Murks wäre sicher besser aber solange der noch genutzt wird, mei so lange können die optimieren wie sie wollen. Ist ihr gutes Recht.
Der Kunde bzw. der Markt bekommt das was er will - so einfach ist das :)

Mr. Lolman
2003-07-22, 02:27:13
Original geschrieben von tb
Wie gesagt, die Spiele Engine weiss ja, wann welcher MipMap Level generiert wird und kann dementsprechend auch eine Farbkodierung vornehmen. 3DA sieht ja nur die Diretcx Aufrufe und hat somit keine Ahnung, was die Engine dahinter will...
Bei 3DA wird's "Methode 1" (color mipmap's wie gewohnt)und "Methode 2" color mipmap's und zusätzlich/leider auch color texturen) geben. Hier mal ein Bsp von der Chaser Demo. Für die Übergänge dürfte es reichen....
Thomas


Wunderbar :D *ganzgespanntdienächsteversionerwart*

@Quasar:

Mit dem 'Quer durch die Bank zieht' meinte ich nicht eine generelle Optimierung, wie bei ATi der Fall war, sondern einfach, ob geziehlt, auf 'Standardbenchmarks' hin optimiert wurde.

IMHO wars wirklich ein Bug, dass die UT2003 Optimierung, mit erscheinen des Patches, der Colormipmaps ermöglichte, nicht rechtzietig entfernt wurde. (Das es ja absehbar war, dass da wer dahinter kommt. Und wer lässt sich schon gerne des Bescheissens überführen)

Ziemlich wahrscheinlich wird der nächste Deto die UT2003 "AF Optimierung" nicht mehr haben. Und dabei glaub ich kaum, dass die Geschwindigkeit der optimierten Detos gehalten, oder übertroffen werden kann. Die anderen erwarteten Geschwindigkeitssteigerungen wird man ja in Zukunft mit Thomas Tool genau unter die Lupe nehmen können.

Quasar
2003-07-22, 02:38:08
Ich verstehe nicht ganz....

Ich wollte dir eigentlich nur ein weiteres D3D-Game aufzeigen, welches man mit colorierten Mip-Levels in einen LSD-Trip verwandeln kann.

Mr. Lolman
2003-07-22, 02:54:55
Original geschrieben von Quasar
Ich verstehe nicht ganz....

Ich wollte dir eigentlich nur ein weiteres D3D-Game aufzeigen, welches man mit colorierten Mip-Levels in einen LSD-Trip verwandeln kann.

axo, thx :-)

tb
2003-07-22, 06:29:52
http://www.tommti-systems.de/temp/mipmap3.jpg

Hab doch noch ne Lösung gefunden, Direct3DSurfaces haben doch ein Gedächtnis, von welcher Texture sie stammen und was für einen MipMap-Level sie darstellen. Somit steht ColorMipMapping bei jedem DX8 / DX9 Game nix mehr im Weg.

Thomas

Quasar
2003-07-22, 11:10:04
Original geschrieben von tb
http://www.tommti-systems.de/temp/mipmap3.jpg

Hab doch noch ne Lösung gefunden, Direct3DSurfaces haben doch ein Gedächtnis, von welcher Texture sie stammen und was für einen MipMap-Level sie darstellen. Somit steht ColorMipMapping bei jedem DX8 / DX9 Game nix mehr im Weg.

Thomas

Sehr geil!
Wenn sich das nun nicht noch irgendwie per Treiber umgehen läßt, haben wir echt eine Chance, in Zukunft jede ungefragte Optimierung aufzudecken!!


Danke, Thomas, du bist "the man"!!