PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ouch Nvidia - was willst du uns kunden einbilden lassen...


Sphinx
2003-09-11, 12:39:18
QUELLE : 3dgpu...

Half Life 2 Benchmarks
It looks like tomorrow will be the big day for the first looks at Half-Life 2 and it's performance on various graphics cards. From Anandtech:

"even with the special NV3x codepath, ATI is the clear performance leader under Half-Life 2 with the Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath"
You can find some graphs given to various websited by Valve over at Gamer's Depot. Probable the most interesting graph is the FPS per $, which has the ATI 9600 Pro being the best bang for your buck.

ExtremeTech has also posted an article discussing the issues NVIDIA cards are having and have this quote from Valve regarding the new Detonator 50 drivers that ahould be released soon.

nVidia has been circulating its Det50 driver to analysts in hopes that we would use it for our Half-Life 2 benchmarking. The driver contains application-specific optimizations that will likely improve nVidia's overall performance picture, however Valve's Gabe Newell expressed concerns that some of nVidia's optimizations may go too far. Doug Lombardi of Valve has explicitly asked that beta versions of the Det50 drivers not be used for benchmarking.

Man, this is starting to look bleak...There is a link to those graphs as well as some great discussion going on over in this thread at Beyond3D.

There is a discussion started here.

Update - Matt: Gamer's Depot has a Q&A with Gabe Newell of Valve Software about Half-Life 2 and it looks even bleaker for NVIDIA:

GD: ATI has been blatantly obvious about its relationship with Valve. Can you tell us a bit about how that came to be?

Gabe: We've had a lot of relationships over the years, with companies like Intel and AMD, with NVIDIA and ATI, and so on. What we look for are relationships that help us build better products or are in the best interests of our customers. Once we started to understand the performance of the various chipsets running DX9, it became pretty clear to us who we should work with to deliver the best hardware/software combination to our customers.


Update 2 - Matt: And even bleaker, from this Tech-Report article:
[QUELLE] : http://techreport.com/etc/2003q3/valve/index.x?pg=2


As you can tell from looking at the list in the slide above, Newell was concerned particularly with some of the techniques NVIDIA has used in recent driver releases, although he didn't exempt other graphics hardware makers from his complaints. He said they had seen cases where fog was completely removed from a level in one of Valve's games, by the graphics driver software, in order to improve performance. I asked him to clarify which game, and he said it was Half-Life 2. Apparently, this activity has gone on while the game is still in development.He also mentioned that he's seen drivers detect screen capture attempts and output higher quality data than what's actually shown in-game.

Keel
2003-09-11, 12:53:56
Najo, Gabe Newell labert viel, wenn der Tag lang ist.

Aber grundsätzlich wird es schon stimmen, was er da sagt. War ja auch nicht wirklich anders zu erwarten.

Nun gut, eine gute Sache hat das ja (für mich): NV hat mir somit die Entscheidung abgenommen, was ich mir für eine GraKa holen werde. Muss ich mir nicht weiter den Kopf darüber zerbrechen. ;)

Demirug
2003-09-11, 13:13:13
Original geschrieben von Sphinx
He also mentioned that he's seen drivers detect screen capture attempts and output higher quality data than what's actually shown in-game.[/i]

Da bin ich auch schon mal reingefallen. Wie es sich dann aber herausstellte hat war es meine Schuld. Das Verfahren das ich zum erzeugen des Screenshots benutzt haben war aus DX8 Code übernommen und funktioniert mit DX9 leider nicht mehr sonderlich zuverlässig. Möglicherweise hat es auch mit DX8 nie richtig funktioniert aber damals war man da ja noch nicht so sensibel. Nachdem ich dann das korrekte Verfahren benutzt habe waren die Shots mit dem Bildschirm identisch. Dummerweise findet man aber noch in sehr vielen Beispielen zum erzeugen von Screenshots das Verfahren das nicht immer richtig funktioniert.

Quasar
2003-09-11, 13:18:13
Original geschrieben von Demirug
Dummerweise findet man aber noch in sehr vielen Beispielen zum erzeugen von Screenshots das Verfahren das nicht immer richtig funktioniert.

Benutzt es FRAPS?

Demirug
2003-09-11, 13:23:26
Original geschrieben von Quasar
Benutzt es FRAPS?

Keine Ahnung welches Verfahren FRAPS benutzt. Aber eines musste ich feststellen. Das korrekte Verfahren ist um ein vielfaches langsamer als das Fehleranfällige. Zum Videoaufzeichnen benutzt FRAPS daher mit an Sicherheit grenzender Wahrscheinlichkeit das Fehleranfällige.

Aeros405
2003-09-11, 13:25:08
Original geschrieben von Demirug
Da bin ich auch schon mal reingefallen. Wie es sich dann aber herausstellte hat war es meine Schuld. Das Verfahren das ich zum erzeugen des Screenshots benutzt haben war aus DX8 Code übernommen und funktioniert mit DX9 leider nicht mehr sonderlich zuverlässig. Möglicherweise hat es auch mit DX8 nie richtig funktioniert aber damals war man da ja noch nicht so sensibel. Nachdem ich dann das korrekte Verfahren benutzt habe waren die Shots mit dem Bildschirm identisch. Dummerweise findet man aber noch in sehr vielen Beispielen zum erzeugen von Screenshots das Verfahren das nicht immer richtig funktioniert.

Das hätte dann doch aber eher was mit HL 2 zu tun und nicht mit dem Treiber, oder???

Sphinx
2003-09-11, 13:32:16
nja @ Demirug : Das würde heissen das deine Screenshots schlechter hätten aussehen müssen als das orginal...

Aber nicht wie beschrieben : BESSER

Nur als Beispiel wie man es verstehen kann und auch gemeint ist... : Spiel wird gespielt ohne FSAA + AF aber sollte nun ein Screenshot gemacht werden wird dem Screenshot nun alles beigefügt um so den Pre/Reviewern bei Screenshot vergleichen ein höherwertiges Outputbild vorgetäuscht wird, als es tatsächlich auf dem Bildschirm vorhanden ist...

Demirug
2003-09-11, 13:37:41
Original geschrieben von Aeros405
Das hätte dann doch aber eher was mit HL 2 zu tun und nicht mit dem Treiber, oder???

Nicht unbedingt. Die Fehleranfälligkeit war von Treiber zu Treiber unterschiedlich. Ich haben dann aber irgendwann das korrekte Verfahren benutzt und seit dem diese Sache nicht mehr im Auge behalten. Ich wollte damit auch eigentlich nur andeuten das man in dieser angespannten Lage liecht übereilt falsche schlüsse zieht und die wahre Ursache eine andere ist. Gerade Screenshotfunktionen sind etwas was man einmal programmiert, dann einfach mitschlept und sich nicht mehr darum kümmert.

Gast
2003-09-11, 13:41:42
Half Live 2 Benchmarks

Hier ist ein Link :

http://www.extremetech.com/article2/0,3973,1261767,00.asp


PS.: das sizing wollte ich immer schon mal machen :D :D

Demirug
2003-09-11, 13:43:10
Original geschrieben von Sphinx
nja @ Demirug : Das würde heissen das deine Screenshots schlechter hätten aussehen müssen als das orginal...

Aber nicht wie beschrieben : BESSER

Nein, ich hatte auch welche die besser waren weil da irgendwas "kreatives" mit dem AA passiert ist. Richtig erklären kann ich mir das bis heute noch nicht aber nach dem umschreiben der Schreenshotfunktion waren diese Phänomene beseitigt.

Demirug
2003-09-11, 13:45:34
Original geschrieben von Gast
Half Live 2 Benchmarks

Hier ist ein Link :

http://www.extremetech.com/article2/0,3973,1261767,00.asp


PS.: das sizing wollte ich immer schon mal machen :D :D

ALT (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=93422)

Gast
2003-09-11, 14:02:32
Original geschrieben von Demirug
ALT (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=93422)

dachte ich mir schon. Kannst das posting ja löschen.


das hier hat mich aber schon gewundert :

http://techreport.com/etc/2003q3/valve/Image3.jpg

Valve-Pic auf Tech-Report.

Anscheinend hat Nvidia (aber nicht nur die) versucht alle diese netten Dinge im Det50-Treiber unterzubringen, um ihre Kunden zu verarschen. Schließlich geht es um ein richtiges Spiel und nicht nur um einen (wie sich doch so viele ausgedrückt haben) "dummen Benchmark" wie 3DMark03.

selbst der Punkt "Algorithmic detection and replacement" ist hier _sehr_ fragwürdig, da solche Optimierungen, soweit möglich bereits von Valve vorgenommen wurden :


Techreport quoting Valve :

However, NVIDIA has claimed the NV3x architecture would benefit greatly from properly optimized code, so Newell detailed Valve's sojourn down that path. The company developed a special codepath for the NV3x chips, distinct from its general DirectX codepath, which included everything from partial-precision hints (telling the chip to use 16-bit floating-point precision rather than the default 32-bit in calculating pixel shader programs) to hand-optimized pixel shader code.



Alles in allem ein sehr fragwürdiges Verhalten von Nvidia.

Alexander
2003-09-11, 14:02:37
Original geschrieben von Gast
Half Live 2 Benchmarks


Und falsch geschreiben noch dazu ;)

Alexander

Demirug
2003-09-11, 14:11:41
Original geschrieben von Gast
selbst der Punkt "Algorithmic detection and replacement" ist hier _sehr_ fragwürdig, da solche Optimierungen, soweit möglich bereits von Valve vorgenommen wurden :

Wobei hier durchaus noch gewisse Zweifel erlaubt sein müssen den von den Optimierungen von Valve profitiert scheinabr nur die 5900er richtig. Die 5600er dagegen ist sogar langsamer mit diesen Valve Optimierungen.

Ich habe zwar erlebt das ein Shader durch neukompilieren mit 2.A (NV3X Profil) auf einem CineFX I Chip nicht schneller wurde aber langsamer ist noch keiner gewessen. Und Valve hat ja angeblich mehr als nur eine restrukturierung vorgenommen.

Gast
2003-09-11, 14:49:16
Original geschrieben von Demirug
Wobei hier durchaus noch gewisse Zweifel erlaubt sein müssen den von den Optimierungen von Valve profitiert scheinabr nur die 5900er richtig. Die 5600er dagegen ist sogar langsamer mit diesen Valve Optimierungen.

Ich habe zwar erlebt das ein Shader durch neukompilieren mit 2.A (NV3X Profil) auf einem CineFX I Chip nicht schneller wurde aber langsamer ist noch keiner gewessen. Und Valve hat ja angeblich mehr als nur eine restrukturierung vorgenommen.

toll;

ich bin jetzt mal so frei und lege das für Nvidia negativ aus :

Also schafft es noch nicht einmal Valve, die ja als 1A-Entwickler gelten die NV3X-Architektur auszunutzen, und das selbst dann nicht, wenn sie 5x mehr Zeit investieren als für den normalen DX9 (PS2.0 ohne A) - Pfad.

Was sollen dann eigentlich noch die neuen HLSL-Compiler bringen?

ow
2003-09-11, 14:51:52
Original geschrieben von Gast
toll;

ich bin jetzt mal so frei und lege das für Nvidia negativ aus :

Also schafft es noch nicht einmal Valve, die ja als 1A-Entwickler gelten die NV3X-Architektur auszunutzen, und das selbst dann nicht, wenn sie 5x mehr Zeit investieren als für den normalen DX9 (PS2.0 ohne A) - Pfad.

Was sollen dann eigentlich noch die neuen HLSL-Compiler bringen?


Valve als 1A Entwickler? :rofl: :lol:
Was haben die denn bis jetzt entwickelt ausser dieser buggy ("tut uns leid, aber AA wird nicht funktionieren") HL2-Engine?

Gast
2003-09-11, 14:55:16
Original geschrieben von ow
Valve als 1A Entwickler? :rofl: :lol:
Was haben die denn bis jetzt entwickelt ausser dieser buggy ("tut uns leid, aber AA wird nicht funktionieren") HL2-Engine?
die hl2 engine wird in ein paar tagen die innovativste auf dem markt sein und du ziehst darüber her? also entweder du kannst das besser als valve oder bist ein nv veteran.

ow
2003-09-11, 15:05:08
Weisst du was ich denke:

Wenn schon im Vorfeld soviel Wirbel um ein Game gemacht werden muss wie es bei HL2 der Fall ist, dann kann das Ding nix taugen. S.a. Unreal2, welches ich zwar nicht habe, von dem ich aber NACH dem Erscheinen auch nix mehr gutes gehört habe.

Und was die HL2 Engine angeht: nach jahrelanger Entwicklung irgendwann kurz vor Release zu verkünden, dass MSAA nicht funzen wird ist ja wohl DAS Armutszeugnis schlechthin.

Was den Rest der Engine angeht: da warte ich doch lieber die fundierte Analyse unserer 3D Gurus hier im Forum ab. DIe werden und schon sagen, was die Engine taugt.

roman
2003-09-11, 15:19:27
Original geschrieben von ow
Weisst du was ich denke:

Wenn schon im Vorfeld soviel Wirbel um ein Game gemacht werden muss wie es bei HL2 der Fall ist, dann kann das Ding nix taugen. S.a. Unreal2, welches ich zwar nicht habe, von dem ich aber NACH dem Erscheinen auch nix mehr gutes gehört habe.


du denkst also auch, das Doom3, Stalker & Konsorten "nix taugen"? möchte auch so eine kristallkugel ...

@Topic: falls, wie newell sagt, die optimierungen "zu weit" gehen, ist es dann für valve möglich, diese über die engine wieder auszuhebeln? oder ist da der treiber die letzte instanz?

Demirug
2003-09-11, 15:22:14
Original geschrieben von Romanski
du denkst also auch, das Doom3, Stalker & Konsorten "nix taugen"? möchte auch so eine kristallkugel ...

@Topic: falls, wie newell sagt, die optimierungen "zu weit" gehen, ist es dann für valve möglich, diese über die engine wieder auszuhebeln? oder ist da der treiber die letzte instanz?

Der Treiber ist immer die letzte Instanz aber wenn Valve verhindert das der Treiber den Shader erkennet kann er in auch nicht austauschen.

ow
2003-09-11, 15:37:25
Original geschrieben von Romanski


@Topic: falls, wie newell sagt, die optimierungen "zu weit" gehen, ist es dann für valve möglich, diese über die engine wieder auszuhebeln? oder ist da der treiber die letzte instanz?


nenn mir mal ein Beispiel, wo sich je irgendein Spieleentwickler um die Treiber der HW-Hersteller und deren Optimierungen geschert hat. Was geht es denn Valve an, was NV tut?
SEHR verdächtig, das ganze....:|:|

x-dragon
2003-09-11, 15:40:57
Original geschrieben von ow
nenn mir mal ein Beispiel, wo sich je irgendein Spieleentwickler um die Treiber der HW-Hersteller und deren Optimierungen geschert hat. Was geht es denn Valve an, was NV tut?
SEHR verdächtig, das ganze....:|:| Wenn es zu diesem Spiel auch einen Benchmark gibt der auch allgemeingültig einsetzbar sein soll, dann ist das schon wichtig. Vor allem nach den Diskussionen in den letzten Wochen zu diesem Thema.

roman
2003-09-11, 15:43:14
Original geschrieben von ow
nenn mir mal ein Beispiel, wo sich je irgendein Spieleentwickler um die Treiber der HW-Hersteller und deren Optimierungen geschert hat. Was geht es denn Valve an, was NV tut?
SEHR verdächtig, das ganze....:|:|

von dem standpunkt aus ist das allerdings eine fragwürdige aktion.

allerdings ist die engine ja immerhin geistiges eigentum von valve, wenn da also wild am code herumgepfuscht wird, können sie da durchaus was dagegen haben und entsprechende maßnahmen setzen.

Gast
2003-09-11, 15:44:20
Original geschrieben von X-Dragon
Wenn es zu diesem Spiel auch einen Benchmark gibt der auch allgemeingültig einsetzbar sein soll, dann ist das schon wichtig. Vor allem nach den Diskussionen in den letzten Wochen zu diesem Thema. Das ist aber nicht ok, den optiemierung die das gameplay den speed usw verbessern waren und sind immer wilkommen! Es sei den man nimmt geringer quali, und da sind wir ja seit 3dfx von ab! Die witz benchies wo glide gegen 32 bit geteste würde nö so nicht schon wieder!

roman
2003-09-11, 15:48:26
Original geschrieben von Gast
Das ist aber nicht ok, den optiemierung die das gameplay den speed usw verbessern waren und sind immer wilkommen!

aber optimierungen, die ganze codeteile austauschen, sind IMHO nicht im sinne des erfinders.

ow
2003-09-11, 15:49:25
Original geschrieben von X-Dragon
Wenn es zu diesem Spiel auch einen Benchmark gibt der auch allgemeingültig einsetzbar sein soll, dann ist das schon wichtig. Vor allem nach den Diskussionen in den letzten Wochen zu diesem Thema.


Das hat früher aber doch auch niemanden interessiert. Egal, was da gebencht wurde, Unreal, UT, Q3,....


/edit:
damit kein falscher Eindruck entsteht: ich halte es für absolut inakzeptabel, wenn die Bildqualität merklich gesenkt wird zum Zwecke einer Leistungsoptimierung.

Gast
2003-09-11, 15:50:35
Original geschrieben von ow
nenn mir mal ein Beispiel, wo sich je irgendein Spieleentwickler um die Treiber der HW-Hersteller und deren Optimierungen geschert hat. Was geht es denn Valve an, was NV tut?
SEHR verdächtig, das ganze....:|:|

Man, du verzapfst auch heute auch einen Blödsinn, wohl mit dem falschen Bein aufgestanden.
Früher war es auch nicht nötig, die Herstellerseitigen "cheats" wurden entweder kaum in deisem Umfang möglich oder schnell sichtbar. Da die heutigen GPU immer mehr den CPU ähnel... aber wozu erzähle ich das, dass weisst du selber ganz genau. Naja, halt nicht dein Tag :)

LovesuckZ
2003-09-11, 15:51:48
Original geschrieben von Romanski
aber optimierungen, die ganze codeteile austauschen, sind IMHO nicht im sinne des erfinders.

Valve will aber auch viele Spiele absetzen. Und wenn es rauskomme, dass sie Optimierungen von nvidiaseite verhindern, weil diese dann schneller als die ATi Konkurenz seien, dann waere das ein herber Imager Verlust.
Denn der leidtragende ist der einfache Mensch mit seiner NV3x Karte, der ploetzlich in diesen schmutzigen "Krieg" mitreingezogen wird.

Sollte jedoch herauskommen, dass Nvidia nur auf den Benchmark optimiert und die Leistung im Spiel nicht verbessert, dann wird wohl einige in der Szene passieren...

Gast
2003-09-11, 15:51:57
Original geschrieben von Romanski
@Topic: falls, wie newell sagt, die optimierungen "zu weit" gehen, ist es dann für valve möglich, diese über die engine wieder auszuhebeln? oder ist da der treiber die letzte instanz?


Yep; STEAM !

Wie schon mal gepostet. Nvidia wird dadurch immer um Monate zu spät dran sein.

Wird nicht lustig für alle Nvidia-FXKarten-Besitzer. Jedes neue Feature wird am Anfang nur schlecht laufen, oder sogar das Spiel insgesamt wieder schlechter als zuvor, da einige Shader ausgetauscht wurden oder...

ow
2003-09-11, 15:53:18
Original geschrieben von Gast
Man, du verzapfst auch heute auch einen Blödsinn, wohl mit dem falschen Bein aufgestanden.
Früher war es auch nicht nötig, die Herstellerseitigen "cheats" wurden entweder kaum in deisem Umfang möglich oder schnell sichtbar. Da die heutigen GPU immer mehr den CPU ähnel... aber wozu erzähle ich das, dass weisst du selber ganz genau. Naja, halt nicht dein Tag :)


Ich geb das mal zurück, der Blödsinn kommt von dir. Und Argumente scheinen dir auch zu fehlen....

LovesuckZ
2003-09-11, 15:55:22
Original geschrieben von Gast
Yep; STEAM !


Auch nur für die, die monatlich 9,90$ bezahlen wollen.
Alle die sich das Spiel im laden kaufen oder das einmalige Downloadangebot annehmen, werden mit ihrer FX Karte wohl auch bis zum naechsten HL Patch keine probleme haben.

ow
2003-09-11, 15:55:27
Original geschrieben von Romanski
aber optimierungen, die ganze codeteile austauschen, sind IMHO nicht im sinne des erfinders.



Solange das Ergebnis einer Rechenoperation dasselbe ist, ist es völlig egal, wie es zustande kommt.

Das ist imo auch das einzige, was an Optimierung zulässig ist: es muss dasselbe Resultat erzeugt werden.

x-dragon
2003-09-11, 16:06:23
Original geschrieben von LovesuckZ
Valve will aber auch viele Spiele absetzen. Und wenn es rauskomme, dass sie Optimierungen von nvidiaseite verhindern, weil diese dann schneller als die ATi Konkurenz seien, dann waere das ein herber Imager Verlust.
Denn der leidtragende ist der einfache Mensch mit seiner NV3x Karte, der ploetzlich in diesen schmutzigen "Krieg" mitreingezogen wird.

Sollte jedoch herauskommen, dass Nvidia nur auf den Benchmark optimiert und die Leistung im Spiel nicht verbessert, dann wird wohl einige in der Szene passieren... Da der HL2-Benchmark die gleiche Engine verwendet wie das Spiel, dürfte es im Prinzip egal auf was Nvidia optimiert. Aber es ist natürlich nicht besonders einfach zwischen guten und bösen Optimierungen zu trennen und diese dann einzelnd rauszufiltern. Aber ich denke Valve weiß sehr wohl das dieses eine sehr komplexe Geschichte ist und dementsprechend vorher seine Richtlinien gesetzt hat, was durch die Treiber veränderbar sein soll und was nicht.

Riptor
2003-09-11, 16:06:25
Original geschrieben von ow
Wenn schon im Vorfeld soviel Wirbel um ein Game gemacht werden muss wie es bei HL2 der Fall ist, dann kann das Ding nix taugen. S.a. Unreal2, welches ich zwar nicht habe, von dem ich aber NACH dem Erscheinen auch nix mehr gutes gehört habe.

Hauptsache sich selbst kein Bild davon machen, oder? =) Valve und ATI, sind schon schlimm die beiden. ;)

Crushinator
2003-09-11, 16:08:49
Original geschrieben von ow
Solange das Ergebnis einer Rechenoperation dasselbe ist, ist es völlig egal, wie es zustande kommt. Das ist imo auch das einzige, was an Optimierung zulässig ist: es muss dasselbe Resultat erzeugt werden. Da kann ich nur zustimmen, möchte aber noch bemerken, daß ich unter "Resultat" jenes im echten Gameplay verstehe und nicht nur das im Benchmark-Modus.

LovesuckZ
2003-09-11, 16:52:27
Original geschrieben von X-Dragon
Aber ich denke Valve weiß sehr wohl das dieses eine sehr komplexe Geschichte ist und dementsprechend vorher seine Richtlinien gesetzt hat, was durch die Treiber veränderbar sein soll und was nicht.

Warum sollte Valve Richtlinien verfassen?
Wenn die IQ die selbe ist und das Spiel dann ploetzlich deutlich schneller laeuft, ist es mir als zahlender Kunde egal, ob Valve das gut oder miserabel findet.

x-dragon
2003-09-11, 16:59:33
Original geschrieben von LovesuckZ
Warum sollte Valve Richtlinien verfassen?
Wenn die IQ die selbe ist und das Spiel dann ploetzlich deutlich schneller laeuft, ist es mir als zahlender Kunde egal, ob Valve das gut oder miserabel findet. Ich meinte das eher bezogen auf eigene Richtlinien, wann sie eingreifen wollen um bestimmte Optimierungen unschädlich zu machen. Klar wenn es ohne Bildqualitätsverlust abläuft wird Valve wahrscheinlich auch nichts dagegen haben, zumindest beim Spiel. Beim Benchmark sieht die Sache natürlich etwas anders aus. Wobei dann das Problem entstehen könnte das Spiel und Benchmark nicht mehr vergleichbar wären ...

LovesuckZ
2003-09-11, 17:03:30
Original geschrieben von X-Dragon
Ich meinte das eher bezogen auf eigene Richtlinien, wann sie eingreifen wollen um bestimmte Optimierungen unschädlich zu machen.

Wie willst du "bestimmte Optimierungen" umschaedlich, wenn diese die IQ nicht verschlechtern?
Sollte Nvidia wieder einen Mist zusammen filtern, überall nur INT12 bei den Shadern verwenden, dann kann man über das "unschaedlich" machen, reden. Zur zeit sieht für mich die Reaktion auf den 51.xx Treiber eher so aus als ob Valve angst habe, dass die nvidia Karten dann schneller als die ATi Konkurenz waeren und somit ATi sich in Sachen Untersteutzung verschaukelt fuehlen koennten.

Gast
2003-09-11, 17:36:07
Original geschrieben von LovesuckZ
Wie willst du "bestimmte Optimierungen" umschaedlich, wenn diese die IQ nicht verschlechtern?
Sollte Nvidia wieder einen Mist zusammen filtern, überall nur INT12 bei den Shadern verwenden, dann kann man über das "unschaedlich" machen, reden. Zur zeit sieht für mich die Reaktion auf den 51.xx Treiber eher so aus als ob Valve angst habe, dass die nvidia Karten dann schneller als die ATi Konkurenz waeren und somit ATi sich in Sachen Untersteutzung verschaukelt fuehlen koennten.
du machst witze oder meinst du dein geschreibsel wirklich ernst?

LovesuckZ
2003-09-11, 17:40:09
Original geschrieben von Gast
du machst witze oder meinst du dein geschreibsel wirklich ernst?

Da du ja keine Gegenargumente hast, halte doch bitte deine Finger still.

Gast
2003-09-11, 17:45:16
Original geschrieben von LovesuckZ
Da du ja keine Gegenargumente hast, halte doch bitte deine Finger still.
du tätigst hier konfuse, unhaltbare unterstellungen. kehre erstmal vor der eigenen tür.

irgendwie hört man von nV fans immer nur: der det. 50 wird alles richten, valve will nv fertig machen, etc.

hauptsache ihr glaubt wenigstens selbst an das was ihr so von euch gebt.

LovesuckZ
2003-09-11, 17:49:02
Original geschrieben von Gast
du tätigst hier konfuse, unhaltbare unterstellungen. kehre erstmal vor der eigenen tür.


Ach ja? Wo steht denn, dass der Deto 51.xx die IQ in HL2 verschlechtere? Nirgends. Selbst Gabe Newell sagt nicht's genaueres über die "application-specific optimizations". Komisch, dass sie von diesen Optimierungen schon wissen...
Naja, als Gast laesst es sich leichter Flamen, und das ganz ohne Argumente. Bravo!

Gast
2003-09-11, 18:01:16
Original geschrieben von LovesuckZ
Ach ja? Wo steht denn, dass der Deto 51.xx die IQ in HL2 verschlechtere? Nirgends. Selbst Gabe Newell sagt nicht's genaueres über die "application-specific optimizations". Komisch, dass sie von diesen Optimierungen schon wissen...

ich kann und will nichts zu den "application-specific optimizations" sagen, da man warten sollte bis die treiber released wurden und dann kann man urteilen. wenn die optimierungen im endresultat keine iq verschlechterungen bringen oder nur minimale, ist die sache voll in ordnung.

natürlich kennt der newell die neuen detos, denn valve arbeitet auch offiziell mit nV zusammen. wenn nV jetzt allerdings kurz vor dem release den code angepasst haben will von valve ist das wohl ein witz.

meine kritik im vorherigen posting bezog sich übrigen auf diesen abschnitt:
Original geschrieben von LovesuckZ
Zur zeit sieht für mich die Reaktion auf den 51.xx Treiber eher so aus als ob Valve angst habe, dass die nvidia Karten dann schneller als die ATi Konkurenz waeren und somit ATi sich in Sachen Untersteutzung verschaukelt fuehlen koennten.
und das kann man wohl nur als fanboy gebrabbel abtun.

LovesuckZ
2003-09-11, 18:08:56
Original geschrieben von Gast
natürlich kennt der newell die neuen detos, denn valve arbeitet auch offiziell mit nV zusammen. wenn nV jetzt allerdings kurz vor dem release den code angepasst haben will von valve ist das wohl ein witz.

Dadrum geht es doch gar nicht...

und das kann man wohl nur als fanboy gebrabbel abtun.

Wenn solche Behauptungen aufgestellt werden, sollten sie auch gleich mit Agumenten gestuetzt werden. Er tut dies nicht. Daher kann man alles darein interpretieren. Fanatiker werden wohl die Idee mit der schlechteren IQ kommen, die andere Seite sehe es eben als Schutzreaktion gegenüber ATi an.
Beide Einstellungen sind richtig.

aths
2003-09-11, 18:19:55
Original geschrieben von ow
Solange das Ergebnis einer Rechenoperation dasselbe ist, ist es völlig egal, wie es zustande kommt.

Das ist imo auch das einzige, was an Optimierung zulässig ist: es muss dasselbe Resultat erzeugt werden. Das ist selbst nach den neuen NV-Optimierungsregeln nicht egal. Es dürfen kein vorberechneten Daten zum Einsatz kommen. Und es darf nicht nur eine spezifische Anwendung profitieren. Lt. NVs eigenen neuen Regeln ist z.B. Shader Replacement nicht zulässig.

Deiner Definition nach wäre ja sogar applikations/benchmarkabhängige Scene Occlusion zulässig. Ich glaube, hier würde kaum jemand zustimmen.

Demirug
2003-09-11, 18:47:44
Original geschrieben von aths
Das ist selbst nach den neuen NV-Optimierungsregeln nicht egal. Es dürfen kein vorberechneten Daten zum Einsatz kommen. Und es darf nicht nur eine spezifische Anwendung profitieren. Lt. NVs eigenen neuen Regeln ist z.B. Shader Replacement nicht zulässig.

Deiner Definition nach wäre ja sogar applikations/benchmarkabhängige Scene Occlusion zulässig. Ich glaube, hier würde kaum jemand zustimmen.

aths, glaube mir es ist auch möglich mit den neuen Optimierungsregeln (sind die überhaupt richtig offiziel bestätigt worden?) Shader Replacement durchzuführen.

Das Replacement wird von einer Funktion durchgeführt welche auf alle Shader angewendet wird ist also nicht applikationsspezifisch.

Es würde jede Applikation profitieren die den gleichen Shader benutzt. nVidia hat schöne Tools zum Testen von Shadern ;)

Und dann redet man noch ein bischen was von Strukturanalyse mit Patternprüfung von typischen Shaderkonstrukten welche durch eine Intrinsic Implementierung solcher Konstrukte optimiert werden.

Verträge sollte man nicht brechen aber man kann sie immer interpretieren.

Sphinx
2003-09-11, 18:54:34
Toms Hardware - hat sich der sache und den Statements auch mal einen Bericht Veröffentlicht...

QUELLE : http://www.tomshardware.com/business/20030911/index.html

ZITAT :

Prior to the release of Halflife 2, Valve will release a benchmark demo of the game that allows future Halflife2-players a HL2-performance test of their System. During the development of that benchmark demo Valve found a lot of issues in current graphic card drivers of unnamed manufacturers:

Camera path-specific occlusion culling
Visual quality tradeoffs
e.g. lowered filtering quality, disabling fog
Screen-grab specific image rendering
Lower rendering precision
Algorithmic detection and replacement
Scene-specific handling of z writes
Benchmark-specific drivers that never ship
App-specific and version specific optimizations that are very fragile
Valve is very concerned about those developments since customers make their buying decisions for new hard- and software based on benchmark numbers. The problem is that the results with those optimizations have very little to do with the real game performance of those cards. Gabe Newell: "Our Customers will be pissed"...

ow
2003-09-11, 18:57:27
Original geschrieben von aths
Das ist selbst nach den neuen NV-Optimierungsregeln nicht egal. Es dürfen kein vorberechneten Daten zum Einsatz kommen. Und es darf nicht nur eine spezifische Anwendung profitieren. Lt. NVs eigenen neuen Regeln ist z.B. Shader Replacement nicht zulässig.

Deiner Definition nach wäre ja sogar applikations/benchmarkabhängige Scene Occlusion zulässig. Ich glaube, hier würde kaum jemand zustimmen.

Oh, ich meinte natürlich generelle Optimierungen und keine applikationsspezifischen. Letztere halte ich eh für Unsinn und den damit verbunden Aufwand der Treiberprogrammierung auch. S.a. Demirug.

Sphinx
2003-09-11, 19:01:01
Und das prangert VALVE ja auch an : Algorithmic detection and replacement

dildo4u
2003-09-11, 19:05:37
Original geschrieben von LovesuckZ
Wie willst du "bestimmte Optimierungen" umschaedlich, wenn diese die IQ nicht verschlechtern?
Sollte Nvidia wieder einen Mist zusammen filtern, überall nur INT12 bei den Shadern verwenden, dann kann man über das "unschaedlich" machen, reden. Zur zeit sieht für mich die Reaktion auf den 51.xx Treiber eher so aus als ob Valve angst habe, dass die nvidia Karten dann schneller als die ATi Konkurenz waeren und somit ATi sich in Sachen Untersteutzung verschaukelt fuehlen koennten.

lol naja ich kann mich noch an zeiten erinnern wo es hieß ich kauf mir doch keine ATI.Die treiber sind bei Games so scheisse das sie erst dann funzen wenn schon 3 mal ein treiber update gekommen ist und jetzt warten die Nvidianer auf den ach so tollen Wundertreiber der alles besser macht sorry aber wo ist der vorteil wenn ich games immer erst mit nem treiber update vernünftig zocken kann?Wenn überhaut ich denk auch mit dem neuen treiber kommt die 5900 nich an der 9600pro vorbei!

Sphinx
2003-09-11, 19:13:14
Wenn überhaut ich denk auch mit dem neuen treiber kommt die 5900 nich an der 9600pro vorbei!

- Genau dieses und mehrerer Gefühle bezogen auf Nvidia habe ich auch "Was macht der Saftladen nur für eine momentane Entwicklung durch ?"

Also ich könnt ja Spekulieren aber das währe OffTopic...

Piffan
2003-09-11, 19:15:41
Original geschrieben von dildo4u
lol naja ich kann mich noch an zeiten erinnern wo es hieß ich kauf mir doch keine ATI.Die treiber sind bei Games so scheisse das sie erst dann funzen wenn schon 3 mal ein treiber update gekommen ist und jetzt warten die Nvidianer auf der ach so tollen Wundertreiber der alles besser macht sorry aber wo ist der vorteil wenn ich games immer erst mit nem treiber update vernünftig zocken kann?Wenn überhaut ich denk auch mit dem neuen treiber kommt die 5900 nich an der 9600pro vorbei!

???

Ach so, hier schreibt ein echter Fan......

Gast
2003-09-11, 19:40:42
Original geschrieben von Piffan
???

Ach so, hier schreibt ein echter Fan......
wieso das? bei dx9 shaderlastigen spielen sieht die realität zur zeit so aus.

Exxtreme
2003-09-11, 20:11:59
Original geschrieben von ow
Weisst du was ich denke:

Wenn schon im Vorfeld soviel Wirbel um ein Game gemacht werden muss wie es bei HL2 der Fall ist, dann kann das Ding nix taugen. S.a. Unreal2, welches ich zwar nicht habe, von dem ich aber NACH dem Erscheinen auch nix mehr gutes gehört habe.

Und was die HL2 Engine angeht: nach jahrelanger Entwicklung irgendwann kurz vor Release zu verkünden, dass MSAA nicht funzen wird ist ja wohl DAS Armutszeugnis schlechthin.

Also Borsti war richtig begeistert von dem Benchmark. ;)

Und MSAA hätte immer gefunzt nur hätte es leichte Bildfehler produziert.

aths
2003-09-11, 20:19:08
Original geschrieben von Demirug
aths, glaube mir es ist auch möglich mit den neuen Optimierungsregeln (sind die überhaupt richtig offiziel bestätigt worden?) Shader Replacement durchzuführen.

Das Replacement wird von einer Funktion durchgeführt welche auf alle Shader angewendet wird ist also nicht applikationsspezifisch.Ich hätte mich genauer ausdrücken sollen. Mit Shader Replacement meinte ich nicht, dass der Treiber einen mathematisch gleichwertigen Shader erzeugt, sondern dass in einer Datenbank nachgesehen und nur spezifische Shader ersetzt werden.

dildo4u
2003-09-11, 20:19:08
.

LovesuckZ
2003-09-11, 20:22:41
rasten die Fanatiker jez voellig aus?

http://www.bigsmedia.de/Unbenannt.jpg

Gast
2003-09-11, 20:23:06
Wenn Nvidia in Games Shader bei angeblich gleicher Bildqualität austauscht, von denen dann auch die Benchmarks dieser Games profitieren, ist das doch Jacke wie Hose. Ist zwar schlecht fürs Image und die Progger bei nV hätten mit Sicherheit auch was besseres zu tun aber letztendlich ist mir das egal. Trotzdem möchte ich nicht erst 2 Monate warten, bis das Game halbwegs läuft.


Wenn aber bei entsprechendem Detonator "zufällig" die Sceenshots erkannt und gegen welche mit besserer Qualität ausgetauscht bzw. diese mit besserer Qualität gerendert werden, find ich das schon sehr bezeichend.:nono:

dildo4u
2003-09-11, 20:25:46
Original geschrieben von LovesuckZ
rasten die Fanatiker jez voellig aus?

http://www.bigsmedia.de/Unbenannt.jpg
Hä ich seh da nur die THG seite mit den von Valve rausgegeben DX9 Benches
Das wurde nicht von THG getestet die ham einfach die Valve presentation übernommen
@Love willkommen in der Wunderbaren welt des PS2.0 wo die FXen whol nix zu suchen haben ;-)

Exxtreme
2003-09-11, 20:26:28
Original geschrieben von LovesuckZ
rasten die Fanatiker jez voellig aus?

http://www.bigsmedia.de/Unbenannt.jpg
Hä???

Seit wann ist THG fanATisch?

Gast
2003-09-11, 20:28:23
Original geschrieben von dildo4u
Hä ich seh da nur die THG seite mit den von Valve rausgegeben DX9 Benches
der typ tut sich wahrscheinlich noch was an, wenn er irgendwann merkt, dass nV zur Zeit was für die toilette ist.

Gast
2003-09-11, 20:29:23
Original geschrieben von Exxtreme
Hä???

Seit wann ist THG fanATisch?
das letzte große comparereview war jedenfalls das gegenteil. scheinbar dreht sich der typ alles wie es ihm passt.

Demirug
2003-09-11, 20:48:15
Original geschrieben von aths
Ich hätte mich genauer ausdrücken sollen. Mit Shader Replacement meinte ich nicht, dass der Treiber einen mathematisch gleichwertigen Shader erzeugt, sondern dass in einer Datenbank nachgesehen und nur spezifische Shader ersetzt werden.

Genau das meinte ich aber und meine schöneUumschreibung am Ende des Originalpost beschreibt genau das.

LovesuckZ
2003-09-11, 20:53:46
Original geschrieben von dildo4u
Hä ich seh da nur die THG seite mit den von Valve rausgegeben DX9 Benches
Das wurde nicht von THG getestet die ham einfach die Valve presentation übernommen
@Love willkommen in der Wunderbaren welt des PS2.0 wo die FXen whol nix zu suchen haben ;-)

Ja, und ich bin genau dort hingekommen, als ich auf deinen Link gedrueckt habe.

Quasar
2003-09-11, 21:02:10
Also bei bis zu 256facher Genauigkeit per Component finde ich 50% Geschwindigkeitsverlust akzeptabel... ;) ;) ;) <- Ironie-Smileys, für alle, die's sonst wieder nicht verstehen

LovesuckZ
2003-09-11, 21:04:39
Original geschrieben von Exxtreme
Hä???
Seit wann ist THG fanATisch?

Nein, der liebe Dildo4u dachte, das THG die Balkendiagramme auf Anfrage von nvidia von ihrer Seite genommen haette.

dildo4u
2003-09-11, 21:12:29
Original geschrieben von LovesuckZ
Nein, der liebe Dildo4u dachte, das THG die Balkendiagramme auf Anfrage von nvidia von ihrer Seite genommen haette.
jo sorry aber ich sah als ich die seite gerade nochmal geladen hatte bei den benchs nur diesn THG hammer und ich
dachte sie musste das wegen nvidia von der seite nehmen
mein Fehler

Aquaschaf
2003-09-11, 22:40:36
Original geschrieben von ow
Weisst du was ich denke:

Wenn schon im Vorfeld soviel Wirbel um ein Game gemacht werden muss wie es bei HL2 der Fall ist, dann kann das Ding nix taugen. S.a. Unreal2, welches ich zwar nicht habe, von dem ich aber NACH dem Erscheinen auch nix mehr gutes gehört habe.

Mal so zum Vergleich, HL2 wurde ~6 Monate vor dem Releasetermin überhaupt erst einmal angekündigt, bei Unreal II (um mal Doom 3 gar nicht zu erwähnen) gab es schon afair 1,5 Jahre vorm Erscheinen umfangreiche Previews in Printmagazinen ;)

Gast
2003-09-11, 23:02:47
Original geschrieben von Gast

Wenn aber bei entsprechendem Detonator "zufällig" die Sceenshots erkannt und gegen welche mit besserer Qualität ausgetauscht bzw. diese mit besserer Qualität gerendert werden, find ich das schon sehr bezeichend.:nono:

Full Ack.

PS: Hier machen sich die Vorteile von CineFX beim Offline Rendering bezahlt. :lol:

Sk_Antilles
2003-09-12, 14:52:59
Also ich lese mir gerade den Artikel über HL2, Ati und Nvidia auf Anandtech durch. Offensichtlich stimmen die Ergebnisse der Präsentation von Valve und ATi.

Sk_Antilles

/edit/
Besonders bei größeren Auflösungen (1280x1024) sieht es sehr düster für die GFx Karten aus.

Quasar
2003-09-12, 16:30:13
ääähm,
Die Benchmarkergebnisse wird Valve sicherlich nicht manipuliert haben. Das wäre ja glatter Betrug, so dämlich wäre niemand, nichtmal App... naja, lassen wir das.

Wenn ich jemanden in einem gegebenen Game siegen sehen will, gibt es dazu noch wesentlich elegantere Methoden, besonders wenn einem nV so eine schöne Steilvorlage wie die alten cg-Compiler liefert *eg*

Wishnu
2003-09-12, 17:38:05
Original geschrieben von Quasar
Also bei bis zu 256facher Genauigkeit per Component finde ich 50% Geschwindigkeitsverlust akzeptabel... ;) ;) ;) <- Ironie-Smileys, für alle, die's sonst wieder nicht verstehen

Mal stelle sich mal vor, wenn das dann noch 256 mal so gut aussehen würde... ;)

Asuka
2003-09-12, 19:58:37
Original geschrieben von Exxtreme
Hä???

Seit wann ist THG fanATisch? Eben ;D
Außerdem findet man genau die gleichen Benchmark-Ergebnisse auch auf ExtremeTech und FiringSquad:
http://www.extremetech.com/article2/0,3973,1264301,00.asp
http://firingsquad.gamers.com/hardware/hl2_performance_preview_part1/

Birdman
2003-09-12, 20:39:37
Original geschrieben von Exxtreme
Hä???
Seit wann ist THG fanATisch?
sorry, aber wer denke dass THB aus prinzip Nvidia oder Intel freundlich ist, der hat sich geschnitten.
Die sind wie eine Boulevardpresse...man passt die eigenen Bevorzugungen jeweils der Mehrheits-Meinung der Leute/Leser an. Dies schafft Sympathie bei der Mehrheit an Lesern - was sich natürlich nur gut aus die Hits/Verkaufszahlen auswirkt.

Gast
2003-09-12, 20:52:38
Yep,

ich finde auch das es Nvidia nicht schaffen wird bei diesem Spiel wirklich gleichauf mit ATi zu liegen.

Schaut euch einmal die Benchmark-Ergebnisse auf www.Techreport.com an; da sieht man deutlich, das die FX5900-Ultra zwar durch die Optimierungen ( NV3x-Shader ) sehr viel an Boden gewinnt ( 30% beim E3-Demo ) und Valve anscheinend einen guten "Job gemacht hat (da FP16 alleine im Vergleich zu FP32 keinen so großen Vorteil bringt). Es reicht aber trotzdem nicht. Selbst bei DX8.1 ist die FX5900-Ultra immer noch langsamer als die R9800Pro, und das obwohl hier die FX zur Hochform auflaufen sollte, soweit es die Hardware überhaupt zulässt. Wenn die FX selbst so einfache Shader wie in DX8.1 nicht schnell abarbeiten kann, tja dann ist die PS2.0+ - Architektur der FX-Karten wohl voll für die Tonne.

Einfachere PS 2.0-Shader ( da ja die FX-Karten die PS1.4 - Befehle mit den PS2.0-Pixelshadern abarbeiten ) kann es gar nicht geben. Trotzdem verliert die FX 5900-Ultra im E3-Demo noch mit 59 zu 83 fps _sehr_ deutlich.

Ich wäre aber auch einmal an DX8.0 ( PS1.1-1.3 ) Ergebnissen interessiert. Die FX-Karten sollten hier doch dann wesentlich besser abschneiden, da "nur" die von der NV25 übernommenen Register-Combiner eingesetzt werden müssen. Und die Ti4600 ist unter HL2 ja vergleichsweise schnell. Die FX5900-Ultra sollte hier dann ja mit ~450/325(?) MHz in Führung gehen. Sie könnte dann ja bei DX8.0 mit der R9800Pro gleichauf liegen.

Man sieht also deutlich, das die FX-Karten nur "bessere" DX8-Karten sind, da sie nur hier konkurrenzfähige Leistung abliefern.

Gast
2003-09-12, 21:27:55
Original geschrieben von Gast
Ich wäre aber auch einmal an DX8.0 ( PS1.1-1.3 ) Ergebnissen interessiert. Die FX-Karten sollten hier doch dann wesentlich besser abschneiden, da "nur" die von der NV25 übernommenen Register-Combiner eingesetzt werden müssen. Und die Ti4600 ist unter HL2 ja vergleichsweise schnell. Die FX5900-Ultra sollte hier dann ja mit ~450/325(?) MHz in Führung gehen. Sie könnte dann ja bei DX8.0 mit der R9800Pro gleichauf liegen.




Scheiße; Theorie beim Arxxx.

Extremetech hat die FX5900-Ultra mit DX8.0; DX8.1 und DX9 gebencht. Bei DX8.0 und DX8.1 ist die Speed gleich geblieben. SCHADE.
Aber warum ist das so? Ich dachte die FX-Karten sind unter DX8.0 schneller als unter DX8.1 ???

LovesuckZ
2003-09-12, 21:44:27
Original geschrieben von Gast
Aber warum ist das so?

Weil die Werte alle von Valve und ATi stammen. Man lese sich dazu bitte den Text von Tech-Report durch.
Kurz gesagt: Die Tester hatten keinen Einfluss auf den Durchlauf, hardware oder sonstige Sachen.

aths
2003-09-12, 22:13:21
Original geschrieben von Demirug
Genau das meinte ich aber und meine schöneUumschreibung am Ende des Originalpost beschreibt genau das. Für mich wäre das selbst dann ein Cheat, wenn das Ergebnis exakt gleich bleibt.

Demirug
2003-09-12, 22:15:52
Original geschrieben von aths
Für mich wäre das selbst dann ein Cheat, wenn das Ergebnis exakt gleich bleibt.

hehe dann cheatet Intel mit iherem Compiler schon seit Jahren.

Exxtreme
2003-09-12, 22:30:47
Original geschrieben von Demirug
hehe dann cheatet Intel mit iherem Compiler schon seit Jahren.
Und in den CPUs erst. ;)

thop
2003-09-12, 23:26:43
Original geschrieben von ow
Valve als 1A Entwickler? :rofl: :lol:
Was haben die denn bis jetzt entwickelt ausser dieser buggy ("tut uns leid, aber AA wird nicht funktionieren") HL2-Engine?
Ich lade dich (oder jemand anders) herzlich ein eine bessere Engine zu programmieren. Ich setzte 3 Kästen Bier als Belohnung aus! Wenn das mal kein Angebot ist.

Demirug
2003-09-12, 23:37:51
Original geschrieben von thop
Ich lade dich (oder jemand anders) herzlich ein eine bessere Engine zu programmieren. Ich setzte 3 Kästen Bier als Belohnung aus! Wenn das mal kein Angebot ist.

Die Sorte darf ich mir aussuchen? Dann will ich 3 Kisten Milleniumsbock von Samuel Adams.

thop
2003-09-12, 23:41:13
Kannst du dir aussuchen wie du willst :)

Demirug
2003-09-12, 23:47:44
Original geschrieben von thop
Kannst du dir aussuchen wie du willst :)

Das würde teuer für dich werden. Von dem Gesöff gab es nur 3000 Flaschen und das ist schon fast 3 Jahre her. Und schon damals kostete eine Flasche $200. Inzwischen dürfte der Wert erheblich gestiegen sein.

mayo
2003-09-12, 23:52:20
Original geschrieben von thop
Kannst du dir aussuchen wie du willst :)


War das jetzt eigentlicht rechtlich verbindlich?

ow
2003-09-12, 23:55:56
Original geschrieben von thop
Ich lade dich (oder jemand anders) herzlich ein eine bessere Engine zu programmieren. Ich setzte 3 Kästen Bier als Belohnung aus! Wenn das mal kein Angebot ist.



Wo ist denn hierin die Antwort auf meine Frage?

Also nochmals: was hat Valve je an Engine entwickelt (was diesen HL2 Engine Hype rechfertigen würde)?

Godlike
2003-09-13, 00:00:24
Original geschrieben von ow
Also nochmals: was hat Valve je an Engine entwickelt (was diesen HL2 Engine Hype rechfertigen würde)?

Eine gute Engine bedingt sicher nicht, dass man bereits zig andere programmiert hat.

Aber das interessiert dich sowieso nicht, da es dir ja alleinig darum geht, Valve bzw. HL2 schlechtzureden. Wärs auf NVidia optimiert, würd die Welt wieder ganz anders aussehen, aber das kennen wir ja zu genüge...

BUG
2003-09-13, 00:00:32
@OW
...schau dir doch mal die Video´s von der E3 an, imho schon recht beeindruckend. :)

..oder das hier.
http://www.gamershell.com/download_3360.shtml

:O

cu
BUG

Godlike
2003-09-13, 00:08:45
Original geschrieben von ow
Valve als 1A Entwickler? :rofl: :lol:
Was haben die denn bis jetzt entwickelt ausser dieser buggy ("tut uns leid, aber AA wird nicht funktionieren") HL2-Engine?

Dein geistiges Niveau ist derart schlicht, des gibts gar nimma.

Da du dich ja soweit aus dem Fenster lehnen musst: Programmiere jetzt eine Engine, die besser aussieht als die von HL2, weniger Bugs hat, AA auf jeder Karte perfekt funktioniert, und das am Besten ziemlich schnell, da du ja über enormes Wissen verfügen musst, denn sonst wär die äußerst primitve Antwort von dir wohl eher ein Schuss, der nach hinten losgegangen ist.

Präsentiere die Engine bitte gegen Ostern 04. Da deine programmiertechnischen Fähigkeiten ja unermesslich sind, sollte das für dich kein Problem sein...

ow
2003-09-13, 00:18:29
Original geschrieben von BUG
@OW
...schau dir doch mal die Video´s von der E3 an, imho schon recht beeindruckend. :)

..oder das hier.
http://www.gamershell.com/download_3360.shtml

:O

cu
BUG


Grafisch beeindruckend war seinerzeit Unreal oder Ut2k3 auch, dennoch ist die Engine der reinste Müll (frag mal unsere 3D-Gurus danach).

ow
2003-09-13, 00:21:45
@Godlike

Geistig arm sind nur die, die ohne Argumente daherkommen und meinen mit Beleidigungen anderer etwas zu erreichen.

Godlike
2003-09-13, 00:24:35
Original geschrieben von ow
@Godlike

Geistig arm sind nur die, die ohne Argumente daherkommen und meinen mit Beleidigungen anderer etwas zu erreichen.

Zwanghafte Schlechtrederei anderer soll ja Minderheitskomplexe als Ursache haben.

ow
2003-09-13, 00:26:20
Trifft imo eher auf zwanghaftes Gehype zu.

Vorschusslorbeeren wird´s von mir für keine Firma geben.

Godlike
2003-09-13, 00:28:11
Original geschrieben von ow
Trifft imo eher auf zwanghaftes Gehype zu.

Vorschusslorbeeren wird´s von mir für keine Firma geben.

Egal, i mag jetzt nimma. Is scho zu spät.

Hör aber auf, irgendwem eine, deiner Meinung nach, verbuggte Engine vorzuwerfen, wenn mas selber netamoi ansatzweise so gut hinbekommt..

Denk mal drüber nach

Gute Nacht

BUG
2003-09-13, 00:29:32
@ow
...lad dir mal die "Demo" runter.

ftp://ftp.sunet.se/pub/pc/games/gamershell//movie/Source_HDR02.zip

^^115 MB

...und dann sag bitte nochmal das du das nicht beeindruckend findest. ;) Und die Engine schent doch mit ihrer Physik nich übel zu sein.

cu
BUG

ow
2003-09-13, 00:33:29
@Bug

Geht leider nicht. Bin 56k-Modem User.
Hab mir abgewöhnt, Downloads > 50-60MB zu tätigen.:D

Quasar
2003-09-13, 00:41:35
Ich versuch's dir mal zu beschreiben:
Teils relativ große Areale, leichtes distance fogging. So ein ekliges Alien, das aussieht wie eine Mischung aus Arachnoids (Starship Troopers) und einem Ekelbiest aus Evolva.

Viele (teil-)reflektierende Oberflächen, aber leider heftiges Pixelflimmern an den nicht geglätteten Kanten.

BUG
2003-09-13, 00:46:17
http://home.arcor.de/xbug/Download/hl2/hl2_01.jpg
http://home.arcor.de/xbug/Download/hl2/hl2_02.jpg
http://home.arcor.de/xbug/Download/hl2/hl2_03.jpg

:)

cu
BUG

ow
2003-09-13, 00:50:11
thx:)

grafisch durchaus beeindruckend, hab ja auch schon einige screenshots gesehen.

sagt aber praktisch nichts über die programmiertechnische Qualität der Engine aus. ich warte da lieber mal ab, bis HL2 verfügbar ist (wird´s da auch ne Demo version geben?).

Gast
2003-09-13, 00:50:42
Original geschrieben von ow
[...]Unreal oder Ut2k3 [...], dennoch ist die Engine der reinste Müll (frag mal unsere 3D-Gurus danach).

Also das würde mich jetzt schon interessieren, warum die Engine der reinste Müll ist.

Radeonator
2003-09-13, 04:27:01
Der Netcode ist fast genauso beschissen wie seinerzeit der von UT1 und Q3 :kotz:

Ansonsten ist die Engine, wenn richtig gehändelt, doch eigentlich fein,fein (keine fps lags, kewle effekte etc. höchstens bei irgendwelchen schlecht zusammen geschusterten Maps von FANs ists manchma anders ;) )

Also die Movies der HL2 Engine sind der Hammer und Grafisch scheint dieses Teil derbe was auf dem Kasten zu haben, jedoch : Eine gute Engine sollte bei höchsten Details zum. Avarage schnell sein, IMO

DasToem
2003-09-13, 11:59:04
Woher weist du, dass der Netcode beschissen ist. Is ja für'n Singleplayer und MP (insofern's nicht 32 Spieler sind :D) über LAN erstmal zweitrangig.

Tom

MadManniMan
2003-09-14, 19:56:17
Original geschrieben von Quasar
Viele (teil-)reflektierende Oberflächen, aber leider heftiges Pixelflimmern an den nicht geglätteten Kanten.

Ich möchte korrigieren: Polygonkanten scheinen mit einem etwa 4*RG-Fachen AA geglättet, das Textur-LoD oder aber AF scheint bescheiden eingestellt -> Texturflimmern.