PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Benchmark-"Optimierung": ATI schmiert Valve mit 8 Millionen US-$


Al-CAlifAX
2003-09-16, 00:00:45
http://www.theinquirer.net/?article=11552

WE HAVE CONTACTED Valve Software to ask whether it put its Half Life 2 game and prequel out to bid to graphic chip protagonists ATI and Nvidia.
So far, we haven't heard back from Valve and we wouldn't expect ATI to comment. But sources close to Nvidia suggest that the bidding could have reached as much as $8 million before it withdrew from the auction.

Valve made an unprecedented attack on Nvidia and the performance of its technology last week at an ATI sponsored day.

Half Life 2 is being hyped as a super game, and is, as the saying goes, "eagerly awaited". A kind of pearl beyond price. But according to our information, Nvidia withdrew as the bidding rose to ever more crazy heights and the price of this possible jewel in the crown spiralled.

According to our sources, who stand by the auction story, Nvidia felt, that as graphics market leader, it would find itself compromised with other games companies and with its graphics card partners.

If the reports of this auction and these allegations are true, this would certainly put a different colour on Valve's statements about Nvidia's benchmarks.

We wonder that if such an auction did take place, and if Nvidia had ended up with a Half Life bundling deal, whether Valve would still have the same view about its benchmarks.

We've contacted Nvidia about the allegations but the company refuses to comment.


Der Links is gut ;)
Naja obs stimmt is ne andere Sache.
Und zugeben wirds Valve eh net ;)
Aber liest sich lustitsch :P

Radeonator
2003-09-16, 00:21:13
The Bildzeitung ;)

Naja, ist mir eigentlich egal, ich weiss nur das wenn Valve es sich mit dem Marktführer verscherzt, HL2 nicht halb so gut verkauft werden wird...

betasilie
2003-09-16, 00:29:46
Original geschrieben von Radeonator
Naja, ist mir eigentlich egal, ich weiss nur das wenn Valve es sich mit dem Marktführer verscherzt, HL2 nicht halb so gut verkauft werden wird...
Glaubst Du, ich nicht. :D

Viele werden wegen HL2 zu ATI wechseln und andere werden es mit ihren "lahmen" GFFXen zocken.

Die Software bestimmt den Markt und nicht die Hardware. Das kann man auch gut am Konsolenmarkt sehen. ... Wenn die nächsten 5 DX9-Toptitel alle auf ATI-Karten viel besser laufen wie mit NV-Karten, würde NV ganz schnell ihre Marktführerschafft verlieren.

Sphinx
2003-09-16, 00:53:08
"würde NV ganz schnell ihre Marktführerschafft verlieren."

Wer sagt den sie seien es ? - Der Braten hat sich zugunsten von ATI + Konsorten gewendet...

*pssst : Die Quartalsergebnisse Ende diesen Jahres werden für den einen Positive und den anderen Negative sein...

Sphinx

betasilie
2003-09-16, 01:13:02
Nochmal zum Topic.

Ich denke das ist Gang und Gebe die GraKa-Hersteller um den Status als technischer Partner buhlen zu lassen, was einer Auktion gleich kommt.

Ailuros
2003-09-16, 04:19:18
Game bundling mit HW bekommt man nicht umsonst. Nach typischem Inquirer Quatsch ist die Summe sowieso uebertrieben.

According to our sources, who stand by the auction story, Nvidia felt, that as graphics market leader, it would find itself compromised with other games companies and with its graphics card partners.

So wie in etwa 5M$ fuer einen NV30 codepath in Doom3?

If the reports of this auction and these allegations are true, this would certainly put a different colour on Valve's statements about Nvidia's benchmarks.

We wonder that if such an auction did take place, and if Nvidia had ended up with a Half Life bundling deal, whether Valve would still have the same view about its benchmarks.

Ja sie haetten vielleicht ueberhaupt keine Benchmark-Funktion fuer´s Spiel gehabt :P

thop
2003-09-16, 13:51:52
Denke schon dass das stimmt. nVidia hat auch für The way it's meant to be played kräftig Kohle hingelegt, und keiner hat so einen Aufstand gemacht.

Quasar
2003-09-16, 14:08:53
Original geschrieben von thop
[...] keiner hat so einen Aufstand gemacht.

Doch, aber leider schützt die Suchfunktion die 'Schuldigen'.. ;)

Winter[Raven]
2003-09-16, 14:16:53
Also ich glaube schon das Nvidia jetzt mit ihren Software Partner noch enger zusammenarbeiten wird und in Zukunft Ati genasuo schlecht in der Öffentlichkeit stellen wird, wie es Ati + Valve es derzeit tun ...

und Hell Yeh ... mir würde es gefallen ! :P

Aquaschaf
2003-09-16, 14:20:12
Original geschrieben von Radeonator
The Bildzeitung ;)

Naja, ist mir eigentlich egal, ich weiss nur das wenn Valve es sich mit dem Marktführer verscherzt, HL2 nicht halb so gut verkauft werden wird...

Schon weil mir der Gedanke an sich, dass Hardwarehersteller über Efolg und Misserfolg von Software ein Mitspracherecht hätten nicht gefällt, und weil mir der Begriff Marktführer schon immer als Argument suspekt war teile ich diese Ansicht nicht ;)

betasilie
2003-09-16, 14:33:13
Original geschrieben von Winter[Raven]
Also ich glaube schon das Nvidia jetzt mit ihren Software Partner noch enger zusammenarbeiten wird und in Zukunft Ati genasuo schlecht in der Öffentlichkeit stellen wird, wie es Ati + Valve es derzeit tun ...

und Hell Yeh ... mir würde es gefallen ! :P
Ganz toller Beitrag. :spock:

BlueRaven
2003-09-16, 14:41:08
Original geschrieben von Radeonator
The Bildzeitung ;)

Naja, ist mir eigentlich egal, ich weiss nur das wenn Valve es sich mit dem Marktführer verscherzt, HL2 nicht halb so gut verkauft werden wird...

Ich meine auch das die meisten leute NV haben und da hat sich Valve selbst ein Stein gelegt und der muss jetzt weg ansonsten wird der verkauf net so dolle sein als erwartet.

@betareverse

keiner ist so blöd, das wegen eines 60€ Spiels sich noch eine 200-300€ Teure Karte kaufen werden



MFG
BlueRaven

[dzp]Viper
2003-09-16, 14:42:22
Original geschrieben von Winter[Raven]
Also ich glaube schon das Nvidia jetzt mit ihren Software Partner noch enger zusammenarbeiten wird und in Zukunft Ati genasuo schlecht in der Öffentlichkeit stellen wird, wie es Ati + Valve es derzeit tun ...

und Hell Yeh ... mir würde es gefallen ! :P

ich will nur mal drauf hinweissen, das ATI damit nicht angefangen hat (und nein, da gibt es keine wiederrede)....

[dzp]Viper
2003-09-16, 14:44:42
Original geschrieben von BlueRaven
Und darum habe die es glaube ich auf 2004 verschoben den Release.


wie oft den noch :bonk: die news kam von Heise.de und die haben HL2 mit Counterstrike CZ vertauscht ...

Offizieller releasetermin von HL2 ist immernoch der 30.09.03 - aber wohl für die steam version - ich denke ganz stark, dass die version für die läden mitte oktober in den läden zu haben sein wird!!

Bitte Blueraven ... verbreite dieses gerücht nicht noch weiter, da es seit mehr als 24 stunden von heise bestätigt wurde, dass es eine verwechslung war und von den news entfernt wurde - DANKE

BlueRaven
2003-09-16, 14:46:23
Sorry !!!

betasilie
2003-09-16, 14:51:14
Original geschrieben von BlueRaven
@betareverse

keiner ist so blöd, das wegen eines 60€ Spiels sich noch eine 200-300€ Teure Karte kaufen werden



MFG
BlueRaven
Leute, die sich sowieso eine neue GrKa kaufen wollen, werden durch HL2 noch mehr zu ATI tendieren.

Leute, die eine NV-Karte habe, werden sich überlegen, ob sie diese nicht vielleicht verkaufen und sich dann eine ATI kaufen. Das wäre ja dann ggf. ein Plus-Minus-Null-Geschäfft.

...
Die Software bestimmt den Markt, wofür kauft man sich denn eine GraKa? HL2 wird nicht das einzige DX9-Spiel sein, welches auf ATI-Karten wesentlich schneller läuft. ;)

Black-Scorpion
2003-09-16, 14:59:44
Original geschrieben von Winter[Raven]
Also ich glaube schon das Nvidia jetzt mit ihren Software Partner noch enger zusammenarbeiten wird und in Zukunft Ati genasuo schlecht in der Öffentlichkeit stellen wird, wie es Ati + Valve es derzeit tun ...

und Hell Yeh ... mir würde es gefallen ! :P

So wie es jetzt aussieht, hat sich NV ganz allein alt aussehen lassen.

BlueRaven
2003-09-16, 15:04:37
es kommt mir so vor das es bei NV Berg runter geht im 3D HighEnd bereich für Home leute.

1) Treiber Probleme

2) Hardware Probleme

3) abwarte was noch kommt.

4) Hersteller verloren an ATI



Ich denke, die sind irgendwie vom weg abgekommen und finden jetzt net mehr zurück. ;D


MFG
BlueRaven

[dzp]Viper
2003-09-16, 15:18:59
Original geschrieben von BlueRaven
es kommt mir so vor das es bei NV Berg runter geht im 3D HighEnd bereich für Home leute.

1) Treiber Probleme

2) Hardware Probleme

3) abwarte was noch kommt.

4) Hersteller verloren an ATI



Ich denke, die sind irgendwie vom weg abgekommen und finden jetzt net mehr zurück. ;D


MFG
BlueRaven

hehe

so siehts wohl leider aus :(

NV wollte zuviel des guten und haben es übertrieben - der NV35 is ja vielleicht kein schlechter chip (ist er wahrlich nicht) aber er ist einfach zu hoch gegriffen.

Aber NV hat sicher noch ne menge auf lager und wird uns noch überraschen (wahrscheinlich mit dem NV40 next year)

Also es bleibt spannend ;)

Winter[Raven]
2003-09-16, 15:21:35
Hersteller verloren an ATI


wenn du auf Hercules anspielst so bin ich froh das dieser weg ist. Ich hatte paar mal garkas von ihnen und die firma ist bei mir unten durch. Angefangen bei Schelchtem OC, bis nicht funktionierende Garaks ... ne danke !

Al-CAlifAX
2003-09-16, 15:24:38
Original geschrieben von Aquaschaf
Schon weil mir der Gedanke an sich, dass Hardwarehersteller über Efolg und Misserfolg von Software ein Mitspracherecht hätten nicht gefällt, und weil mir der Begriff Marktführer schon immer als Argument suspekt war teile ich diese Ansicht nicht ;)

Genauso wenig das APi entwickler und software häuser den untergang einer hardware entwickeln :P

Deswegen OPEN SOURCE!!!!!!!!!!!!!!

Al-CAlifAX
2003-09-16, 15:30:53
Original geschrieben von Winter[Raven]
Also ich glaube schon das Nvidia jetzt mit ihren Software Partner noch enger zusammenarbeiten wird und in Zukunft Ati genasuo schlecht in der Öffentlichkeit stellen wird, wie es Ati + Valve es derzeit tun ...

und Hell Yeh ... mir würde es gefallen ! :P

Wen aber Valve mit HL² und Ati erfolg haben werden. wird nix mit gegenschlag. denn dann erwägen immer mehr Software häuser auf diesen Pfad aufzuspringen und somit NV erst recht 2. klasse zu rangieren. Mir isses egal was da mittlerweile passiert. Weil sowas echt nervt. Konkurrenz kampf schön und gut. Aber das Software häuser da mitmachen naja. Und der DAU glaubt eh alles wa in balken rechts länger aussieht und somit automatisch für einen DAU eine Harware schlecht ist. Weder der NV35 noch der R350 sind schlecht. Aber das gestreite darum ist jedesmal amüsierend. Aber wenn softwarehäuser damit mischen , spezielle M$ dann hört der spaß auf. Aber mich interressierts eh net mehr solang. mein gamerechner wird solange mitmachen wie es geht. aufgerüstet wird nur mein arbeitsrechner. und da haben ganz andere sachen priorität als FPS/S :P Ausserdem mal gespannt bin auf die PS3. im übrigen ist des aufgeilen eh irrelevant im angesicht von TCG. Denn dann hat OpenGL scheinbar eh net mehr viel auf Windows systemen zu sagen. ergo für mich dann eh unrelevant :P

TheCounter
2003-09-16, 16:44:09
Dann wird sich jeder der Stalker spielen will wohl wieder eine NVIDIA Karte kaufen, denn die Entwickler von Stalker haben schon öfters betont das Stalker auf FX Karten extrem schnell läuft, bei ATI Karten ist es das Gegenteil, die sind in der Geschwindigkeit sehr benachteiligt....

Al-CAlifAX
2003-09-16, 17:11:55
Original geschrieben von TheCounter
Dann wird sich jeder der Stalker spielen will wohl wieder eine NVIDIA Karte kaufen, denn die Entwickler von Stalker haben schon öfters betont das Stalker auf FX Karten extrem schnell läuft, bei ATI Karten ist es das Gegenteil, die sind in der Geschwindigkeit sehr benachteiligt....

was zu beweisen gilt , oder meinen die den nv40 *ggg*

xenomat
2003-09-16, 17:19:33
Wer sich NUR wegen HL2 eine ATI Karte kauft, ist selber Schuld. Ich hab mich bisher auf HL2 gefreut... aber nun ist mir Valve doch eher unsympathisch geworden. Sie wollten auch den 50.xx Treiber nicht zulassen, da der ja noch nicht "offiziell" auf der Seite verfügbar wären. Allerdings sind sie zum Releas längst verfügbar. Verdammt, da könnte nVidia ja besser aussehen. So ein Ärger. :gruebel:

Es gibt so einen Haufen Benchmarks, und hier und da sieht jeder etwas schlechter aus. Aber was Valve da gezeigt hat, halte ich doch für sehr übertrieben.

BlueRaven
2003-09-16, 17:26:28
Valve hat 100% keine Mixed Mode für FX Karte eingebaut.

Al-CAlifAX
2003-09-16, 17:38:32
Original geschrieben von BlueRaven
Valve hat 100% keine Mixed Mode für FX Karte eingebaut.

meinste die lassen die karten bei 20 frames daddeln?
naja is auch nen marketing trick :P

BlueRaven
2003-09-16, 17:42:18
Original geschrieben von Al-CAlifAX
meinste die lassen die karten bei 20 frames daddeln?
naja is auch nen marketing trick :P

kann sein wenn ATI gut zahlt.

[dzp]Viper
2003-09-16, 17:43:58
Original geschrieben von x3no
Wer sich NUR wegen HL2 eine ATI Karte kauft, ist selber Schuld. Ich hab mich bisher auf HL2 gefreut... aber nun ist mir Valve doch eher unsympathisch geworden. Sie wollten auch den 50.xx Treiber nicht zulassen, da der ja noch nicht "offiziell" auf der Seite verfügbar wären. Allerdings sind sie zum Releas längst verfügbar. Verdammt, da könnte nVidia ja besser aussehen. So ein Ärger. :gruebel:

Es gibt so einen Haufen Benchmarks, und hier und da sieht jeder etwas schlechter aus. Aber was Valve da gezeigt hat, halte ich doch für sehr übertrieben.

leute .. bitte informiert euch zuerst, bevor ihr hier irgendwas reinpostet .. BITTE ... thx :)

Valve hat die treiber nicht zugelassen, weil sie vor allem eine extreme verschlechterung in der bildqualität haben und dadurch einen performancevorteil beziehen !

Und selbst wenn sie den treiber genohmen hätten, hätte der treiber die fx 101%ig nicht doppelt so schnell gemacht, um die 9800pro auch nur ansatzweise einzuholen ...

Original geschrieben von BlueRaven
Valve hat 100% keine Mixed Mode für FX Karte eingebaut.

Haben sie ... den unter dem Mixedmodus ist die FX ja auch schon wieder deutlich schneller
http://www.beyond3d.com/misc/hl2/images/hl23.gif

Quelle: www.beyond3d.com

Al-CAlifAX
2003-09-16, 17:44:29
Du machst mir Angst. na hoffentlich sind config dateien vorhanden, zum rumtweaken. und alles unnötige raus zu schmeissen um halbwegs sauberes spielen zu ermöglichen. Mit PS2.0 versteht sich :P

ander möglichkeit wäre auch auf nen DetonatorFx 5.HL² zu warten *Ggg*

[dzp]Viper
2003-09-16, 17:49:10
Original geschrieben von Al-CAlifAX
Du machst mir Angst. na hoffentlich sind config dateien vorhanden, zum rumtweaken. und alles unnötige raus zu schmeissen um halbwegs sauberes spielen zu ermöglichen. Mit PS2.0 versteht sich :P

ander möglichkeit wäre auch auf nen DetonatorFx 5.HL² zu warten *Ggg*

der unterschied zwischen DX 9 und dem Mixedmodus soll nicht SO extrem sein bei NV35 karten.

genauso wie der unterschied zwischen DX8 und 9 nicht so extrem in HL2 ausfallen wird - es fehlen halt dann hier und da vielleicht ein paar nebeneffekte

[dzp]Viper
2003-09-16, 17:50:27
Original geschrieben von BlueRaven
kann sein wenn ATI gut zahlt.

:bonk:

HILFE ... sorry aber dazu kann ich nun wirklich nix mehr sagen ....

Al-CAlifAX
2003-09-16, 17:50:43
da soll aber nix fehlen grrr *gg*

Crazytype
2003-09-16, 18:16:57
einige haben echt unterstes niveau, ihr glaubt doch nicht echt, dass da ein deal stattfand? wenn ja ist es um so peinlicher, dass nvidia verloreren hat. wer mehr geld hat kann auch mehr zahlen, und jeder weiß wie wichtig hl2 ist.
also hört auf mit dem dummen geflamme und versucht mal englisch zu lernen, der grund für den ati deal ist sehr plausibel.

xenomat
2003-09-16, 18:18:49
Original geschrieben von [dzp]Viper
leute .. bitte informiert euch zuerst, bevor ihr hier irgendwas reinpostet .. BITTE ... thx :)

"Sie wollten auch den 50.xx Treiber nicht zulassen, da der ja noch nicht "offiziell" auf der Seite verfügbar wären. Allerdings sind sie zum Releas längst verfügbar."


Äh.. das habe ich, wie du eventuell gelesen hast. Warum sollte ich eine Meldung, die ich lese, erst mal nicht glauben, und nach einer anderen suchen?!

Gruß
xeno

[dzp]Viper
2003-09-16, 18:22:59
Original geschrieben von x3no
Wer sich NUR wegen HL2 eine ATI Karte kauft, ist selber Schuld. Ich hab mich bisher auf HL2 gefreut... aber nun ist mir Valve doch eher unsympathisch geworden. Sie wollten auch den 50.xx Treiber nicht zulassen, da der ja noch nicht "offiziell" auf der Seite verfügbar wären. Allerdings sind sie zum Releas längst verfügbar. Verdammt, da könnte nVidia ja besser aussehen. So ein Ärger. :gruebel:



frage - würdest du einen treiber zum Benchen zulassen, der absolut verbuggt ist und eine wesentlich schlechtere Bildqualität liefert und dadurch extra performance gewinnt ?

sag jetzt bitte nicht "ja" ...

edit:

ich kann mich noch ganz genau errinnern, wie laut das aufschreien der leute war, als ATI in q3 durch eine minderung der Bildqualität extraperformance herauskitzelte ...

LovesuckZ
2003-09-16, 18:27:00
Original geschrieben von [dzp]Viper
frage - würdest du einen treiber zum Benchen zulassen, der absolut verbuggt ist und eine wesentlich schlechtere Bildqualität liefert und dadurch extra performance gewinnt ?

Beweise. Zum vorigen Treiber werde die IQ wohl nicht wesentlich schlechter aussehen, wenn man ohne AF spielt.
Das was Nvidia auch ohne AF abzieht, ist alles andere als supi, doch das der trilineare Anteil immer noch hoch genug ist, werde man keine ohne Vergrößerung sehenden Unterschiede wahrnehmen.

Al-CAlifAX
2003-09-16, 18:27:40
Original geschrieben von [dzp]Viper
frage - würdest du einen treiber zum Benchen zulassen, der absolut verbuggt ist und eine wesentlich schlechtere Bildqualität liefert und dadurch extra performance gewinnt ?

sag jetzt bitte nicht "ja" ...

edit:

ich kann mich noch ganz genau errinnern, wie laut das aufschreien der leute war, als ATI in q3 durch eine minderung der Bildqualität extraperformance herauskitzelte ...

Also dürfte ich keine Ati nhemen, weil die seit dem 03.02 schon mächtigst nach unten gedreht haben?
blöde aussagen und die benches sind noch blöder ;)

Ailuros
2003-09-16, 18:28:23
Original geschrieben von Winter[Raven]
wenn du auf Hercules anspielst so bin ich froh das dieser weg ist. Ich hatte paar mal garkas von ihnen und die firma ist bei mir unten durch. Angefangen bei Schelchtem OC, bis nicht funktionierende Garaks ... ne danke !

Und alles das nur weil H nicht mehr mit NV zusammenarbeitet? Dann moechte ich aber gern eine logische Erklaerung warum ich aehnliche oder sogar noch schlimmere Probleme mit anderen vendors durch die Jahre hatte.

Wie klingt z.B. eine Asus VGA die sich weigerte auf einem Asus mobo zu laufen oder die nur vor einem Monat durchgebrannte Leadtek A250TD (13 Monate alt).

Uebrigens hat er sicher nicht auf Hercules angespielt, sondern auf zukuenftige moegliche Vertraege. Mal sehen was passiert wenn NV's ausschliessliche Vertraege auslaufen, oder ob solche in der Zukunft ueberhaupt noch moeglich sein werden.

xenomat
2003-09-16, 18:29:10
Original geschrieben von [dzp]Viper
frage - würdest du einen treiber zum Benchen zulassen, der absolut verbuggt ist und eine wesentlich schlechtere Bildqualität liefert und dadurch extra performance gewinnt ?
Natürlich nicht. Aber es dann so darzustellen, als wären die FX-Karten das Letzte ist wohl auch nicht sonderlich Respektvoll. Ich kenne Leute mit 5900 und 9800, und beide haben bisher ähnliche Performance. Mich wundert diese Sache sehr, und ich traue Valve nicht mehr.

Ich hab wegen ATI nie rumgeschrien, mir haben die Karten einfach so nie gefallen. Das hat sich gebessert, geb ich zu. Nur hab ich lieber die richtigen Leute dahinter, als 5% mehr Leistung.

Ailuros
2003-09-16, 18:34:31
Original geschrieben von LovesuckZ


Beweise. Zum vorigen Treiber werde die IQ wohl nicht wesentlich schlechter aussehen, wenn man ohne AF spielt.
Das was Nvidia auch ohne AF abzieht, ist alles andere als supi, doch das der trilineare Anteil immer noch hoch genug ist, werde man keine ohne Vergrößerung sehenden Unterschiede wahrnehmen. [/SIZE]

Man muss ja schoen bloed sein wenn man auf einer heutigen high end GPU ohne jegliches AF spielt.

Man nimmt NIE die Unterschiede seiner bevorzugten Firma wahr, nur die der Konkurrenz. Tolle Logik.

Wenn ein Entwickler sein Spiel fuer trilinear AF fuer texturing stages "0" und "1" (oder mehr) vorgesehen hat dann darf er nur erwarten dass sein Spiel auch dieses zum vollen Grad bekommen kann. Ich haette nichts dagegen wenn es eine freie Option fuer den User waere oder wenn man es wenigstens durch tweaking utilities abschalten koennte, aber solches festgenageltes Zeug fuer 400+$ VGAs ist schlichtaus laecherlich.

LovesuckZ
2003-09-16, 18:37:31
Ailuros,

ich habe von der IQ in HL2 gesprochen. Das hier von "wesentlich schlechtere Bildqualität" gesprochen wird und dann der Beweis fehlt, ist doch schon sehr traurig. Die schlechtere IQ ist mit AF eindeutig da. Doch ohne faellt sie eben kaum bis gar nicht auf.

Ailuros
2003-09-16, 18:46:55
Original geschrieben von LovesuckZ
Ailuros,

ich habe von der IQ in HL2 gesprochen. Das hier von "wesentlich schlechtere Bildqualität" gesprochen wird und dann der Beweis fehlt, ist doch schon sehr traurig. Die schlechtere IQ ist mit AF eindeutig da. Doch ohne faellt sie eben kaum bis gar nicht auf.

In dem Fall wuerde ich erst auf die Veroeffentlichung des Spiels warten und meine eigene Schlussvolgerungen treffen nach eigener Inspektion.

Ob es so ist oder nicht wird sich sowieso frueher oder spaeter herausstellen. Ich sag es mal so und ich halte konstant von Konspirations-theorien Abstand: kannst Du ausschliessen dass der Shader Optimizer (falls tatsaechlich operativ) nicht noch momentan total verbuggt ist und einfach Mist baut, bis sie das ganze Ding bei NV ausgebuegelt haben?

Was immer es auch sein moechte ist die Situation mit Shadern nicht ideal bei NV und wenn wir schon hier sind ich bin grundsetzlich gegen das testen von Software dass nicht frei zum download veroeffentlicht wurde und in dem Fall gilt es genauso viel fuer timedemos als auch unoffizielle und nicht veroeffentlichte Treiber.

****edit:

...der Grund dafuer ist dass es immer Widersprueche und Verdaechte geben wird wenn man etwas nicht selber nachvollziehen kann. Ich moechte benchmarks von einem Spiel sehen wenn ich es kaufen kann und ich moechte Frameraten von Treiber X sehen wenn ich mir auch diesen herunterziehen kann. Solchen Mist koennten sich Hardware und Software Firmen mal ganz ehrlich sparen.

[dzp]Viper
2003-09-16, 18:51:58
Original geschrieben von x3no
Nur hab ich lieber die richtigen Leute dahinter, als 5% mehr Leistung.

als wäen NV die "richtigen" leute ?

wenn du richtige leute dahinter haben willst, dann geh zu matrox ;)

Gast
2003-09-16, 20:17:54
Einige scheinen ja wirklich zu glauben, das alles beruht auf der Bosheit von Valve.

Dass es wahrscheinlich wirklich sch***-schwer ist ein DX9 Game mit annehmbarer Geschwindigkeit auf der FX zu proggen will man hier nicht hören?!

x Ineger und FP Formate die man alle beachten muss, damit nicht alles dahin kriecht. Und dann der böse MS-Compiler. :crazy: Nicht mal nVidia bekommt einen Compiler gebacken der auch nur ansatzweise schnelleren Code liefert. nVidia hat bei der Architektur einfach zu viele Kompromisse gemacht und gedacht, mit ihrer Marktmacht drücken die das schon durch, imho.

Schon mal bedacht, das Valve auch seine Milestone zu schaffen hat und (mal übertrieben ausgerdrückt...) sich nicht monatelang um nVidias Extrawurst zu kümmern hat?

thop
2003-09-16, 20:28:41
ich vermute mal die schlechte performance auf nV karten ist der grund für die HL2 verzögerung.

x-dragon
2003-09-16, 20:37:32
Original geschrieben von thop
ich vermute mal die schlechte performance auf nV karten ist der grund für die HL2 verzögerung. Welche Verzögerung ??? Nun ist es offiziell, am 30. September wird auf Alcatraz, San Francisco, der berühmten Gefängnissinsel, die Radeon 9800XT und Half-Life 2 als Bundle präsentiert.
Allen Gerüchten zu trotz scheint der Releasetermin also weiterhin der 30.09.2003 zu sein.
Die Karte selbst wartet mit einem GPU Takt von etwas weniger als 415MHz auf, der Speicher läuft auf ca. 730MHz.
Die Karte an sich kommt 2-3 Wochen später in den Handel und wird einen Preis um die $399 haben. Wie viel das Bundle kosten wird ist noch nicht bekannt.

Wann der deutsche Release ist, ist noch nicht bekannt, der Ort jedoch schon: München.

Quelle: http://www.city17.de/fullnews.php?newsid=7213

[edit]
Na toll wirklich super Seite, anscheind haben sie mal eben die News von dort übernommen:
http://www.theinquirer.net/?article=11547
... und vergessen eine Quellenangabe beizuschreiben :down:.

VooDoo7mx
2003-09-17, 05:38:52
Original geschrieben von TheCounter
Dann wird sich jeder der Stalker spielen will wohl wieder eine NVIDIA Karte kaufen, denn die Entwickler von Stalker haben schon öfters betont das Stalker auf FX Karten extrem schnell läuft, bei ATI Karten ist es das Gegenteil, die sind in der Geschwindigkeit sehr benachteiligt....

Das bezweifle ich auch mal recht stark...
Stalker wurde auf der GamesConvention bei Giga live gezeigt und das wurde auch ins TV übertragen.
Die Leute bei Giga haben vor einiger Zeit neue Rechner bekommen und die haben alle 9800Pro Grakas...
Nur lief die noch lange nicht fertige Stalker Version sehr geschmeidig auf den Rechner von Marc...Der programmierer hat mehrere Tech-demos gezeigt und kein Ruckler war zu sehen. Slebst nicht beim Flug durch ein riesiges Level mit allen drum und dran...soviel dazu..

und übrigens: Tomb Raider Angel Of Darkness ist auch ein "Nvidia the way it meant played" Game und läuft trotzdem unter Pixel SAhder 2.0 Einsatz viiiiiieeeel schneller auf ATi Hardware...

Exxtreme
2003-09-17, 09:36:10
Original geschrieben von x3no
Wer sich NUR wegen HL2 eine ATI Karte kauft, ist selber Schuld. Ich hab mich bisher auf HL2 gefreut... aber nun ist mir Valve doch eher unsympathisch geworden. Sie wollten auch den 50.xx Treiber nicht zulassen, da der ja noch nicht "offiziell" auf der Seite verfügbar wären. Allerdings sind sie zum Releas längst verfügbar. Verdammt, da könnte nVidia ja besser aussehen. So ein Ärger. :gruebel:
Ähhhm, dir ist hoffentlich klar, daß Nvidia jetzt sagt, daß man den Deto 51.75 auf keinen Fall installieren soll?

Pussycat
2003-09-17, 10:20:35
Wieso versuchen hier eigentlich einig um verzweifelt Argumente zu finden damit sie nicht zugeben müssen dass die nv3x-serie schlechte shaderleistung hat? Es IST einfach so: Bei DX9 ist die nVidia-hardware langsam. Wenn Valve, mit hilfe von NV, 5x so lng rumprogrammiert hat, damit's einigermaßen läuft, dann liegt es echt nicht an Valve.

Ist das denn so schwierig zu verstehen???

@LovesuckZ: NV hat mitgeholfen beim schreiben der HL2-shader. Wenn die eine performantere Lösung gehabt hätten, hätte Valve die im Spiel eingebaut. Also kann die extra performance nur doch verringerte Bildqualität kommen, worauf der Det50 eh spezialisiert zu sein scheint. Oder nicht?

TheCounter
2003-09-17, 10:56:49
@Pussycat

Und bei ATI fehlen dann halt mal hier und da ein paar Gegenstände, wie im aktuellen Aqumark3, dort stellen die ATI Karten weniger Bodenbewuchs (Und nicht gerade wenig) dar als die FX Karten. Die FX Karten stellen alles dar nur haben schlechtere Bildqualität ;D

Eigentlich sollte heute meine R9800SE@Pro kommen... *auf die post wart*

StefanV
2003-09-17, 11:44:39
Original geschrieben von TheCounter
@Pussycat

Und bei ATI fehlen dann halt mal hier und da ein paar Gegenstände, wie im aktuellen Aqumark3, dort stellen die ATI Karten weniger Bodenbewuchs (Und nicht gerade wenig) dar als die FX Karten. Die FX Karten stellen alles dar nur haben schlechtere Bildqualität ;D

Eigentlich sollte heute meine R9800SE@Pro kommen... *auf die post wart*

Kennst du den genauen Code vom AM3??

Weißt du, daß der Grasbewuchs nicht Pseuduzufällig ist?!

ShadowXX
2003-09-17, 11:47:25
Original geschrieben von TheCounter
@Pussycat

Und bei ATI fehlen dann halt mal hier und da ein paar Gegenstände, wie im aktuellen Aqumark3, dort stellen die ATI Karten weniger Bodenbewuchs (Und nicht gerade wenig) dar als die FX Karten. Die FX Karten stellen alles dar nur haben schlechtere Bildqualität ;D

Eigentlich sollte heute meine R9800SE@Pro kommen... *auf die post wart*

Und wenn du dir den/die Threads mal genauer durchgelesen hättest, dann hättest du festgestellt, dass die von dir aufgeführte Gfx-Fehler durch den Poster des Artikels 'verursacht' wurden (schlecht rescaled), was er auch zugegeben hat.....

Ich kenne so ca. 20 Leuet die den Aquamark auf r3x0 / nv3x durchgeführt haben....
Nirgends Gfx-Fehler...weder bei nV noch bei ATI....

J.S.Shadow

TheCounter
2003-09-17, 13:17:27
Welche Threads?

Ich hab nur das grade gelesen:

"Der Artikel wurde etwas geändert, denn wenn selbst der Catalyst 3.0 auf einer Radeon 9700 selbiges Gras liefert, kann es sich imho wohl kaum um eine AM3-Optimierung handeln. Schau mer mal, was Massive dazu sagt."

Aber trozdem komisch, bei gleicher Detailstufe stellt die Radeon weniger da, is es vielleicht nur ein Bug?

Zufällig wird der Bodenbewuchs ja nicht erzeugt, sonst wären viel mehr unterschiede zu sehen.

[dzp]Viper
2003-09-17, 13:20:41
Original geschrieben von TheCounter
Welche Threads?

Ich hab nur das grade gelesen:

"Der Artikel wurde etwas geändert, denn wenn selbst der Catalyst 3.0 auf einer Radeon 9700 selbiges Gras liefert, kann es sich imho wohl kaum um eine AM3-Optimierung handeln. Schau mer mal, was Massive dazu sagt."

Aber trozdem komisch, bei gleicher Detailstufe stellt die Radeon weniger da, is es vielleicht nur ein Bug?

Zufällig wird der Bodenbewuchs ja nicht erzeugt, sonst wären viel mehr unterschiede zu sehen.

kann auch daran liegen wie jeder chipart das gras berechnet - NV benutzt da wohl eine andere art als ATi (das ganze wird ja über den vertexshader realisiert)

aber um uns 100 % sicher zu sein, muss sich massiv dazu äussern - guck am besten mal in den AM3 diskussionsthread rein - da diskutiert auch Thilo von PCG hardware mit - er hat sich schon an massiv gewant.

xenomat
2003-09-17, 13:35:15
Original geschrieben von Exxtreme
Ähhhm, dir ist hoffentlich klar, daß Nvidia jetzt sagt, daß man den Deto 51.75 auf keinen Fall installieren soll? Ja, weil das ein Treiber ist, der so eigentlich nicht in Umlauf gebracht werden sollte. Ich gehen nun mal nicht davon aus, dass sie den selben auch an Valve gegeben hätten.

xenomat
2003-09-17, 13:35:58
Original geschrieben von Ailuros
Man muss ja schoen bloed sein wenn man auf einer heutigen high end GPU ohne jegliches AF spielt.Ach was. Vielen Dank.

[dzp]Viper
2003-09-17, 13:38:51
Original geschrieben von x3no
Ja, weil das ein Treiber ist, der so eigentlich nicht in Umlauf gebracht werden sollte. Ich gehen nun mal nicht davon aus, dass sie den selben auch an Valve gegeben hätten.

genau den sollte Valve aber verwenden ....

xenomat
2003-09-17, 14:13:51
Original geschrieben von [dzp]Viper
genau den sollte Valve aber verwenden .... Hm.. ich finde das alles einfach merkwürdig. Warum sollte nVidia sich selbst so ins Knie fi....? Solang nur Valve daherkommt (die einen Vertrag mit ATI haben), und mir zeigt die FXen hätten da an die 50% weniger Leistung :kratz2:, werd ich das wohl kaum als absolut ansehen. Wenn sich in Zukunft tatsächlich zeigt (Spiele, Benchmarks), dass es so ist, dann ja.

Also sorry.

[dzp]Viper
2003-09-17, 14:26:37
/theorie ON

Vielleicht funzen die treiber normal auch in HL2 schon sehr gut (bis auf den nebel). Aber vielleicht wurden dieses treiber NUR auf HL2 optimiert und somit gibt es dann in anderen spielen grafikfehler wie fehlende objekte und so weiter. Aber ein treiber soll und darf nicht nur auf spiel oder einen benchmark optimiert sein. Da muss ein mittelweg gefunden werden. Und dieser mittelweg fehlte vielleicht in den 5x.xx treibern noch. Durch diesen mittelwerg könnte es ja dann passieren, dass man dann in dem spiel was man eigentlich sehr optimieren wollte, nicht mehr die volle optimierung erreichen kann.

/theorie OFF

Is nur so eine theorie - würde aber auch valves handeln gegenüber den treibern erklären und dazu noch die vielen grafikfehler in den anderen games erklären ..
Aber das ist reine spekulation! Ohne einen WHQL zertifizierten deto treiber können wir das noch nicht beantworten.

Crazytype
2003-09-17, 14:48:11
der deal ist ja die ursache für die schlechte leistung der fx. erst der test, dann ati deal, weil fx= schlechter, kappisch?

ShadowXX
2003-09-17, 14:49:02
Original geschrieben von [dzp]Viper
/theorie ON

Vielleicht funzen die treiber normal auch in HL2 schon sehr gut (bis auf den nebel). Aber vielleicht wurden dieses treiber NUR auf HL2 optimiert und somit gibt es dann in anderen spielen grafikfehler wie fehlende objekte und so weiter. Aber ein treiber soll und darf nicht nur auf spiel oder einen benchmark optimiert sein. Da muss ein mittelweg gefunden werden. Und dieser mittelweg fehlte vielleicht in den 5x.xx treibern noch. Durch diesen mittelwerg könnte es ja dann passieren, dass man dann in dem spiel was man eigentlich sehr optimieren wollte, nicht mehr die volle optimierung erreichen kann.

/theorie OFF

Is nur so eine theorie - würde aber auch valves handeln gegenüber den treibern erklären und dazu noch die vielen grafikfehler in den anderen games erklären ..
Aber das ist reine spekulation! Ohne einen WHQL zertifizierten deto treiber können wir das noch nicht beantworten.

Ich glaube sogar, dass deine Theorie sehr gut trifft.
Aber dann hat nV wohl mit der Optimierung etwas übertrieben und es passt nicht so zu 100% auf die anderen 'Detailverbesserungen' im Treiber (AF Optimierung).

/meine Theorie ON
Es könnte allerdings so eine art Zwischending gewesen sein.
NV hat den 'eigentlich' zum Release vorgesehenen Deto genommen, schnell etwas HL2 Optimierung dazugetan, aber dabei ist was anderes zu Brüche gegangen, was ihnen nicht sofort aufgefallen ist....
/meine Theorie OFF

J.S.Shadow

[dzp]Viper
2003-09-17, 14:54:09
Original geschrieben von ShadowXX
Ich glaube sogar, dass deine Theorie sehr gut trifft.
Aber dann hat nV wohl mit der Optimierung etwas übertrieben und es passt nicht so zu 100% auf die anderen 'Detailverbesserungen' im Treiber (AF Optimierung).

/meine Theorie ON
Es könnte allerdings so eine art Zwischending gewesen sein.
NV hat den 'eigentlich' zum Release vorgesehenen Deto genommen, schnell etwas HL2 Optimierung dazugetan, aber dabei ist was anderes zu Brüche gegangen, was ihnen nicht sofort aufgefallen ist....
/meine Theorie OFF

J.S.Shadow

klingt auch sehr gut für eine theorie - auch sehr einleuchtend!

Vielleicht klärt sich das ja irgendwann mal auf *hoff* :D

LovesuckZ
2003-09-17, 18:15:16
Original geschrieben von [dzp]Viper
/theorie ON

Vielleicht funzen die treiber normal auch in HL2 schon sehr gut (bis auf den nebel). Aber vielleicht wurden dieses treiber NUR auf HL2 optimiert und somit gibt es dann in anderen spielen grafikfehler wie fehlende objekte und so weiter. Aber ein treiber soll und darf nicht nur auf spiel oder einen benchmark optimiert sein. Da muss ein mittelweg gefunden werden. Und dieser mittelweg fehlte vielleicht in den 5x.xx treibern noch. Durch diesen mittelwerg könnte es ja dann passieren, dass man dann in dem spiel was man eigentlich sehr optimieren wollte, nicht mehr die volle optimierung erreichen kann.


Alle Spiele die ich habe, laufen entweder gleichschnell oder schneller, bis auf SeSam2. Natuerlich, wird das schneller durch die verminderte Filterung zurueck zu führen sein, doch die HL2 Optimierung hat keinen Einfluss auf die anderen Spiele. Da der Treiber, nach Nvidia, noch im Betastadium sei, sind Probleme nie auszuschließen.
Probleme wird es immer geben. Selbst bei dem neusten Referenztreiber gibt es hier oder da noch Probs mit Spielen. Worin liegt also der Sinn deiner Theorie?

[dzp]Viper
2003-09-17, 18:37:50
Original geschrieben von LovesuckZ
Alle Spiele die ich habe, laufen entweder gleichschnell oder schneller, bis auf SeSam2. Natuerlich, wird das schneller durch die verminderte Filterung zurueck zu führen sein, doch die HL2 Optimierung hat keinen Einfluss auf die anderen Spiele. Da der Treiber, nach Nvidia, noch im Betastadium sei, sind Probleme nie auszuschließen.
Probleme wird es immer geben. Selbst bei dem neusten Referenztreiber gibt es hier oder da noch Probs mit Spielen. Worin liegt also der Sinn deiner Theorie?

hm

also mit dem beta deto 5x.xx gibt es also probleme in:

HL2 (keine nebeldarstellung)
AM3 (fehlende beleuchtung)
SS2 (performance geht stark zurück)


ich glaube kaum, dass dies die einigsten games sind, da die leute die den treiber ausprobieren nur das bekannteste benchen und dann zu 90 % das ding wieder runterhauen ...

ausserdem ist es ja auch nur eine theorie und nix weiter ...

LovesuckZ
2003-09-17, 18:44:31
Original geschrieben von [dzp]Viper
also mit dem beta deto 5x.xx gibt es also probleme in:
HL2 (keine nebeldarstellung)
AM3 (fehlende beleuchtung)
SS2 (performance geht stark zurück)

Fehlender Nebel ist ein generelles Problem mit dem Treiber. Dafür laeuft aber die World Racing Demo deutlich besser.
Es ist ein Betatreiber und sollte auch so gehandhabt werden.

ausserdem ist es ja auch nur eine theorie und nix weiter ...

Theorien sollten aber wenigsten vernünftig sein. Deine ging nur wieder in das übliche "Nvidia ist boese, da...", sowie anhand eines Beta Treibers...

[dzp]Viper
2003-09-17, 18:57:51
Original geschrieben von LovesuckZ
Fehlender Nebel ist ein generelles Problem mit dem Treiber. Dafür laeuft aber die World Racing Demo deutlich besser.
Es ist ein Betatreiber und sollte auch so gehandhabt werden.



Theorien sollten aber wenigsten vernünftig sein. Deine ging nur wieder in das übliche "Nvidia ist boese, da...", sowie anhand eines Beta Treibers...

es ist eine theorie lovesuck ....nix weiter ... ich erhebe NULL recht darauf, dass es wahr ist ...

komm mal wieder runter... ist ja schlimm

achso - is nv den nicht böse ?? (ich beziehe jetzt mit absicht ati nicht mit ein, da die auch nicht sauber sind)

LovesuckZ
2003-09-17, 19:06:21
Ich will dir deine Tehorien nicht verbieten, doch sollte man erst überlegen, ob man irgendwelche dumme Sachen über einen Beta Treiber schreibt.
Warum deine Theorie strittig ist? Ich sehe keinen Zusammenhang zwischen den Fehlern in Spielen und den HL2 Optimierungen.

[dzp]Viper
2003-09-17, 19:11:23
Original geschrieben von LovesuckZ
Ich will dir deine Tehorien nicht verbieten, doch sollte man erst überlegen, ob man irgendwelche dumme Sachen über einen Beta Treiber schreibt.
Warum deine Theorie strittig ist? Ich sehe keinen Zusammenhang zwischen den Fehlern in Spielen und den HL2 Optimierungen.

dann sag es einmal - und fertig ..

ich bin auch nicht dafür, dass man betatreiber zum benchen nimmt - den nicht ohne grund sind es betatreiber! bis zum final release kann sich da immernoch viel tun ..

ende für mich hier - hab auf diese sinnlosen diskussionen keinen bock mehr !

BlueRaven
2003-09-18, 03:17:53
Ich habe mir ebengerade mal die neuesten News durchgelesen und ich muss sagen das Nvidia mehr und mehr in den Dreck gezogen wird.

Ich weiß net ob die jemals da wieder rauskommen werden aber die stecken 100% tief in der Schei**e.

Und wenn es mit der 8 Millionen stimmen sollte dann muss ja ATI gewaltig geld ausgeben, das Nvidia so richtig dumm da stehen soll.

Das ist echt ein heisser kampf zwischen den beiden hier.

betasilie
2003-09-18, 03:36:37
Original geschrieben von LovesuckZ
Ich will dir deine Tehorien nicht verbieten, doch sollte man erst überlegen, ob man irgendwelche dumme Sachen über einen Beta Treiber schreibt.

Die Frage lautet eher: Wieso gibt NV Betatreiber zum benchmarken an die großen Reviewseiten raus? ... Wenn sie sich durch Cheats und AF-Optimierungen auf Kosten der IQ tolle Frameraten erhaschen wollen, müssen sie auch mit der Kritik an der Qualität der Treiber klarkommen und die Fanboys auch.

Valve hat es genau richtig gemacht, als sie verboten haben den HL2-Benchmark mit Betatreibern testen zu lassen. Die haben schon geahnt, dass NV mit tollen Framerates mit nem Betatreiber protzen will, um dann hinterher bei Kritik zu sagen, dass es ja nur ein Betatreiber ist.

Du musst NV kritisieren und nicht die Leute, die diesen Treiber zerfleischen, weil NV ihn rausgegeben hat.

NV suckz z.Zt. wirklich wie nie zuvor. :kotz:

maas
2003-09-18, 09:39:46
http://www.theinquirer.net/?article=11552

Valve Half Life 2 auction "reached $8 million"

Bundle turns into real bundle in the graphics jungle

WE HAVE CONTACTED Valve Software to ask whether it put its Half Life 2 game and prequel out to bid to graphic chip protagonists ATI and Nvidia.
So far, we haven't heard back from Valve and we wouldn't expect ATI to comment. But sources close to Nvidia suggest that the bidding could have reached as much as $8 million before it withdrew from the auction.

Valve made an unprecedented attack on Nvidia and the performance of its technology last week at an ATI sponsored day.

Half Life 2 is being hyped as a super game, and is, as the saying goes, "eagerly awaited". A kind of pearl beyond price. But according to our information, Nvidia withdrew as the bidding rose to ever more crazy heights and the price of this possible jewel in the crown spiralled.

According to our sources, who stand by the auction story, Nvidia felt, that as graphics market leader, it would find itself compromised with other games companies and with its graphics card partners.

If the reports of this auction and these allegations are true, this would certainly put a different colour on Valve's statements about Nvidia's benchmarks.

We wonder that if such an auction did take place, and if Nvidia had ended up with a Half Life bundling deal, whether Valve would still have the same view about its benchmarks.

We've contacted Nvidia about the allegations but the company refuses to comment.

Exxtreme
2003-09-18, 09:42:42
Ob ihr es glaubt oder nicht, diese Geldschieberei könnte unter dem Begriff "Developersupport" durchgehen. :)

AFAIK wird das schon seit Jahren praktiziert und ist nicht nur auf dem Bereich der Spiele-Entwicklung beschränkt.

P.S. Schwach finde ich, daß NV schon wieder rumjammert.

P.P.S http://english.bonusweb.cz/interviews/carmackgfx.html

ShadowXX
2003-09-18, 10:00:05
Ausserdem will ich nicht wissen wieviel sich nV die TWIMTBP kosten lässt....
Da rauscht bestimmt auch die eine oder andere Million an den einen oder anderen SW-Hersteller...

Vielleicht nicht 8Mios pro 'Partner', aber zusammen kommt da bestimmt auch allerhand zusammen....

J.S.Shadow

Demirug
2003-09-18, 10:01:50
Wobei $8 Millionen wirklich verdammt viel Geld sind. Mal ein paar Zahlen zum vergleich.

Star Wars Rogue Leader: Rogue Squadron II

Eine Gamecube Launch Titel der in 9 Monaten durchgezogen werden musste. Die Entwickler hatten also keinerlei Erfahrung mit dem System und es war auch kaum Code vorhanden auf den man aufbauen konnte.

Kosten: $3.5 millionen

Black & White

Wenn das Spiel auch nicht unbedingt eine Meisterleistung darstellt und weit hinter den erwartungen zurück blieb ist es mit einer Entwicklungszeit von über 3 Jahren ein klasisches Beispiel für eine Grossentwicklung.

Kosten etwa $5.7 Millionen

Das original Unreal Tournament war mit 2$ Millionen dagegen eigentlich recht günstig. In Deutschland entwickelte Spiele müssen aber auch heute noch mit einen Buget auskommen das noch unter $2 Millionen liegt.

Ich habe im Prinzip nichts dagegen wenn ein Entwickler sich mal ordentlich bedient nur irgend jemand muss am Ende die Rechnung bezahlen.

roman
2003-09-18, 10:03:17
8 Millionen Dollar für ein einziges Game fällt imho nicht mehr unter "Developersupport". Mir kommt da eher das Wörtchen "Schmiergeld" in den Sinn.

aber obs wirklich stimmt, werden wir wohl nie erfahren ...

seahawk
2003-09-18, 10:08:23
Wenn ATI wirklich 8 Millionen rausgerückt hat, dann dürfte Valve schon einen Großteil der Kosten drinne haben.

Oder anders ausgedrückt, es würde Valve nicht wehtun wenn einige GeForce FX Besitzer HL2 nicht kaufen.

Besonders wenn man bedenkt, dass es bei der weiter verbeiteten GeForce 4 ja keine Performance Probleme gibt.

maas
2003-09-18, 10:11:33
Original geschrieben von seahawk
Wenn ATI wirklich 8 Millionen rausgerückt hat, dann dürfte Valve schon einen Großteil der Kosten drinne haben.

Oder anders ausgedrückt, es würde Valve nicht wehtun wenn einige GeForce FX Besitzer HL2 nicht kaufen.

Besonders wenn man bedenkt, dass es bei der weiter verbeiteten GeForce 4 ja keine Performance Probleme gibt.

Oder, wie es die c't ausdrückt, ist

"Half Life 2 ein von ATI mit 7 Millionen Dollar bezahltes Marketing-Produkt".

Exxtreme
2003-09-18, 10:11:41
Original geschrieben von seahawk
Wenn ATI wirklich 8 Millionen rausgerückt hat, dann dürfte Valve schon einen Großteil der Kosten drinne haben.

Oder anders ausgedrückt, es würde Valve nicht wehtun wenn einige GeForce FX Besitzer HL2 nicht kaufen.

Besonders wenn man bedenkt, dass es bei der weiter verbeiteten GeForce 4 ja keine Performance Probleme gibt.
Naja, man kann auch auf der GFFX anständige Frameraten erreichen indem man die BQ runterschraubt. Mehr gibt die HW halt nicht her. Das ist aber kein Fehler von Valve. Selbst J.C. hat das neulich gesagt, daß das HL2-Szenario wahrscheinlich auch in anderen Spielen auftreten wird.

Tarkin
2003-09-18, 10:15:19
http://www.tech-report.com/etc/2003q3/valve/image16.jpg

... Kann schon sein, dass 8 Millionen geflossen sind, aber nicht damit ATi bei den Benchmarks besser da steht, sonder wegen des OEM Deals (dass die R360 mit Half Life 2 gebundelt wird).

Al-CAlifAX
2003-09-18, 10:24:04
Original geschrieben von Exxtreme
Ob ihr es glaubt oder nicht, diese Geldschieberei könnte unter dem Begriff "Developersupport" durchgehen. :)

AFAIK wird das schon seit Jahren praktiziert und ist nicht nur auf dem Bereich der Spiele-Entwicklung beschränkt.

P.S. Schwach finde ich, daß NV schon wieder rumjammert.

P.P.S http://english.bonusweb.cz/interviews/carmackgfx.html

[Theorie einschalt]
Was wäre wenn NV des gewonnen hätte. Wie würden dann die Benchmarks und vor allem die Arbeit Valves in Bezug auf nen anständigen NV Pfad (der deutlich mehr arbeit kostet aber bei 8 Millionen vom Graka hersteller *gg*), wie hätte es wohl ausgesehen? Und sollte dies war sein. Was ja nicht bestätigt ist. So wundert mich die Aussage das Valve sagt, sie hätten sich richtig entschieden mit ATi zu bundlen. Denn diese Entscheidung haben sie ja dann in diesem Falle (wenn es denn war ist) nicht selber getroffen, sindern NV war es einfach zuviel Geld. Naja Geld regiert derzeit auch die Welt :(
[/Theorie ausschalt]

:P

Exxtreme
2003-09-18, 10:26:54
Original geschrieben von Al-CAlifAX
[Theorie einschalt]
Was wäre wenn NV des gewonnen hätte. Wie würden dann die Benchmarks und vor allem die Arbeit Valves in Bezug auf nen anständigen NV Pfad (der deutlich mehr arbeit kostet aber bei 8 Millionen vom Graka hersteller *gg*), wie hätte es wohl ausgesehen? Und sollte dies war sein. Was ja nicht bestätigt ist. So wundert mich die Aussage das Valve sagt, sie hätten sich richtig entschieden mit ATi zu bundlen. Denn diese Entscheidung haben sie ja dann in diesem Falle (wenn es denn war ist) nicht selber getroffen, sindern NV war es einfach zuviel Geld. Naja Geld regiert derzeit auch die Welt :(
[/Theorie ausschalt]

:P
Wie es ausgesehen hätte?

HL2 hätte keinerlei DX9-Shader. :P

nagus
2003-09-18, 10:30:32
dieser thread passt besser ins "speku-forum" IMHO

außerdem wärs interessant zu erfahren, wieviel geld nvidia Id oder EA in den rachen stopft...

Al-CAlifAX
2003-09-18, 10:31:03
Original geschrieben von Exxtreme
Wie es ausgesehen hätte?

HL2 hätte keinerlei DX9-Shader. :P



DX9Shader schon, aber keine 2.0 direkt. Sondern irgendeinen FX mix der ähnlich aussieht aber besser läuft. Es gibt Funktionen im FX imho die inompatibel zur ATi wären. Dann hätte man (wenn man es denn wolle) andersum aussehen können, wobei ich net denke das es dann so ein riesen unterschied gegeben hätte.


Andererseits muss ich sagen wurde lange kein Hersteller so gut blamiert. Daran sollte sich NV mal nbe scheibe abschneiden. Die haben immer mit kleinen Brötchen gebacken und immer mal ein paar % vorne gelegen, abr satte 40-50% nenne ich den Gegner fertig machen *ggg*

Exxtreme
2003-09-18, 10:35:56
Original geschrieben von Al-CAlifAX

DX9Shader schon, aber keine 2.0 direkt. Sondern irgendeinen FX mix der ähnlich aussieht aber besser läuft. Es gibt Funktionen im FX imho die inompatibel zur ATi wären. Dann hätte man (wenn man es denn wolle) andersum aussehen können, wobei ich net denke das es dann so ein riesen unterschied gegeben hätte.


Gibt es schon, nennt sich "Mixed Mode". :) Ist anscheinend eine Mischung aus DX8- und DX9-Shadern. Und Valve hat anscheinend Einiges an Optimierungsarbeit da reingesteckt.
Original geschrieben von Al-CAlifAX
Andererseits muss ich sagen wurde lange kein Hersteller so gut blamiert. Daran sollte sich NV mal nbe scheibe abschneiden. Die haben immer mit kleinen Brötchen gebacken und immer mal ein paar % vorne gelegen, abr satte 40-50% nenne ich den Gegner fertig machen *ggg*
Ich fürchte, NV hat sich hier selbst mächtig ein Bein gestellt. ATis R300 ist sehr viel früher auf dem Markt gekommen. Und die HW scheint auch flexibler zu sein.

[dzp]Viper
2003-09-18, 10:36:17
Laut den letzten informationen hat Valve eine art versteigerung veranstaltet - und ati hat mit 8 Mill $ gewonnen ;) ne menge kohle ...

aber selbst wenn NV gewonnen hätte, wäre HL2 wohl auf FX karten besser gelaufen - ABER in den nächsten DX9 titeln hätte die FX dann dennoch verloren ...

siehe JC interview

Al-CAlifAX
2003-09-18, 10:47:21
wenn M$ des wusste das NV etwas anders baut oder gar ne andere Presicion braucht, dann wäre ja DX9 falsch ausgelegt. Denn heisst es nicht der kleinste gemeinsame Nenner? Also hätte M$ dies berücksichtigen müssen. Kompatibel is NV ja. Ich schiebe immernoch M$ die schuld zu. ATI weniger, die freuts natürlich jetzt. Aber in der vergangenheit wurde auch schon NV bevorzugt. Nur ich frage euch muss des sein von einer eigentlich unabhängigen APi?


Edit Anhang:

Denn als SW Entwickler mache ich es mir doch einfach in dem ich die Vorgaben M§`s nehme und darauf entwickle. Dafür is ja ne APi auch da. Nun müsste ich aber als Entwickler, weil M$ dies nicht berücksicht hat für NV extra optimieren. Die Frage bleibt, lohnt sich der Mehraufwand.

[Theorie einschalt]
Sagen wir mal Valve wusste des mit ATi und schneller durch höhere Precision und standard DX9 Pfad. Die sagten sich jetzt. Mom erstens kostets nen heiden aufwand jetzt extra zu optimieren, da könnte ich ja gleich Ati als Partner nehmen oder Zweitens sie sagten sich. he, machen wir doch eine Auktion. Dabei kommt ne Menge Geld rum. Dabei bekommen wir schonmal viel Geld rein und können so die Entwicklungskosten für NV-Hardware-Optimierung reinholen. Wäre ja ne Theorie und auch verständlich in dem Falle. Valve wäre es am Ende egal weil sie egal wer gewonnen hätte, so oder so optimiert hätten (die frage wäre nur wieviel mehr für NV *gg*). Sollte dem so sein, hätte Valve wiederum schlau reagiert, indem sie die Mehrkosten für optimierung sich haben bezahlen lassen. Und ATi war dann so "blöd" und hats getan *ggg*
[Theorie auschalt]

He ihr Ati Fans erst richtig lesen, und net nur den letzten satz *gg*.

Gast
2003-09-18, 10:48:13
Original geschrieben von Exxtreme Und Valve hat anscheinend Einiges an Optimierungsarbeit da reingesteckt.

Ja, bestimmt.

Zeit für AT.. äh, DX9-Optimierung: 1x Compiler durchlaufen lassen.

Zeit für nV-mixed Mode: 1x neues SDK über 56k-Modem saugen, Compiler drüberlaufen lassen. PP-Hints kann der doch auch, oder?

Was lernen wir daraus? Es dauert 5x länger das SDK zu saugen, als die fertigen Shader zu rekompilieren.

BTW, JC sagte in einer früheren Aussage, im ARB2-Pfad wäre nV deutlich langsamer, etwa halb so schnell.
Aber nichts davon, daß nV nur 20% der Geschwindigkeit von ATi erreichte. K.A. inwieweit diese Aussage gekauft war, aber...

... ich kann mir gut vorstellen, daß man als Technologie-Partner noch so einige Möglichkeiten für einen Benchmark in Petto hat.

- Shader unnötig als DX9 laufen lassen, wo auch DX8.1 reichte
- Shader so programmieren, daß auch neuanordnung und PP-Hints nicht mehr viel helfen
- andere Schwächen ausnützen / Stärken fördern.

Rein theoretisch gäbe es mehr als genug Möglichkeiten, sich einen Sieger unabhängig von der Engine usw. vorher auszusuchen und dann das passende Szenario zu schreiben. Wohlgemerkt: rein theoretisch!

[dzp]Viper
2003-09-18, 10:54:37
Original geschrieben von Al-CAlifAX
Denn heisst es nicht der kleinste gemeinsame Nenner?

das ist es ja gerade - ATI ist der kleinste gemeinsame nenner ;) Die GeFX geht ja schon weiter als PS2.0 ...

seahawk
2003-09-18, 10:54:40
Mixedmode könnte aber auch nur eine Mischung von Operationen mit 16bit bzw. 32bit Genauigkeit sein. Während ATI ja immer mit 24bit arbeitet.

Man kann aber festhalten, dass momentan die ATI Hardware besser performt. Ob es an schlechter Ausnutzung der NV Hardware liegt, oder ob diese nicht mehr kann ist imo noch nicht zu beurteilen.

ShadowXX
2003-09-18, 11:00:08
Original geschrieben von Gast
Ja, bestimmt.

Zeit für AT.. äh, DX9-Optimierung: 1x Compiler durchlaufen lassen.

Zeit für nV-mixed Mode: 1x neues SDK über 56k-Modem saugen, Compiler drüberlaufen lassen. PP-Hints kann der doch auch, oder?

Was lernen wir daraus? Es dauert 5x länger das SDK zu saugen, als die fertigen Shader zu rekompilieren.


Das glaubst du doch hoffentlich nicht selber....
Der Mixed Mode besteht (wie schon von Exxtreme erwähnt) aus einem DX8/9 Mischmasch..das kann man nicht mit Compiler drüberjagen erreichen..


BTW, JC sagte in einer früheren Aussage, im ARB2-Pfad wäre nV deutlich langsamer, etwa halb so schnell.
Aber nichts davon, daß nV nur 20% der Geschwindigkeit von ATi erreichte. K.A. inwieweit diese Aussage gekauft war, aber...


JC sagt sogar, das die nV beim ARB2 nur die hälfte der Performace erreicht (war aber noch auf nv30 bezogen).


... ich kann mir gut vorstellen, daß man als Technologie-Partner noch so einige Möglichkeiten für einen Benchmark in Petto hat.

- Shader unnötig als DX9 laufen lassen, wo auch DX8.1 reichte
- Shader so programmieren, daß auch neuanordnung und PP-Hints nicht mehr viel helfen
- andere Schwächen ausnützen / Stärken fördern.

Rein theoretisch gäbe es mehr als genug Möglichkeiten, sich einen Sieger unabhängig von der Engine usw. vorher auszusuchen und dann das passende Szenario zu schreiben. Wohlgemerkt: rein theoretisch!

Wie ebenfalls schon erwähnt: Dann hätten sie sich den Mixed-Mode auch gleich sparen können.....

Und wenn Valve und ATI wirklich nV eins hätten auswischen wollen hätten Sie nur DX9-Shader benutzt...

J.S.Shadow

Frank
2003-09-18, 11:02:54
nur ein Beispielzitat:
Original geschrieben von nagus
außerdem wärs interessant zu erfahren, wieviel geld nvidia Id oder EA in den rachen stopft... es geht wohl eher um ATI als um nVidia. Wenn da jemand der Threadtitel oder das Thema an sich nicht passt, kann man ja einen neuen Thread aufmachen.

Al-CAlifAX
2003-09-18, 11:03:20
Original geschrieben von [dzp]Viper
das ist es ja gerade - ATI ist der kleinste gemeinsame nenner ;) Die GeFX geht ja schon weiter als PS2.0 ...

Naja im Bezug auf die Shader eventuell schon. Aber hier gehts ja um Precision. Und wie scheinbar auch JC feststellte das diese dann im gegensatz zur NV Standard dann eher halb so schnell laufen und er sie selber garnet benötige derzeit. Also wäre ja NV dadurch benachteiligt, wenn mutwillig ein standard festgelegt würd wo NV langsamer wäre. Schade das die Hardware scho fertig war. (DX kommt ja erst nach design bau :( ) denn dann hätte man einfach ein paar sachen rausgenommen und so würde DX9 heute net 96 bit vorschreiben in der Precision. So isses natürlich dumm für NV. und die müssen es schaffen den Standardpfad zu dem sie kompatibel sind im NV 40 hardwaremäßig zu optimieren, aber dabei ihre ideen in richtung PS3.0 und GPU ähnlicher struktur net auser acht lassen. die frage is nur wieviel transistoren verkraftet die NV noch. Ich glaube fast die ist ne spur zu weit entwickelt und schleppt noch zuviel altes mit rum. Mist da wünscht mn sich doch glatt wieder 2 karten im rechner ;) ne late Geforce 4 und nen NV40 ohne alten Krams ;)

Birdman
2003-09-18, 11:03:29
na ja, dass HL2 auf ATi hardware nun besser läuft, ist ja kein Wunder mehr. Alles andere wäre imho von Ati als Vetragsbruch od. ähnliches tituliert worde und hätte sicher Konsequenzen gehabt.
Damit mein ich nun nicht, dass irgendwelche lümmelhardware von Ati (z.B. R8500) besser dastehen muss als Highend von Nvidia (Nv5900), aber bei etwa gleicher Power der Hardware wird/muss die Ati einfach besser performen.

Das ganze sieht man ja auch bei GunMetal...dieses Game läuft trotz DX9 auf Nv besser, bzw. auf Ati Karten einfach schlechter.

Ich halte es daher für falsch, solche "geschmierten" Spiele als Gradmesser für die Power einer Grafikkarte zu verwenden. (Nichtsdestotrotz sind solche Spiele dann aber Gradmesser für die Praxistauglichkeit der Grafikkarte)

Exxtreme
2003-09-18, 11:07:26
Original geschrieben von Gast
Ja, bestimmt.
.
.
.
.

J.C. sagte nicht, daß ATi mit dem ARB2-Pfad generell doppelt so schnell ist. Am besten seine Aussagen richtig interpretieren. :)

Und wenn NV nur 20% der R3x0-Geschwindigkeit erreicht... tja, das nächste Mal eine bessere HW auf dem Markt bringen. So einfach ist das :)

Und pp heisst "partial precision" sprich eine Verminderung der Bildqualität.

[dzp]Viper
2003-09-18, 11:08:19
Original geschrieben von Birdman
na ja, dass HL2 auf ATi hardware nun besser läuft, ist ja kein Wunder mehr. Alles andere wäre imho von Ati als Vetragsbruch od. ähnliches tituliert worde und hätte sicher Konsequenzen gehabt.
Damit mein ich nun nicht, dass irgendwelche lümmelhardware von Ati (z.B. R8500) besser dastehen muss als Highend von Nvidia (Nv5900), aber bei etwa gleicher Power der Hardware wird/muss die Ati einfach besser performen.

Das ganze sieht man ja auch bei GunMetal...dieses Game läuft trotz DX9 auf Nv besser, bzw. auf Ati Karten einfach schlechter.

Ich halte es daher für falsch, solche "geschmierten" Spiele als Gradmesser für die Power einer Grafikkarte zu verwenden. (Nichtsdestotrotz sind solche Spiele dann aber Gradmesser für die Praxistauglichkeit der Grafikkarte)

gunmetal nutzt nur PS 1.1 ... aber VS 2.0 und beim VS sind die NV karten ja auch nicht schlecht (eher sehr gut)!
NV karten haben ihr problem beim PS - nicht beim VS!

Und mittlerweile gibt es soviele aussagen, dass NV in DX9 spielen nicht gerade super performen wird (siehe JC interview).

Demirug
2003-09-18, 11:09:44
Original geschrieben von Exxtreme
Ich fürchte, NV hat sich hier selbst mächtig ein Bein gestellt. ATis R300 ist sehr viel früher auf dem Markt gekommen. Und die HW scheint auch flexibler zu sein.

Da wiederspreche ich mal. Flexibler sind die NV3X schon nur haben sie neben der geringeren Peakleistung auch noch grosse Probleme diese auf den Boden zu bekommen.

Al-CAlifAX
2003-09-18, 11:12:34
Original geschrieben von Birdman
na ja, dass HL2 auf ATi hardware nun besser läuft, ist ja kein Wunder mehr. Alles andere wäre imho von Ati als Vetragsbruch od. ähnliches tituliert worde und hätte sicher Konsequenzen gehabt.
Damit mein ich nun nicht, dass irgendwelche lümmelhardware von Ati (z.B. R8500) besser dastehen muss als Highend von Nvidia (Nv5900), aber bei etwa gleicher Power der Hardware wird/muss die Ati einfach besser performen.

Das ganze sieht man ja auch bei GunMetal...dieses Game läuft trotz DX9 auf Nv besser, bzw. auf Ati Karten einfach schlechter.

Ich halte es daher für falsch, solche "geschmierten" Spiele als Gradmesser für die Power einer Grafikkarte zu verwenden. (Nichtsdestotrotz sind solche Spiele dann aber Gradmesser für die Praxistauglichkeit der Grafikkarte)

Gunmetal benutz imho eh net soviel PS2.0
Und wenn sich die Source Engine als Spiele Engine durchsetzt, dann siehts etwas düster aus für NV. Wobei man sagen muss, da Valve einen Mixedmode gebaut hat (der net ma nur aus 8/9 sondern auch aus 16/32 bestehen kann) um so ähnliche kaum merkliche Qualität zu liefern auch auf NV karten (zum. den jetzigen) und sich die Source durchsetzt. Kann man ihnen eigentlich danken.

"gedankengang" ist euch mal in den sinn gekommen das HL² selber garnet so krass verbaut ist, sondern nur der Benchmark selber. Denn er soll ja Full DX9 sein und die Zukunft darstellen. So dass des game selber ja evtl. noch etwas flüssiger läuft an der einen oder anderen Stelle. Zum. schauen die Vieos net nach soviel Shadern aus. Was mir aber deutlich auffiel war wenig Qualität im AF bzw. schlechte Filterleistung. Was mir ausserem auffiel an den Videos. Schlechte Texturen, teil mie sgefiltert. Bas bedeuten könnte die müssen ja gradezu Shader einsetzten um des wettzumachen. Aber sind ja bis jetzt nur videos. Schauen wir wenn des game raus ist (net der benchmark) wie es sich wirklich mit den texturen verhält. Solange is alles nur spekulation ;)

Exxtreme
2003-09-18, 11:14:47
Original geschrieben von Demirug
Da wiederspreche ich mal. Flexibler sind die NV3X schon nur haben sie neben der geringeren Peakleistung auch noch grosse Probleme diese auf den Boden zu bekommen.
Ich meinte das jetzt anders. ;)

ATi schafft es ohne Probleme die einfacheren Dinge wie PS1.1 mit der PS2-HW zu emulieren und das wirklich sehr flott. Nvidia hat wohl für DX8 und DX9 dedizierte HW.

Demirug
2003-09-18, 11:16:39
Original geschrieben von Exxtreme
Und wenn NV nur 20% der R3x0-Geschwindigkeit erreicht... tja, das nächste Mal eine bessere HW auf dem Markt bringen. So einfach ist das :)

ACK, gilt aber auch umgekehrt.

Und pp heisst "partial precision" sprich eine Verminderung der Bildqualität.

Da muss ich jetzt gleich mehrfach wiedersprechen.

- Wenn pp eine "Verminderung der Bildqualität" erzwingen würde müsste ja auch ein R300 dies zeigen.
- pp kann zu einer Verminderung der Bildqualität führen.
- pp kann schneller sein.

Al-CAlifAX
2003-09-18, 11:17:50
Original geschrieben von Exxtreme
J.C. sagte nicht, daß ATi mit dem ARB2-Pfad generell doppelt so schnell ist. Am besten seine Aussagen richtig interpretieren. :)



Und wenn NV nur 20% der R3x0-Geschwindigkeit erreicht... tja, das nächste Mal eine bessere HW auf dem Markt bringen. So einfach ist das :)

Und pp heisst "partial precision" sprich eine Verminderung der Bildqualität.

naja zwischen 20% und den Werten vom ATi Shaders Day liegen Welten. 20% lass mal rechnen. sagen wir Ati performt mit der Radion 9800 Pro bei 80 frames sind das 16 frames weniger für NV. Und das kann ich ehrlich gesagt verkraften. ähnliche bsp. gbt es umgekehrt bei OpenGL spielen nur das da ATi schlechter performt. nur ist es imho so das es keinem ATi User etwas ausmacht. weils sagen wir mal scho etwas gering ist. Die 5200/5600 würde ich eh aufn müll hauen *ggg* ich rede hier mal nur von den 5900/u ;)

Und meines erachtens sah des verhältnis auf dme Shaderday net 80 zu 66 aus sondern eher 80 zu 50 bei NV mixed mode und 80 zu unter 40 fast 30 zu PS2.0 DX9 Precision aus. Und das ist scho nen unterschied den ich net akzeptieren möchte, wenn er denn war ist.

Gast
2003-09-18, 11:19:15
Original geschrieben von Exxtreme
J.C. sagte nicht, daß ATi mit dem ARB2-Pfad generell doppelt so schnell ist. Am besten seine Aussagen richtig interpretieren. :)

Und wenn NV nur 20% der R3x0-Geschwindigkeit erreicht... tja, das nächste Mal eine bessere HW auf dem Markt bringen. So einfach ist das :)

Und pp heisst "partial precision" sprich eine Verminderung der Bildqualität.

JC sagte, daß die Leistung des nV30 mit ARB2 auf ~50% derjenigen des nV3x-Pfades einbricht. AM besten gar nicht interpretieren. :P

Und wenn nV nur 20% erreicht, so ist das mit Sicherheit nicht repräsentativ für den Spielemarkt. Höchstens für HL2. Schauen wir mal, was noch so kommt. X-D


Ich weiss, was PP heisst, aber dein Schlußfolgerung da draus ist leider ff (für dich: föllich falch).

Was habe ich davon, wenn ich 2-1 = 1 mit Fließkommagenauigkeit rechne? Richtig: Viele Stellen nach dem Komma, die nichts am Ergebnis ändern.

PP-Hints könnten eine Senkung der BQ bringen, aber nur, wenn der Entwickler sie dumpfsinnig und falsch benutzt. Denn si sind dazu da, nur dort genommen zu werden, wo man mit 16Bit FP auskommt und das Ergebnis nocht ändernt.

Also beim nächsten Mal selber etwas weniger interpretieren und pauschalisieren bitte.

Exxtreme
2003-09-18, 11:23:11
Original geschrieben von Demirug
ACK, gilt aber auch umgekehrt.

Sicherlich. :D
Original geschrieben von Demirug
Da muss ich jetzt gleich mehrfach wiedersprechen.

- Wenn pp eine "Verminderung der Bildqualität" erzwingen würde müsste ja auch ein R300 dies zeigen.
- pp kann zu einer Verminderung der Bildqualität führen.
- pp kann schneller sein.
Hmm, ich meine gelesen zu haben, daß -pp eine niedrigere Präzision erwingt. :|

Demirug
2003-09-18, 11:24:49
Original geschrieben von Exxtreme
Ich meinte das jetzt anders. ;)

ATi schafft es ohne Probleme die einfacheren Dinge wie PS1.1 mit der PS2-HW zu emulieren und das wirklich sehr flott. Nvidia hat wohl für DX8 und DX9 dedizierte HW.

Nein nicht wirklich. Ist aber alles relative komplex. Es gibt mehrer Einheiten die aber alle zusammenarbeiten können (Bei DX8 Shadern müssen sie das auch). nv hatte eben das grosses Pech das MS bei den 3 Datenformate "Njet" gesagt hat womit das ganze in sich zusammengebrochen ist. Jetzt haben sie das flexible Design mit allen Nachteilen am Hals können es aber bei den PS >= 2.0 die Vorteile nicht nutzen.

Demirug
2003-09-18, 11:29:42
Original geschrieben von Exxtreme
Sicherlich. :D

Hmm, ich meine gelesen zu haben, daß -pp eine niedrigere Präzision erwingt. :|

Nein _pp ist nur ein Hinweis das eine niedrigere Präzision für diese Berechnung ausreicht. Dieser Hinweis darf aber ignoriert werden.

Al-CAlifAX
2003-09-18, 11:35:10
Original geschrieben von Demirug
Nein nicht wirklich. Ist aber alles relative komplex. Es gibt mehrer Einheiten die aber alle zusammenarbeiten können (Bei DX8 Shadern müssen sie das auch). nv hatte eben das grosses Pech das MS bei den 3 Datenformate "Njet" gesagt hat womit das ganze in sich zusammengebrochen ist. Jetzt haben sie das flexible Design mit allen Nachteilen am Hals können es aber bei den PS >= 2.0 die Vorteile nicht nutzen.

Irgendwo macht dir des aber auch wieder angst. sagen wir mal NV wird bei DX10 wieder benachteiligt <-- blödes wort *gg* und die sehen wieder blöd aus trotz innovationen. Was ist wenn die ne eigene APi entwickeln oder sagen wir mit OpenGL stärker in verbindung treten. dann wirds docha uch wieder blöd für ATi. oder besser gesagt. wer kann es sich dann als Grakahersteller dann noch leisten auf 2 API`s zu bauen. wobei ich denke immernoch das OpenGL da einfach flexibler wenn auch wirrer (die einigen sich ja nie *gg*) ist.

Demirug
2003-09-18, 11:49:43
Original geschrieben von Al-CAlifAX
Irgendwo macht dir des aber auch wieder angst. sagen wir mal NV wird bei DX10 wieder benachteiligt <-- blödes wort *gg* und die sehen wieder blöd aus trotz innovationen. Was ist wenn die ne eigene APi entwickeln oder sagen wir mit OpenGL stärker in verbindung treten. dann wirds docha uch wieder blöd für ATi. oder besser gesagt. wer kann es sich dann als Grakahersteller dann noch leisten auf 2 API`s zu bauen. wobei ich denke immernoch das OpenGL da einfach flexibler wenn auch wirrer (die einigen sich ja nie *gg*) ist.

Wohin eine komplett eigene API führt haben wir ja bei Glide gesehen.

Und im OpenGL mit eigenen Extensions zupflastern ist nVidia ja schon immer gross dabei. Aber die Akzeptanz von OpenGL bei den Spieleentwicklern sinkt doch zunehmend aufgrund dieses Extensionwirwars und wenn man sich dann endlich geeinigt hat kommt im Endeffekt das gleiche heraus wie bei DX. (OK bei OpenGL ist die Spec in der Regel genauer formuliert aber dafür lassen sie sich ja auch immer viel mehr Zeit).

Die IHV müssen sich eben früher mit MS absprechen um solche Dinge in Zukunft zu vermeiden. Bei den PS 3.0 sollte die Zeit ja für alle gereicht haben. Wenn ich mir dann noch die kleineren IHVs so anschaue habe ich den Eindruck das diese wirklich erst mit dem Chipdesign anfangen wenn die DX-Spec feststeht.

Al-CAlifAX
2003-09-18, 11:57:08
Original geschrieben von Demirug
Wohin eine komplett eigene API führt haben wir ja bei Glide gesehen.

Und im OpenGL mit eigenen Extensions zupflastern ist nVidia ja schon immer gross dabei. Aber die Akzeptanz von OpenGL bei den Spieleentwicklern sinkt doch zunehmend aufgrund dieses Extensionwirwars und wenn man sich dann endlich geeinigt hat kommt im Endeffekt das gleiche heraus wie bei DX. (OK bei OpenGL ist die Spec in der Regel genauer formuliert aber dafür lassen sie sich ja auch immer viel mehr Zeit).

Die IHV müssen sich eben früher mit MS absprechen um solche Dinge in Zukunft zu vermeiden. Bei den PS 3.0 sollte die Zeit ja für alle gereicht haben. Wenn ich mir dann noch die kleineren IHVs so anschaue habe ich den Eindruck das diese wirklich erst mit dem Chipdesign anfangen wenn die DX-Spec feststeht.

JO ne eigene API wünscht sich wohl keiner. Nur verstehst du warum M$ zu den NV Vorschlägen nein gesagt hat? ich mein des ist doch jetzt desaströs man sich die PS2.0 performance anschaut :(

Naja und wegen OpenGL. Es ist halt Plattform unabhängig und wenn der Mac mal ein bissl mehr reinhaut um spiele für sich zu gewinnen, dann wirds vllt auch mal was auf Linux. Oder meinst du net das M$ auch ne konkurrenz gebrauchen könnte?

Exxtreme
2003-09-18, 12:01:17
Original geschrieben von Demirug
Nein _pp ist nur ein Hinweis das eine niedrigere Präzision für diese Berechnung ausreicht. Dieser Hinweis darf aber ignoriert werden.
Danke, wieder was gelernt. :up:

Demirug
2003-09-18, 12:08:35
Original geschrieben von Al-CAlifAX
JO ne eigene API wünscht sich wohl keiner. Nur verstehst du warum M$ zu den NV Vorschlägen nein gesagt hat? ich mein des ist doch jetzt desaströs man sich die PS2.0 performance anschaut :(

Wenn MS nicht will dann wollen sie eben nicht. Es wurde einmal aufgeführt das man die Shaderentwicklung nicht noch komplizierter machen wollte.

Naja und wegen OpenGL. Es ist halt Plattform unabhängig und wenn der Mac mal ein bissl mehr reinhaut um spiele für sich zu gewinnen, dann wirds vllt auch mal was auf Linux. Oder meinst du net das M$ auch ne konkurrenz gebrauchen könnte?

Konkurrenz ist im Prinzip immer gut nur kann man das was Spieletechnisch beim Mac oder Linux abläuft nicht als Konkurrenzmarkt ansehen.

Al-CAlifAX
2003-09-18, 12:19:50
Original geschrieben von Demirug
Wenn MS nicht will dann wollen sie eben nicht. Es wurde einmal aufgeführt das man die Shaderentwicklung nicht noch komplizierter machen wollte.



Konkurrenz ist im Prinzip immer gut nur kann man das was Spieletechnisch beim Mac oder Linux abläuft nicht als Konkurrenzmarkt ansehen.

kann sich ja ändern. Vor 10 Jahren bin ich mit nem A2000/4000 durch die kannte gekurvt und musste immer schmunzeln asl zum PC schaute.

Heute ist Amiga halbwegs pleite, das neue OS4.0 is immernoch net draussen. (da bauen andere leute schon wieder des OS3.9 um un nennen es Morph OS und bauen des auf nem G4/IBM kompatiblen rechner)

Der PC ist derweil zur Mutimediamaschine gereift, also waru sollte des net im bereich Linux irgendwann auch passieren. Können tut es es ja. Für Profis bleiben halt die Distris von debian und co. und für Angänger/Einsteiger/faule halt die kommerziellen Distris. Nur ohne einer "starken" Api sehe ich da schwarz.

Naja ich träume schon wieder zuviel. und sorry ich kann halt Bill gates und M$ net leiden. Obwohl die NT schiene keine schlechte wahl ist. nur zuviel marketing, zuwenig fürs geld. <- meine meinung (siehe Longhorn-Videos, wer braucht wehende Fenster oder ein sich drehender Desktop beim schreiben) *gg*

micki
2003-09-18, 12:55:19
Original geschrieben von Exxtreme
Sicherlich. :D

Hmm, ich meine gelesen zu haben, daß -pp eine niedrigere Präzision erwingt. :|

hast recht,

ganz genau kluggescheisst (von mir), ist pp immer niedrigere präzision, wobei niemand gezwungen ist pp zu nutzen, die gpu darf mit full precision weiter rechnen.


ob die bildqualität darunter leidet ist dann aber eher fraglich, denn das pp flag setzt man ja eigentlich nur dann, wenn man die fp nicht braucht, wenn sich die qualität mindert braucht man es... wobei man sich wiederrum die frage stellen muss ob ein bild mindere qualität hat bloss weil es anders ausschaut. minderwertige qualität ist ein 16bit farbverlauf wie ich finde, aber wenn ein bild ohne ein referenzbild keine merklichen macken aufweist, wen sollte das stören?

gruesse
micki

AlfredENeumann
2003-09-18, 13:04:27
Original geschrieben von Demirug
Nein nicht wirklich. Ist aber alles relative komplex. Es gibt mehrer Einheiten die aber alle zusammenarbeiten können (Bei DX8 Shadern müssen sie das auch). nv hatte eben das grosses Pech das MS bei den 3 Datenformate "Njet" gesagt hat womit das ganze in sich zusammengebrochen ist. Jetzt haben sie das flexible Design mit allen Nachteilen am Hals können es aber bei den PS >= 2.0 die Vorteile nicht nutzen.


Wird sich das bei PS3.0/VS3.0 wieder ändern ?

Quasar
2003-09-18, 13:08:19
@Exxtreme:

Kannst du mir bitte nochmal den Link geben, wo Valve von dem "mix-Modus" als DX8/DX9-Hybrid gesprochen hat? Ich war der Meinung, daß dabei Full/Partial/und INT12-Precision gemeint war.

Demirug
2003-09-18, 13:10:42
Original geschrieben von AlfredENeumann
Wird sich das bei PS3.0/VS3.0 wieder ändern ?

Dafür bauen sie ja neue Hardware und diesesmal wussten sie ja was gefordert ist. Ich habe da auch schon ein Bild Im Kopf wie der neue Pixelprozessor aussehen könnte. Wobei das Neu hier natürlich genauso relative zu sehen ist wie beim NV30.

Demirug
2003-09-18, 13:11:55
Original geschrieben von Quasar
@Exxtreme:

Kannst du mir bitte nochmal den Link geben, wo Valve von dem "mix-Modus" als DX8/DX9-Hybrid gesprochen hat? Ich war der Meinung, daß dabei Full/Partial/und INT12-Precision gemeint war.

Für Int12 musst du aber auf DX8 (PS 1.x) herunter. Int12 ist unter DX9 (PS >= 2.0) nicht mehr zugänglich.

Ailuros
2003-09-18, 16:12:48
Original geschrieben von Demirug
Dafür bauen sie ja neue Hardware und diesesmal wussten sie ja was gefordert ist. Ich habe da auch schon ein Bild Im Kopf wie der neue Pixelprozessor aussehen könnte. Wobei das Neu hier natürlich genauso relative zu sehen ist wie beim NV30.

Ich denke dass OGL2.0 auch fast schon gesichert ist oder nicht? (inoffiziell zumindest).

Demirug
2003-09-18, 16:48:12
Original geschrieben von Ailuros
Ich denke dass OGL2.0 auch fast schon gesichert ist oder nicht? (inoffiziell zumindest).

Der Shader relevante Teil ist ja jetzt in OpenGL 1.5 aufgegangen. Aber der ganze Shaderteil bei OpenGL ist ja viel offener als das was DX immer so vorschreibt.

LovesuckZ
2003-09-18, 17:02:19
Original geschrieben von Quasar
@Exxtreme:

Kannst du mir bitte nochmal den Link geben, wo Valve von dem "mix-Modus" als DX8/DX9-Hybrid gesprochen hat? Ich war der Meinung, daß dabei Full/Partial/und INT12-Precision gemeint war.

Mixed Mode, so titled because it utilises a mix of precisions, is a special path created purely for the FX series. The mode uses integer precisions (PS1.3 and 1.4 shaders), partial precision (PS2.0 FP16) and full precision, as well as a other changes. (http://www.beyond3d.com/misc/hl2/index.php?p=4)

seahawk
2003-09-18, 17:26:40
Das bedeute doch nicht, dass für die ATI keine DX 8 Shader nutzt.

Ich vermute eher, dass es mixed Mode heißt, weil hier unterschiedliche Genauigkeiten für unterschiedliche Shader genutzt werden.

Ailuros
2003-09-18, 17:45:16
Original geschrieben von Demirug
Der Shader relevante Teil ist ja jetzt in OpenGL 1.5 aufgegangen. Aber der ganze Shaderteil bei OpenGL ist ja viel offener als das was DX immer so vorschreibt.

Sollte mir diese "Offenheit" sorgen machen oder nicht? :D

Spass beiseite: ich vermute dass es erhoehte Flexibilitaet andeutet ja?

Demirug
2003-09-18, 18:13:12
Original geschrieben von Ailuros
Sollte mir diese "Offenheit" sorgen machen oder nicht? :D

Spass beiseite: ich vermute dass es erhoehte Flexibilitaet andeutet ja?

Maximale Flexibilitaet in einem bestimmten Rahmen. Der Rahmen regelt aber nur nur die Verbindung des Shaders zur Aussenwelt was innerhalb des Shader passiert ist vollkommen offen.

Um ehrlich zu sein mache ich mir Sorgen. Es mag sein das ich überskeptisch oder gar leicht paranoisch in dieser Sache bin aber gewisse bedenken die ich habe konnte bisher nicht ausgeräumt werden.

- Das Interface erlaubt die direkte Übergabe von plain ASCII von der Applikation zum Treiber. Da kann man im Zweifle leicht eine Reihe von Chipspezifischen Dingen unterbringen.

- Es gibt keine Funktionssicherheit für einzelne Shader. Es ist im vorraus unmöglich festzustellen ob ein Shader nun auf einer Hadware laufen wird oder nicht. Selbst unterschiedliche Treiber können da schon zwischen geht oder geht nicht entscheiden.

- Gäbe es nicht DirektX welches eine vereinheitlichende Wirkung hat befürchte ich einen Wildwuchs ohne Ende. Jeder IHV könnte dann bei den Shadern in eine andere Richtung maschieren und bei einer neuen Generation erst mal das erweitern was ihm wichtig erscheint.

- Für kleine IHVs könnten es schwer werden weil sie dann kaum noch in der Lage sind Hardware zu bauen die zu den grossen kompatibel ist.

Al-CAlifAX
2003-09-18, 18:22:53
Original geschrieben von Demirug
Maximale Flexibilitaet in einem bestimmten Rahmen. Der Rahmen regelt aber nur nur die Verbindung des Shaders zur Aussenwelt was innerhalb des Shader passiert ist vollkommen offen.

Um ehrlich zu sein mache ich mir Sorgen. Es mag sein das ich überskeptisch oder gar leicht paranoisch in dieser Sache bin aber gewisse bedenken die ich habe konnte bisher nicht ausgeräumt werden.

- Das Interface erlaubt die direkte Übergabe von plain ASCII von der Applikation zum Treiber. Da kann man im Zweifle leicht eine Reihe von Chipspezifischen Dingen unterbringen.

- Es gibt keine Funktionssicherheit für einzelne Shader. Es ist im vorraus unmöglich festzustellen ob ein Shader nun auf einer Hadware laufen wird oder nicht. Selbst unterschiedliche Treiber können da schon zwischen geht oder geht nicht entscheiden.

- Gäbe es nicht DirektX welches eine vereinheitlichende Wirkung hat befürchte ich einen Wildwuchs ohne Ende. Jeder IHV könnte dann bei den Shadern in eine andere Richtung maschieren und bei einer neuen Generation erst mal das erweitern was ihm wichtig erscheint.

- Für kleine IHVs könnten es schwer werden weil sie dann kaum noch in der Lage sind Hardware zu bauen die zu den grossen kompatibel ist.

ok das sehen ich ein.
aber ist es bei DX9 net so das M$ "bewusst" sachen abgelehnt hat die trotzdem für die "anderen" gegangen wären auch wenn sie speziell für NV waren? Und wieso wird eine beta einfach mal schnell zur Gold erklärt? und wieso werden die Compiler an den M$ und NV ja gebaut haben, net mit reingenommen, ebenso wie der 2.0A Pfad. Alles in allen würde ich als SW Entwickler es mir wohl auch leicht machen und nach den DX9 richtlinien basteln. Und das passiert ja auch in zukunft. Hätte da M$ net etwas "kulanter" sein können. Ist denn nicht PS1.4 später auch mit reingenommen wurden? Was ja auch ne extrawurst für Ati wäre oder liege ich da falsch?

Demirug
2003-09-18, 18:38:53
Original geschrieben von Al-CAlifAX
ok das sehen ich ein.
aber ist es bei DX9 net so das M$ "bewusst" sachen abgelehnt hat die trotzdem für die "anderen" gegangen wären auch wenn sie speziell für NV waren?

Es ist schwer zu sagen warum in einzelnen Fällen von MS in einer bestimmten Form entschieden wurde. Letzten Endes ist DX immer ein Kompromiss. Auch ATI musste an einigen Stellen sicherlich nachgeben.

Und wieso wird eine beta einfach mal schnell zur Gold erklärt?

Es war keine Beta sondern ein RC. Das überraschende war nur die Geschwindigkeit mit der das ganze passiert ist.

und wieso werden die Compiler an den M$ und NV ja gebaut haben, net mit reingenommen, ebenso wie der 2.0A Pfad.

Das 2.A Profile war einfach noch nicht fertig daran hat MS ja bis vor kurzen noch gearbeitet.

Alles in allen würde ich als SW Entwickler es mir wohl auch leicht machen und nach den DX9 richtlinien basteln.

Wenn ich mit DX arbeite muss ich mich an die Richtlinen halten. Da stebt aber nichts zum Thema schaderperformance drin. Aufgrund er Richtlinien könnte ich für jeden Pixel 96 Instruktionen pro Pass benutzten was aber jede Karte in die Knie zwingen würde.

Und das passiert ja auch in zukunft. Hätte da M$ net etwas "kulanter" sein können. Ist denn nicht PS1.4 später auch mit reingenommen wurden? Was ja auch ne extrawurst für Ati wäre oder liege ich da falsch?

nVidia hat ja mit den 1.1 Shadern auch schon eine extrawurst bekommen. MS hätte auch sagen können PS 1.0 für alle und mehr gibt es nicht.

LovesuckZ
2003-09-18, 18:41:03
Original geschrieben von Demirug
Das 2.A Profile war einfach noch nicht fertig daran hat MS ja bis vor kurzen noch gearbeitet.


Kommt also bald ein update für die jezige Version?

Demirug
2003-09-18, 19:10:30
Original geschrieben von LovesuckZ
Kommt also bald ein update für die jezige Version?

Wir sind bei RC0. Mehr weiss noch nicht einaml MS.

Al-CAlifAX
2003-09-18, 19:12:51
Original geschrieben von Demirug
Es ist schwer zu sagen warum in einzelnen Fällen von MS in einer bestimmten Form entschieden wurde. Letzten Endes ist DX immer ein Kompromiss. Auch ATI musste an einigen Stellen sicherlich nachgeben.



Es war keine Beta sondern ein RC. Das überraschende war nur die Geschwindigkeit mit der das ganze passiert ist.



Das 2.A Profile war einfach noch nicht fertig daran hat MS ja bis vor kurzen noch gearbeitet.



Wenn ich mit DX arbeite muss ich mich an die Richtlinen halten. Da stebt aber nichts zum Thema schaderperformance drin. Aufgrund er Richtlinien könnte ich für jeden Pixel 96 Instruktionen pro Pass benutzten was aber jede Karte in die Knie zwingen würde.



nVidia hat ja mit den 1.1 Shadern auch schon eine extrawurst bekommen. MS hätte auch sagen können PS 1.0 für alle und mehr gibt es nicht.

k jetzt amchste mir wieder hoffnung,
Frage an dich:

Würde des 2.0A shaderprofil + Cg drinne sein, wäre es dann einfacher für den Entwickler anzupassen auf NV?

Vorraussgesetzt der Treiber arbeitet danna uch gut mit dem Profil, weild u ja mals sagtest 2.0A + Deto 4x.XX = Papierkorb ;)

Demirug
2003-09-18, 19:45:22
Original geschrieben von Al-CAlifAX
k jetzt amchste mir wieder hoffnung,
Frage an dich:

Würde des 2.0A shaderprofil + Cg drinne sein, wäre es dann einfacher für den Entwickler anzupassen auf NV?

Vorraussgesetzt der Treiber arbeitet danna uch gut mit dem Profil, weild u ja mals sagtest 2.0A + Deto 4x.XX = Papierkorb ;)

Cg und das 2.A Profil sind zwei verschiedene baustellen. Cg kommt ja direkt von nVidia und kann jederzeit eingesetzt werden. Allerdings erzeugt es Shadercode der für ATI nicht sehr optimal ist und sumit wäre die ausschliessliche Verwendung von nur Cg auch nicht gerade fair. Das neue Profil im MS Compiler ist dagegen eine Zusatzoption und das alte Profil exsitiert nach wie vor (wurde sogar noch weiter verbessert).

Zur Nutzung des neuen Profils sind nur ein paar Zeilen Code notwendig. Der Gewinn durch diese Massnahme aleine ist allerdings sehr unterschiedliche und kann durchaus auch mal bei 0 liegen (ermittelt mit 4X.XX Treibern). Aus diesem Grund empfielt nVidia noch ein paar weitere Optimierungen am HLSL die auf den ersten Blick durchaus sinn machen und in der Regel keine Benachteiligung andere IHVs darstellen sollten (Im Zweifelsfall kann man ja mit bedingter Compilierung für einzelne Codeabschnitten arbeiten).

Al-CAlifAX
2003-09-18, 20:01:39
Original geschrieben von Demirug
Cg und das 2.A Profil sind zwei verschiedene baustellen. Cg kommt ja direkt von nVidia und kann jederzeit eingesetzt werden. Allerdings erzeugt es Shadercode der für ATI nicht sehr optimal ist und sumit wäre die ausschliessliche Verwendung von nur Cg auch nicht gerade fair. Das neue Profil im MS Compiler ist dagegen eine Zusatzoption und das alte Profil exsitiert nach wie vor (wurde sogar noch weiter verbessert).

Zur Nutzung des neuen Profils sind nur ein paar Zeilen Code notwendig. Der Gewinn durch diese Massnahme aleine ist allerdings sehr unterschiedliche und kann durchaus auch mal bei 0 liegen (ermittelt mit 4X.XX Treibern). Aus diesem Grund empfielt nVidia noch ein paar weitere Optimierungen am HLSL die auf den ersten Blick durchaus sinn machen und in der Regel keine Benachteiligung andere IHVs darstellen sollten (Im Zweifelsfall kann man ja mit bedingter Compilierung für einzelne Codeabschnitten arbeiten).

Aber man könnte ja Cg ins Menü einbauen. Im spiel ist denn ne Anleitung das des nur zur benutzung von NV karten wäre und somit auf ATi karten eher nachteile bringen würde. Wäre das net k?

Aber schön zu hören das NV mit M$ reedet und dran arbeitet, is imho besser wie rumbocken oder ihr eigenes ding zu machen. Speile sollen auf den system relativ gleich laufen sag ich mal und nur max. 20% unterschiede aufweisen. das wäre fair ;)

Demirug
2003-09-18, 20:23:36
Original geschrieben von Al-CAlifAX
Aber man könnte ja Cg ins Menü einbauen. Im spiel ist denn ne Anleitung das des nur zur benutzung von NV karten wäre und somit auf ATi karten eher nachteile bringen würde. Wäre das net k?

Ja, ist aber eben etwas mehraufwand (ich habe zwei Tage gebraucht).

Aber schön zu hören das NV mit M$ reedet und dran arbeitet, is imho besser wie rumbocken oder ihr eigenes ding zu machen. Speile sollen auf den system relativ gleich laufen sag ich mal und nur max. 20% unterschiede aufweisen. das wäre fair ;)

Fair? Fairness gibt es nicht. Man sollte eben aus jedem System rausholen was geht und wenn dann eben einer klar vorne liegt ist es OK.

Al-CAlifAX
2003-09-18, 20:33:37
Original geschrieben von Demirug
Ja, ist aber eben etwas mehraufwand (ich habe zwei Tage gebraucht).



Fair? Fairness gibt es nicht. Man sollte eben aus jedem System rausholen was geht und wenn dann eben einer klar vorne liegt ist es OK.

Naja 2 tage geht ja noch ;)
Das jemand vorne liegt is auch K. wenn es aber ne möglichkeit gibt ne HW durch ein paar umstellungen etas anzuheben, wie mixed mode bei HL² sollte man des scho amchen. zumindest derzeit wo der marktanteil von NV größer ist ;) Nächstes Jahr wird dann wohl NV keine Extrawurst mehr haben, also Treiber enwtwickeln oder Entwicklerstudios bezahlen :P

Danke dir, warst sehr auskunftsfreudig. (sowas sehe ich net als selbstverständlich an). So bin meinen Burtzeltag feiern :)

Jungfrau halt hihi teu teu teu (mit 99 immernoch)

betasilie
2003-09-18, 22:18:56
Original geschrieben von Al-CAlifAX
zumindest derzeit wo der marktanteil von NV größer ist ;)
Bei echten DX9-Karten? :eyes: ... :rofl:

Al-CAlifAX
2003-09-18, 22:38:10
Original geschrieben von betareverse
Bei echten DX9-Karten? :eyes: ... :rofl:

ne allgemein gesehen. das wäre ja noch schöner wenn ein entwickler nur nach DX9 selber geht. aber man könnte auch so nen marktführer stürzen. wobei ich wette das ATi dann seher viel teurer wird und das gejammer wieder von vorne losgeht. ;)

betasilie
2003-09-18, 22:41:27
Original geschrieben von Al-CAlifAX
ne allgemein gesehen. das wäre ja noch schöner wenn ein entwickler nur nach DX9 selber geht. aber man könnte auch so nen marktführer stürzen. wobei ich wette das ATi dann seher viel teurer wird und das gejammer wieder von vorne losgeht. ;)
Es geht doch bei HL2 um die DX9-Performance. ;) Und da hat ATI einfach mehr Karten abgesetzt.

Im DX8-Mode sehen die NV-Karten doch garnicht soo schlecht aus und von daher bedient Valve die Kunden mit NV-Karten doch ganz gut.

Al-CAlifAX
2003-09-18, 22:49:45
Original geschrieben von betareverse
Es geht doch bei HL2 um die DX9-Performance. ;) Und da hat ATI einfach mehr Karten abgesetzt.

Im DX8-Mode sehen die NV-Karten doch garnicht soo schlecht aus und von daher bedient Valve die Kunden mit NV-Karten doch ganz gut.

war des jetzt sarkasums?

überlege mal wenn auf Entwickler die highend FXer auf DX8 laufen lassen würden? was würde wohl passieren? denkste einen benchmarkheini oder meiner schafft mehr frames wie deiner idioten interessiert des? die wechseln das lager. was im ersten moment ja ganz gut für den markt ist. auf der anderen seit isses aber nunmal auch so das nicht zwingend die ATs besser sind, sondern nur im DX9 standard schlecht sind. aber auch das wird leider keinen interessieren. Deswegen ist die frage was die entwickler machen werden. ich denke ja immernoch das es auch titel geben wird wo NV sich beweisen kann, da sie da reinbuttern werden. Aber auf die massen hingesehen. naja wir werden sehen. Die entwicler haben derzeit die macht. sie entscheiden was ihnen recht ist. NV kann nur hoffen oder ne lösung finden ;) Aber ich denke für dieses jahr und bis ins halbjahr 2004 bleiben die titel eher auf einem geringerem level für DX9. und schauen wir mal wieviel anklang die Doom³-engine finden für kommende spiele. ;)

betasilie
2003-09-18, 23:05:06
Original geschrieben von Al-CAlifAX
war des jetzt sarkasums?

überlege mal wenn auf Entwickler die highend FXer auf DX8 laufen lassen würden? was würde wohl passieren? denkste einen benchmarkheini oder meiner schafft mehr frames wie deiner idioten interessiert des? die wechseln das lager. was im ersten moment ja ganz gut für den markt ist. auf der anderen seit isses aber nunmal auch so das nicht zwingend die ATs besser sind, sondern nur im DX9 standard schlecht sind. aber auch das wird leider keinen interessieren. Deswegen ist die frage was die entwickler machen werden. ich denke ja immernoch das es auch titel geben wird wo NV sich beweisen kann, da sie da reinbuttern werden. Aber auf die massen hingesehen. naja wir werden sehen. Die entwicler haben derzeit die macht. sie entscheiden was ihnen recht ist. NV kann nur hoffen oder ne lösung finden ;) Aber ich denke für dieses jahr und bis ins halbjahr 2004 bleiben die titel eher auf einem geringerem level für DX9. und schauen wir mal wieviel anklang die Doom³-engine finden für kommende spiele. ;)
Sieh doch ein, dass NV einfach keine Chance haben wird bei DX9-Games mit ihren FX-Karten. Selbst wenn sie einen Developer finanziell und technologisch exorbitant unterstützen, wird vielleicht gerade ein unentschieden rauskommen, wenn ATI-Karten nicht extra langsam gemacht werden.

NV wird hoffentlich mit dem NV40 viele Fehler beheben und dann werden NV-Karten auch unter DX9 gut performen, ohne dass Entwickler Zeit und Geld ausgeben müssen, damit NV-Karten einigermaßen performen mit DX9-Games.

Valve macht es genau richtig kein Geld für eine richtige Optimierung für NV3x-Karten auszugeben, da es sich um eine tote Chiptechnolgie handelt. HL2 läuft im DX8-Mode auf NV-Karten gut und das sollte den FX-Käufern reichen. Wenn es dann sogar noch einen Mixedmode gibt; gut. Wenn nicht, sollte man sich bei NV beschweren und nicht bei Valve. Wenn es dich stört, dass der DX8-Mode für NVs DX9-Karten keine gute Werbung ist, tut es mit leid, aber gute Werbung macht man mit guten Produkten und da mangelt es dieses jahr bei NV.

PS
Lese nochmal dein Posting. Da stimmt einiges nicht. ;)

Al-CAlifAX
2003-09-18, 23:17:10
hatte ich behauptet das FX schneller in DX9 ist?. Nö nich und nimmer, sonst hätte ich demirug net so gelöchert *ggg* ich habe Doom³ gesagt und imho ist des kein DX9 game :P

betasilie
2003-09-18, 23:22:50
Original geschrieben von Al-CAlifAX
hatte ich behauptet das FX schneller in DX9 ist?. Nö nich und nimmer, sonst hätte ich demirug net so gelöchert *ggg* ich habe Doom³ gesagt und imho ist des kein DX9 game :P
??? Worauf willst Du jetzt hinaus?

Al-CAlifAX
2003-09-18, 23:40:00
Original geschrieben von betareverse
??? Worauf willst Du jetzt hinaus?

ok langsam.

wie du weisst ist Doom³ eine eigene Engine. So und was püassierte bisher mit JC`s Engines? richtig sie wurden für andere Spiele Linzenziert. Ergo kann sich da nen neuer Pfad für NV aufmachen. muss aber nicht. Das wars was ich sagen wollte wegen Doom³.

im bezug auf DX9 wollte ich eigentlich sagen, das sie specifikationen auch anderes ausgehen hätten können. nur sindse halt anders. deswegen is die FX net schlecht. sie hat halt pech. aber am ende entscheiden auch entwickler mit. da der marktanteil von NV "noch" groß ist, werden wohl in diesem jahr die spielen noch "angepasst" wie auch HL² mit dem mixed mode. und ich denke sogar bis zum NV40. wobei es immer mal ein game geben wird (wie halo) wo man net viel dranrum bastelt und dann mies läuft. oder andere games mit DX9 die net die zeit/geld haben werden für ne NV anpassung. und das meinte ich dem käufer isses egal. der kauft was für die spiele die draussen sind gut performt. und das werden wohl bis zum NV40 die Ati Karten bleiben im bereich DX9. egal ob man mit optimierung auf 10-20% rankimmt (was mir egal wäre, solange es spielbar bleibt) oder nicht. ich rede schon wieder zuviel. wo waren wir eigentlich? FX = Fehlgeburt? Hmm eher FX = Pech mit M$. Hätte wie gesagt auch anders ausgehen können. isses aber nu nicht. also basta. man sollte deswegen aber keine HW schlecht machen wenn man die hintergründe net kennt oder versteht. ;) so schluss. :P

PS.: rechtschreibfehler darfste einrahmen *ggg*

betasilie
2003-09-19, 00:03:23
Original geschrieben von Al-CAlifAX
ok langsam.

wie du weisst ist Doom³ eine eigene Engine. So und was püassierte bisher mit JC`s Engines? richtig sie wurden für andere Spiele Linzenziert. Ergo kann sich da nen neuer Pfad für NV aufmachen. muss aber nicht. Das wars was ich sagen wollte wegen Doom³.

im bezug auf DX9 wollte ich eigentlich sagen, das sie specifikationen auch anderes ausgehen hätten können. nur sindse halt anders. deswegen is die FX net schlecht. sie hat halt pech. aber am ende entscheiden auch entwickler mit. da der marktanteil von NV "noch" groß ist, werden wohl in diesem jahr die spielen noch "angepasst" wie auch HL² mit dem mixed mode. und ich denke sogar bis zum NV40. wobei es immer mal ein game geben wird (wie halo) wo man net viel dranrum bastelt und dann mies läuft. oder andere games mit DX9 die net die zeit/geld haben werden für ne NV anpassung. und das meinte ich dem käufer isses egal. der kauft was für die spiele die draussen sind gut performt. und das werden wohl bis zum NV40 die Ati Karten bleiben im bereich DX9. egal ob man mit optimierung auf 10-20% rankimmt (was mir egal wäre, solange es spielbar bleibt) oder nicht. ich rede schon wieder zuviel. wo waren wir eigentlich? FX = Fehlgeburt? Hmm eher FX = Pech mit M$. Hätte wie gesagt auch anders ausgehen können. isses aber nu nicht. also basta. man sollte deswegen aber keine HW schlecht machen wenn man die hintergründe net kennt oder versteht. ;) so schluss. :P

PS.: rechtschreibfehler darfste einrahmen *ggg*
Da habe ich ja genug zum einrahmen. :eyes: Außerdem kann ich deinem Wirrwarr größtenteils nicht folgen. Sorry.

zeckensack
2003-09-19, 04:12:57
Original geschrieben von seahawk
Das bedeute doch nicht, dass für die ATI keine DX 8 Shader nutzt.Es gibt auf ATI-HW keinen Grund, Shaderversionenen <2.0 zu nutzen. Die Performance ist gleich, die Genauigkeit ist gleich, und es ist viel einfacher, den gesamten Shadercode in einer einzigen Sprache zu haben.

zeckensack
2003-09-19, 04:15:23
Original geschrieben von Demirug
Cg und das 2.A Profil sind zwei verschiedene baustellen. Cg kommt ja direkt von nVidia und kann jederzeit eingesetzt werden. Allerdings erzeugt es Shadercode der für ATI nicht sehr optimal ist und sumit wäre die ausschliessliche Verwendung von nur Cg auch nicht gerade fair.Der Cg-Compiler ist einfach nur Rotz.
Ich will keinesfalls gutheißen, daß ATI's OpenGL-Treiber den Code nicht fressen (weil er semantisch iO ist), aber schau dir das mal an:
http://www.opengl.org/discussion_boards/ubb/Forum2/HTML/014012.html

seahawk
2003-09-19, 07:37:16
Original geschrieben von zeckensack
Es gibt auf ATI-HW keinen Grund, Shaderversionenen <2.0 zu nutzen. Die Performance ist gleich, die Genauigkeit ist gleich, und es ist viel einfacher, den gesamten Shadercode in einer einzigen Sprache zu haben.

Sagt aber nicht, dass sie es nicht tun.

Demirug
2003-09-19, 07:45:52
Original geschrieben von zeckensack
Der Cg-Compiler ist einfach nur Rotz.
Ich will keinesfalls gutheißen, daß ATI's OpenGL-Treiber den Code nicht fressen (weil er semantisch iO ist), aber schau dir das mal an:
http://www.opengl.org/discussion_boards/ubb/Forum2/HTML/014012.html

Ja bei den Pixelshadern >= 2.0 ist er nicht wirklich gut. Zu den OpenGL Profilen kann ich nicht viel sagen weil ich die bisher nicht benutzt habe. Allerdings ist dieses swizzles Problem schon mal aufgetaucht und wurde AFAIR mit der neuen Version beseitigt.

Ich bin mir jetzt nicht mehr ganz sicher wie das mit den Expandieren der swizzles auf dem R300 war aber AFAIR wurde damit der Instructioncount stark in die höhe getrieben was also in diesem Beispiel wirklich dazu führen könnte das der Shader nicht in den Programmspeicher passt.

Das Problem ist aber das es derzeit AFAIK keine Alternative zu Cg in diesem Anwendungsfall gibt.

Demirug
2003-09-19, 07:55:39
Original geschrieben von zeckensack
Es gibt auf ATI-HW keinen Grund, Shaderversionenen <2.0 zu nutzen. Die Performance ist gleich, die Genauigkeit ist gleich, und es ist viel einfacher, den gesamten Shadercode in einer einzigen Sprache zu haben.

Du wiedersprichst ATI und in gewisser weise dir selbst. :D

Selbst ATI gibt an das unter bestimmten nicht näher ausgeführten Umständen PS 1.X Code schneller sein kann als PS 2.0 Code.

Und wie war das mit immer den niedrigesten Techlevel der reicht benutzen? ;)

Allerdings ist das Performanceprofil von ATI für meinen speziellen Anwendungsfall einfacher zu handeln weil ich mir bei nv jetzt noch was einfallen lassen muss wie ich beim compilieren das richtige Profil wähle. Allerdings habe ich schon gesehen das der Shadercompiler in der Lage ist einen 2.0 Shader automatisch auf 1.1 herunterzuziehen wenn er bestimmte Kriterien erfüllt nur kenne ich diese nicht genau genug um es auszunutzen.

zeckensack
2003-09-19, 08:16:34
Original geschrieben von Demirug
Du wiedersprichst ATI und in gewisser weise dir selbst. :D

Selbst ATI gibt an das unter bestimmten nicht näher ausgeführten Umständen PS 1.X Code schneller sein kann als PS 2.0 Code.

Und wie war das mit immer den niedrigesten Techlevel der reicht benutzen? ;)Jaha. Aaaaber :)
Wir haben mittlerweile gesehen, daß NV3x mit PS1.4 besser fahren als mit PS2.0 (hatte ich auch schon prophezeit). Hier ist es also sehr sinnvoll, und primär in NV's Interesse, die kleinstmögliche Version zu fahren.

Für Programmierer ist es dennoch leichter, 'reine' Versionsprofile zu nutzen. Und auf ATI-Hardware kann man sich das sehr gut leisten. Wenn man also nur ein paar Shader hat, die 2.0 erfordern, das aber nicht vorher aussortieren will => kein Problem. Einfach alles auf 2.0 kompilieren. Es ist keine gute generelle Optimierung, weil evtl S3- und XGI-Hardware ähnliche Probleme haben könnte wie NV3x (wobei mindestens eine dieser beiden Parteien bereits öffentlich Entwarnung gegeben hat).

Sicher ist momentan nur, daß man diese gemischten Pfade momentan einzig für NV3x braucht, und das kann man auch anders lösen: nur 1.x-Pixel Shader benutzen. Dann ist das Problem auch aus der Welt, und man kriegt vernünftige Performance ohne Kopfschmerzen. Den Pfad muß man sowieso für die NV2x/R200-Generation einbauen.

Jetzt exklusiv für NV3x noch den ganzen Wasserkopf für die gemischten Pfade zu proggen, das lohnt einfach nicht. Wenn keine andere Hardware von dieser (zweifelsohne zulässigen und technisch guten) Optimierung profitiert, dann kann ich mir den Aufwand auch schenken. Gewinn=egal. Ich schreibe schließlich auch keine handoptimierte sprintf-Version, nur um Debug-Logs schneller raushauen zu können. Das ist Zeitverschwendung. Genau genommen ist der Gewinn sogar weniger als nichts, weil die Performance ja auch noch (teils drastisch) sinkt.

Wenn NV Zeit dafür aufwenden will, daß auf NV3x 2.0er Shader laufen, sollen sie das tun. Aber bitte diesen Unsinn nicht von anderen verlangen :)


edit: Auf vielfachen Wunsch einen falschen Herstellernamen ausgebessert ;)

zeckensack
2003-09-19, 08:21:07
Noch eins:
Original geschrieben von Demirug
Allerdings ist das Performanceprofil von ATI für meinen speziellen Anwendungsfall einfacher zu handeln weil ich mir bei nv jetzt noch was einfallen lassen muss wie ich beim compilieren das richtige Profil wähle. Allerdings habe ich schon gesehen das der Shadercompiler in der Lage ist einen 2.0 Shader automatisch auf 1.1 herunterzuziehen wenn er bestimmte Kriterien erfüllt nur kenne ich diese nicht genau genug um es auszunutzen. Bei dynamisch erzeugten Shadern (womit ich mich primär rumschlage) ist's nicht gerade praktikabel, auch noch die minimale Shaderversion auszurechnen.

Applikationen, die den berühmten einen Wassershader haben, und ansonsten fixed function sind, kann man relativ schmerzfrei umrüsten, weil man ja vorher schon den Shadercode kennt.

Wenn erst zur Laufzeit uU hunderte verschiedene Shader erzeugt werden, dann kann man das vergessen. Kann es sein, daß du von so etwas sprichst? :naughty:

Demirug
2003-09-19, 08:41:58
Original geschrieben von zeckensack
Jaha :)
Aaaaber :)
Wir haben mittlerweile gesehen, daß NV3x mit PS1.4 besser fahren als mit PS2.0 (hatte ich auch schon prophezeit). Hier ist es also sehr sinnvoll, und primär in NV's Interesse, die kleinstmögliche Version zu fahren.

ACK

Für Programmierer ist es dennoch leichter, 'reine' Versionsprofile zu nutzen. Und auf ATI-Hardware kann man sich das sehr gut leisten. Wenn man also nur ein paar Shader hat, die 2.0 erfordern, das aber nicht vorher aussortieren will => kein Problem. Einfach alles auf 2.0 kompilieren. Es ist keine gute generelle Optimierung, weil evtl SiS- und XGI-Hardware ähnliche Probleme haben könnte wie NV3x (wobei mindestens eine dieser beiden Parteien bereits öffentlich Entwarnung gegeben hat).

Meinst du S3 und XGI? Weil SiS und XGI ja eigentlich der Laden ist. Bei XGI sieht es nicht unbedingt nach den nv-Problem aus sondern eher nach einer genrel nicht so guten Shaderperformace.

Sicher ist momentan nur, daß man diese gemischten Pfade momentan einzig für NV3x braucht, und das kann man auch anders lösen: nur 1.x-Pixel Shader benutzen. Dann ist das Problem auch aus der Welt, und man kriegt vernünftige Performance ohne Kopfschmerzen. Den Pfad muß man sowieso für die NV2x/R200-Generation einbauen.

Im Prinzip ACK nur gibt es da leider ein kleines Problem Testtechnischer natur. Wenn der Tester dein Spiel zuerst mit nv-Hardware anspielt fehlen die Effekte und man hat den ersten eidruck schon versaut.

Jetzt exklusiv für NV3x noch den ganzen Wasserkopf für die gemischten Pfade zu proggen, das lohnt einfach nicht. Wenn keine andere Hardware von dieser (zweifelsohne zulässigen und technisch guten) Optimierung profitiert, dann kann ich mir den Aufwand auch schenken. Gewinn=egal. Ich schreibe schließlich auch keine handoptimierte sprintf-Version, nur um Debug-Logs schneller raushauen zu können. Das ist Zeitverschwendung. Genau genommen ist der Gewinn sogar weniger als nichts, weil die Performance ja auch noch (teils drastisch) sinkt.

Den Wasserkopf sehe ich jetzt eigentlich nicht. Der Aufwand hält sich in Grenzen solange man nicht anfängt Shader komplett umzuschreiben.

Wenn NV Zeit dafür aufwenden will, daß auf NV3x 2.0er Shader laufen, sollen sie das tun. Aber bitte diesen Unsinn nicht von anderen verlangen :)

Tun sie ja schon.

Demirug
2003-09-19, 08:48:51
Original geschrieben von zeckensack
Noch eins:
Bei dynamisch erzeugten Shadern (womit ich mich primär rumschlage) ist's nicht gerade praktikabel, auch noch die minimale Shaderversion auszurechnen.

Applikationen, die den berühmten einen Wassershader haben, und ansonsten fixed function sind, kann man relativ schmerzfrei umrüsten, weil man ja vorher schon den Shadercode kennt.

Wenn erst zur Laufzeit uU hunderte verschiedene Shader erzeugt werden, dann kann man das vergessen. Kann es sein, daß du von so etwas sprichst? :naughty:

Ja genau von sowas rede ich. Wobei die Anzahl der Shader im Prinzip gegen unendlich laufen kann weil die Kombinationsmöglichkeiten eigentlich unendlich sind. Ich erzeuge aber nicht nur Shadercode sondern auch noch eine Reihe Renderstages und CPU Code. Allerdings habe ich nach wie vor die Option für einzelne Fälle bereits im Vorfeld fertig erstellte Effektklassen zu benutzten und diese nicht erst zur Laufzeit dynamisch zu erzeugen.

Gast
2003-09-19, 09:10:22
kurze zwischenfrage an demirug
da du ja auch an einer dirctx9 engine werkelst, könntest du uns doch mal sagen ob du auch auf diesen perfomance probelme des nv30 unter ps2.0 gestoßen bist.

HAb dazu von dir auf "deine" engine bezogen noch keine antwort erhaschen können :)

Demirug
2003-09-19, 09:46:33
Original geschrieben von Gast
kurze zwischenfrage an demirug
da du ja auch an einer dirctx9 engine werkelst, könntest du uns doch mal sagen ob du auch auf diesen perfomance probelme des nv30 unter ps2.0 gestoßen bist.

HAb dazu von dir auf "deine" engine bezogen noch keine antwort erhaschen können :)

In dem Teil hängt derzeit noch soviel Diagnosecode drin das ich absolute CPU-limiertiert bin. Das zweite Problem ist das der Enginecore keinerlei feste Effekte hat. Alle Effekte werden dynamisch aus einer Konfiguration durch die Effectfactory erzeugt. Aus diesem Grund habe ich da derzeit einfach keine repräsentativen Daten. Zudem ist unser Effektgenerator teilweise noch etwas dämlich was die Shadererzeugung angeht. Da landen einzelne Berechungen nicht immer dort wo sie hingehören und im Zweifelsfall sammelt sich eben alles im PS (um diese Sachen zu beheben brauchen wir den Diagnosecode). Im Prinzip gilt aber auch bei uns das gleiche wie bei allen anderen auch. Wir können nur das rausholen was uns API+Chip+Treiber zur Verfügung stellen. Auf die Optimierungvorschlage von nv bin ich soweit es in meiner Macht liegt weitgehend eingegangen indem die Effektneutralen Dinge in den Core bereits eingebaut oder vorgesehen sind. Vorschläge die sich auf einzelne Effekte beziehen können nur die Personen umsetzten welche diese Effekte schreiben. Ich plane auch hier noch ein paar Hielfestellungen aber die müssen dann entsprechend genutzt werden. Eine dieser zusätzlichen Sachen bezieht sich auf den Wunsch von nV Berechnungen durch Lookuptabellen (Texturen) zu ersetzten. Ich werde wohl in unser Shadersystem eine Option einbauen welche aus einer mathematischen Funktion eine solche Tabelle erzeugen kann und dann beim erzeugen des Effekts beim aufruf der Funktion nicht die Formel einsetzt sondern ein auslesen der Tabelle anstösst. Natürlich kann der Generator dann auch so eingestellt werden das er weiterhin die Funktion direkt ausführt und keine Tabelle erzeugt. So wird der Aufwand für die Effektdesigner weitgehend minimiert weil sie eigentlich nur noch die entsprechenden Funktionen (Funktionblöcke im "Ich kann aber nicht programmieren Effekt Studio") welche durch eine Texture ersetzt werden dürfen entsprechend makieren müssen. Ein Problem das wir noch lösen müssen ist eben das besagte automatische ermitteln der minimal benötigten Shaderversion. Die Bruteforcelösung gefällt mir persönlich aber nicht sonderlich deswegen suche ich da gerade einen besseren Ansatz.

Schon wieder einen Roman geschrieben und deine Frage denoch nicht beantwortet was mir leid tut.

Al-CAlifAX
2003-09-19, 10:11:34
löl aber trotzdem schön zu lesen. Darf man frage für welchen entwickler du die engine baust? weil ich kenne in deutschland eigntlich net viele die sowas machen ausser Crytec oder die Krass-Engine. Und wie hiessen die mit dem Comicstyle und den komischen käfern? die aber nur pleite sein sollen ;)

Demirug
2003-09-19, 10:21:58
Original geschrieben von Al-CAlifAX
löl aber trotzdem schön zu lesen. Darf man frage für welchen entwickler du die engine baust? weil ich kenne in deutschland eigntlich net viele die sowas machen ausser Crytec oder die Krass-Engine. Und wie hiessen die mit dem Comicstyle und den komischen käfern? die aber nur pleite sein sollen ;)

Fragen darfst du alles nur bei dieser Frage bekommst du wie alle anderen auch hier keine Antwort. Ich ziehe es derzeit vor Anonym zu bleiben.

PS: es gibt in Deutschland schon noch ein paar mehr Entwickler als nur Crytek und Massive.

Al-CAlifAX
2003-09-19, 10:24:34
Original geschrieben von Demirug
Fragen darfst du alles nur bei dieser Frage bekommst du wie alle anderen auch hier keine Antwort. Ich ziehe es derzeit vor Anonym zu bleiben.

PS: es gibt in Deutschland schon noch ein paar mehr Entwickler als nur Crytek und Massive.

Das ist i.o. und respektiere ich. Darf man aber fragen was für ein genre die Engine besetzt? Jetzt weniger ob Ation oder Strategie sondern allgemein. first Person, 3th Person usw ;)

Demirug
2003-09-19, 10:33:01
Original geschrieben von Al-CAlifAX
Das ist i.o. und respektiere ich. Darf man aber fragen was für ein genre die Engine besetzt? Jetzt weniger ob Ation oder Strategie sondern allgemein. first Person, 3th Person usw ;)

Die Grafikengine macht was man ihr sagt. Das Genre oder die Sichten sind da frei und variable. Mit der richtigen Effektbibliothek hat man eben den UT2K3-Style mit einer anderen den D3 Style und mit einer neuen wieder ganz was anderes.

Winter[Raven]
2003-09-19, 10:37:18
Ich hasse es wenn Programmierer anfangen in ihrer "ich kann nix sagen, aber ich schreibe ein roman, damit ich ablenken kann", zureden*gg*

Also, von den Deutschen Dev's wäre da:

- SEG
- YAGER
- Crytek
- Massive
- Die firma die da Spellforce macht
- Pirania Bites
- Radon Labs

Hab ich noch was vergessen ?

Al-CAlifAX
2003-09-19, 10:46:08
Original geschrieben von Demirug
Die Grafikengine macht was man ihr sagt. Das Genre oder die Sichten sind da frei und variable. Mit der richtigen Effektbibliothek hat man eben den UT2K3-Style mit einer anderen den D3 Style und mit einer neuen wieder ganz was anderes.

Hmm also wirds eher ich Richtung 3D Shooter gehen. Schade. Obwohl DesuEX und Thief waren einmalig. Könnte an ja damit danna uch basteln. Aber meine Tendenz geht eher in Richtung Echtzeit strategie wie homeworld oder C&C oder WCIII. Wobei ich sagen muss das games wie HL1, RTCW*indiziert* oder MoHAA scho geil waren. bei den 2 letzteren liegts aber wohl am meisten am Thema. Sonst meide ich eigentlich 3D Shooter, weil die mich nach 2h anfangen zu langweilen ;)

Aber wie sagten die Engine Bastler von Crytek, man könne mit ihrer Engine mehr amchen als nur EgoShooter. Sie sei flexiblen. Ich wünsche deiner/eurer Engine dasselbe und viel Glück. Und muss sagen finde es schön das ihr euch die zeit nehmt für NV-optimierungen auch wenn sie scheinbar net so laufen wie ihrs es wollt. ;)


Original geschrieben von Winter[Raven]
Ich hasse es wenn Programmierer anfangen in ihrer "ich kann nix sagen, aber ich schreibe ein roman, damit ich ablenken kann", zureden*gg*

Also, von den Deutschen Dev's wäre da:

- SEG
- YAGER
- Crytek
- Massive
- Die firma die da Spellforce macht
- Pirania Bites
- Radon Labs

Hab ich noch was vergessen ?

Genau Yager war doch des spiel mit den Käfern und dem Comicstyle ;) und basierte glaube ich auf der Unreal Engine.

PS.: wenn jemand anonym bleiben will, sollte man dieses repektieren ;)

StefanV
2003-09-19, 10:49:05
Original geschrieben von zeckensack
Es ist keine gute generelle Optimierung, weil evtl SiS- und XGI-Hardware ähnliche Probleme haben könnte wie NV3x (wobei mindestens eine dieser beiden Parteien bereits öffentlich Entwarnung gegeben hat).

?-)

Öhm, meintest du nicht eher S3/VIA- und XGI-Hardware?? ;)

Winter[Raven]
2003-09-19, 10:50:28
Genau Yager war doch des spiel mit den Käfern und dem Comicstyle und basierte glaube ich auf der Unreal Engine

Ahhh ... Quarck ... Yager ist diese Flugsimulation mit wirklich sehr netten Grafik, aber bis jetzt sehr mießen Steuerung.

Zum thema Anonym ... war doch nur ein Scherz von mir *gg* ... ich kenne das aber von James, Rick oder von Adam @ Raven Software ... alle Programmierer reden in der Sprache ... *gg*

Al-CAlifAX
2003-09-19, 10:57:08
Original geschrieben von Winter[Raven]
Ahhh ... Quarck ... Yager ist diese Flugsimulation mit wirklich sehr netten Grafik, aber bis jetzt sehr mießen Steuerung.

Zum thema Anonym ... war doch nur ein Scherz von mir *gg* ... ich kenne das aber von James, Rick oder von Adam @ Raven Software ... alle Programmierer reden in der Sprache ... *gg*

Stimmt Yager das game von der Konsole.

Hmm wie hiess dann das Game mit dem Comicstyle und den Käfern. Ego Shooter. Ich komme net mehr drauf :(

Demirug
2003-09-19, 11:01:33
Original geschrieben von Winter[Raven]
Ich hasse es wenn Programmierer anfangen in ihrer "ich kann nix sagen, aber ich schreibe ein roman, damit ich ablenken kann", zureden*gg*

Also, von den Deutschen Dev's wäre da:

- SEG
- YAGER
- Crytek
- Massive
- Die firma die da Spellforce macht
- Pirania Bites
- Radon Labs

Hab ich noch was vergessen ?

Für irgendwas müssen die Aufenthalte bei den Marketingleuten ja gut sein :D

Spellforce ist von Phenomic und es gibt noch einige mehr wobei eben es da auch welche gibt die sich zum Beispiel auf GBA oder Handyspiele spezialisiert haben und deswegen eher unbekannt.

ShadowXX
2003-09-19, 11:02:23
Original geschrieben von Al-CAlifAX
Genau Yager war doch des spiel mit den Käfern und dem Comicstyle ;) und basierte glaube ich auf der Unreal Engine.

PS.: wenn jemand anonym bleiben will, sollte man dieses repektieren ;)

Nö Yaeger ist das mit den Flugzeugen im futuristischen Look am Himmel.

was du meinst isr das wohl inzwischen GEstorbene Y-Project, dies basiert(e) tatsächlich auf der U2-Engine.

Die Yeager-Engine (die übrigens ziemlich genial ist, bei mir lief die Demo mit allem an bei 1280x960x32 4xAA/8xAF noch ohne jedes Problem und Flüssig) ist AFAIK eine Eigenentwicklung vom Yeager-Team....

J.S.Shadow

P.S.
zu deinem PS ein extra grosses ACK!!!

Demirug
2003-09-19, 11:15:02
Original geschrieben von Al-CAlifAX
Hmm also wirds eher ich Richtung 3D Shooter gehen. Schade. Obwohl DesuEX und Thief waren einmalig. Könnte an ja damit danna uch basteln. Aber meine Tendenz geht eher in Richtung Echtzeit strategie wie homeworld oder C&C oder WCIII. Wobei ich sagen muss das games wie HL1, RTCW*indiziert* oder MoHAA scho geil waren. bei den 2 letzteren liegts aber wohl am meisten am Thema. Sonst meide ich eigentlich 3D Shooter, weil die mich nach 2h anfangen zu langweilen ;)

Bäh Shooter mag ich nicht wirklich. Aber ich schreibe ja nur die Grafikengine und nicht die Gameenige. (Jetzt bist du genau so schlau wie vorher) :D

Aber wie sagten die Engine Bastler von Crytek, man könne mit ihrer Engine mehr amchen als nur EgoShooter. Sie sei flexiblen. Ich wünsche deiner/eurer Engine dasselbe und viel Glück. Und muss sagen finde es schön das ihr euch die zeit nehmt für NV-optimierungen auch wenn sie scheinbar net so laufen wie ihrs es wollt. ;)

Flexibel sind wir auch das wollte ich ja mit den Effektbiliotheken andeuten.

Solange es sich einigermassen mit den Gesamtkonzept vereinbaren lässt habe ich kein Problem mit Hersteller/Chip spezifischen Optimierungen. Es ist aber eine Frage der Relation. Würde jetzt XGI, S3 oder sonst ein "kleiner" mit merkwürdigen Optimierungsregeln kommen von denen nur jeweils sie etwas haben müsste ich mir zweimal überlegen ob sich das wirklich lohnt.

Al-CAlifAX
2003-09-19, 11:15:35
Original geschrieben von ShadowXX
Nö Yaeger ist das mit den Flugzeugen im futuristischen Look am Himmel.

was du meinst isr das wohl inzwischen GEstorbene Y-Project, dies basiert(e) tatsächlich auf der U2-Engine.

Die Yeager-Engine (die übrigens ziemlich genial ist, bei mir lief die Demo mit allem an bei 1280x960x32 4xAA/8xAF noch ohne jedes Problem und Flüssig) ist AFAIK eine Eigenentwicklung vom Yeager-Team....

J.S.Shadow

P.S.
zu deinem PS ein extra grosses ACK!!!

ja genau Y-Project. das Y hatte ich noch im kopf, deswegen hatte ich das jetzt verwechselt. hatte die demo von yager auch gezockt. hatte mich an WingCommander erinnert ohne Weltraum ;) flüssig liefs auch, nur hatte ich des 1. level nie geschafft *ggg* beim letzten großen schiff war immer sense ;)

zeckensack
2003-09-19, 11:37:01
Original geschrieben von Stefan Payne
?-)

Öhm, meintest du nicht eher S3/VIA- und XGI-Hardware?? ;) Ja, schon, ist gut jetzt =)

Andre
2003-09-19, 11:44:22
Ich hab jetzt nicht alles gelesen aus dem Thread hier, aber mal ´ne Frage:
Was spricht denn eigentlich ernsthaft dagegen, dass ATI hier Valve ganz massiv auf den "richtigen" Weg gebracht hat?

zeckensack
2003-09-19, 11:44:57
Original geschrieben von zeckensack
Der Cg-Compiler ist einfach nur Rotz.
Ich will keinesfalls gutheißen, daß ATI's OpenGL-Treiber den Code nicht fressen (weil er semantisch iO ist), aber schau dir das mal an:
http://www.opengl.org/discussion_boards/ubb/Forum2/HTML/014012.html

Und was für ein Rotz ... :|

/me hat den genannten Shader mal eben von 28 auf 18 Instruktionen reduziert, und nebenbei sind's jetzt nur noch zwei statt fünf Temp-Register. Cg ... :eyes:

Al-CAlifAX
2003-09-19, 11:47:41
Original geschrieben von Andre
Ich hab jetzt nicht alles gelesen aus dem Thread hier, aber mal ´ne Frage:
Was spricht denn eigentlich ernsthaft dagegen, dass ATI hier Valve ganz massiv auf den "richtigen" Weg gebracht hat?

Baoah ich haue mich weg. Der war gut. Ich musste echt ne 1000el sekunde ein lachen unterdrücken :P Dann hat wohl 3dfx ihre entwickler uch auf den "richtigen" weg gebracht? *gggg*

zeckensack
2003-09-19, 12:30:36
Original geschrieben von Andre
Ich hab jetzt nicht alles gelesen aus dem Thread hier, aber mal ´ne Frage:
Was spricht denn eigentlich ernsthaft dagegen, dass ATI hier Valve ganz massiv auf den "richtigen" Weg gebracht hat? Gegenfrage: Was spricht dafür?
Eine Meldung auf dem Inq, die sich auf nicht weiter spezifizierte "sources close to NVIDIA" bezieht?

Daß NV3x für Shader >=2.0 nicht zu gebrauchen ist, haben auch schon andere Benchmarks eindrucksvoll gezeigt. Das ist nichts neues.

Axel
2003-09-19, 13:06:30
Original geschrieben von zeckensack
Und was für ein Rotz ... :|

/me hat den genannten Shader mal eben von 28 auf 18 Instruktionen reduziert, und nebenbei sind's jetzt nur noch zwei statt fünf Temp-Register. Cg ... :eyes:

Ich lese hier nur mit, aber dieses eine Posting kann ich nicht einordnen. Warum zitierst du dich selbst und gibts dir recht?
Muss ich mir Sorgen deswegen machen?

xenomat
2003-09-19, 13:10:31
Original geschrieben von zeckensack
Gegenfrage: Was spricht dafür?
Äh... dass ATI mehr Geld einsackt eventuell?

zeckensack
2003-09-19, 13:13:38
Original geschrieben von Axel
Ich lese hier nur mit, aber dieses eine Posting kann ich nicht einordnen. Warum zitierst du dich selbst und gibts dir recht?
Muss ich mir Sorgen deswegen machen? Seit ich das Posting hier geschrieben habe, hat sich noch etwas in der Sache getan. Ich habe im verlinkten Thread auf ogl.org ein neues Posting mit dem voll optimierten Code erstellt.

Andre
2003-09-19, 13:23:16
Original geschrieben von Al-CAlifAX
Baoah ich haue mich weg. Der war gut. Ich musste echt ne 1000el sekunde ein lachen unterdrücken :P Dann hat wohl 3dfx ihre entwickler uch auf den "richtigen" weg gebracht? *gggg*

Typ, wenn du mir nicht vernünftig antworten willst, lass es. Meine Frage war rein sachlich, spammen kannst du in der Spielwiese.

Andre
2003-09-19, 13:24:09
Original geschrieben von zeckensack
Gegenfrage: Was spricht dafür?


Marketingtechnisch jede Menge.

Al-CAlifAX
2003-09-19, 13:25:42
Original geschrieben von Demirug
Bäh Shooter mag ich nicht wirklich. Aber ich schreibe ja nur die Grafikengine und nicht die Gameenige. (Jetzt bist du genau so schlau wie vorher) :D

Endlich mal einer der mich versteht. Wobei Thief ja net wirklich shooter war ;)

Aber strategie rockt ;)

Al-CAlifAX
2003-09-19, 13:32:34
Original geschrieben von Andre
Typ, wenn du mir nicht vernünftig antworten willst, lass es. Meine Frage war rein sachlich, spammen kannst du in der Spielwiese.

Eh werde mal net unfreundlich. Und lies mal das SARKASMUS. Den hast du gemacht und den habe ich gemacht. was wir beide jeweils von deiner aussage halte oder von meiner is unrelevant, solange keiner persönlich angegriffen wird. aber ich bitte dich nenn mich net TYP. Und wegen deiner Frage. Es spricht nix dagegen ansich, sonst hätte ich nen langen roman geschrieben. so habe ich etwas sarkasmus abgelassen und den habe einige evtl. verstanden du scheinbar weniger. also sorry for coment :P

Für mich ist DX9 immernoch etwas "einseitig" und deswegen brachte ich den vergleich das 3dfx scheinbar alle auf den "richtigen" weg gebracht hat als sarkasmus. verstehst du es? es war keine feststellung sondern sarkasmus. man jetzt muss man sich schon für sarkasmus verteidigen ;) Auch wenn du des mit DX9 anders siehst. ich sehe des so anhand von vielen beiträgen über die unterschiedliche hardware von ATI und NV. Aber ich jammer net. Das nächste mal hat NV vllt wieder mehr glück. So war schon wieder nen roman, wegen einer sarkasmuszeile.

ichs chenke dir zum geburtstag nen "Al-CAlifAX"-translator/compiler :P

ShadowXX
2003-09-19, 13:42:18
Original geschrieben von Al-CAlifAX
Eh werde mal net unfreundlich. Und lies mal das SARKASMUS. Den hast du gemacht und den habe ich gemacht. was wir beide jeweils von deiner aussage halte oder von meiner is unrelevant, solange keiner persönlich angegriffen wird. aber ich bitte dich nenn mich net TYP. Und wegen deiner Frage. Es spricht nix dagegen ansich, sonst hätte ich nen langen roman geschrieben. so habe ich etwas sarkasmus abgelassen und den habe einige evtl. verstanden du scheinbar weniger. also sorry for coment :P

Für mich ist DX9 immernoch etwas "einseitig" und deswegen brachte ich den vergleich das 3dfx scheinbar alle auf den "richtigen" weg gebracht hat als sarkasmus. verstehst du es? es war keine feststellung sondern sarkasmus. man jetzt muss man sich schon für sarkasmus verteidigen ;) Auch wenn du des mit DX9 anders siehst. ich sehe des so anhand von vielen beiträgen über die unterschiedliche hardware von ATI und NV. Aber ich jammer net. Das nächste mal hat NV vllt wieder mehr glück. So war schon wieder nen roman, wegen einer sarkasmuszeile.

ichs chenke dir zum geburtstag nen "Al-CAlifAX"-translator/compiler :P

Ist DX9 auch immer noch Einseitig für dich, wenn die Lösungen von XGI und S3 konform mit der Lösung von ATI gehen, bzw. bei denen der 'ATI'(Standard)-Pfad gut läuft??

J.S.Shadow

Al-CAlifAX
2003-09-19, 13:48:25
Original geschrieben von ShadowXX
Ist DX9 auch immer noch Einseitig für dich, wenn die Lösungen von XGI und S3 konform mit der Lösung von ATI gehen, bzw. bei denen der 'ATI'(Standard)-Pfad gut läuft??

J.S.Shadow

ja klar. weil man dann sich Ati anpasst. Das ist pech für NV. und ich sagte ja aich jammer net. so ist das leben. aber trotzdem bleibt DX9 einseitung. da wie du so schön sagt andere die hardware anpassen. was auch i.o ist. jetzt mit ner anderen struktur wie DX9 zu kommen wäre selbstmord. aber NV hatt nunmal seine chips schon designt und aufm markt. das lässt sich nix mehr zurück drehen, also arschkarte. ;)

ShadowXX
2003-09-19, 13:51:08
Original geschrieben von Al-CAlifAX
ja klar. weil man dann sich Ati anpasst. Das ist pech für NV. und ich sagte ja aich jammer net. so ist das leben. aber trotzdem bleibt DX9 einseitung. da wie du so schön sagt andere die hardware anpassen. was auch i.o ist. jetzt mit ner anderen struktur wie DX9 zu kommen wäre selbstmord. aber NV hatt nunmal seine chips schon designt und aufm markt. das lässt sich nix mehr zurück drehen, also arschkarte. ;)

Die Meinung kann ich akzeptieren...du bist einer der wenigen FX-User die ich 'kenne' mit denen man 'vernünftig' seine Meinung austauschen kann....(=fühlt sich nicht sofort auf den Schlips getreten...)

J.S.Shadow

Al-CAlifAX
2003-09-19, 14:02:46
Original geschrieben von ShadowXX
Die Meinung kann ich akzeptieren...du bist einer der wenigen FX-User die ich 'kenne' mit denen man 'vernünftig' seine Meinung austauschen kann....(=fühlt sich nicht sofort auf den Schlips getreten...)

J.S.Shadow

nö bin ja net mit NV verheiratet und auf der gehaltsliste stehe ich auch net ;) bin nur nen armer ossi mit drang zur objektivität ;) ... und kleinen ausrutschern beim sarkasmus *ggg*

Andre
2003-09-19, 14:16:15
Original geschrieben von Al-CAlifAX
Eh werde mal net unfreundlich. Und lies mal das SARKASMUS. Den hast du gemacht und den habe ich gemacht. was wir beide jeweils von deiner aussage halte oder von meiner is unrelevant, solange keiner persönlich angegriffen wird. aber ich bitte dich nenn mich net TYP. Und wegen deiner Frage. Es spricht nix dagegen ansich, sonst hätte ich nen langen roman geschrieben. so habe ich etwas sarkasmus abgelassen und den habe einige evtl. verstanden du scheinbar weniger. also sorry for coment :P

Für mich ist DX9 immernoch etwas "einseitig" und deswegen brachte ich den vergleich das 3dfx scheinbar alle auf den "richtigen" weg gebracht hat als sarkasmus. verstehst du es? es war keine feststellung sondern sarkasmus. man jetzt muss man sich schon für sarkasmus verteidigen ;) Auch wenn du des mit DX9 anders siehst. ich sehe des so anhand von vielen beiträgen über die unterschiedliche hardware von ATI und NV. Aber ich jammer net. Das nächste mal hat NV vllt wieder mehr glück. So war schon wieder nen roman, wegen einer sarkasmuszeile.

ichs chenke dir zum geburtstag nen "Al-CAlifAX"-translator/compiler :P

OK, habe ich bei dem ganzen Geflame hier in den falschen Hals bekommen. Sorry.

Obligaron
2003-09-19, 14:21:13
NV ist doch nicht arm dran weil sie bei den 2.0er Shadern nicht 'drangekommen' sind (d.h. nicht FP16, sondern FP24 als minimum gewählt wurde).
ATi war aber auch eher dran mit ihrer PS2.0-Hardware und ATi hat wohl auch stress gemacht das DX9 endlich final wird, damit ihre Hardware wirklich komplett 'nutzbar' ist.

Aber mal so rein historisch:
PS 1.0 - 3dfx
PS 1.1 - NV
PS 1.3 - NV
PS 1.4 - ATi
PS 2.0 - ATi
PS 3.0 - NV (NV muss weniger ändern, ATi viel)

Von daher:
NV - 3x
ATi - 2x
3dfx - 1x

Verteilt Microsoft doch ganz gut oder? ;)

Und jetzt mal wieder was zum Topic:
1, 8 Millionen $ ist doch etwas viel Geld, da kann man sich schon zweimal fragen ob dieses Gerücht stimmt.
2, Auch wenn man mal schaut wer die angebliche Orginal Quelle ist, nicht ATi sondern NV, und das sie damit vll die schlechte Performance der FX Karten in HL² runterspielen wollen ist ja nicht ganz abwägig.
3, Andererseits könnte ATi sich gedacht haben "NV hat Doom³, dann brauchen wir auch ein "super" Game, kommt lasst uns für HL² optimieren".
4, Die Frage ist aber auch ob sich Valve soviele schlechten Kunden entgehen lassen will, weil die FX Karten so schlecht performen.
5, Da HL² ja einen extra Pfad für NV hat ist es doch recht unwahrscheinlich das ATi nur dafür 8 Millionen $ zahlt das ihr Logo draufsteht. Wenn dann würde ich, als Hersteller, für diese Summe mehr 'optimierungen' für meine GraKa's verlangen bzw. die Konkurenz noch schlechter dastehen lassen und nicht mit einem eigenen Pfad entgekommen.

Mein persönliches Fazit:
Daher denke ich sollte man dieses Gerücht eher skeptisch begutatchten und nicht so, wie teilweise auch in den News, als pure Wahrheit und dingfest betrachten.

MfG,
Obligaron
[EDIT]: Rechtschreibung

Axel
2003-09-19, 14:30:12
Original geschrieben von zeckensack
Seit ich das Posting hier geschrieben habe, hat sich noch etwas in der Sache getan. Ich habe im verlinkten Thread auf ogl.org ein neues Posting mit dem voll optimierten Code erstellt.

Alles klar! Danke!

StefanV
2003-09-19, 14:30:15
Original geschrieben von Obligaron
NV ist doch nicht arm dran weil sie bei den 2.0er Shadern nicht 'drangekommen' sind (d.h. nicht FP16, sondern FP24 als minimum gewählt wurde).

Öhm, eigentlich vollte nV FX12, wenn ich mich nicht irre ;)

Demirug
2003-09-19, 14:32:50
Original geschrieben von Stefan Payne
Öhm, eigentlich vollte nV FX12, wenn ich mich nicht irre ;)

Sie wollten FX12 (bzw allgemein Integer) als wählbare Option nicht als Minimum

Razor
2003-09-20, 07:50:02
Original geschrieben von ShadowXX
Ist DX9 auch immer noch Einseitig für dich, wenn die Lösungen von XGI und S3 konform mit der Lösung von ATI gehen, bzw. bei denen der 'ATI'(Standard)-Pfad gut läuft??

J.S.Shadow
Und was wenn nicht ?
Wird dann vielleicht sehr schnell eine neues SDK kommen und die bisherigen DX9-'Titel' eingestampft ?
???

Der "V8 Dual" (i.e. 2 GPU's) von XGI soll nicht mal an die Perormance von nVidia oder ATI heran kommen. Ist zumindest schon mal ein Anzeichen... wenn auch nicht offiziell.

Razor