PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI versus Nvidia *grrrr*


Gast
2003-09-16, 17:11:49
Hi all

Ich muss das jetzt einfach mal loswerden.
Dieses HL2 Theater oder manipulationen (optimierungen) von irgentwelchen Benchmarks passend auf den gepriesenen Grafikchip geht mir ganz schön auf den Sender. Man weiss doch als normaler User nun nicht mehr was man nun glauben soll. Das erinnert mich fast schon an 3dfx versus Nvidia vor ein paar Jahren. Da wird mit haken und Ösen gekämpft und der normaler User der sich eine neue Karte kaufen will wird nur verwirrt und versucht mit teilweise in meinen Augen unfairen Tricks zum Kauf der jeweiligen Karte zu zwingen.

Die Top Modelle von Nvidia oder ATI schenken sich doch fast nichts an Speed. Momentan eigentlich nur eine glaubensfrage und mittlerweile auch ein bisschen eine Preisfrage.

Und ob die Radeon 9800Pro wirklich schneller in HL2 bzw. DX9 Games ist wie die FX5900Ultra das hat noch kein Ottonormal User oder unabhängiger Tester mit eigenen Augen gesehen. Es mag stimmen das die FX Probleme mit den Pixelshadern hat aber ob im endeffekt der Geschwindigkeitsunterschied so enorm ist wie in den HL2 Benches glaube ich nicht dran.

Ich bin eigentlich nach sterben der 3dfx Karten ein Nvidia Jünger geworden aber ich denke ich steige vorsichtshalber trotzdem auf ATI um obwohl ich es nicht gerne mache. Jetzt erfährt Nvidia das durch ATI was 3dfx damals durch Nvidia erfahren musste.

mfg JMSC .... den dieses Thema nervt

Matrix316
2003-09-16, 17:15:22
Sagen wir mal so: Warten wir einfach mal Half Life 2 ab. Dann sollte sich entscheiden welche Karte man kauft. ;D

Vielleicht läuft ja am Ende Doom 3 auf nvidia Karten besser. Dann schwenken wieder alle um. ;)

Al-CAlifAX
2003-09-16, 17:19:14
Nur wegen HL² umschwenken?
Nur wegen Stalker, Doom3 umschwenken?

Blödsinn, das ist typisch DAU.

Es wird immer Karten die irgendwo besser performen.
Sollte sich natürlich Ati absetzen können in den nächsten jahren (ja nicht monate, dazu isses zu früh) mit dem R420 und R500 dann kann man mal drüber nachdenken. aber jetzt wegen einer handvll games gleich was neues kaufen. oh man manche müssen echt ne menge verdienen. oder sehe ich des nur so als wenig verdienender neue bundesländer bewohnende ;)

Sly123
2003-09-16, 17:20:21
imho is Doom 3 auch nicht grad der Bringer also werdee ich bei Ati bleiben. ist nur meine meinung :sulkoff:

Al-CAlifAX
2003-09-16, 17:24:05
Original geschrieben von Sly123
imho is Doom 3 auch nicht grad der Bringer also werdee ich bei Ati bleiben. ist nur meine meinung :sulkoff:

Das ist genau so was, über ein Spiel zu urteilene was es noch garnet gibt.

Bis jetzt sind HL², Stalker, FarCry, Doom³ und co. nur schöne rendervideos, nix anderes. Alles andere muss sich erst noch zeigen.

DeusEx hatte nicht den Erfolg durch dolle Grafik. Die war nur wirklich nich mehr zeitgemäß, eher durch innovation im spiel. natürlich ist des auch wieder geschmacksache.

Verkaufszahlen sind ne andere Sache, HL 1 größter erolg durch CS (HL1 geil, CS müll).

Also abwarten, und dann urteilen. Dann ist des auch fair gegenüber DOOM³. (ich persönlich konnte Doom1 und Doom2 net leiden ürgs) :P

LovesuckZ
2003-09-16, 17:24:25
ich kaufe mir sowieso keine Spiele, die nur eine Grafikkarte richtig unterstuetzen und dies dann öffentlich publizieren (EA oder Valve).

Crushinator
2003-09-16, 17:29:35
Was mir z.Z. auf den Sack geht, ist viel mehr die fehlende Konkurrenz zu den beiden großen. Es wird Zeit, daß von den anderen Herstellern equälente Produkte auch endlich erscheinen und nicht nur angekündigt werden.

My 2 Cents.

Al-CAlifAX
2003-09-16, 17:40:21
Original geschrieben von crushinator
Was mir z.Z. auf den Sack geht, ist viel mehr die fehlende Konkurrenz zu den beiden großen. Es wird Zeit, daß von den anderen Herstellern equälente Produkte auch endlich erscheinen und nicht nur angekündigt werden.

My 2 Cents.

Meine rede seit 45.
Daweil isses erst 20 :P

[dzp]Viper
2003-09-16, 17:46:46
Original geschrieben von LovesuckZ
ich kaufe mir sowieso keine Spiele, die nur eine Grafikkarte richtig unterstuetzen und dies dann öffentlich publizieren (EA oder Valve).

oder id software... k ? ;D

LovesuckZ
2003-09-16, 17:58:21
Original geschrieben von [dzp]Viper
oder id software... k ? ;D

Noe. Das was mit Doom3 ist/war, ist was anderes als HL2 oder die EA Sports Games. Wo wird denn Nvidia oder ATi bei Doom3 bevorzugt? Gar nicht.

[dzp]Viper
2003-09-16, 18:04:56
Original geschrieben von LovesuckZ
Noe. Das was mit Doom3 ist/war, ist was anderes als HL2 oder die EA Sports Games. Wo wird denn Nvidia oder ATi bei Doom3 bevorzugt? Gar nicht.

ati hat nix davon gewusst ... und konnte dementsprechend die treiber auch noch nicht "optimieren" ... nv wusste aber, dass id das machen wollte ...

ich sehe da fast keinen unterschied ...

Gast
2003-09-16, 18:06:23
ati? Treiber optimieren?

NIE!!!

(oder vielleicht doch?)

HOT
2003-09-16, 18:06:50
Original geschrieben von LovesuckZ
Noe. Das was mit Doom3 ist/war, ist was anderes als HL2 oder die EA Sports Games. Wo wird denn Nvidia oder ATi bei
Doom3 bevorzugt? Gar nicht.

NV wird ja wohl von einem extra Renderpfad bevorzugt. Bei ATI muss man schon die GL2 schnittstelle nehmen um das ganze auf FP Rendering laufen zu lassen.

Doom3 ist sicherlich kaum ein Massstab, da hier einfach zuviele "Spezialfeatures" mit den ganzen Renderpfaden gemacht werden.

Und in HL2 kackt die Geforce gegenüber der Radeon derart ab (wenn man nach den offiziellen Benches urteilen möchte), dass mir das doch schon zu denken gibt. In Zukunft wird die Pixelshaderperformance für 2.0 Shader ja eher mehr net weniger Einfluss auf die Gesamtleistung haben. Da ATI auchnoch das wesentlich bessere AA bietet, wäre für mich die Wahl klar.

LovesuckZ
2003-09-16, 18:11:15
Original geschrieben von [dzp]Viper
ati hat nix davon gewusst ... und konnte dementsprechend die treiber auch noch nicht "optimieren" ... nv wusste aber, dass id das machen wollte ...


ATi hat wahrscheinlich auch von der E3 Vorführung 2002 nichts gewusst...
Nene, ATi war in der Entwicklung genauso gut involviert wie Nvidia es jez bei HL2 ist. Das sie von dem Preview nicht gewussten haben sollen, ist ne billige Ausrede.

Al-CAlifAX
2003-09-16, 18:11:38
Original geschrieben von HOT
NV wird ja wohl von einem extra Renderpfad bevorzugt. Bei ATI muss man schon die GL2 schnittstelle nehmen um das ganze auf FP Rendering laufen zu lassen.

Doom3 ist sicherlich kaum ein Massstab, da hier einfach zuviele "Spezialfeatures" mit den ganzen Renderpfaden gemacht werden.

Und in HL2 kackt die Geforce gegenüber der Radeon derart ab (wenn man nach den offiziellen Benches urteilen möchte), dass mir das doch schon zu denken gibt. In Zukunft wird die Pixelshaderperformance für 2.0 Shader ja eher mehr net weniger Einfluss auf die Gesamtleistung haben. Da ATI auchnoch das wesentlich bessere AA bietet, wäre für mich die Wahl klar.

Net formuliert, und zeigt es doch das M$ DX9 zuviel standard gedöhnse ist mit zuwenig einwand von special features einzelner hersteller.

Ich hoffe inständig das JC erfolg haben wird. denn was hier alle scheinbar vergessen hat bisher 1 keine gute konkurrenz.

nVIDIA vs. Ati k super
DX9 vs. ?

Da muss OpenGL2.0 schnellstmöglichst hin. egal wie das ausgeht ob Ati, NV oder gar ganz andere. M$ braucht konkurrenz. sonst werden am ende sie über alles bestimmen (machen se des net schon hmm?) :)

[dzp]Viper
2003-09-16, 18:16:21
Original geschrieben von LovesuckZ
ATi hat wahrscheinlich auch von der E3 Vorführung 2002 nichts gewusst...
Nene, ATi war in der Entwicklung genauso gut involviert wie Nvidia es jez bei HL2 ist. Das sie von dem Preview nicht gewussten haben sollen, ist ne billige Ausrede.

du drehst auch ALLES wie du es gerade brauchst oder ??

ist ja wirklich schlimm :(

ATI hat damals genauso ein schreiben verfasst wie NV jetzte - dort haben sie gesagt, dass sie es nicht gut finden, dass die einfach benchen ohne vorher was zu sagen und dann hat ati gebeten (betonung liegt auf gebeten) die benches nicht so stark zu beachten, weil sie nichts davon gewusst hatten und ihre treiber damit nicht auf diesen bench "optimieren" (was auch immer das heissen mag) konnten

LovesuckZ
2003-09-16, 18:20:14
Viper,

dass was ATi zu dem Benches schrieb, war genauso viel PR wie das von Nvidia. Und zur Zeit anscheinend nicht mehr gültig :)

Gil-galad
2003-09-16, 18:38:40
Original geschrieben von [dzp]Viper
du drehst auch ALLES wie du es gerade brauchst oder ??

ist ja wirklich schlimm :(


FULL ACK

Aber so ist LS nunmal, kann man nicht ändern.

sILeNt
2003-09-16, 18:46:12
Und schon ist der Thread genau da, wo er nicht hin sollte.

ow
2003-09-16, 18:47:45
Original geschrieben von HOT
NV wird ja wohl von einem extra Renderpfad bevorzugt. Bei ATI muss man schon die GL2 schnittstelle nehmen um das ganze auf FP Rendering laufen zu lassen.



Liegt daran, dass es keinen R300-ATI-Pfad geben kann, weil ATi keine Features beherrscht, die über GL2 hinausgehen und es somit auch keine Extension gibt.

btw. gibt´s in D3 einen R(V)2x0 und auch NV2x Pfad. Wo siehst du da eine Bevorzugung?

Matrix316
2003-09-16, 19:18:20
Original geschrieben von Al-CAlifAX
Nur wegen HL² umschwenken?
Nur wegen Stalker, Doom3 umschwenken?

Blödsinn, das ist typisch DAU.

Es wird immer Karten die irgendwo besser performen.


Wobei die angeblichen Unterschiede aber schon EXTREM sind, zumal das Spiel ja auch nicht gerade uninteressant ist.

Wenn jetzt sagen wir mal eine Radeon 9800PRO und eine 5900 Ultra nur 5-10 FPS trennen, dann ist es nicht schlimm, aber wenn eine 9600PRO besser als eine 5900Ultra ist, dann ist was Faul im Staate Nvidia.

Al-CAlifAX
2003-09-16, 19:28:05
Original geschrieben von Matrix316
Wobei die angeblichen Unterschiede aber schon EXTREM sind, zumal das Spiel ja auch nicht gerade uninteressant ist.

Wenn jetzt sagen wir mal eine Radeon 9800PRO und eine 5900 Ultra nur 5-10 FPS trennen, dann ist es nicht schlimm, aber wenn eine 9600PRO besser als eine 5900Ultra ist, dann ist was Faul im Staate Nvidia.

Oder was Faul im Staate M$, Valve, Ati , wär auch immer :P

Matrix316
2003-09-16, 19:32:30
Nur Direct X 9 gibts ja nicht zweimal oder? Es gibt nur EIN Direct X 9, also sollte es auch nur EINEN vernünftigen Weg geben das zu nutzen. Wenn nvidia in der Hardware was extrem anders macht als ATI, dann sind sie selbst Schuld an der Misere, weil es klar ist, dass Spielehersteller bestimmt nicht zweimal optimieren wollen, sag ich mal jetzt so einfach mal daher. ;)

Al-CAlifAX
2003-09-16, 19:38:14
hättest du des auch gesagt wenn DX9 nur aus NV pfaden bestehen würde? *gg*

Matrix316
2003-09-16, 19:50:48
Original geschrieben von Al-CAlifAX
hättest du des auch gesagt wenn DX9 nur aus NV pfaden bestehen würde? *gg*

Dann wäre eben ATI Schuld wenn ihre Karten zu langsam laufen. :) Nvidia hatte ja lange genug Zeit ihre Karten so zu gestalten, dass sie voll kompatibel (und auch geschwindigkeitsmäßig) mit DX9 sind.

Al-CAlifAX
2003-09-16, 20:06:58
also ich bitte dich was geht wohl einfacher anzupassen software oder hardware? NV hat ihre Design schon vor mehr als 1jahr fertig gehabt. M$ hätte also alles mit reinnehmen können. was ist so schlimm an unterscheidlicher hardware? nur solange eine API nur einseitig festgelegt wird. zumal ja eh die jetzige Runtime die ehemalige Beta ist. Ich habe mir nach 3dfx auch eine APi gewünscht die unabhängig von spielen ist. so das wir mit allen karten alle spiele, spielen dürften. aber die aussage ist doch schmarrn NV hätte sich net an die Standards gehalten. So kommt man mit innovationen nicht mehr voran. Software is eher anzupassen wie Hardware. Und NV hat jedem großen Entwickler Hilfe angeboten weil sie wissen das ihre Hardware komplexer ist. Ich sags wieder, OPEN GL muss wieder kommen. diese einseitige APi mit M$ kann auf dauer nicht gut gehen. :(

StefanV
2003-09-16, 20:32:36
Original geschrieben von LovesuckZ
Noe. Das was mit Doom3 ist/war, ist was anderes als HL2 oder die EA Sports Games. Wo wird denn Nvidia oder ATi bei Doom3 bevorzugt? Gar nicht.

Warum das denn?!?!

Soweit ich die Valve Entwickler gehört haben, waren sie recht 'enttäuscht' von der unterirdischen Shaderperformance der NV3X Serie.

Dazu kommt noch, daß dieser Umstand nicht nur Vave aufn Sack geht sondern auch allen anderen.

Wenn es 'auf einmal' 20 Games geben würde, welche, wie HL2, massiv von PS2.0 Shadern gebrauch machen würden, und dem entsprechend mies auf NV3x HW performen würden, geben würde, wärst du dann bereit deine Meinung zu ändern??

Oder flamst du dann gegen M$, welche ja soo böse zu nV waren und im letzten Moment die Spec geändert haben?!

mirovb
2003-09-16, 21:42:27
Am Anfang war das.....Rad...

zuerst hat Microsoft die DirectX9 Spezifikationen festgelegt. Diese wurden an alle Grafikkarten Hersteller weitergereicht, noch bevor irgend eine Karte gebaut wurde.
Auf diesen Grundstein haben sich alle geeinigt.

Aufgrund dieser Tatsache hat ATi seine DirectX9 Beschleuniger gebaut, eben in diesen Minimal Spezifikationen. Nvidia hat sich dann plötzlich nicht mehr daran gehalten, und hat seine eigenen "techn. Spezifikationen" geschrieben. In der Hoffnung, alle anderen würden Ihnen folgen und sich auf die NV'sche Hardware und deren Besonderheiten einstellen.

Ist ja Nvidias gutes Recht gewesen einen anderen Weg zu gehen, nur dann darf man sich nicht über die anderen aufregen,nur weil diese eben einheitlich geblieben sind.

Ich finde es ziemlich töricht, den schwarzen Peter bei allen anderen als Nvidia zu suchen. Etwas offensichtlicheres gibt es doch gar nicht, da braucht man technisch gar nicht so bewandert sein (wie Ich es bin).

Ich weiss jedenfalls genau, das ATi sich STRENG an die Minimal Anforderungen an DirectX9 gehalten hat. Und Nvidia eben nicht, das rächt sich jetzt. Leider, wie Ich finde...

Was Ich allerdings wirklich traurig finde, ist wie Nvidia "Schadensbegrenzung" versucht, indem es wirklich nur noch irreführende Erklärungen gibt, die sowieso kein Mensch versteht. Und der "Optimierungswahnsinn" aufgrund von schlechterer Bildquali, wie man an dem Deto51.75 sieht.

Als Nvidia-Fan fühle Ich mich verarscht ! Meine Karte von NV "macht die Fliege" aus meinem Rechner. Für das Teil habe Ich zuviel Geld ausgegeben, dafür aber nur mittelmaß bekommen....

Da hätte Ich meine Gute, alte Ti4200 behalten können, die rendert in DirectX9 "ja genauso schnell" (Smiley)...und in DirectX8.1 auch noch schnell genug. Und das für ca. 1/3 des Preises einer GF FX 5900 nu.

CU

Miro

Ach ja, falls sich jemand auf den Schlips getreten fühlt, Ich will ja keinem seine Illusionen nehmen...also nicht persönlich nehmen, Ich habe halt MEINE Schlussfolgerung aus dem ganzen Münchhausen-Verein (Nvidia) gezogen. So leid es mir tut.

Winter[Raven]
2003-09-16, 21:46:50
Umstand nicht nur Vave aufn Sack geht sondern auch allen anderen

Wenn ich nachfragen darf, wer sind den diese " ALLE " ?

von John Carmack + ID hört man nur die Schnellste Graka auf dem Markt. Valve ist die einzige firma die in der öffentlichkeit jemanden schlecht darstellt.

EDIT:

Und der "Optimierungswahnsinn" aufgrund von schlechterer Bildquali, wie man an dem Deto51.75 sieht.


Tja, deswegen steht ja auch dort FETT Gedrückt: BETA !

Al-CAlifAX
2003-09-16, 21:51:50
Original geschrieben von mirovb
Am Anfang war das.....Rad...

zuerst hat Microsoft die DirectX9 Spezifikationen festgelegt. Diese wurden an alle Grafikkarten Hersteller weitergereicht, noch bevor irgend eine Karte gebaut wurde.
Auf diesen Grundstein haben sich alle geeinigt.

Aufgrund dieser Tatsache hat ATi seine DirectX9 Beschleuniger gebaut, eben in diesen Minimal Spezifikationen. Nvidia hat sich dann plötzlich nicht mehr daran gehalten, und hat seine eigenen "techn. Spezifikationen" geschrieben. In der Hoffnung, alle anderen würden Ihnen folgen und sich auf die NV'sche Hardware und deren Besonderheiten einstellen.

Ist ja Nvidias gutes Recht gewesen einen anderen Weg zu gehen, nur dann darf man sich nicht über die anderen aufregen,nur weil diese eben einheitlich geblieben sind.

Ich finde es ziemlich töricht, den schwarzen Peter bei allen anderen als Nvidia zu suchen. Etwas offensichtlicheres gibt es doch gar nicht, da braucht man technisch gar nicht so bewandert sein (wie Ich es bin).

Ich weiss jedenfalls genau, das ATi sich STRENG an die Minimal Anforderungen an DirectX9 gehalten hat. Und Nvidia eben nicht, das rächt sich jetzt. Leider, wie Ich finde...

Was Ich allerdings wirklich traurig finde, ist wie Nvidia "Schadensbegrenzung" versucht, indem es wirklich nur noch irreführende Erklärungen gibt, die sowieso kein Mensch versteht. Und der "Optimierungswahnsinn" aufgrund von schlechterer Bildquali, wie man an dem Deto51.75 sieht.

Als Nvidia-Fan fühle Ich mich verarscht ! Meine Karte von NV "macht die Fliege" aus meinem Rechner. Für das Teil habe Ich zuviel Geld ausgegeben, dafür aber nur mittelmaß bekommen....

Da hätte Ich meine Gute, alte Ti4200 behalten können, die rendert in DirectX9 "ja genauso schnell" (Smiley)...und in DirectX8.1 auch noch schnell genug. Und das für ca. 1/3 des Preises einer GF FX 5900 nu.

CU

Miro

Ach ja, falls sich jemand auf den Schlips getreten fühlt, Ich will ja keinem seine Illusionen nehmen...also nicht persönlich nehmen, Ich habe halt MEINE Schlussfolgerung aus dem ganzen Münchhausen-Verein (Nvidia) gezogen. So leid es mir tut.

Also imho is des os net mit DX. Sondern die Grakahersteller schicken ihre Ideen an M$. Und diese fassen dann eine APi zusammen. wobei der mit den "kleinsten" gemiensamkeiten standard wird. Ausserdem fliessern imho sonst immernoch zusätzliche features ein (PS1.4 > DX8.1) nur diesmal bei DX9 scheinbar net. Also müsste M$ als APi lieferer ebenfalls endlich ne konkurrenz bekommen.

..oO(betet zum himmel für OpenGL und Linux) :)

LovesuckZ
2003-09-16, 21:55:30
Original geschrieben von mirovb
zuerst hat Microsoft die DirectX9 Spezifikationen festgelegt. Diese wurden an alle Grafikkarten Hersteller weitergereicht, noch bevor irgend eine Karte gebaut wurde.
Auf diesen Grundstein haben sich alle geeinigt.


So wie ich Demirug verstanden habe, waere DX9 erst fix gewesen als die Nvidia und ATI ihre Karten schon fertig Design (und produziert haetten).
Nvidia hatte eben nur Pech, dass a) ihr Vorschlaege nicht umgesetzt wurden und b) ATi Glueck hat, dass sie der kleinste Nenner seien.

mirovb
2003-09-16, 21:56:34
Sorry, aber das sehe Ich anders, mit Pech hat das nicht zu tun !!

Die Graka Hersteller (also auch NV) haben sich vorher geeinigt und dann hat MS auf dieser Basis DirectX9 geschrieben...worauf es dann ja wieder von den Graka Herstellern abgesegnet wurde...das bestätigt meine Meinung ja noch mehr, das Nv selbst Schuld hat...

@lovesuckz...tut mir ja leid, aber kanns nicht anders sehen, auch wenn Ich Nvidia immer gemocht hatte..

CU

Miro

StefanV
2003-09-16, 21:57:35
Original geschrieben von Winter[Raven]
Wenn ich nachfragen darf, wer sind den diese " ALLE " ?

von John Carmack + ID hört man nur die Schnellste Graka auf dem Markt. Valve ist die einzige firma die in der öffentlichkeit jemanden schlecht darstellt.


1. andere Entwickler, die an DX9 Games arbeiten...

2. John Carmack hat sich indirekt auch über die miese Shaderperformance beklagt...
Siehe die Aussagen über den ARB2 Pfad...
Der nV30 Path wird wohl auch meist mit FX12 anstatt mit FP16 laufen...

Und, nunja, Valve waren die ersten, die sich öffentlich in aller Deutlichkeit beklagt haben....

Die Frage ist doch, wer folgt Valve?!

Winter[Raven]
2003-09-16, 21:58:09
Und wo wir bei M$ und DX sind, so sagt Demerug, das bei M$ sehr spartanisch mit der ganzen API umgegangen wird und M$ meistens selber nicht weiss was die wollen.

Für mich sieht es halt so aus, das damals Ati eine fertige DX HW hatte (im gegensatz zu Nvidia) und M$ sich auf Ati konzentriert hat.

EDIT:

John Carmack hat sich indirekt auch über die miese Shaderperformance beklagt...
Siehe die Aussagen über den ARB2 Pfad...
Der nV30 Path wird wohl auch meist mit FX12 anstatt mit FP16 laufen...

Wenn ihm die 12 völlig ausreichen, ist es doch egal oder ?

1. andere Entwickler, die an DX9 Games arbeiten...

WER ? ... ich will Firmennamen hören und nicht die ... !

mirovb
2003-09-16, 22:00:36
Tja, und für mich sieht es halt genau anders herum aus...

Und nur so ergibt die Sache für mich auch einen Sinn...

CU

Miro

StefanV
2003-09-16, 22:01:00
Original geschrieben von LovesuckZ
So wie ich Demirug verstanden habe, waere DX9 erst fix gewesen als die Nvidia und ATI ihre Karten schon fertig Design (und produziert haetten).
Nvidia hatte eben nur Pech, dass a) ihr Vorschlaege nicht umgesetzt wurden und b) ATi Glueck hat, dass sie der kleinste Nenner seien.

Was können denn ATI und M$ dafür, wenn nV etwas zu kreativ war und etwas geplant hat, was nicht so richtig gefunzt hat?

Al-CAlifAX
2003-09-16, 22:03:08
Original geschrieben von LovesuckZ
So wie ich Demirug verstanden habe, waere DX9 erst fix gewesen als die Nvidia und ATI ihre Karten schon fertig Design (und produziert haetten).
Nvidia hatte eben nur Pech, dass a) ihr Vorschlaege nicht umgesetzt wurden und b) ATi Glueck hat, dass sie der kleinste Nenner seien.

eben und deswegen und deswegen sollte M$ keine APi`s mehr bauen. Es sollte in eine APi jedes feature einer hardware hinein, solange diese den API-Programmierer auch unterstützen. Was die Gameentwickler draus machen, ,üssen sie entscheiden. Ob es sie anwenden is max. ihre entscheidung. aber so sehe ich M& eher als hinderniss bei zukünftigen grakas, egal von wem.

Das NV bei den Shadern selber net so prall ist wissen wir, dafür haben sie andere features. so ist es nunmal wenn man unterschiedlichste hardware baut und nur einige sich ähneln. und diese die sich jetzt ähneln sind halt in DX9. John Carmuck selber hats ja auch scho gesagt. ARb2 + NV3x = to slow. aber wird andere wege gezeigt bekommen von NV, dan OpenGL was da wesentlich flexibler ist. JC wird auch das Spiel auf beiden Karten glänzen lassen. davon gehe ich aus. der ist net erst seit gestern 3d programmierer ;)

StefanV
2003-09-16, 22:03:15
Original geschrieben von Winter[Raven]
Wenn ihm die 12 völlig ausreichen, ist es doch egal oder ?

FX12 = PS1.1/PS1.3, PS1.4 wäre eigentlich damit auch möglich, wenn nV das implementieren würde...

Jetzt 'darfst' du das ganze auch auf DX9 bzw PS2.0 übertragen, welche mit mindestens FP16 arbeiten...

Quasar
2003-09-16, 22:06:44
Original geschrieben von Stefan Payne
Zu deiner Info:

FX12 = PS1.1/PS1.3, PS1.4 wäre eigentlich damit auch möglich.

Jetzt 'darfst' du das ganze auch auf DX9 bzw PS2.0 übertragen, welche mit mindestens FP16 arbeiten...

Wieso bringst du jetzt auf einmal die von dir im "Negativbeispiel" Doom3 angeführten FX12 wieder in Verbindung mit DX9 und PS2.0?

Weder OpenGL noch Doom3 werden das nutzen, da OpenGL != DX.

Und wozu muss ich 2-1=1 im Fliesspunktformat rechnen, wenn ich kein Pentium60 bin (2-1=0,99999999999999999999999999)?

Al-CAlifAX
2003-09-16, 22:08:12
Original geschrieben von Stefan Payne
Was können denn ATI und M$ dafür, wenn nV etwas zu kreativ war und etwas geplant hat, was nicht so richtig gefunzt hat?

das es nicht funzt wurde nie bewiesen!!!!!!
ausserdem wird sich bei grakas eh einiges wieder ändern womit PS3.0 zum bisherigen 2.0 pfad eigentlich fast inkompatibel wird. vllt irre ich mich da auch. aber NV hat sich jetzt schon getraut CPU ähnliche technik zu bauen die bei PS3.0 voraussetzung sein soll.
Vllt irre ich mich auch ma wieder ;)
Man wo bleiben endlich konkurrenten zu NV und ATi. ;)

Winter[Raven]
2003-09-16, 22:09:22
Jetzt 'darfst' du das ganze auch auf DX9 bzw PS2.0 übertragen, welche mit mindestens FP16 arbeiten...

Nur das DOOM III kein Open GL 1.5 / 2.0 game ist ;). Wozu irgend welche shader 2.0 einbauen wenn er sie ehe nicht braucht ?

StefanV
2003-09-16, 22:12:12
Original geschrieben von Winter[Raven]
Nur das DOOM III kein Open GL 1.5 / 2.0 game ist ;). Wozu irgend welche shader 2.0 einbauen wenn er sie ehe nicht braucht ?

Und was 'darf' ich denn machen, wenn ich ein Game auf PS2.0 auslegen möchte, so wie es Valve tat??

Soll ich dann die ganzen 2.0 Shader für die nV3x Serie deaktivieren und denen den ATI Karten vorbehalten, welchen es egal ist, ob man sie mit PS1.4 oder 2.0 füttert??

Oder muss ich den ganzen Mist, den ich fabriziert hab, irgendwie auf PS1.1/1.3 reduzieren, damit nV nicht allzuweit zurückfällt??

StefanV
2003-09-16, 22:14:11
Original geschrieben von Al-CAlifAX
das es nicht funzt wurde nie bewiesen!!!!!!
ausserdem wird sich bei grakas eh einiges wieder ändern womit PS3.0 zum bisherigen 2.0 pfad eigentlich fast inkompatibel wird. vllt irre ich mich da auch. aber NV hat sich jetzt schon getraut CPU ähnliche technik zu bauen die bei PS3.0 voraussetzung sein soll.
Vllt irre ich mich auch ma wieder ;)
Man wo bleiben endlich konkurrenten zu NV und ATi. ;)

1. das es funzt aber auch nicht ;)
Und da nV die FX12 Einheiten beim nV35 entfernt hat, ist eher anzunehmen, daß das ins Höschen ging...

2. ???
verstehe nicht so ganz, was du sagen möchtest.

3. der Ansatz war gut, die Ausführung recht bescheiden...
Nur was nützt mir 'ne superflexible CPU, die keine Leistung bringt?

Al-CAlifAX
2003-09-16, 22:14:44
Original geschrieben von Stefan Payne
FX12 = PS1.1/PS1.3, PS1.4 wäre eigentlich damit auch möglich, wenn nV das implementieren würde...

Jetzt 'darfst' du das ganze auch auf DX9 bzw PS2.0 übertragen, welche mit mindestens FP16 arbeiten...

FP16 performt ja net schlecht nur bei 32 siehts mau aus für NV. und da hängt der hund begraben. 2.0 setzt ja 96 bit rendergenauigkeit vor wenn ich mich net irre. also müssen min. 24 her. So setzten viele hersteller bei NV auf 32. Ich gehe mal davon aus damit NV net gerechnet sonst hätten die schon ne lösung eingebaut. nun isses zu spät. und für NV30/35 muss in games ne vorübergehende lösung her mit 12/16 bis der NV40 kimmt. oder sie spielen DX8.0 oder mit 15frames *ggg*

OpenGL wird da flexibler werden, und bestimmte features beider karten schon unterstützen.

Angst habe ich noch etwas bei Stalker. Wenn das Game viele FX Features unterstützt siehts mau aus für ATi karten, was ich wiederum genauso kacke finde.

Naja hoffen wir auf bessere zeiten ;)

StefanV
2003-09-16, 22:22:38
Original geschrieben von Al-CAlifAX
FP16 performt ja net schlecht nur bei 32 siehts mau aus für NV. und da hängt der hund begraben. 2.0 setzt ja 96 bit rendergenauigkeit vor wenn ich mich net irre. also müssen min. 24 her. So setzten viele hersteller bei NV auf 32. Ich gehe mal davon aus damit NV net gerechnet sonst hätten die schon ne lösung eingebaut. nun isses zu spät. und für NV30/35 muss in games ne vorübergehende lösung her mit 12/16 bis der NV40 kimmt. oder sie spielen DX8.0 oder mit 15frames *ggg*

OpenGL wird da flexibler werden, und bestimmte features beider karten schon unterstützen.

Angst habe ich noch etwas bei Stalker. Wenn das Game viele FX Features unterstützt siehts mau aus für ATi karten, was ich wiederum genauso kacke finde.

Naja hoffen wir auf bessere zeiten ;)

1. es ist anzunehmen, daß Valve die nV3x Karten bereits mit 16bit Floatpoint rendern lässt...
Nunja, soo viel lahmer scheint FP32 auch nicht zu sein...
Das Problem ist eher, daß eine nV30 weniger Instruktionen als eine RV350 ausführen kann...

2. ohne Angabe muss es mit FP24 gerendert werden, außer der Entwickler sagt, 'daß darf mit FP16 gemacht werden'.

3. ???
Bei der nV3x zählt jedes Prozentchen an Leistung, da muss man als Entwickler schon immer, wenns geht, FP16 nehmen...

Al-CAlifAX
2003-09-16, 22:28:21
jo sind halt komplexer, und da muss NV nachhelfen. Wobei ich sagen muss das alleine In TRAOD 45 frames k waren. auch wenns im faktor 2 zu ATi steht. bin gespannt wie HL² aussehen wird.

Ausserdem gabs mal ne tabelle ab wann NV bei zuvielen registern in die knie geht. da könnte man (wenn man wolle) auch etwas flexibler programmieren. Das gleiche würde ich auch sagen wenn ich ne ATi drinne hätte (bei mir hats eh ne andere bewandtnis, ich zocke selten. eher 3d anwendung. nur ne renderkarte kostet mir zuviel *g*) aber wenn man natürlich ne andere Karte unten sehen will oder es als zu komples empfindet darauf zu programmieren. Komisch nur das sich GSC noch net beschwert haben ;) Egal :P

Wallman
2003-09-16, 22:54:17
Man kann sagen was man will NVidia ist der Verlierer
der DX9.0-Reihe. Wer jetzt genau dran Schuld war wird
man wohl nie rausfinden...eigentlich isses ja auch egal!
Wenn man mal ehrlich ist wird es wohl in der nächsten
Zeit nur ne Hand voll Spiele geben,wo die schlechte
Nvidia Shaderperformance zum Nachteil wird.
Was kommt denn scho?
Das gehypte HalfLife 2,Stalker und irgendwann dann auch
mal Doom3. Cool 3 Spiele. Danach gibts dann scho wieder
neue Grakagenerationen,wo wieder alles anders wird...
Okay es ist dumm für Nv30x-Besitzer,da hätte man lieber
zu seiner alten Karte oder Ati greifen sollen,aber
diese Massendiskussionen sind es doch nicht wert!
ES kommt wies kommt und ihr werdet sehen auch Nvidia
Karten werden einigermaßen mit Halflife und co.laufen...

Matrix316
2003-09-16, 22:55:07
Original geschrieben von Al-CAlifAX
eben und deswegen und deswegen sollte M$ keine APi`s mehr bauen. Es sollte in eine APi jedes feature einer hardware hinein, solange diese den API-Programmierer auch unterstützen. Was die Gameentwickler draus machen, ,üssen sie entscheiden. Ob es sie anwenden is max. ihre entscheidung. aber so sehe ich M& eher als hinderniss bei zukünftigen grakas, egal von wem.

Das NV bei den Shadern selber net so prall ist wissen wir, dafür haben sie andere features. so ist es nunmal wenn man unterschiedlichste hardware baut und nur einige sich ähneln. und diese die sich jetzt ähneln sind halt in DX9. John Carmuck selber hats ja auch scho gesagt. ARb2 + NV3x = to slow. aber wird andere wege gezeigt bekommen von NV, dan OpenGL was da wesentlich flexibler ist. JC wird auch das Spiel auf beiden Karten glänzen lassen. davon gehe ich aus. der ist net erst seit gestern 3d programmierer ;)

Einerseits will Microsoft bestimmt nicht, dass OpenGL zur einheits API wird, weil sonst könnte ja Linux noch aufholen im Gamebereich (;))- aber andererseits sollte auch nicht jeder sein eigenes Süppchen kochen wie 3DFx mit ihrer API. Wenn jetzt jeder mit seiner eigenen API ankommt, ist es auch nix.

Al-CAlifAX
2003-09-16, 23:08:45
Original geschrieben von Matrix316
Einerseits will Microsoft bestimmt nicht, dass OpenGL zur einheits API wird, weil sonst könnte ja Linux noch aufholen im Gamebereich (;))- aber andererseits sollte auch nicht jeder sein eigenes Süppchen kochen wie 3DFx mit ihrer API. Wenn jetzt jeder mit seiner eigenen API ankommt, ist es auch nix.

Ne bloss net eigene APi`s. Dann sind wir wieder bei 3Dfx teiten. Aber ne Konkurrenz für M$'s APi muss her. Vor allem eine die halt OPEN ist ;)

R360
2003-09-17, 01:11:38
Hi,

EA und VALVE sind Top-Marken es wäre Sales-Selbstmord wenn sie nur eine Grafikkarte bzw. einen Chip unterstützen würden. Sie untersützen aber 100% die DX9 Vorgaben von Microsoft.

*There is no problem where is no problem*

wer nen besseren Reim hat, bitte "PUSTEN".


*
*
*
*
*
*
*
*
PS: Gast sein ist nicht schwer, registrieren (http://www.google.de/search?hl=de&lr=&ie=UTF-8&oe=UTF-8&q=registrieren&spell=1) aber sehr, wer hat schon spontan Bock einen email-Account zu eröffnen wenn er keinen tifferen Sinn in seiner Aussage treffen kann? Tja; wie auch immer, meine Meinung muss nicht deine sein und persönlich meine ich sie sowieso nicht.

Merlin31
2003-09-17, 04:50:24
Augen sehe ich das auch so das NV es wirklichs elber schuld ist.
1. die meisten Spiele bisher liefen auf DX Basis
2. man kann meistens von Ausgehen das MS am längerem Hebel sitzt. Wenn NV meint sie könnten ihren Kopd einfach so durchsetzen, dann haben sie jetzt die Quittung bekommen dafür.
Lassen wir es dahin gestellt ob es gut oder schlecht ist. Fakt ist einfach, es war Dummheit (oder aber NV fühlte sich soweit Erhaben, um eigene Richtlienien zu schaffen), sonst nix.

Wallman
2003-09-17, 07:27:02
Original geschrieben von Merlin31
Augen sehe ich das auch so das NV es wirklichs elber schuld ist.
1. die meisten Spiele bisher liefen auf DX Basis
2. man kann meistens von Ausgehen das MS am längerem Hebel sitzt. Wenn NV meint sie könnten ihren Kopd einfach so durchsetzen, dann haben sie jetzt die Quittung bekommen dafür.
Lassen wir es dahin gestellt ob es gut oder schlecht ist. Fakt ist einfach, es war Dummheit (oder aber NV fühlte sich soweit Erhaben, um eigene Richtlienien zu schaffen), sonst nix.

Genau der meinung bin ich auch!

Gast
2003-09-17, 08:04:16
Original geschrieben von Al-CAlifAX
Ne bloss net eigene APi`s. Dann sind wir wieder bei 3Dfx teiten. Aber ne Konkurrenz für M$'s APi muss her. Vor allem eine die halt OPEN ist ;)

Es ist doch OGL da, welche soll da noch kommen. Etwa eine DirectX? :lol: Die kann es nur von M$ geben, und wirklich, niemand will noch eine zusätzliche.
Schau dir doch denn Markt an? Die Spiele die nicht auf DX basieren, laufen auf OGL, ergo Quake von ID. Und wenige sind das nicht, die Engine ist sehr populär.

ShadowXX
2003-09-17, 09:42:59
Original geschrieben von Merlin31
Augen sehe ich das auch so das NV es wirklichs elber schuld ist.
1. die meisten Spiele bisher liefen auf DX Basis
2. man kann meistens von Ausgehen das MS am längerem Hebel sitzt. Wenn NV meint sie könnten ihren Kopf einfach so durchsetzen, dann haben sie jetzt die Quittung bekommen dafür.
Lassen wir es dahin gestellt ob es gut oder schlecht ist. Fakt ist einfach, es war Dummheit (oder aber NV fühlte sich soweit Erhaben, um eigene Richtlienien zu schaffen), sonst nix.

Auch ein full ack von mir....
Interessanterweise habe ich änliche Ansätze (vielleicht mit etwas mehr 'schmackes') schon mal im HL2-Beta-Bench-Thread gebracht und musste mir dort dann wüsste beschimpfungen von mehreren anhören...war wohl noch in der Hitze des ersten 'Gefechts'.

NV ist jetzt im Zugzwang...wenn der nV40 kein reisser wird, ist wohl ATI erst mal für 1-2Jahre King of the Hill....(ausser XGI überrascht alle...).

J.S.Shadow

Pussycat
2003-09-17, 10:43:39
Original geschrieben von Winter[Raven]

Tja, deswegen steht ja auch dort FETT Gedrückt: BETA !

Also es ich ein Fehler? So ein 'bug' wie mir UT2k3? Dass glaubst du doch selber nicht!

Darkness
2003-09-17, 10:49:32
Naja Architektur hin Architektur her.....
ATI und Nvidia werden ihre Marketingwege gehen und sich die "Lorbeeren" teilen.
Weil ehrlich gesagt glaub ich bei den beiden Herstellern eh an keinen fairen Wettbewerb mehr.... zu dem wird ATI sicher bald auf den neuen "beta" Treiber von Nvidia reagieren mit noch mehr Optimierungen und noch mehr Cheats.....

Irgendwann sehen wir (wie schon jemand gesagt hatte) echt die neusten Spiele in billigster Qualität das sogar die Spiele von vor zwei Jahren besser aussehen ;)

Aber eine Frage hätte ich hier trotzdem gerne beantwortet:

Wenn der "Beta" Treiber alles verbessern sollte..... warum ist dann ein Peformanceeinbruch von bis zu 20 Fps bei Serious Sam 2 zu sehen ?
Soweit ich weis ist das doch ein auf OpenGL basierendes Spiel oder ?.....

Exxtreme
2003-09-17, 10:56:53
Original geschrieben von Darkness
Aber eine Frage hätte ich hier trotzdem gerne beantwortet:

Wenn der "Beta" Treiber alles verbessern sollte..... warum ist dann ein Peformanceeinbruch von bis zu 20 Fps bei Serious Sam 2 zu sehen ?
Soweit ich weis ist das doch ein auf OpenGL basierendes Spiel oder ?.....
Der Deto 51.75 ist ein reiner Marketing-Treiber... wie der 20.80 seinerzeit :)

Radeonator@Work
2003-09-17, 10:57:01
Aha, die Wahrsager sind unter uns, juhuu...gebt mir die LottoZahlen für die nächsten 2 Jahre please per PM...
:crazy:

1. Woher wollte ihr wissen das die NV30 in der finalen Version von HL2 sucked ?
2. Wieviele DX9 Spiele sind Final vorhanden und in wievielen von diesen sucked die NV30 ???

Um auf eure Spekulationen einzugehen, hier meine Rechnung:

Doom ist OGL basierend und afaik soll die NV30 dort eher schneller denn die R300 sein, genau das gleiche gilt für Stalker...steht also nach eurer Rechnung 2:1 für die NV30 , wieso also sollte die NV30 der DX9 loser sein ;)

Darkness
2003-09-17, 11:03:17
Original geschrieben von Exxtreme
Der Deto 51.75 ist ein reiner Marketing-Treiber... wie der 20.80 seinerzeit :)

Das ist mir auch klar ;)

Aber woher kommt dann der Peformanceeinbruch unter OpenGL ?... ich mein wenn sie die Shaderperformance verbessern wollen hat das doch eigentlich wenig mit der Open GL Performance zu tun ?

Oder irre ich mich in dem Thema einfach nur ?

Exxtreme
2003-09-17, 11:13:05
Original geschrieben von Darkness
Aber woher kommt dann der Peformanceeinbruch unter OpenGL ?... ich mein wenn sie die Shaderperformance verbessern wollen hat das doch eigentlich wenig mit der Open GL Performance zu tun ?

Oder irre ich mich in dem Thema einfach nur ?
Ich glaube, das Teil ist nur auf eine Handvoll Applikationen optimiert und der Rest läuft halt langsamer... wie beim 20.80 seinerzeit. ;)

Winter[Raven]
2003-09-17, 11:13:17
@ Darkness

Serium Sam ist soweit ich weiss noch ein DX 7.1 Game (oder ?)und es verwendet somit keine Shader, nur das Hardware T&L.

Keine Ahnung was Nvidia da macht, der 51.71 ist Monate alt, und war wohl nur zum Rumspielen da. Vielleicht haben die sich erst auf die Shader konzentriert haben.

Also es ich ein Fehler? So ein 'bug' wie mir UT2k3? Dass glaubst du doch selber nicht!

Hör auf zu Flamen ... du weißt genau was Beta heißt.

StefanV
2003-09-17, 11:13:28
Original geschrieben von Gast
Es ist doch OGL da, welche soll da noch kommen. Etwa eine DirectX? :lol: Die kann es nur von M$ geben, und wirklich, niemand will noch eine zusätzliche.
Schau dir doch denn Markt an? Die Spiele die nicht auf DX basieren, laufen auf OGL, ergo Quake von ID. Und wenige sind das nicht, die Engine ist sehr populär.

Du vergisst aber, daß die D3 Engine für größere Außernareale nicht wirklich zu gebrauchen ist, da ist die Unreal Engine sowie die HL2 Engine besser...

Wobei letztere schon unter Beweis gestellt hat, daß sie von DX9 extensiv gebrauch macht...

Winter[Raven]
2003-09-17, 11:17:35
Du vergisst aber, daß die D3 Engine für größere Außernareale nicht wirklich zu gebrauchen ist, da ist die Unreal Engine sowie die HL2 Engine besser...

Wobei letztere schon unter Beweis gestellt hat, daß sie von DX9 extensiv gebrauch macht...

Also, ich stimme Razor zu, anscheinend besitzt unserer Mr. Payne eine Glasskugel. Wach auf Junge hast du ein Beweis dafür das die DOOM III Engine nicht inderlage dafür ist ? Hast du daheim die Finale Version der Engine ? Vor 3 Jahren meinten auch alle die Q3 Rngine wäre dafür nicht in der lage, und aufeinmal ging das doch ?.

Ich will jetzt nicht wieder irgend was hören von " ALLE oder DIE".

Iceman346
2003-09-17, 11:18:05
Original geschrieben von Radeonator@Work
1. Woher wollte ihr wissen das die NV30 in der finalen Version von HL2 sucked ?

Das der NV30 in der Final von HL2 suckt ist denk ich ziemlich sicher ;) Allenfalls der NV35 könnte ordentlich spielbar sein. Sehen wir wenn das Spiel da ist.

2. Wieviele DX9 Spiele sind Final vorhanden und in wievielen von diesen sucked die NV30 ??

Eines (Tomb Raider: AoD) ist in der Final vorhanden und der NV30 suckt in 100% davon ;) Ok, man kann auch noch Aquanox 2 mit Patch als DX9 Spiel zählen, aber afaik sind die NV3X Karten auch hier langsamer als ihre Radeon Pendants.

Um auf eure Spekulationen einzugehen, hier meine Rechnung:

Doom ist OGL basierend und afaik soll die NV30 dort eher schneller denn die R300 sein, genau das gleiche gilt für Stalker...steht also nach eurer Rechnung 2:1 für die NV30 , wieso also sollte die NV30 der DX9 loser sein ;)

Doom ist im ARB2 Pfad auf nem NV3X halb so schnell wie auf einer Radeon und wird erst im speziellen Nvidia Pfad flotter (Hallo HL2, Hallo Valve ;)). Und was Stalker angeht tappt man noch total im dunkeln, bisher gibts nur die Aussage das die NV3X Karten schneller sind als die Radeons - minimal. Wie die Programmierer das schaffen wird man sehen ;)

ShadowXX
2003-09-17, 11:18:18
Am coolsten finde ich allerdings die Rückwärtsrolle seitwärts von nV, was den neuen Detonator betrifft.

Zuerst beschweren Sie sich, dass diese nicht von Valve/den Testsites zum Benchen benutzt werden....und dann sind es plötzlich Treiber die 'auf keinem Computer installiert werden sollten....'....

ja ja....

J.S.Shadow

StefanV
2003-09-17, 11:23:53
Original geschrieben von Radeonator@Work
1. Woher wollte ihr wissen das die NV30 in der finalen Version von HL2 sucked ?
2. Wieviele DX9 Spiele sind Final vorhanden und in wievielen von diesen sucked die NV30 ???

Um auf eure Spekulationen einzugehen, hier meine Rechnung:

Doom ist OGL basierend und afaik soll die NV30 dort eher schneller denn die R300 sein, genau das gleiche gilt für Stalker...steht also nach eurer Rechnung 2:1 für die NV30 , wieso also sollte die NV30 der DX9 loser sein ;)
1. Weil wir wissen, wieviele Befehle eine NV30 und eine R300 ausführen kann...
~4 ops gegen in äußerst glücklichen Umständen 24ops ist schon ein 'kleiner' Unterschied...
2. wenn mein Hirn mich nicht täuscht, dann ists TR:AoD, Aquanox2 nutzt a bisserl wenig PS2.0...
Entweder ist die Performance der Radeon Chips bei TR:AoD gigantisch oder die der nV3x Chips unterirdisch, meinereiner tippt auf letzteres...

3. haben sich nicht schon wieder welche über die unglaubliche Shaderleistung des nV30 beschwert, nach Valve??
Die Frage wird doch sein, wer sich, außer Valve, noch mit nV anlegt.
Da Valve den ersten Schritt getan hat, dürften noch einige folgen...
Wobei JC himself ja schon mehr oder minder gesagt hat, daß die nV30 schlechte Shader hat, wenn man nicht gerad DX8 Shader nutzt...

Exxtreme
2003-09-17, 11:24:25
Original geschrieben von ShadowXX
Am coolsten finde ich allerdings die Rückwärtsrolle seitwärts von nV, was den neuen Detonator betrifft.

Zuerst beschweren Sie sich, dass diese nicht von Valve/den Testsites zum Benchen benutzt werden....und dann sind es plötzlich Treiber die 'auf keinem Computer installiert werden sollten....'....

ja ja....

J.S.Shadow
Nennt sich FUD.

*eienenfanta.dklinkpostenwillderwirklichzumthemapassenwürde*

StefanV
2003-09-17, 11:28:57
Original geschrieben von Winter[Raven]
Also, ich stimme Razor zu, anscheinend besitzt unserer Mr. Payne eine Glasskugel. Wach auf Junge hast du ein Beweis dafür das die DOOM III Engine nicht inderlage dafür ist ? Hast du daheim die Finale Version der Engine ? Vor 3 Jahren meinten auch alle die Q3 Rngine wäre dafür nicht in der lage, und aufeinmal ging das doch ?.

Ich will jetzt nicht wieder irgend was hören von " ALLE oder DIE".

Gab mal einige Threads zur Engine, in denen einige Moderatoren (AFAIK Zecke, ev auch Kai) sowas laut aussprachen...

Man kanns auch andersrum sehen, daß die D3 Engine für Indoor Levels besser ist...

Demirug
2003-09-17, 11:31:36
Original geschrieben von Stefan Payne
1. Weil wir wissen, wieviele Befehle eine NV30 und eine R300 ausführen kann...
~4 ops gegen in äußerst glücklichen Umständen 24ops ist schon ein 'kleiner' Unterschied...


Wenn du schon Peak benutzt dann bitte bei beiden. also 8 zu 24. Ist zwar immer noch traurig aber dann sind wir schon bei 1:3 und nicht bei 1:6. Ich würde aber wirklich gerne mal die Shader sehen die HL2 so benutzt.

MojoMC
2003-09-17, 11:42:26
Original geschrieben von Winter[Raven]
Tja, deswegen steht ja auch dort FETT Gedrückt: BETA ! Da müsste gedruckt stehen "Schlechter Scherz!"

Zuerst wird geheult, weil Valve und andere nicht den Treiber zum Benchen benutzt haben, obwohl man ja so eng mit denen zusammengearbeitet hat und der neue Deto ja auch alles rausholt.

Dann gibt es Benches und es passiert kaum etwas. Und dann ist es nur noch eine Beta-Version, die man nicht benutzen sollte? Auf einmal?

So eine Scheisse habe ich lange nicht mehr gesehen. Das soll mal einer mit Gegenargumenten entkräften.

Es gibt doch nur 3 Möglichkeiten: Entweder hat keiner bei nVidia vor der Veröffentlichung einen Bench mit dem neuen Deto gemacht oder sie hielten die Kunden für so blöde, dass sie die kaum gestiegene Performance nicht bemerken. Beides ziemlich unwahrscheinlich. Möglichkeit 3: Alles nur Marketinggeblubber, weil die nicht mehr schaffen können.

Beta ist der Treiber nicht, das ist nur Laberei. Viel weniger Perfomance-Steigerung als angekündigt und das auch noch mit schlechterer Qualität erkauft (was ich am schlimmsten finde) - das hat meine neutrale Meinung irgendwie erschüttert.

Al-CAlifAX
2003-09-17, 12:01:46
Original geschrieben von Gast
Es ist doch OGL da, welche soll da noch kommen. Etwa eine DirectX? :lol: Die kann es nur von M$ geben, und wirklich, niemand will noch eine zusätzliche.
Schau dir doch denn Markt an? Die Spiele die nicht auf DX basieren, laufen auf OGL, ergo Quake von ID. Und wenige sind das nicht, die Engine ist sehr populär.

OpenGL1.4, was fehlt is immernoch 1.5 oder 2.0 mit den ganuen neuen features aller möglichen grafikkarten und net nur der von ATi Richtlinien. Nur dauert des halt weil jeder graka hersteller seine features mit einbringen will. die einigen sich aber scho irgendwie.

Ich sage grundsätzlich. eine APi MUSS alle features untestützen. Natürlich sollte es einen Standard pfad geben. den gibts ja auch. und am ende ist es dem entwickler sein ding was er anwendet. aber das M$ bis heute weigert 2.0A offiziell einzibinden bzw. als SDk oder runtime freizugeben spricht für mich für keine gut APi. hier sind Monopolisten am werk.

Ich würde in jedem fall so denken. Ich fand es schon damals von 3dfx kacke mit glide. und werde auch dieses net toll finden. einseitige API`s bringen nur blödsinn. Deswegen hoffe ich auf den erfolg von Doom³ als engine mit Opengl 1.5 oder 2.0 damit auch M$ etwas dampf bekommt. tut denen auch mal gut ;) ausserdem werden so plattformen wie Mac oder Linux oder gar irgendwann des AmigaOS4.0/MorphOS damit unterstützt. ;)

Al-CAlifAX
2003-09-17, 12:13:45
Original geschrieben von MojoMC
Da müsste gedruckt stehen "Schlechter Scherz!"

Zuerst wird geheult, weil Valve und andere nicht den Treiber zum Benchen benutzt haben, obwohl man ja so eng mit denen zusammengearbeitet hat und der neue Deto ja auch alles rausholt.

Dann gibt es Benches und es passiert kaum etwas. Und dann ist es nur noch eine Beta-Version, die man nicht benutzen sollte? Auf einmal?

So eine Scheisse habe ich lange nicht mehr gesehen. Das soll mal einer mit Gegenargumenten entkräften.

Es gibt doch nur 3 Möglichkeiten: Entweder hat keiner bei nVidia vor der Veröffentlichung einen Bench mit dem neuen Deto gemacht oder sie hielten die Kunden für so blöde, dass sie die kaum gestiegene Performance nicht bemerken. Beides ziemlich unwahrscheinlich. Möglichkeit 3: Alles nur Marketinggeblubber, weil die nicht mehr schaffen können.

Beta ist der Treiber nicht, das ist nur Laberei. Viel weniger Perfomance-Steigerung als angekündigt und das auch noch mit schlechterer Qualität erkauft (was ich am schlimmsten finde) - das hat meine neutrale Meinung irgendwie erschüttert.

Rechtgeb was den Treiber betrifft. Und ich glaube immernoch nicht das sie es im treiber lösen werden. erst muss noch der 2.0A pfad ins DX9 rein und die entwickler müssen dann 2 seitig programmieren. Wie JC es ja auch tut. Ich sag nur soviel. Wenn HL² es net schafft gute performance aus den FX rauzukitzeln, es aber stalker und Doom³ schaffen werden. egal welcher programmieraufwand dafür nötig ist. Sind Valve der lacher der nation, es sei denn sie schaffen es bis dato viele entwickler auf ihre seite zu ziehen. nur dann sind wir wieder da wo wir damals bei 3dfx waren. denn ich halte die rampage entwicklung bei 3dfx immernoch für revolutionär, nur wollte sie am ende kaum ein entwickler richtihg einsetzen. erst als M$ mit DX8 die ersten features ankündigte aber da wars eh schon zu spät für 3dfx. heute sind diese erfindungen weiterentwickelt wurdem. Traurig sowas :( und ich denke NV wirds ähnlich gehen im consumer markt. :(

[dzp]Viper
2003-09-17, 12:21:48
Original geschrieben von Stefan Payne
Gab mal einige Threads zur Engine, in denen einige Moderatoren (AFAIK Zecke, ev auch Kai) sowas laut aussprachen...

Man kanns auch andersrum sehen, daß die D3 Engine für Indoor Levels besser ist...

du hast zu 50 % recht :)

heutzutage sollte man unterscheiden:

1. Kleine outdoorlvl wie damals in HL1

das wird die D3 engine darstellen können (sieht man auch schon in verschiedenen videos)

2. Große outdoorlvls like BF1942 - Unreal 2 - HL2,...

das wird die D3 engine wohl nicht richtig darstellen können, da da einfach die rechenpower fehlen wird ...

-----

Auch die Q3 engine kann bis heute keine "richtigen" aussenlvls darstellen. Die q3 aussenlvls sind alle ziemlich klein (wenn sie detailiert sind) oder sehr detailarm (wenn sie sehr groß sind)

bestes beispiel

JK academy

Da gibt es ein LVL wo man auf einem motorad durch die gegen fährt - es ist ein aussenlvl aber SEHR deatilarm (also links ne wand - rechts ne wand ) das ganze zieht sich aber sehr sehr lang hin. (war aber langweilig und dumm)

dann als gegenbeispiel - Mohaa

die lvls waren sehr detailiert, aber sehr oft wurde nachgeladen. (was manchmal schon arg genervt hat)

Matrix316
2003-09-17, 12:23:00
Original geschrieben von Al-CAlifAX

Ich sage grundsätzlich. eine APi MUSS alle features untestützen.

Aber gibt nicht die API (zumindest Direct X) die Features vor, welche die Hardware haben sollte? Oder wie oder was...???

Darkness
2003-09-17, 12:25:36
Original geschrieben von Winter[Raven]
@ Darkness

Serium Sam ist soweit ich weiss noch ein DX 7.1 Game (oder ?)und es verwendet somit keine Shader, nur das Hardware T&L.

Keine Ahnung was Nvidia da macht, der 51.71 ist Monate alt, und war wohl nur zum Rumspielen da. Vielleicht haben die sich erst auf die Shader konzentriert haben.



Hör auf zu Flamen ... du weißt genau was Beta heißt.

Ich meinte eigentlich Serious Sam 2 das schon ein Direct X 8.0 Spiel ist, aber hauptsächlich Open GL Befehle nutzt.

Im Prinzip ist es ja okay wenn wie´s Exxtreme sagte ein Beta Treiber ist, trotzdem würde ich es nur ungerne sehen wenn Spiele mit zukünftigen Open GL langsamer laufen als ihre Direct X Konkurrenten bloss weil die Grafikkartenhersteller meinen "rumzuoptimieren" auf kosten der Qualität

Al-CAlifAX
2003-09-17, 12:29:24
Original geschrieben von Matrix316
Aber gibt nicht die API die Features vor, welche die Hardware haben sollte? Oder wie oder was...???

Nein blödsinn. Die IHV'S geben ihre ideen an den APi entwickler und dieser sucht sich natürlich den mittelweg ist klar und auch richtig. damit jeder sein eigenes süppchen macht. nur ist es auch so das hardwar immer unterscheidlich regagiert. also müssen diverse extras mit rein die dem Standard helfen könnten. wie compiler etc. Dies ist aber derzeit bei DX9 imho net der fall. (zum. im falle von NV)

Aber ich denke es ist eh aus für NV. der XabreII (V8) hälts ich vollends an die DX9 standards. Damit ist es das aus für die ideen von NV. Ich finds kacke. Jetzt muss NV hinterkriechen. und da Ati eh die X-Box gesichert hat. wird das sich auch net ändern. den M$ wird nen teufel tun den ihre ideen in zukünftige API`s einzubauen. Das könnte ja ihrer X-Box2 schaden :P

Ach voll mist sag ich da nur. M$ gehört an die wand gestellt :P *scherz*

[dzp]Viper
2003-09-17, 12:33:49
Original geschrieben von Al-CAlifAX
Nein blödsinn. Die IHV'S geben ihre ideen an den APi entwickler und dieser sucht sich natürlich den mittelweg ist klar und auch richtig. damit jeder sein eigenes süppchen macht. nur ist es auch so das hardwar immer unterscheidlich regagiert. also müssen diverse extras mit rein die dem Standard helfen könnten. wie compiler etc. Dies ist aber derzeit bei DX9 imho net der fall. (zum. im falle von NV)

Aber ich denke es ist eh aus für NV. der XabreII (V8) hälts ich vollends an die DX9 standards. Damit ist es das aus für die ideen von NV. Ich finds kacke. Jetzt muss NV hinterkriechen. und da Ati eh die X-Box gesichert hat. wird das sich auch net ändern. den M$ wird nen teufel tun den ihre ideen in zukünftige API`s einzubauen. Das könnte ja ihrer X-Box2 schaden :P

Ach voll mist sag ich da nur. M$ gehört an die wand gestellt :P *scherz*

OT:
kann das sein das ":P" dein markenzeichen ist ?

dann füge es auch als dein avatar ein ;)

HOT
2003-09-17, 12:35:09
Original geschrieben von ow
Liegt daran, dass es keinen R300-ATI-Pfad geben kann, weil ATi keine Features beherrscht, die über GL2 hinausgehen und es somit auch keine Extension gibt.

btw. gibt´s in D3 einen R(V)2x0 und auch NV2x Pfad. Wo siehst du da eine Bevorzugung?

Es gibt einen NV3x Pfad, da ist die Bevorzugung ;)

MojoMC
2003-09-17, 12:41:53
Original geschrieben von Al-CAlifAX
Wenn HL² es net schafft gute performance aus den FX rauzukitzeln, es aber stalker und Doom³ schaffen werden. egal welcher programmieraufwand dafür nötig ist. Sind Valve der lacher der nation, es sei denn sie schaffen es bis dato viele entwickler auf ihre seite zu ziehen.Hmm...

Auch bei aktuellen Spielen sehe ich einen Unterschied. Zwar sind die Topmodelle beider Karten ziemlich gleichauf. Aber die Preise nicht!

Das Verhältnis fps pro Euro ist immer noch sehr ungleich... Und es wird bestimmt nicht von heute auf morgen mit einem "Zauber-Treiber" besser...

Al-CAlifAX
2003-09-17, 12:47:53
Original geschrieben von [dzp]Viper
OT:
kann das sein das ":P" dein markenzeichen ist ?

dann füge es auch als dein avatar ein ;)

jo ich chatte eindeutig zuviel und da früher einige meine doch sehr sarkastischen ausdrucksweisen missverstanden haben, setze ich öfter ein :P oder :D als manchen lieb ist hihi

Original geschrieben von MojoMC
Hmm...

Auch bei aktuellen Spielen sehe ich einen Unterschied. Zwar sind die Topmodelle beider Karten ziemlich gleichauf. Aber die Preise nicht!

Das Verhältnis fps pro Euro ist immer noch sehr ungleich... Und es wird bestimmt nicht von heute auf morgen mit einem "Zauber-Treiber" besser...

Naja ich glaube an keinen wundertreiber ohne M$. ohne den 2.0A pfad. und ausserdem ist die Cg leistung noch zu schlecht. was technisch die karte könnte mit der richtigen programmierung is ne andere sache. derzeit siehts einfach mal düster aus. und die derzeitigen experimente (lichtausfall und AF) heisse ich genauso wenig gut wie andere. wobei ATi da auch keine ausnahme macht. ich habe schon früher benchmarks gehasst und werde es auch heute tun. denn die haben erst dazu geführt das wir heute so ne cheaterei haben :(

Tesseract
2003-09-17, 12:50:28
Original geschrieben von HOT
Es gibt einen NV3x Pfad, da ist die Bevorzugung ;)

wär es also sinnvoller den ARB2 pfad zu kopieren und einen in R300 umzubenennen?

wie gesagt, der ARB2 pfad ist ziemlich gut an die R300 angepasst und bietet die optimale bildquallität, die man aus doom3 rausholen kann ohne dabei leistung der R300 zu verschwenden
alternativ kann man dann noch R200 verwenden was die bildquallität etwas vermindert aber auch schneller sein sollte

ShadowXX
2003-09-17, 12:57:03
Original geschrieben von Tesseract
wär es also sinnvoller den ARB2 pfad zu kopieren und einen in R300 umzubenennen?

wie gesagt, der ARB2 pfad ist ziemlich gut an die R300 angepasst und bietet die optimale bildquallität, die man aus doom3 rausholen kann ohne dabei leistung der R300 zu verschwenden
alternativ kann man dann noch R200 verwenden was die bildquallität etwas vermindert aber auch schneller sein sollte

Man könnte sich aber auch die mühe machen und den Pfad expliziet an den r3x0 anzupassen....geschiet ja auch beim nv30.....

Das ist ein im Kreis gedrehe...
Die die sich eine FX gekauft haben, sehen den nv30 Pfad natürlich nicht als Extrawurst, sondern als Optimierung (damit ist jetzt nicht cheaten gemeint) auf ihre Grafikkarte. Und das ist auch völlig legitim.

Die ATI User sehen natürlich nur, das sich JC nicht die mühe macht nochmal speziel auf den r3x0 zu Optimieren.
(Da ist es auch egal, wie toll die r3x0 schon unter ARB2 ohne optimierung läuft...).
Und das finden diese wiederum nicht so toll.....

J.S.Shadow

Tesseract
2003-09-17, 13:13:06
Original geschrieben von ShadowXX
(Da ist es auch egal, wie toll die r3x0 schon unter ARB2 ohne optimierung läuft...)

genau auf das kommt es aber an
für 1% mehr leistung wird JC kein neues backend schreiben

für die R200 mach das sinn weil es da einiges bringt
für die R300 scheinbar nicht besonders viel

natürlich ist es mir lieber wenn es einen R300 pfad gibt weil ich selbt eine 9700pro verwende, aber vorwurf mache ich JC für diese entscheidung sicher keinen weil der unterschied ziemlich minimal ausfallen dürfte

ShadowXX
2003-09-17, 13:44:35
Original geschrieben von Tesseract
genau auf das kommt es aber an
für 1% mehr leistung wird JC kein neues backend schreiben

für die R200 mach das sinn weil es da einiges bringt
für die R300 scheinbar nicht besonders viel

natürlich ist es mir lieber wenn es einen R300 pfad gibt weil ich selbt eine 9700pro verwende, aber vorwurf mache ich JC für diese entscheidung sicher keinen weil der unterschied ziemlich minimal ausfallen dürfte

Und woher willst du das wissen??
Nur weil es JC 'gesagt' hat (wobei ich mich nicht an eine solche Äusserung erinnern kann)??
Er bekommt von nV Geld für einen nV30-Optimierten Pfad...das sagt momentan eigentlich alles.....

JMSC
2003-09-17, 13:46:24
Wenns sich nur um 1% handelt dann ist das ja auch halb so wild aber bei HL2 ist es doch enorm (vielleicht). Da hätte Value sicher Optimierungsbedarf gehabt falls es wirklich so ein Krasser unterschied zwischen R300 und NV30 geben wird.

Aber wie schon gesagt ich glaube den Benches erst wenn das Game Final ist und am Markt erhältlich ist, sprich die Ergebnisse von unabhängigen Testern bestätigt werden.

mfg

Tesseract
2003-09-17, 14:05:13
Original geschrieben von ShadowXX
Und woher willst du das wissen??

ich weiß es nicht, aber ich vermute es weil einiges darauf hindeutet

(die 1% waren eine hausnummer für "wenig unterschied" und kein messwert oder derartiges - falls das jemand falsch verstanden hat)

Crushinator
2003-09-17, 14:08:52
Ach Leute, die Diskussion hatten wir schon so oft, und ow hat in dem Punkt recht, daß die R3x00 keine Features anbieten, welche über ARB2 hinausgehen, und erreichen damit die höchstmögliche Qualität. Außerdem ist der R200-Pfad auf den R3x00 laut Carmack schneller, und wenn man möchte kann man ja auch diesen einstellen. Fakt ist einfach, daß der NV3x-Pfad durch die geringere Präzision (höher wird von der Eingine schlicht nicht benötigt) auf den entsprechenden Karten schneller läuft. Auch durch den höheren Takt der NV3x und besserer Auslegung auf Stencil*.*-Berechnung ergibt sich nunmal der Vorteil für die genannten Karten.

Ich glaube also NICHT an eine bewußte Bevorzugung seitens ID, zumal ich nicht mal glaube, daß im fertigen Game wirklich große Performance-Unterschiede zwischen beiden GPUs zu beobachten wären.

Also, abwarten und Tee Rauchen, sag' ich dazu.

/edit: R200-Pfad ist auf R3x00 auch NICHT schneller als NV3x-Pfad auf NV3x, bevor die Frage kommt.

/edit2: Meine Grammatik war/ist grauenvoll!!

ShadowXX
2003-09-17, 14:12:15
Original geschrieben von crushinator
Ach Leute, die Diskussion hatten wir schon so oft, und ow hat in dem Punkt recht, daß die R3x00 keine Features anbieten, welche über ARB2 hinausgehen, und erreichen damit die höchstmögliche Qualität. Außerdem ist der R200-Pfad auf den R3x00 laut Carmack schneller, und wenn man möchte kann man ja auch diesen einstellen. Fakt ist einfach, daß der NV3x-Pfad durch die geringere Präzision (höher wird von der Eingine schlicht nicht benötigt) auf den entsprechenden Karten schneller läuft. Auch durch höheren takt der NV3x und besserer Auslegung auf Stencil*.*-Berechnung ergibt sich nunmal den Vorteil für die genannten Karten.

Ich glaube also NICHT an eine bewußte Bevorzugung seitens ID, zumal ich nicht mal glaube, daß im fertigen Game wirklich große Performance-Unterschiede zwischen beiden GPUs zu beobachten wäre.

Also, abwarten und Tee Rauchen, sag' ich dazu.

/edit: R200-Pfad ist auf R3x00 auch NICHT schneller als NV3x-Pfad auf NV3x, bevor die Frage kommt.

Du hast ja recht...
aber wenn einer der beiden üblich Verdächtigen Geld hinzuschiesst werde ich misstrauisch.....

J.S.Shadow

Winter[Raven]
2003-09-17, 14:14:41
Auch die Q3 engine kann bis heute keine "richtigen" aussenlvls darstellen. Die q3 aussenlvls sind alle ziemlich klein (wenn sie detailiert sind) oder sehr detailarm (wenn sie sehr groß sind)

bestes beispiel

JK academy

Da gibt es ein LVL wo man auf einem motorad durch die gegen fährt - es ist ein aussenlvl aber SEHR deatilarm (also links ne wand - rechts ne wand ) das ganze zieht sich aber sehr sehr lang hin. (war aber langweilig und dumm)

dann als gegenbeispiel - Mohaa

die lvls waren sehr detailiert, aber sehr oft wurde nachgeladen. (was manchmal schon arg genervt hat)

Schau dir Call of Duty und sag das nochmal, den die Levels sind rießen groß aber vom Detailgrad und vergetation auf indoor neveu !

Demirug
2003-09-17, 14:14:54
Original geschrieben von crushinator
Ich glaube also NICHT an eine bewußte Bevorzugung seitens ID, zumal ich nicht mal glaube, daß im fertigen Game wirklich große Performance-Unterschiede zwischen beiden GPUs zu beobachten wäre.

Ich gehe sogar soweit zu vermuten das es Räume geben wird in denen ATI etwas schneller ist und Räume in denen nV gewinnt.

[dzp]Viper
2003-09-17, 14:19:17
Original geschrieben von Winter[Raven]
Schau dir Call of Duty und sag das nochmal, den die Levels sind rießen groß aber vom Detailgrad und vergetation auf indoor neveu !

im vergleich zu anderen outdoorlvls wie bei unreal 2 - HL2(video) - battlefield - ... ist das outdoorlvl in COD nicht besonders groß ;)

man läuft in der demo nämlich zickzack ... kannste ja mal nachverfolgen ;)

die weitsicht is eine sehr gute täuschung :)

Iceman346
2003-09-17, 14:19:35
Original geschrieben von Winter[Raven]
Schau dir Call of Duty und sag das nochmal, den die Levels sind rießen groß aber vom Detailgrad und vergetation auf indoor neveu !

Dann schau mal wie lange das gendauert hat. Quake 3 kam 99 raus, CoD erscheint 2003. Ergo dürfen wir dann so gegen 2008 mit Aussenleveln auf Basis der Doom 3 Engine rechnen ;)

ShadowXX
2003-09-17, 14:23:04
Original geschrieben von Iceman346
Dann schau mal wie lange das gendauert hat. Quake 3 kam 99 raus, CoD erscheint 2003. Ergo dürfen wir dann so gegen 2008 mit Aussenleveln auf Basis der Doom 3 Engine rechnen ;)

Dazu kommt, dass laut den Entwicklern von CoD, kaum noch was vom Q3 Grundgerüst übrig ist.

J.S.Shadow

Al-CAlifAX
2003-09-17, 14:28:46
Original geschrieben von ShadowXX
Dazu kommt, dass laut den Entwicklern von CoD, kaum noch was vom Q3 Grundgerüst übrig ist.

J.S.Shadow

Daran sieht man doch aber mal wie Flexibel und steigerbar diese Engine ist/war. ;)

Gil-galad
2003-09-17, 15:08:05
Original geschrieben von Al-CAlifAX
Daran sieht man doch aber mal wie Flexibel und steigerbar diese Engine ist/war. ;)

Nein, das zeigt das die Engine nicht so flexibel ist. Wenn man erst 80 - 90 % der Engine umschreiben muss damit man große Außenareale erstellen kann, dann zeugt das nicht von Flexibilität.

Aquaschaf
2003-09-17, 16:48:35
Original geschrieben von ShadowXX
Man könnte sich aber auch die mühe machen und den Pfad expliziet an den r3x0 anzupassen....geschiet ja auch beim nv30.....

AFAIK ist ARB2 doch schon genau das was dem R3xx schmeckt, da kann/braucht nicht mehr optimiert zu werden.

ShadowXX
2003-09-17, 17:12:47
Original geschrieben von Aquaschaf
AFAIK ist ARB2 doch schon genau das was dem R3xx schmeckt, da kann/braucht nicht mehr optimiert zu werden.

Es ging mir weniger darum ob ARB2 schon ideal ist......

Gast
2003-09-17, 17:39:43
Original geschrieben von Al-CAlifAX
Aber ich denke es ist eh aus für NV. der XabreII (V8) hälts ich vollends an die DX9 standards. Damit ist es das aus für die ideen von NV. Ich finds kacke. Jetzt muss NV hinterkriechen. und da Ati eh die X-Box gesichert hat. wird das sich auch net ändern. den M$ wird nen teufel tun den ihre ideen in zukünftige API`s einzubauen. Das könnte ja ihrer X-Box2 schaden :P

Ach voll mist sag ich da nur. M$ gehört an die wand gestellt :P *scherz*

Oh man ist Microsoft böse.
Ist schön wenn man immer irgendwem den schwarzen Peter zuschieben kann. :crazy:

Al-CAlifAX
2003-09-17, 18:21:20
Original geschrieben von Gast
Oh man ist Microsoft böse.
Ist schön wenn man immer irgendwem den schwarzen Peter zuschieben kann. :crazy:

Naja ind 3-4 jahren werden die, die jetzt noch für M$ sind mich verstehen. ich war auch einige jahre für NT (bin von Mac und AmigaOS3.9 gekommen) Win9x habe ich tunlichst gemeidet ;). habe seit 1 jahr debian druff und bin vollends zufrieden. und da gibts net so ne geldmacherei und buhlerei. is nervig. TCPA is zum glück bei debian net geplant. also weg mit Mickysoft :P

R360
2003-09-17, 19:02:53
Original geschrieben von Gast
Oh man ist Microsoft böse.
Ist schön wenn man immer irgendwem den schwarzen Peter zuschieben kann. :crazy:

Tja, den Schuh muss sich ganz klar nv anziehen!

LovesuckZ
2003-09-17, 19:07:54
Original geschrieben von R360
Tja, den Schuh muss sich ganz klar nv anziehen!

Dafür, dass MS nur ein ATi -freundliches Compiler Profil anbietet?
...

mapel110
2003-09-17, 19:16:57
Original geschrieben von LovesuckZ
Dafür, dass MS nur ein ATi -freundliches Compiler Profil anbietet?
...

dafür, dass sie keinen m$ compiler freundlichen chipsatz gebaut haben

R360
2003-09-17, 19:22:07
Original geschrieben von LovesuckZ
Dafür, dass MS nur ein ATi -freundliches Compiler Profil anbietet?
...

dafür das millionen kunden mit ihrer FX-5X-Serie keine 100% DX9 MS Features nutzen können..

ich bin ja mal auf longhorn gespannt & PCI Express wird auch nicht gerade lustig für nv.

:asshole:

mayo
2003-09-17, 19:23:48
Original geschrieben von mapel110
dafür, dass sie keinen m$ compiler freundlichen chipsatz gebaut haben


Die Chipentwicklung startete bevor die final Spezifikationen von DX9 fertig waren und zu dem Zeitpunkt gab sicher auch noch nicht den MS HLSL.

Al-CAlifAX
2003-09-17, 19:24:30
Original geschrieben von mapel110
dafür, dass sie keinen m$ compiler freundlichen chipsatz gebaut haben

wenn ich sowas immer höre. man die software ist schneller angepasst als eine hardware, zumal in diesem falle die hardware scho aufm markt ist. und wenn ich des immer höre, schuh anziehen. schwachsinn. M$ soll endlich mal mit den spielchen aufhören.

Ich kann doch als Autoverkäufer auch net sagen. sorry der neue BMW is net für behinderte. sie können damit net fahren. sie hätten sich anpassen sollen. Dumme frage: was ist wohl einfacher? der behinderte wird wieder gesund? das auto wird angepasst? *ggg*

LovesuckZ
2003-09-17, 19:24:33
Original geschrieben von mapel110
dafür, dass sie keinen m$ compiler freundlichen chipsatz gebaut haben

Dir ist bewusst, dass DX9 erst rauskam als beide Design schon fertig waren?

R360
2003-09-17, 19:32:07
Zu behaupten: MS habe mit DX9 ATI oder nv gegeneinander ausgespielt ist irrsinn.

nv hat 70% Marktanteil im PC-Business
nv hatte bisher mehr als 60% Marktanteil bei Consumer
ich könnte die Liste gerne weiterführen:

ATI war bisher immer nur im Hintergrund geblieben, erst durch die ersten DX9-Anwednungen kommt jetzt erst der Vorteil von ATI gegeüber nv raus. Das liegt aber an den Entwicklern und nicht an MS.

MS wäre wahnsinnig sich bewußt MILLIONEN von Käufern zu vergraulen für DX9 Anwendungen nur um weniger als 30% Marktanteil von ATI bevorteilt zu bedienen.

Matrix316
2003-09-17, 20:12:20
Original geschrieben von LovesuckZ
Dir ist bewusst, dass DX9 erst rauskam als beide Design schon fertig waren?

Nur mich irritiert, dass die Firma, deren Chips als erste fertig waren, die bessere Hardware hat. Normal ist es doch immer umgekehrt, dass die Firma die sich Zeit lässt, die besseren "Karten" (wortwörtlich sogar) hat.

[dzp]Viper
2003-09-17, 20:20:43
Original geschrieben von Matrix316
Nur mich irritiert, dass die Firma, deren Chips als erste fertig waren, die bessere Hardware hat. Normal ist es doch immer umgekehrt, dass die Firma die sich Zeit lässt, die besseren "Karten" (wortwörtlich sogar) hat.

die fx5800 ultra kam ja auch mit einem halben jahr verspätung raus .. wenn alles geklappt hätte, wäre sie vor der 9700 gekommen - also die graka an sich, war vielleicht sommer2002 fertig - nur mit dem prouktionsprozess hatten sie ja die derben probleme ... aber das ist geschichte

Al-CAlifAX
2003-09-17, 20:46:26
Original geschrieben von R360
Zu behaupten: MS habe mit DX9 ATI oder nv gegeneinander ausgespielt ist irrsinn.

nv hat 70% Marktanteil im PC-Business
nv hatte bisher mehr als 60% Marktanteil bei Consumer
ich könnte die Liste gerne weiterführen:

ATI war bisher immer nur im Hintergrund geblieben, erst durch die ersten DX9-Anwednungen kommt jetzt erst der Vorteil von ATI gegeüber nv raus. Das liegt aber an den Entwicklern und nicht an MS.

MS wäre wahnsinnig sich bewußt MILLIONEN von Käufern zu vergraulen für DX9 Anwendungen nur um weniger als 30% Marktanteil von ATI bevorteilt zu bedienen.

Ne denk ma weiter, die X-Box2 wird mit Ati verbaut. Die können es sich garnet leisten. Selbst wenn NV jetzt die Hammerhardware aufbringen würde, würde nix bringen für DX10. Das ist mit Ati und X-Box2 und DX10 schon alles abgeklärt. Das kann sich nen dummer zusammenreimen. Stell dir mal vor wie M$ dastehen würde wenn die sich mit Ati zusammentun und am ende würde NV aufm PC rocken. Wer will dann ne X-Box2? Und bevor jetzt jeder sagt M$ hat mit Ati die besser wahl, mag des im preis stimmen. den R500 kennt keiner von uns genauso weniig wie den NV40 oder nachfolgende vllt sogar DX10 karten. Mir war es von anfang komisch das Ati mit DX9 worb bevor überhaupt DX9 draussen war. Also da riecht was falsch in dem Busch. Natürlich könnte man jetzt sagen, na gut kaufen wir uns halt Ati karten und damit wäre es gegessen. Man denkt ihr wirklich die bleiben so billig wenn es keine Konkurrenz geben wird? Wer soll denn kommen? Denkt ihr das M$ das zulässt im angesicht der X.Box2. Sowas nennt man marketing. denen war NV zu teuer und zu streittüchtig und wollte zuviel ihren eigenen kopf durchsetzen. ATi scheinbar net. Ich mag Ati Karten weil sie gut sind. Ich mag aber auch Nv karten. Und ich mochte vor allem 3dfx karten. Und ich kann nur hoffen das net alle hersteller den HLSL standard nehmen. So das der markt relativ durchwachsen wird in beide richtung. nur in eine richtung wäre es mist für die zukunft. Punkt ;)

StefanV
2003-09-17, 20:52:57
Original geschrieben von LovesuckZ
Dafür, dass MS nur ein ATi -freundliches Compiler Profil anbietet?
...

LS, schau dir mal DAS an:


ATI R300/R350 -> Peak 24 DX9 Ops/Takt
NV, NV30 -> Peak 8 Ops/Takt, NV35 -> Peak 12 Ops/Takt.

So, und jetzt sag mir mal, wie nV gegen die Brachiale Gewalt der ATI Chips 'ne Chance hat??

Zur Info: der RV350 dürfte immer noch 12 Ops/Takt hinbekommen...

Matrix316
2003-09-17, 20:57:21
Original geschrieben von Stefan Payne
LS, schau dir mal DAS an:


ATI R300/R350 -> Peak 24 DX9 Ops/Takt
NV, NV30 -> Peak 8 Ops/Takt, NV35 -> Peak 12 Ops/Takt.

So, und jetzt sag mir mal, wie nV gegen die Brachiale Gewalt der ATI Chips 'ne Chance hat??

Zur Info: der RV350 dürfte immer noch 12 Ops/Takt hinbekommen...

Das sieht genauso aus wie die HL² Benchmarks, vom Verhältnis her. ;)

zeckensack
2003-09-17, 21:00:54
Original geschrieben von Stefan Payne
LS, schau dir mal DAS an:


ATI R300/R350 -> Peak 24 DX9 Ops/Takt
NV, NV30 -> Peak 8 Ops/Takt, NV35 -> Peak 12 Ops/Takt.

So, und jetzt sag mir mal, wie nV gegen die Brachiale Gewalt der ATI Chips 'ne Chance hat??

Zur Info: der RV350 dürfte immer noch 12 Ops/Takt hinbekommen... In Wahrheit ist es noch viel schlimmer.
Du kannst auf NV3x unmöglich den Peak erreichen. Auf ATI verlierst du höchstens die Chance, Texturops zu machen, aber auch nur dann, wenn du sowieso keine Textursamples machst. Es sind dort also eher 16, und Textursampling ist 'for free'.
Diese 16 erreicht man auch spielend. Absoluter worst case sind 8.

Auf NV3x ist der absolute worst case so dermaßen schlimm, darüber will ich nicht sprechen müssen.

Black-Scorpion
2003-09-17, 21:14:18
Original geschrieben von Al-CAlifAX
Ne denk ma weiter, die X-Box2 wird mit Ati verbaut. Die können es sich garnet leisten. Selbst wenn NV jetzt die Hammerhardware aufbringen würde, würde nix bringen für DX10. Das ist mit Ati und X-Box2 und DX10 schon alles abgeklärt. Das kann sich nen dummer zusammenreimen.
Ich hoffe mal, das du den Unfug den du geschrieben hast nicht ernst meinst. Den das ist absoluter Schwachsinn.

Mir war es von anfang komisch das Ati mit DX9 worb bevor überhaupt DX9 draussen war. Also da riecht was falsch in dem Busch.
NV wäre mit der FX5800 vor ATI gewesen, wenn sie nicht solche Probleme gehabt hätten.
Und sie haben auch mit DX9 geworben.

[dzp]Viper
2003-09-17, 21:16:43
Original geschrieben von zeckensack
Auf NV3x ist der absolute worst case so dermaßen schlimm, darüber will ich nicht sprechen müssen.

ach nun tu nicht so .. NV kann das schon mit treibern ändern .... der deto 60.xx wird das schon schaffen .. ihr werdet noch sehen :D

/achtung - die soll ironie sein ... :D

Al-CAlifAX
2003-09-17, 21:17:06
Original geschrieben von Anonym_001
Ich hoffe mal, das du den Unfug den du geschrieben hast nicht ernst meinst. Den das ist absoluter Schwachsinn.


NV wäre mit der FX5800 vor ATI gewesen, wenn sie nicht solche Probleme gehabt hätten.
Und sie haben auch mit DX9 geworben.

Das sind Theorien die ich aufstelle. Fakten sind das im derzeitigen Rendermodus FX schlecht performen um faktor 2 ;)

Demirug
2003-09-17, 21:30:23
Original geschrieben von zeckensack
In Wahrheit ist es noch viel schlimmer.
Du kannst auf NV3x unmöglich den Peak erreichen. Auf ATI verlierst du höchstens die Chance, Texturops zu machen, aber auch nur dann, wenn du sowieso keine Textursamples machst. Es sind dort also eher 16, und Textursampling ist 'for free'.
Diese 16 erreicht man auch spielend. Absoluter worst case sind 8.

Auf NV3x ist der absolute worst case so dermaßen schlimm, darüber will ich nicht sprechen müssen.

Es ist möglich den Peak bei einem NV3X zu erreichen. Allerdings sind die Fälle bei denen es funktioniert derzeit eher rar gesät.

Der absolute Worst case liegt beim R300 leider nicht bei 8 sondern darunter. Dafür muss man aber einen einen unausgelichenen Dependent Read PS schreiben. ATI gibt an das man nach möglichkeit nicht über 2 dependet levels gehen sollte.In diesen Fällen kann der Treiber die noch freien Depent-Levels wohl nutzen um ein bischen was zu verschieben.

Unterschiedliche Texturefilter in unterschiedlichen Dependet Levels können das Problem verstärken.

Black-Scorpion
2003-09-17, 21:35:48
Original geschrieben von Al-CAlifAX
Das sind Theorien die ich aufstelle. Fakten sind das im derzeitigen Rendermodus FX schlecht performen um faktor 2 ;)
Es gibt aber bestimmt einige im Forum, die solche Theorien gerne aufgreifen. ;)
Deshalb sollte man es entweder Kennzeichnen oder lassen.
Wir wissen doch wo das sonst wieder endet.
Und das muß ja nun nicht sein.

R360
2003-09-17, 22:16:56
das ist zwar richtig das ATI als erster DX9 hatte, unbestritten wird jedoch für euch alle sein, das nv seit ca. 1 Jahr den Kunden eine FX5200 mit angeblicher DX9-Performance verkauft, das war als Marketinggag clever gedacht.

erst wurde APG 8X schnell zum Standard und es ist ja auch aufgegangen, soviele PC mit FX wie es heute gibt ist schon wahnsinnig, aber alle ohne ausreichende DX9 Performance, da rächt sich das Marketingtool DX9 für nv.

für die Ti4200 gab es vom Preis & Leistungsverhälnis ja keinen Nachfolger und das war die beste karte bisher von nv.

Al-CAlifAX
2003-09-17, 22:35:01
FX5000? kenne ich net. was solln da fürn chip druff sein?

Ich kenne nur Fx5200, FX5600 und FX5800/5900/u

R360
2003-09-17, 23:20:17
Spielwiese!

Der Herzog
2003-09-18, 13:11:27
Nachdem hier gerade das grosse Steinewerfen in alle möglichen Richtungen anfängt möchte ich auch noch was loswerden:

Wenn es in dem ATI - NVidia Vergleich darum geht wer eher betrügen wird muss man ganz klar NVidia nennen. NVidia war auch einer der wenigen Hersteller (neben Intel), der Verkäufer aktiv dazu aufgerufen hat die Konkurrenz schlecht zu machen. Wenn dieser Hersteller jetzt anfängt Benchmarks zu optimieren und sonstiges spricht das wohl für sich. Daher geht derzeit die Krone im 3D-Bereich verdient an ATI.

Was die nächste XBox-Generation angeht hätte ich auch noch was zu sagen. Auch wenn Microdollar sagen sie würden ATI als Grafikchip nehmen sollte man sich nicht darauf verlassen. Auch bei der letzten XBox hat M$ zunächst verkünden lassen "Wir kooperieren mit ATI". Das Ergebnis ist Geschichte.

Quasar
2003-09-18, 13:35:28
Original geschrieben von R360
Zu behaupten: MS habe mit DX9 ATI oder nv gegeneinander ausgespielt ist irrsinn.

Falsch. Einmal um die Ecke gedacht ist es sogar das einzige, was Sinn ergibt.

Mal rein spekulativ betrachtet: Was wäre, wenn der nV30 ein Mega-Hammer geworden wäre und ATis R300 in der Versenkung verschwunden wäre?

Richtig, nV hätte auf >80% Marktanteil ausgebaut und zu beinahe 100% das Retailgeschäft dominiert.

Die Folge davon?
Auch richtig: MS kann sich seine DX-Spec sonstwohin schmieren, nV hätte die Macht, ihre Vorstellung durchzusetzen.

So etwas ähnliches hat MS ja schon zu DX8-Zeiten mit der XBox erlebt: Es gab keine realistische Alternative zu nV und die haben das natürlich gnadenlos ausgenutzt. Dazu noch der Streit um die Senkung der nV2A-Preise für die XBox Anfang letzten Jahres und schon ergibt das Ganze einen Sinn (wenn man auch ein gewisses Mindestmaß an Paranoia dafür haben muss).


edit:
Bevor ich wieder mal falsch verstanden werde: Ich will nicht sagen, daß es wirklich so war, sondern nur, daß es für MS durchaus einen Sinn ergeben hätte, den Markt 'gerechter' zu verteilen.

Quasar
2003-09-18, 13:38:23
Original geschrieben von R360
[...]unbestritten wird jedoch für euch alle sein, das nv seit ca. 1 Jahr den Kunden eine FX5200 mit angeblicher DX9-Performance verkauft,[...]

Doch, das bestreite ich. Auf der diesjährigen CeBit habe ich z.B. das erste mal eine lauffähige FX5200 gesehen.
Von einem Jahr ist das noch weit entfernt.

ShadowXX
2003-09-18, 14:15:03
Original geschrieben von Quasar
Falsch. Einmal um die Ecke gedacht ist es sogar das einzige, was Sinn ergibt.

Mal rein spekulativ betrachtet: Was wäre, wenn der nV30 ein Mega-Hammer geworden wäre und ATis R300 in der Versenkung verschwunden wäre?

Richtig, nV hätte auf >80% Marktanteil ausgebaut und zu beinahe 100% das Retailgeschäft dominiert.

Die Folge davon?
Auch richtig: MS kann sich seine DX-Spec sonstwohin schmieren, nV hätte die Macht, ihre Vorstellung durchzusetzen.

So etwas ähnliches hat MS ja schon zu DX8-Zeiten mit der XBox erlebt: Es gab keine realistische Alternative zu nV und die haben das natürlich gnadenlos ausgenutzt. Dazu noch der Streit um die Senkung der nV2A-Preise für die XBox Anfang letzten Jahres und schon ergibt das Ganze einen Sinn (wenn man auch ein gewisses Mindestmaß an Paranoia dafür haben muss).


edit:
Bevor ich wieder mal falsch verstanden werde: Ich will nicht sagen, daß es wirklich so war, sondern nur, daß es für MS durchaus einen Sinn ergeben hätte, den Markt 'gerechter' zu verteilen.

Von der reinen Theorie her, halte ich das gar nicht mal für völlig ausgeschlossen......
Dann hätte M$ aber gleich Nägel mit Köpfen machen sollen:
ATI kaufen und dann selbst die GraKas verkaufen.....;D
Da wäre auch keine Frage mehr aufgekommen warum die M$HyperGraficsAccelators die schnellsten wären....;D

Aber das wäre wahrscheinlich nicht mal in den US durchgegangen.....

J.S.Shadow

Demirug
2003-09-18, 14:19:29
Was Grafikkarten bauen angeht ist MS kurriert. Genauso was Hardware im Allgemeinen angeht. MS mischt im Hardwaregeschäft nur in den Bereichen mit in denen das Risiko gering ist. Mit einem so schnellen Markt wie Grafikkarten verbrennen die sich nicht die Finger.

ShadowXX
2003-09-18, 15:02:35
Original geschrieben von Demirug
Was Grafikkarten bauen angeht ist MS kurriert. Genauso was Hardware im Allgemeinen angeht. MS mischt im Hardwaregeschäft nur in den Bereichen mit in denen das Risiko gering ist. Mit einem so schnellen Markt wie Grafikkarten verbrennen die sich nicht die Finger.

Das war auch nicht so wirklich ernst von mir gemeint....

HOT
2003-09-18, 16:41:12
Halflife, Aquanox und Tombraider sind momentan praxisrelevante Beispiele von DX9 (Pixel-)Shaderanwendungen. Alle drei Games sind auf der Radeon MASSIV schneller als auf der FX.
Ich denke nicht, dass man bei D3 oder Stalker noch solche Wunder vollbringt, dass der NV3x mit ATI konkurrieren kann. Selbst wenn, sind diese Games sicher nicht wesentlich schneller auf NV3x Karten als bei den entsprechenden ATI pendants.
Meiner Meinung nach hat sich NV bei der Entwicklung des Chips MASSIV verschätzt was die reale Nutzung der Operationen angeht, die wirklich genutzt werden.

Es ist eben immer schlechter einen Chip rauszubringen, der mit mehr Arbeit verbunden ist, als bei der Kunkurrenz. Optimierungen bedeuten immer mehr Aufwand und da ist ATI klar im Vorteil. Der Chip läuft auf Standard DX9 sachen immer noch gut.

LovesuckZ
2003-09-18, 16:56:30
Original geschrieben von HOT
Halflife, Aquanox und Tombraider sind momentan praxisrelevante Beispiele von DX9 (Pixel-)Shaderanwendungen. Alle drei Games sind auf der Radeon MASSIV schneller als auf der FX.


HL1? Nein eher nicht...
Aquanox ist auf einer Radeon auch nicht schneller (Tests lesen).
Dann bleibt nur Tomb Raider übrig, dazu noch die Halo Beta. Das waeren 2 Spiele.

Demirug
2003-09-18, 17:02:30
Original geschrieben von HOT
Halflife, Aquanox und Tombraider sind momentan praxisrelevante Beispiele von DX9 (Pixel-)Shaderanwendungen. Alle drei Games sind auf der Radeon MASSIV schneller als auf der FX.

ACK

Ich denke nicht, dass man bei D3 oder Stalker noch solche Wunder vollbringt, dass der NV3x mit ATI konkurrieren kann. Selbst wenn, sind diese Games sicher nicht wesentlich schneller auf NV3x Karten als bei den entsprechenden ATI pendants.

D3 ist nicht wirklich eine Shaderanwendung und über Stalker ist noch relative wenig bekannt.

Meiner Meinung nach hat sich NV bei der Entwicklung des Chips MASSIV verschätzt was die reale Nutzung der Operationen angeht, die wirklich genutzt werden.

Ja und nein. Unter DX9 lässt sich nVidia vorstellung ja gar nicht nutzen. Unter OpenGL sehr wohl und dort ist es ja laut JC auch schneller.

Es ist eben immer schlechter einen Chip rauszubringen, der mit mehr Arbeit verbunden ist, als bei der Kunkurrenz. Optimierungen bedeuten immer mehr Aufwand und da ist ATI klar im Vorteil. Der Chip läuft auf Standard DX9 sachen immer noch gut.

Ja bei den derzeitigen Basis DX9 Spielereien auf jeden Fall. Für die richtig hübschen DX9 Effekte fehlt aber beiden sowieso die Power.

Quasar
2003-09-18, 17:12:38
Thema Stalker:

Ich kann mir durchaus vorstellen, daß man auch ein DX9+ Game mit entsprechenden Effekten so trimmen kann, daß es auf Radeons langsamer als auf FX läuft.

Ailuros
2003-09-18, 17:15:32
Ja bei den derzeitigen Basis DX9 Spielereien auf jeden Fall. Für die richtig hübschen DX9 Effekte fehlt aber beiden sowieso die Power.

Ich wuerde liebend gern den obrigen quote in Blockbuchstaben und den moeglichst grossen Fonts posten. Im Idealfall als konkrete Seitennotiz auf der Hauptseite "einmauern". Fuer die wirklich huebschen dx9 Effekte mit fluessiger Leistung werden wir wohl noch zwei und nicht nur eine Generation von heute ab brauchen.

War es nicht schon immer so?

Ailuros
2003-09-18, 17:22:08
Original geschrieben von Quasar
Thema Stalker:

Ich kann mir durchaus vorstellen, daß man auch ein DX9+ Game mit entsprechenden Effekten so trimmen kann, daß es auf Radeons langsamer als auf FX läuft.

Gibt es denn wirklich Entwickler die sowas mit Absicht machen wuerden?

Ich hatte gerade gestern ne Diskussion auf B3D ueber Doom3. Ja Carmack hat tatsaechlich einen NV30 spezifischen Path geschrieben und dabei ist mir die Motivation oder der Hintergrund auch ueberhaupt egal. ***edit: JC hat gesehen dass hohe Praezision eher unwichtig fuer sein Spiel ist und hat deshalb ein FX12/FP16 mixed mode erlaubt.***

Dass danach Radeons nicht besser abschneiden als FX-en ist nicht Carmack's, NV's usw. Fehler sondern allein ATI's die die Wichtigkeit von stencip op Leistung beim Design des R3xx uebersehen haben oder noch besser einfach nicht zu viel darin investiert haben weil sie es als nicht so wichtig empfanden.

Was ich damit sagen will ist dass ich einfach bezweifle dass ein Entwickler sich jetzt hinsetzt und mit Absicht gewisse HW benachteiligt. Wenn gewisse HW nicht genauso viel liefern kann dann ist bei meisten wenn nicht allen Faellen entweder die HW zu schwach in einem gewissen Teil oder der Treiber ist verbuggt.

Zum D3 Beispiel oben: es war schon seit Jahren bekannt dass JC dynamische Schatten fuer das Spiel plant.

***editNr.2: um es noch klarer zu machen: kommt ganz drauf was Stalker verwenden wird und bis zu welchem Grad. Bei stencil Schatten hat z.B. NV den klaren Vorteil bei FP/PS2.0 wohl ATI. Ich hab nicht mal ne Ahnung was die engine haben wird und wie sie es anrichten will, aber es kommt eher darauf an was sich die Entwickler von Anfang an fuer ihr Spiel vorgestellt haben und wie sie es realisieren werden.

HOT
2003-09-18, 18:24:33
@Demi und Ailuros

full ACK.
Aufgrund dieser Annahmen und Fakten haben beide Architekturen eben ihre Vorteile. Keines der beiden Designs ist perfekt.
Trotzdem würde ich sagen, dass ATI im Moment einfach die sicherereLösung bietet, denn im Gegensatz zu NV bei PS2.0 Anwendungen (jede bisher bekannte DX9 Engine) ist die Radeon bei Stencial Nutzung (D3 und alle Enginelizenzen) immernoch so schnell, dass es für maximale Qualitätssetting reichen sollte.

Wenn ich mir ne Geforce FX gekauft hätte und würde so einige Benches betrachten, in denen die Geforce4 dasselbe Leistungs/Taktverhältnis bietet und dazu die bisherige PS2.0 Performance würd ich mich ehrlichgesagt schwarzärgern.

LovesuckZ
2003-09-18, 18:30:44
Original geschrieben von HOT
Wenn ich mir ne Geforce FX gekauft hätte und würde so einige Benches betrachten, in denen die Geforce4 dasselbe Leistungs/Taktverhältnis bietet und dazu die bisherige PS2.0 Performance würd ich mich ehrlichgesagt schwarzärgern.

Wo biete denn die GF4 "dasselbe Leistungs/Taktverhältnis"?
Meine 5800 ist dank dem hoeherem Takt schneller als eine GF4. Ob Splinter Cell, Aquanox oder andere Pixelshadergames.

Al-CAlifAX
2003-09-18, 19:05:09
Original geschrieben von LovesuckZ
Wo biete denn die GF4 "dasselbe Leistungs/Taktverhältnis"?
Meine 5800 ist dank dem hoeherem Takt schneller als eine GF4. Ob Splinter Cell, Aquanox oder andere Pixelshadergames.

*zustimm*

Also die rennen schon gut. das AF sieht "noch" gut aus. Die Bildqualität is auf meiner ASUS einfach sahne. beschweren kann ich mich bis jetzt net. Und um ehrlich zu sein. habe TRAOD auf ner GF4 gezockt. es jetzt mal installiert für tests mit der GFFX. löl sieht nu wirklich net soviel besser aus. was mich wiederum die fragen stellt. ab wann werden PS2.0 sinnvoll? denn leider sahen dafür die Texturen so scheiße aus. Wenn ich da an unreal2 (habe ich zwar nur kurz 3-4h angezockt war net mein ding) denke. waren da die Texturen teilweise echt besser. und der flammenwerfer hat selbst auf ner GF3 gerockt. will damit nur sagen. bevor man jetzt sinnlos shader verbaut muss des konzept stimmen. texturen sollten nicht verwaschen aussehen. was ich bisher (ausser des High Light Video mit dem glitschigen alien) bei HL² gesehen habe sah auch irgendwie verschwommen aus. wobei das bestimmte Effekte es scheinbar als blickfang ausbügelten. bsp. labor die characktere oder das rote fass im background oder die Pflastersteine mit unterscheidlicher beleuchtung. so ist des k. Aber bei TRAOD uahhhh ich weiss ja net. hätten se mal lieber nen DX8 spiel gebaut mit mehr innovation und besserer Steuerung. *g*

Anhang: Dank guter hersteller wie MSI, ASUS und co. lässt sich ne FX auch super übertackten zum. ist des meine erfahrung im bereich 5900er gesehen habe. Womit HL² wo bei manchen über 50frames schaffen wird :P

StefanV
2003-09-18, 20:10:06
Original geschrieben von Al-CAlifAX
Anhang: Dank guter hersteller wie MSI, ASUS und co. lässt sich ne FX auch super übertackten zum.

nö, höchstens übertakten...

Al-CAlifAX
2003-09-18, 20:12:20
Original geschrieben von Stefan Payne
nö, höchstens übertakten...

eh des wirft nen schlechtes bild auf mich :P
ich tippe einfach zu schnell. sollte vllt ab und zu mal aufm monitor schauen ;)
Aber wer den schaden hat brauch für den spot net sorgen , stimmts NV? *ggg*

DrumDub
2003-09-18, 22:07:08
Original geschrieben von Al-CAlifAX
eh des wirft nen schlechtes bild auf mich :P
ich tippe einfach zu schnell. sollte vllt ab und zu mal aufm monitor schauen ;)
Aber wer den schaden hat brauch für den spot net sorgen , stimmts NV? *ggg*

hehe... rechtschreibpolizei... :evilgrin:

betasilie
2003-09-18, 22:15:30
Original geschrieben von Quasar
Thema Stalker:

Ich kann mir durchaus vorstellen, daß man auch ein DX9+ Game mit entsprechenden Effekten so trimmen kann, daß es auf Radeons langsamer als auf FX läuft.
Ach ja? Was denn für DX9-Effekte?

Quasar
2003-09-18, 22:55:21
Original geschrieben von HOT
Wenn ich mir ne Geforce FX gekauft hätte und würde so einige Benches betrachten, in denen die Geforce4 dasselbe Leistungs/Taktverhältnis bietet und dazu die bisherige PS2.0 Performance würd ich mich ehrlichgesagt schwarzärgern.

Das würde ich auch, wenn ich mir die FX allein wegen der DX9-Geschwindigkeit gekauft hätte.
Glücklicherweise (für meine FX) ist mein Anforderungsprofil doch noch etwas differenzierter gewesen, so daß ich eigentlich noch immer recht zufrieden bin.

Ok, daß sie in HL2 so dermaßen versägt wird, hätte ich nicht gedacht.... dabei: Ich habe noch keinen HL2-Bench mit FX5]8[/i] gesehen. =)



Original geschrieben von betareverse
Ach ja? Was denn für DX9-Effekte?

Du musst einfach genauer lesen, betareverse.

betasilie
2003-09-18, 23:11:12
Original geschrieben von Quasar
Du musst einfach genauer lesen, betareverse.
...und Du genauer antworten, was dir ja scheinbar oft schwer fällt. ... Scheinbar ist dir aber nur aufgefallen, dass Du keine Ahnung hast, was das für tolle DX9-Effekte sein könnten, die die Shader der NV3xler besser/schneller beherrschen.


Original geschrieben von Quasar
Das würde ich auch, wenn ich mir die FX allein wegen der DX9-Geschwindigkeit gekauft hätte.
Glücklicherweise (für meine FX) ist mein Anforderungsprofil doch noch etwas differenzierter gewesen, so daß ich eigentlich noch immer recht zufrieden bin.

Ach ja? :bigl: Wenn Du keinen Wert auf die Performance von aktuellen Spielen legst, hättest Du dir auch eine feine Matrox kaufen können.

... differenziertes Anforderungsprofil :lolaway:

Sphinx
2003-09-18, 23:16:57
Original geschrieben von betareverse
Ach ja? :bigl: Wenn Du keinen Wert auf die Performance von aktuellen Spielen legst, hättest Du dir auch eine feine Matrox kaufen können.

Nja oder halt ne - TNT 1

R360
2003-09-18, 23:23:18
1. hat nv niemals seine salesmanager aufgerufen ati schlecht zu machen.

2. hat nv einfach nur pech gehabt mit ihrem fx-chip.

3. hat nv immer noch mehr als 60% marktanteil und wir reden von millionen von grafikkarten die jeden monat verkauft werden.

4. der reine unterschied zwischen nv und ati ist:
nv verwendet 64bit genauigkeit und ati 96bit hw-unterstütung.

5. was stand in den dx9 sepcs???? 96bit.

6. nv verdoppelt ihre 64bit auf 128bit sw genauigkeit.

7. hat nv aber das problem das jeder prozess doppelt berechnet werden muss.

8. ist nv hw-mässig 50% langsamer bei 96bit genauigkeit als ati und ati muss nur einmal berechnen.

9. hätte alles auch alles anders kommen können.

10. die gamedevopler wurden ja quasi bezahlt immer mehr an berechnungen einzubauen.

11. doom3 und toombraider waren von nv gesponsort und unreal2 von ati, das war schon bei den vorgängerversionen so!! zum teil

12. ist halt leider bei allen drei game-anwendungen dx9 volle 96bit genauigkeit verlangt.

Quasar
2003-09-18, 23:25:24
... und wieder einmal ein Vorstellung von betareverse's unnachamlich charmanter Art.

Du magst lachen, aber eigentlich ist es zum heulen.


FYI (da du es anscheinend wirklich nicht verstehst):
Ich schrieb "DX9+ Game" und "trimmen kann". Wenn dir das noch nicht Hinweis genug ist, kann ich dir leider auch nicht mehr helfen.

FYI v2.0:
Schau mal in meine Sig, was ich für eine Graka drin habe (bevor du mir wieder vorwirst, ich spräche in Rätseln: Es ist eine Matrox G400). Ich bin mir also durchaus der Vor- und Nachteil dieser Karte bewusst.

FYI v2.1.:
Ich schrieb "allein wegen der DX9-Geschwindigkeit", nichts von "Performance aktueller Spiele". Da besteht ein kleiner, aber feiner Unterschied (und bevor du wieder sagst, ich drücke mich unklar aus: Für alles bis einschl. DX8.1 reicht die FX locker-flockig und für 'richtige' Full-Screen DX9-Effekte werden auch nV40 und R420 zu lahm sein)


Du siehst, es ist gar nicht so schwer zu verstehen, was ich schreibe. Man muss halt nur lesen und nicht nur überfliegen, womöglich auf der Suche nach Ansätzen, um zu flamen.

betasilie
2003-09-18, 23:27:05
Original geschrieben von R360
doom3 und toombraider waren the von nv gesponsort und unreal2 von ati, das war schon bei den vorgängerversionen so!!

Unreal2 von ATI gesponsort? Habe ich was verpasst? UT2003, die jungs haben ja immerhin die Engine entwickelt, ist Bestandteil vom NV-Sponsoring.

Al-CAlifAX
2003-09-18, 23:31:49
Original geschrieben von betareverse
Unreal2 von ATI gesponsort? Habe ich was verpasst? UT2003, die jungs haben ja immerhin die Engine entwickelt, ist Bestandteil vom NV-Sponsoring.

hatte mich auch scho gewundert ;)

betasilie
2003-09-18, 23:45:04
Original geschrieben von Quasar
FYI (da du es anscheinend wirklich nicht verstehst):
Ich schrieb "DX9+ Game" und "trimmen kann". Wenn dir das noch nicht Hinweis genug ist, kann ich dir leider auch nicht mehr helfen.

Ich habe gelesen worauf Du hinaus willst, aber Du scheinst mal wieder davon auszugehen, dass keiner deinen Texten folgen kann. :eyes:
Wie sehen denn DX9+-Effekte auf dem NV30 aus? Soviel Plus ist da nicht wirklich im Vergleich zum min. DX9-Standard. ... Kannst Du die Frage nicht beantworten oder willst Du weiter sticheln?

Original geschrieben von Quasar
FYI v2.0:
Schau mal in meine Sig, was ich für eine Graka drin habe (bevor du mir wieder vorwirst, ich spräche in Rätseln: Es ist eine Matrox G400). Ich bin mir also durchaus der Vor- und Nachteil dieser Karte bewusst.

:up:

Original geschrieben von Quasar
FYI v2.1.:
Ich schrieb "allein wegen der DX9-Geschwindigkeit", nichts von "Performance aktueller Spiele".

Aktuelle Top-Spiele unterstützen DX9-Shader, auch wenn man sicher nicht von 100%tigen DX9-Spielen reden kann. Das ist doch aber klar und muss nicht extra angesprochen werden, denn wir wissen ja alle hier, wie lange es dauert, bis solche Spiele erscheinen.

Original geschrieben von Quasar
(und bevor du wieder sagst, ich drücke mich unklar aus: Für alles bis einschl. DX8.1 reicht die FX locker-flockig und für 'richtige' Full-Screen DX9-Effekte werden auch nV40 und R420 zu lahm sein)

Genau und deswegen ist doch alles in Butter, denn HL2 und kommende DX9-Games werden alle mit DX8.1-Shadern arbeiten können, weil sie auf DX8.1 aufbauen und da sehen die NV3x-Karten ja nicht soo schlecht aus.

Die Frage die jetzt bleibt ist, wie groß werden die optischen Unterschiede vom DX8-Mode zum DX9-Mode kommender Spiele, wie z.B. HL2, FarCry, Kreed, etc. sein. Das bleibt abzuwarten und wird von Game zu Game variieren.


Original geschrieben von Quasar
Du siehst, es ist gar nicht so schwer zu verstehen, was ich schreibe. Man muss halt nur lesen und nicht nur überfliegen, womöglich auf der Suche nach Ansätzen, um zu flamen.
Du musst mal lernen, dass die anderen Leute hier im Forum bei weitem nicht so hohl sind, wie Du oft annimmst, und Du weißt, dass ich nicht der einizge bin, der das so sieht.

beta

Ailuros
2003-09-19, 05:01:34
Original geschrieben von HOT
@Demi und Ailuros

full ACK.
Aufgrund dieser Annahmen und Fakten haben beide Architekturen eben ihre Vorteile. Keines der beiden Designs ist perfekt.
Trotzdem würde ich sagen, dass ATI im Moment einfach die sicherereLösung bietet, denn im Gegensatz zu NV bei PS2.0 Anwendungen (jede bisher bekannte DX9 Engine) ist die Radeon bei Stencial Nutzung (D3 und alle Enginelizenzen) immernoch so schnell, dass es für maximale Qualitätssetting reichen sollte.

Wenn ich mir ne Geforce FX gekauft hätte und würde so einige Benches betrachten, in denen die Geforce4 dasselbe Leistungs/Taktverhältnis bietet und dazu die bisherige PS2.0 Performance würd ich mich ehrlichgesagt schwarzärgern.

Uhmmm es ging mir nicht wer und wo jeder Vorteile und Nachteile hat (nichts ist perfekt uebrigens :D ), sondern ich hab nur auf seinen Kommentar reagiert dass die Stalker Entwickler mit Absicht eine der beiden schlecht aussehen lassen koennte.

Doom3 benutzte ich nur als Beispiel, wobei JC die Schwaeche der internen Praezision ueberwaeltigen konnte aber an den stencil ops kann er wenig aendern ohne die ganze Spiel-Atmosphaere (und Zweck) zu aendern. Der Punkt hier soll sein dass das heutige Resultat nicht mit Absicht von Seiten JC gemacht wurde, oder zumindest will ich es so glauben.

Quasar
2003-09-19, 09:41:04
Original geschrieben von betareverse
Ich habe gelesen worauf Du hinaus willst, aber Du scheinst mal wieder davon auszugehen, dass keiner deinen Texten folgen kann. :eyes:
[...]
Du musst mal lernen, dass die anderen Leute hier im Forum bei weitem nicht so hohl sind, wie Du oft annimmst, und Du weißt, dass ich nicht der einizge bin, der das so sieht.

beta

Und du musst mal lernen, daß wer sich blöd stellt, auch als blöd behandelt werden könnte.

[dzp]Viper
2003-09-19, 09:51:13
ich finde es gut, das quasar das immer sehr anschaulich erklärt :up:

es gibt MEHR als genug user hier, die sich da leider nicht so gut auskennen. Darum :up::up::up: für Quasar :)

ShadowXX
2003-09-19, 09:51:49
Original geschrieben von Ailuros
Uhmmm es ging mir nicht wer und wo jeder Vorteile und Nachteile hat (nichts ist perfekt uebrigens :D ), sondern ich hab nur auf seinen Kommentar reagiert dass die Stalker Entwickler mit Absicht eine der beiden schlecht aussehen lassen koennte.

Doom3 benutzte ich nur als Beispiel, wobei JC die Schwaeche der internen Praezision ueberwaeltigen konnte aber an den stencil ops kann er wenig aendern ohne die ganze Spiel-Atmosphaere (und Zweck) zu aendern. Der Punkt hier soll sein dass das heutige Resultat nicht mit Absicht von Seiten JC gemacht wurde, oder zumindest will ich es so glauben.

naja...nV und JC haben schon immer sehr eng zusammengearbeitet....da könnte es durch aus sein, dass mal der ein oder andere Hinweis von Ihm gekommen ist, wie die StencilOps-Geschichte denn seiner Meinung nach in HW auszusehen hat....

Aber trotzdem gebe ich dir recht:
Mit Absicht wird kein Spieleprogrammierer die eine oder andere Karte alt aussehen lassen....

(HL2 ist da übrigens sogar mit das beste Beispiel, obwohl mit vielen Mios von ATI gesponsort haben Sie einen etxra nv3x-Pfad geschrieben......könnte sich EA mal eine 'umgekehrte' Scheibe abschneiden.)

J.S.Shadow

Ailuros
2003-09-19, 10:44:17
naja...nV und JC haben schon immer sehr eng zusammengearbeitet....da könnte es durch aus sein, dass mal der ein oder andere Hinweis von Ihm gekommen ist, wie die StencilOps-Geschichte denn seiner Meinung nach in HW auszusehen hat....

Da lass mich mal dran zweifeln dass die stencil op Geschichte ein so grosses Geheimnis war, ueberhaupt wenn ich den timeframe in Betracht nehme wo FableMark Entwicklung begonnen hat, das ja eigentlich auf dem multipass Mechanismus (was stencil ops betrifft) von D3 basiert (immer ohne dot3/cubes).

Ich wuerde schaetzen dass da wo es eher eine Schwaeche bei R3xx ist, ist die MSAA/stencil Kombination und den loops beim AA um genauer zu sein. Haette R3xx entweder doppelt so viel Z/stencil Einheiten gehabt und/oder die existierenden dynamisch re-konfiguriert waere die Sache wohl momentan auch anders. All das kostet aber in Transistoren und viel Platz war nicht mehr uebrig mit ~107M@15nm, plus der chip waere noch teurer gewesen.

Ein HW engineer erwarte ich weiss schon im fruehen Design-stage wo die Schwaechen dieses wohl liegen werden, aber man versucht immer die beste Balance fuer so viel wie moegliche Faelle zu finden; da wird es schwer ueberall und alles perfekt zu machen. Trotz allem wenn man beide Architekturen in allem vergleicht hat IMHO R3xx die beste Balance in allen Abteilungen und die Schwaechen wiegen keineswegs den Staerken ueber.

Wie dem auch sei NV hat hier wohl auch Pech dass Doom3 dieses Jahr nicht mehr veroeffentlicht werden wird. Wuerde es zur etwa gleichen Zeit mit HL2 kommen wuerden sich die gaming enthusiasts wohl fuer die eine oder andere Seite aufspalten; momentan so wie es ausssieht schwappt die Wage wohl eher klar in Richtung ATI's Vorteil.

Ich wuerde eher fragen ob ATI letztendes nicht doch besser schaetzen wuerde wann Doom3 wirklich veroeffentlicht wird *wink*

Der Herzog
2003-09-19, 11:03:40
Leider muss ich dir sagen, Du liegst ziemlich falsch. Zumindest falls Du lesen kannst. Wenn Du nicht lesen kannst sei dir verziehen. Sonst muss Du ein Bisschen genauer schauen bevor Du postest.

NVidia hat nämlich definitv Verkäufer (kenne keine Sales Manager) dazu aufgerufen die Konkurrenz schlecht zu machen. Auch gibt es dafür Beweise, die Du dir selbst suchen musst.

Al-CAlifAX
2003-09-19, 11:10:39
Original geschrieben von Der Herzog
Leider muss ich dir sagen, Du liegst ziemlich falsch. Zumindest falls Du lesen kannst. Wenn Du nicht lesen kannst sei dir verziehen. Sonst muss Du ein Bisschen genauer schauen bevor Du postest.

NVidia hat nämlich definitv Verkäufer (kenne keine Sales Manager) dazu aufgerufen die Konkurrenz schlecht zu machen. Auch gibt es dafür Beweise, die Du dir selbst suchen musst.

errinnert mich an K&M und die vielen AMD Flacken ;)
der Verkäufer da wollte mir unbedingt nen AMD aufschwätzen. der hats net kapiert das bei mir arbeiten und Spielen 80/20% ergeben. und ich auf andere sachen wert lege. Zum glück haben se den geschmissen. denn ich habe dem laden die kunden weggenommen und zu anderen geschickt, wegen mangelnder objektivität bei der beratung. Bei Nvidia habe ichs owas zwar noch net gehört. Sehe es eher in vielen läden derzeit so, das man schwer an NV karten rankommt, jeder händler will einem eine ATi aufschwatzen. Wobei das auch am schlechten verkauf der 5800er liegen könnte, das händler die neuen FXer garnet erst vorbestellen. die wollen ja auch verdienen ;)

Al-CAlifAX
2003-09-19, 11:11:37
huch doppelpost sorry ;)

Radeonator@work
2003-09-19, 11:53:16
Welche aktuellen Top Spiele unterstützen DX9 Shader ?

Winter[Raven]
2003-09-19, 11:54:24
Bis jetzt keins ;)

Iceman346
2003-09-19, 11:56:18
Original geschrieben von Radeonator@work
Welche aktuellen Top Spiele unterstützen DX9 Shader ?

Tomb Raider 6 ist zumindestens von den Verkäufen her ein Top Spiel ;) Und Aquanox 2 war nen ganz ordentliches Spiel.

Ausserdem, was soll die Frage? Was hat das damit zu tun ob ein Spiel gut ist oder nicht?

betasilie
2003-09-19, 12:13:47
Original geschrieben von Quasar
Und du musst mal lernen, daß wer sich blöd stellt, auch als blöd behandelt werden könnte.
:up: Mach dich weiter lächerlich. ... Ich glaube die meisten User sehen, wer sich hier blöd stellt.

Du hast im übrigen die Frage nach den Shader2.0+ Effekten immer noch nicht beantwortet, aber ich glaube Du wirst uns diese Frage Schuldig bleiben, da Du schlicht und einfach keine Ahnung hast, wie solche Effekt aussehne würden.

... Wenn man hinter dem Deckmantel der Sachlichkeit flamed, sollte man sich nicht wundern, wenn man dabei erwischt wird. :bigl:

betasilie
2003-09-19, 12:19:22
Original geschrieben von Radeonator@work
Welche aktuellen Top Spiele unterstützen DX9 Shader ?
Spiele die noch dieses Jahr erscheinen sollen: HL2, FarCry, DeusEx2, Kreed und noch ein paar andere mehr.

DOOMIII wird übrigens auch HardwareFeatures in OGL nutzen, die erst mit DX9-Karten möglich sind.

zeckensack
2003-09-19, 12:26:47
Laß gut sein, beta :eyes:
Wenn du mal einen Effekt sehen willst, der nur mit PS2.0 möglich ist, dann schau dir doch das hier (http://www.daionet.gr.jp/~masa/rthdribl/index.html) mal an. Nicht daß wir darüber nicht schon gesprochen hätten, neeeeiiiiiinnnn :spock:

betasilie
2003-09-19, 12:39:17
Original geschrieben von zeckensack
Laß gut sein, beta :eyes:
Wenn du mal einen Effekt sehen willst, der nur mit PS2.0 möglich ist, dann schau dir doch das hier (http://www.daionet.gr.jp/~masa/rthdribl/index.html) mal an. Nicht daß wir darüber nicht schon gesprochen hätten, neeeeiiiiiinnnn :spock:
Ich kenne die Demo und habe vor Monaten sogar afair den ersten Thread dazu aufgemacht. ;)

Es geht darum, dass Quasar meint:
Original geschrieben von Quasar
Thema Stalker:

Ich kann mir durchaus vorstellen, daß man auch ein DX9+ Game mit entsprechenden Effekten so trimmen kann, daß es auf Radeons langsamer als auf FX läuft.
Mich würde jetzt interessieren, was für DX9+-Effekte das sein sollen.

Quasar behauptet diesbzgl., dass ich mich blöd stelle. Ich behaupte Quasar hat einfach inhaltsfrei geflamed. Soll er doch mal erklären, was er mit DX9+ Effekten meinte, denn soviel "+" hat die FX nicht in den Shadern, dass man da irgendwelche neuen Effekte generieren könnte.

Winter[Raven]
2003-09-19, 12:46:21
Spiele die noch dieses Jahr erscheinen sollen: HL2, FarCry, DeusEx2, Kreed und noch ein paar andere mehr.

1. Deus EX 2 kommt im Quartal 1 2004
2. Kreed nützt DX 8.1
3. Paar andere ? Das musst du jetzt mal erklären, auser Stalker fällt mir kein weiteres ein.

Radeonator@work
2003-09-19, 13:05:29
Jo Beta, da liegt der Hund begraben : Erscheinen werden!!!
Erst wenn diese Software auf dem Markt ist, spricht man von aktueller Software. Die derzeitigen >Titel (bis auf AoD, das eh ein Flop ist... ) laufen eigentlich smooth und benutzen ansatzweise bzw sporadisch ps 1.3.
Vielleicht folgt noch eine Überraschung von nv , bis die ersten echten DX9 Titel kommen (hoff ;) )

ShadowXX
2003-09-19, 13:09:42
Original geschrieben von Radeonator@work
Jo Beta, da liegt der Hund begraben : Erscheinen werden!!!
Erst wenn diese Software auf dem Markt ist, spricht man von aktueller Software. Die derzeitigen >Titel (bis auf AoD, das eh ein Flop ist... ) laufen eigentlich smooth und benutzen ansatzweise bzw sporadisch ps 1.3.
Vielleicht folgt noch eine Überraschung von nv , bis die ersten echten DX9 Titel kommen (hoff ;) )

ja bis dahin wird wirklich noch eine Überraschung von nV kommen:
Der nV40....

J.S.Shadow

Quasar
2003-09-19, 13:20:31
Original geschrieben von betareverse
Mich würde jetzt interessieren, was für DX9+-Effekte das sein sollen.

betareverse, schau dir mal folgende Tabelle an und sag' mir, daß da nicht einiges drin steht, womit man, bei geschickter Ausnutzung, viele Rechenzeit und/oder Speicherzugriffe sparen kann, wenn man sie denn wirklich einsetzen will.
http://www.3dcenter.org/artikel/2002/11-19_c.php


Um es noch einmal ganz deutlich zu sagen (du scheinst es ja so deutlich zu brauchen):
Ich habe nicht behauptet, daß so ein Fall der Alltag sein würde, sondern lediglich, daß es möglich ist, eine solche Situation zu erzeugen

Und nein, ich spiele nicht auf die 65k-VS-Instruktions oder 1024 PS-Instruktionen an.

Quasar
2003-09-19, 13:23:13
Original geschrieben von betareverse
Ich behaupte Quasar hat einfach inhaltsfrei geflamed.

Wenn du das:
Original geschrieben von Quasar
Thema Stalker:

Ich kann mir durchaus vorstellen, daß man auch ein DX9+ Game mit entsprechenden Effekten so trimmen kann, daß es auf Radeons langsamer als auf FX läuft.

Einen Flame nennst, dann bist du wirklich hochgradig paranoid.

betasilie
2003-09-19, 13:46:48
Original geschrieben von Quasar
betareverse, schau dir mal folgende Tabelle an und sag' mir, daß da nicht einiges drin steht, womit man, bei geschickter Ausnutzung, viele Rechenzeit und/oder Speicherzugriffe sparen kann, wenn man sie denn wirklich einsetzen will.
http://www.3dcenter.org/artikel/2002/11-19_c.php


Um es noch einmal ganz deutlich zu sagen (du scheinst es ja so deutlich zu brauchen):
Ich habe nicht behauptet, daß so ein Fall der Alltag sein würde, sondern lediglich, daß es möglich ist, eine solche Situation zu erzeugen

Und nein, ich spiele nicht auf die 65k-VS-Instruktions oder 1024 PS-Instruktionen an.
Erstmal wollte ich wissen, um was für Effekte es sich handelt. Dass bei den NV3x Karten Teile der Shader brach liegen bei normalen DX9-Anwendungen, ist klar und es ist klar, dass ein Game, welches massiv das "+" der Shader nutzt schneller ist, als beim Standard-DX9, obwohl es abzuwarten ist, ob das reicht, um ATIs Shadern Paroli zu bieten. ... Aber welche Effekte soll es da geben? Ich stelle eine Frage und Du gibst mir einfach eine Antwort, da ich keine Ahnung habe, um was für Effekte es sich handeln könnte.

Dass Du z.B. um den Nutzen der 65k-VS-Instruktionen bei Spielen weißt, ist toll.
Original geschrieben von Quasar
Wenn du das:


Einen Flame nennst, dann bist du wirklich hochgradig paranoid.
Vielleicht bist Du paranoid, da Du scheinbar denkst, dass ich dich auf´s Glatteis führen wollte mit der Frage. Ich habe die Vermutung ausgesprochen, dass es sich bei deinem Posting um einen Flameversuch handelt, da Du meine Frage diesbzgl. nicht beantwortest. Was soll man dann von so einem Posting halten?

Ich hingegen würde einfach nur gerne wissen, was das für Effekte sein könnten, die die 2.0+-Shader von NV können, die die ATI-Shader nicht können.

Kai
2003-09-19, 13:53:28
Original geschrieben von betareverse
Vielleicht bist Du paranoid, da Du scheinbar denkst, dass ich dich auf´s Glatteis führen wollte mit der Frage. Ich habe die Vermutung ausgesprochen, dass es sich bei deinem Posting um einen Flameversuch handelt, da Du meine Frage diesbzgl. nicht beantwortest. Was soll man dann von so einem Posting halten?


:kratz2:

Och vertragt euch doch wieder.

Al-CAlifAX
2003-09-19, 13:59:07
Original geschrieben von betareverse
Erstmal wollte ich wissen, um was für Effekte es sich handelt. Dass bei den NV3x Karten Teile der Shader brach liegen bei normalen DX9-Anwendungen, ist klar und es ist klar, dass ein Game, welches massiv das "+" der Shader nutzt schneller ist, als beim Standard-DX9, obwohl es abzuwarten ist, ob das reicht, um ATIs Shadern Paroli zu bieten. ... Aber welche Effekte soll es da geben? Ich stelle eine Frage und Du gibst mir einfach eine Antwort, da ich keine Ahnung habe, um was für Effekte es sich handeln könnte.

Dass Du z.B. um den Nutzen der 65k-VS-Instruktionen bei Spielen weißt, ist toll.

Vielleicht bist Du paranoid, da Du scheinbar denkst, dass ich dich auf´s Glatteis führen wollte mit der Frage. Ich habe die Vermutung ausgesprochen, dass es sich bei deinem Posting um einen Flameversuch handelt, da Du meine Frage diesbzgl. nicht beantwortest. Was soll man dann von so einem Posting halten?

Ich hingegen würde einfach nur gerne wissen, was das für Effekte sein könnten, die die 2.0+-Shader von NV können, die die ATI-Shader nicht können.


wüsste ich auch gerne, aber demirug schrieb imho mal das wenn man 2.0+ shader nehmen würde diese nicht kompatibel zu 2.0 sein würden. ergo glaube ich kaum das ein hersteller das macht. langsamer sein ist die eine seite, inkompatibel ne andere seite. ;)

Quasar
2003-09-19, 14:06:58
Original geschrieben von betareverse
[...] Ich habe die Vermutung ausgesprochen, dass es sich bei deinem Posting um einen Flameversuch handelt,[...]

Ohne Worte:
Original geschrieben von betareverse
Ich behaupte Quasar hat einfach inhaltsfrei geflamed.

Um es passenderweise mal mit Beavis und Butt-Head zu sagen:

betareverse is not human, he feels no pain, he cannot be reasoned with.

Und zu deiner Frage:
WAS für Effekte ist völlig irrelevant. Und wenn du insbesondere mein letztes Posting gelesen hättest, anstatt nur zu flamen, wüsstest du das auch.

Ich schreibe es nochmal:
Ich habe nicht behauptet, daß so ein Fall der Alltag sein würde, sondern lediglich, daß es möglich ist, eine solche Situation zu erzeugen
und
[...] womit man, bei geschickter Ausnutzung, viele Rechenzeit und/oder Speicherzugriffe sparen kann, wenn man sie denn wirklich einsetzen will.

Im Klartext heisst es:
Wenn man will, kann man auch einen schwarzen Bildschirm mit nichts sichtbarem drauf so programmieren, daß er viel Rechenzeit frisst. Ergo sind es nicht notwendigerweise neue, sondern die Realisierung von Effekten, die darüber entscheidet, auf welcher Hardware sie wie schnell laufen.

Irgendwie sollte das doch auch schon aus diesem:
Ich kann mir durchaus vorstellen, daß man auch ein DX9+ Game mit entsprechenden Effekten so trimmen kann, daß es auf Radeons langsamer als auf FX läuft.
hervorgegangen sein. Zumindest scheinen es ja alle ausser dir, betareverse, verstanden zu haben (oder traut sich keiner, nachzufragen?).

So, für heute ist mein Trollfutter alle. Sorry, beta, geh' zu jemand anders um dich weiter füttern zu lassen.

Al-CAlifAX
2003-09-19, 14:09:15
*augenkrebs* *g*

Demirug
2003-09-19, 14:15:40
Original geschrieben von Al-CAlifAX
wüsste ich auch gerne, aber demirug schrieb imho mal das wenn man 2.0+ shader nehmen würde diese nicht kompatibel zu 2.0 sein würden. ergo glaube ich kaum das ein hersteller das macht. langsamer sein ist die eine seite, inkompatibel ne andere seite. ;)

2.0+ (AKA 2.X) wird sicherlich benutzt werden weil das neue Shaderprofil ja entsprechende Shader erzeugt.

PS: Bei Sinus und Cosinus berechnungen sind die NV3X wirklich richtig schnell. Die können das in einem Takt ATI braucht 8 dafür.

betasilie
2003-09-19, 14:20:40
Original geschrieben von Quasar
Ohne Worte:


Um es passenderweise mal mit Beavis und Butt-Head zu sagen:


Und zu deiner Frage:
WAS für Effekte ist völlig irrelevant. Und wenn du insbesondere mein letztes Posting gelesen hättest, anstatt nur zu flamen, wüsstest du das auch.

Ich schreibe es nochmal:
Ich habe nicht behauptet, daß so ein Fall der Alltag sein würde, sondern lediglich, daß es möglich ist, eine solche Situation zu erzeugen
und
[...] womit man, bei geschickter Ausnutzung, viele Rechenzeit und/oder Speicherzugriffe sparen kann, wenn man sie denn wirklich einsetzen will.

Im Klartext heisst es:
Wenn man will, kann man auch einen schwarzen Bildschirm mit nichts sichtbarem drauf so programmieren, daß er viel Rechenzeit frisst. Ergo sind es nicht notwendigerweise neue, sondern die Realisierung von Effekten, die darüber entscheidet, auf welcher Hardware sie wie schnell laufen.

Irgendwie sollte das doch auch schon aus diesem:

hervorgegangen sein. Zumindest scheinen es ja alle ausser dir, betareverse, verstanden zu haben (oder traut sich keiner, nachzufragen?).

So, für heute ist mein Trollfutter alle. Sorry, beta, geh' zu jemand anders um dich weiter füttern zu lassen.
Lassen wir das. :eyes:

Al-CAlifAX
2003-09-19, 14:43:09
Original geschrieben von Demirug
2.0+ (AKA 2.X) wird sicherlich benutzt werden weil das neue Shaderprofil ja entsprechende Shader erzeugt.

PS: Bei Sinus und Cosinus berechnungen sind die NV3X wirklich richtig schnell. Die können das in einem Takt ATI braucht 8 dafür.

aha also liege ich meiner theorie net ganz falsch das Toptitel in zukunft wohl mal für den einen mal für den anderen gut aussehen werden? je nachdem was eingesetzt wird. naja das is k. man kann ja net immer gewinnen oder verlieren ;)

Andere Frage. Habe mal SoftimageXSI getestet mit ner FX5900. da scheinen die ja wirklich gut zu sein. liegt des am OpenGL selber? oder steckt in dem NV35 einiges vom Quadro 3000?

Demirug
2003-09-19, 14:54:01
Original geschrieben von Al-CAlifAX
aha also liege ich meiner theorie net ganz falsch das Toptitel in zukunft wohl mal für den einen mal für den anderen gut aussehen werden? je nachdem was eingesetzt wird. naja das is k. man kann ja net immer gewinnen oder verlieren ;)

2.A aleine bringt nicht genügend (oft auch gar nichts) ohne einen Treiber der damit umgehen kann. Das mit dem Sinus war nur mal ein extremes Beispiel.

Andere Frage. Habe mal SoftimageXSI getestet mit ner FX5900. da scheinen die ja wirklich gut zu sein. liegt des am OpenGL selber? oder steckt in dem NV35 einiges vom Quadro 3000?

Ist im Prinzip beides der gleiche Chip es gibt aber bei den Quadros immer ein paar unterschiede im Treiber.

Al-CAlifAX
2003-09-19, 14:58:20
Original geschrieben von Demirug
2.A aleine bringt nicht genügend (oft auch gar nichts) ohne einen Treiber der damit umgehen kann. Das mit dem Sinus war nur mal ein extremes Beispiel.



Ist im Prinzip beides der gleiche Chip es gibt aber bei den Quadros immer ein paar unterschiede im Treiber.


Na ich bin jetzt mal von nem Optimierten Treiber ausgegangen *ggg*

Ähh ja man brauch ja jetzt net mehr die Quadro treiber für 3d anwendungen ;) also kann mich zum. net beschweren ;)

Gast
2003-09-19, 15:00:24
Die Subpixel-Präzision der FXen ist auch 'recht gut'...

alfons
2003-09-19, 15:01:00
Original geschrieben von Quasar
Ohne Worte:


Um es passenderweise mal mit Beavis und Butt-Head zu sagen:


Und zu deiner Frage:
WAS für Effekte ist völlig irrelevant. Und wenn du insbesondere mein letztes Posting gelesen hättest, anstatt nur zu flamen, wüsstest du das auch.

Ich schreibe es nochmal:
Ich habe nicht ...
und
[...] womit man, bei ....

hervorgegangen sein. Zumindest scheinen es ja alle ausser dir, betareverse, verstanden zu haben (oder traut sich keiner, nachzufragen?).

So, für heute ist mein Trollfutter alle. Sorry, beta, geh' zu jemand anders um dich weiter füttern zu lassen.


Mensch Quasar, nimm dich doch mal ein bisschen zusammen. Du gehst ja leicht an die Decke... . Du fändest das sicher auch nicht gerade prickelnd, wenn du so agressiv angegangen würdest.

Al-CAlifAX
2003-09-19, 15:03:50
Original geschrieben von alfons
Mensch Quasar, nimm dich doch mal ein bisschen zusammen. Du gehst ja leicht an die Decke... . Du fändest das sicher auch nicht gerade prickelnd, wenn du so agressiv angegangen würdest.


wie sage ich immer: Lass ihn der will nur spielen *ggg*

betasilie
2003-09-19, 15:03:52
@Quasar

Ich bitte dich demnächst keine Aussagen zu machen, ohne das Du eine Vorstellung hast wovon Du redest. ... Oder: Erst das Hirn einschalten, dann schreiben.

An deiner Reaktion oben kann man übrigens sehr schön sehen, wie kritikfähig Du eigentlich bist.

... Erst von DX9+ Effekten reden und hinterher keinen blassen schimmer haben, wie sowas aussehen könnte.

Crushinator
2003-09-19, 15:07:09
Original geschrieben von Al-CAlifAX
(...)
Ähh ja man brauch ja jetzt net mehr die Quadro treiber für 3d anwendungen ;) also kann mich zum. net beschweren ;) *hust* Wenn Du etwas komplexere Szenen renderst wirst Du Unterschiede zu den Quadro-Treibern feststellen, nämlich a) daß letztere keine Bildfehler produzieren und b) daß sie bei mehreren Lichtquellen schneller rendern. In Manchen Anwendungen (z.B. Maya 4) sind sie im allgemeinen wesentlich schneller.

Al-CAlifAX
2003-09-19, 15:11:00
Original geschrieben von crushinator
*hust* Wenn Du etwas komplexere Szenen renderst wirst Du Unterschiede zu den Quadro-Treibern feststellen, nämlich a) daß letztere keine Bildfehler produzieren und b) daß sie bei mehreren Lichtquellen schneller rendern. In Manchen Anwendungen (z.B. Maya 4) sind sie im allgemeinen wesentlich schneller.

jo gibts ja dafür gecrackte treiber für die Geforce4/FX reihe ;) *hust*

haste nich gehört ;)

Crushinator
2003-09-19, 15:13:54
Original geschrieben von betareverse
@Quasar
Ich bitte dich demnächst keine Aussagen zu machen, ohne das Du eine Vorstellung hast wovon Du redest. ... Oder: Erst das Hirn einschalten, dann schreiben. (...) Im Namen aller nicht-am-Flamewar-beteiligten möchte ich Euch beide bitten, zur Auflockerung einen Blick in den Är***e-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=49740) :D zu werfen und daran denkend, daß heute Freitag ist schon mal planen, was ihr heute abend schönes unternehmen wollt.

Mein :popcorn: ist jedenfalls alle, und der Film hat schon erheblich an Spannung abgebaut. ;)

Gast
2003-09-19, 15:29:44
Original geschrieben von betareverse
... Erst von DX9+ Effekten reden und hinterher keinen blassen schimmer haben, wie sowas aussehen könnte.

Don't feed....

Ich habe klar gesagt, was Sache ist. Wenn du das nicht einsehen willst, dann eben nicht.

Gast
2003-09-19, 15:34:34
axo und nochwas:

Ich sagte auch, dass es nicht auf den Effekt ankommt, sondern auf welchem Wege man zu diesem Effekt gelangt....

Nicht immer führt der kürzeste Weg nach Rom.

Kira
2003-09-19, 19:08:32
Original geschrieben von crushinator
Was mir z.Z. auf den Sack geht, ist viel mehr die fehlende Konkurrenz zu den beiden großen. Es wird Zeit, daß von den anderen Herstellern equälente Produkte auch endlich erscheinen und nicht nur angekündigt werden.

My 2 Cents.

max payne2?

Razor
2003-09-21, 10:00:31
Original geschrieben von Al-CAlifAX
wüsste ich auch gerne, aber demirug schrieb imho mal das wenn man 2.0+ shader nehmen würde diese nicht kompatibel zu 2.0 sein würden. ergo glaube ich kaum das ein hersteller das macht. langsamer sein ist die eine seite, inkompatibel ne andere seite. ;)
Fast alles, was man mit PS2.0+ Shadern realisieren kann, geht auch mit PS2.0 Shadern... nur eben sehr viel langsamer.

Um das Beipsiel von Demirug aufzugreifen:

Die Sinus-Funktion läßt sich selbstredend in die mathematischen Suboperationen aufteilen (addition, subtraktion, multiplikation und division). Nur brauchts dafür eben eine ganze Menge mahr Rechenoperationen, als mit einer einzigen.

Wenn man sich das ganze bildlich vorstellen möchte: Ein Taschenrechner mit wissenschaftlichen Funktionen und einer ohne. Mit beiden kommt man zum Ergebnis, mit dem einen nur eben sehr viel schneller...
;-)

Razor