PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist mit NV gar nix mehr los?


Piffan
2003-09-29, 13:56:37
Lese eben gerade den Test von "Yager" in der PcGames:

"Für die Spieleleistung von Yager ist die Grafikkarte der ausschlaggebende Faktor. Bei einer Auflösung von 1024x768 sind Geforce4-Ti-Karten überfordert. Für mehr Leistung sorgt die Deaktivierung des anisotropen Filters im Video- Menü. Zudem erhalten Sie durch das Verringern der Texturdetails eine bessere Framerate. Im direkten Vergleich zwischen Ati und Nvidia sind uns sehr große Performance- Unterschiede aufgefallen. Während eine Ati Radeon 9600 Pro auch bei 1280x1024 noch 40 FPS abliefert, schwächelt die Geforce 5600 Ultra mit 26 FPS bei 1024x768 Bildpunkten."

Nachdem NV bei Enclave und Tombraider 6 nicht berühmt abschneidet im Vergleich zu Ati, ist nun mit Yager ein weiteres X-Box- Game raus, das auf der FX schwächelt.....Ähnlich desaströs wäre es bei Half life 2, wenn es jetzt rausgekommen wäre..

Vielleicht ist die cineFX- Technologie wirklich nicht besonders kompatibel. Wie es scheint, läuft nix mehr bei NV, wenn die Progger keine Extrawurst braten. Und das sogar bei Titeln von der X-Box...

Das Imperium ist arg am Wackeln :greydead:

Eigentlich hatte ich auf ein Kopf an Kopf Rennen gehofft....

edit: Habe gerade den Fehler bemerkt. Es ist die 5600 Ultra.

Quasar
2003-09-29, 14:01:26
Welche "Geforce Ultra" ist denn da gemeint? Bei einer FX5200u würde mich das nicht wundern.

ow
2003-09-29, 14:19:35
und von welchen settings ist denn da bei welcher Karte die Rede?

Mit AF? Ohne AF? Aufloesung?


Aus dem von dir zitierten ist ja praktisch garnichts rauszulesen.

MadManniMan
2003-09-29, 14:20:13
Original geschrieben von Quasar
Welche "Geforce Ultra" ist denn da gemeint? Bei einer FX5200u würde mich das nicht wundern.

"Geforce 2 Ultra" ... :|

MadManniMan
2003-09-29, 14:22:38
Original geschrieben von ow
und von welchen settings ist denn da bei welcher Karte die Rede?

Wohl Max Quality.

Original geschrieben von ow
Mit AF? Ohne AF? Aufloesung?


AF scheint Standard zu sein. Welcher Grad? K.A. ...
Auflösungen: für die 4200 1024 mit Probs, die Radeon 9600 Pro 1280 mit runden 40 und ... tja, ne FX(?) Ultra halt mit 26. Ich würde auf ne 5600 tippen.

Original geschrieben von ow
Aus dem von dir zitierten ist ja praktisch garnichts rauszulesen.

Naja, en bissl schon.

ow
2003-09-29, 14:32:30
Original geschrieben von MadManniMan
Wohl Max Quality.



AF scheint Standard zu sein. Welcher Grad? K.A. ...
Auflösungen: für die 4200 1024 mit Probs, die Radeon 9600 Pro 1280 mit runden 40 und ... tja, ne FX(?) Ultra halt mit 26. Ich würde auf ne 5600 tippen.



Naja, en bissl schon.


???

- GF4 bei 1024x768 ueberfordert : wieviel fps sind denn das?

- AF abschalten hilft: welcher AF Grad wird denn genutzt?

-R9600 bei 1280x1024 bringt 40 fps: mit oder ohne AF denn jetzt?

-Geforce Ultra (was denn das?) 26fps bei 1024x768: mit welchen Einstellungen denn diesmal?

Piffan
2003-09-29, 14:45:15
Welche Settings da nun genau zum Einsatz kommen, geht nicht aus dem Test hervor....Allerdings kann ich mir nicht denken, dass die eine so harte Aussage treffen, wenn die sehr verschiedene Settings gewählt hätten. Man kann zwar nie Wissen, aber wenn es so wäre, gäbe es sicher mächtigen Ärger....

Ich denke mal eher, dass die Progger mal wieder unschuldig nach DX9 vor fröhlich drauf los geproggt haben. Wie bei Enclave oder Tombraider 6....Mal sehen, ob sich NV dazu äußert......

Falls es grundsätzliche Schwächen der CineFX- Architektur sind, die sich nur durch Extrawürste beim Proggen übertünchen lassen, dann hat NV sich kräftig überhoben....dann wird die starke Verspätung des NV 30 noch heftiger abgestraft als ohnehin schon....

Aber alles Spekulation, die Zukunft wird mehr zeigen. Aber wenn der Herr Bertuch von der c't schon eine "Shaderschwäche" der FX nicht auschließen mag, dann wird die Schar der "kippenden" Redakteure sicher zunehmen. Wenn der Nimbus erst mal zerstört ist und die reine Leistung auf den Prüfstein kommt, könnte es noch bitterer für NV werden. Für mich als Gamer ist es egal, wer der 1. Sieger ist. Nicht egal wäre mir, wenn der Unterschied zu krass ausfällt und damit Ati zu mächtig wird, langfristig wird so was teuer für den Konsumenten.

Piffan
2003-09-29, 14:51:18
Original geschrieben von ow
und von welchen settings ist denn da bei welcher Karte die Rede?

Mit AF? Ohne AF? Aufloesung?


Aus dem von dir zitierten ist ja praktisch garnichts rauszulesen.

Also ich lese daraus folgendes: Derzeit gibts keine NV- Karte, auf der Yager gut performt, wenn man nicht die Settings verringert....

Dies ist natürlich eine recht schwammige Aussage, aber irgendwo wird der Redi hoffentlich belegen können, was er da schreibt. Vielleicht gibts ja bald einen vernünftigen Test bei PcGH oder sogar hier auf diesen Seiten ;)

edit: Bitte beachten: Der Hauptgegenstand des Tests ist das Spiel selbst, am Ende erfolgt wie immer der Leistungscheck. Da wird halt ein großer Leistungsunterschied konstatiert....Für genaue Betrachtungen wäre da die Schwesterzeitschrift zuständig.

Al-CAlifAX
2003-09-29, 15:14:08
Original geschrieben von Piffan
Also ich lese daraus folgendes: Derzeit gibts keine NV- Karte, auf der Yager gut performt, wenn man nicht die Settings verringert....

Dies ist natürlich eine recht schwammige Aussage, aber irgendwo wird der Redi hoffentlich belegen können, was er da schreibt. Vielleicht gibts ja bald einen vernünftigen Test bei PcGH oder sogar hier auf diesen Seiten ;)

edit: Bitte beachten: Der Hauptgegenstand des Tests ist das Spiel selbst, am Ende erfolgt wie immer der Leistungscheck. Da wird halt ein großer Leistungsunterschied konstatiert....Für genaue Betrachtungen wäre da die Schwesterzeitschrift zuständig.

die demo läuft auf meinem rechner mit 40-100 Frames, je nach gegnerschaar und settings. um bei dem demo ihn auf nichtspielbare frameraten zu zwingen muss ich schon mächtig an 8xAf und 4xAA reinrumsen um dann zwischen 10-40 frames zu haben, wieder je nach gegner. also so ganz stimmt bei manchen reviewer nix. habe die demo mal auf ner geforce4 getestet beim kumpel mit nem AMD 2600+ Nforce2 Dualchannel. ebenfalls flüssige frames und da bei ner 64mb karte. Also wer auch immer wieder die gerüchte in die welt setzt das man zum Yager zocken eine ATi brauch sollte sich mal an seiner objektivität versuchen :P

Danke fürs lesen.

egdusp
2003-09-29, 15:14:41
Benutzt Yager denn DX9 Shader? Wenn ja wozu?
Ich habe Yager auf der XBox und dort sieht es super aus und läuft flüssig. Bei der TV Auflösung auch kein Wunder.
Ich sehe nur keine Notwendigkeit DX9 Shader einzubringen.
Warum die GF4 so langsam ist, kann ich mir nur mit AF erklären, denn AFAIK ist die GF4 Shaderleistungin DX8 gleich der einer GFFX 5600 Ultra.

mfg
egdusp

Asuka
2003-09-29, 15:19:09
Wundert mich gar nicht... derartige Feststellungen, daß die FX-Karten den Ati-Karten bei vielen aktuellen Spielen arg hinterher hinken, wird es wohl noch mehrere geben.
Ich würde mal sagen, das Problem leigt wohl in der FX-eigenen Architektur, die sich nur mit massiver Überredungskunst zu auch nur halbwegs annehmbarer Leistung überreden läßt - und dazu müssen die Programmierer dann schon einen Riesenaufwand treiben. Da die Releasetermine ohnehin schon immer wieder aufgrund diverser anderer Sachen immer weiter nach hinten geschoben werden, wird es wohl auch nicht viele geben, die sich dann noch zusätlich diesen immensen Aufwand für die FX-Karten aufbürden werden.

Mordred
2003-09-29, 15:35:24
Original geschrieben von Piffan
Lese eben gerade den Test von "Yager" in der PcGames:

"Für die Spieleleistung von Yager ist die Grafikkarte der ausschlaggebende Faktor. Bei einer Auflösung von 1024x768 sind Geforce4-Ti-Karten überfordert. Für mehr Leistung sorgt die Deaktivierung des anisotropen Filters im Video- Menü. Zudem erhalten Sie durch das Verringern der Texturdetails eine bessere Framerate. Im direkten Vergleich zwischen Ati und Nvidia sind uns sehr große Performance- Unterschiede aufgefallen. Während eine Ati Radeon 9600 Pro auch bei 1280x1024 noch 40 FPS abliefert, schwächelt die Geforce 5600 Ultra mit 26 FPS bei 1024x768 Bildpunkten."

Nachdem NV bei Enclave und Tombraider 6 nicht berühmt abschneidet im Vergleich zu Ati, ist nun mit Yager ein weiteres X-Box- Game raus, das auf der FX schwächelt.....Ähnlich desaströs wäre es bei Half life 2, wenn es jetzt rausgekommen wäre..

Vielleicht ist die cineFX- Technologie wirklich nicht besonders kompatibel. Wie es scheint, läuft nix mehr bei NV, wenn die Progger keine Extrawurst braten. Und das sogar bei Titeln von der X-Box...

Das Imperium ist arg am Wackeln :greydead:

Eigentlich hatte ich auf ein Kopf an Kopf Rennen gehofft....

edit: Habe gerade den Fehler bemerkt. Es ist die 5600 Ultra.

wo gibbet denn probs bei enclave? das zock ich in max qulai und 8fach anisotrop in 1600 noch flüssich. Auf ner TI-4600 dann drüften die FX doch erst recht kein Prob mit haben (sei vllt. anzumerken das ich auf OpenGL zock)

reunion
2003-09-29, 16:05:31
Also schön langsam wirds peinlich für NV. Jedes neu erscheinende Spiel läuft auf ATi zwei, drei, vier,... -mal schneller als auf NV Karten...

Also schön langsam entwickelt sich die 9600er zu echten alternative gegenüber der 5900er :D

reunion
2003-09-29, 16:08:17
Original geschrieben von [KoC]Mordred
wo gibbet denn probs bei enclave? das zock ich in max qulai und 8fach anisotrop in 1600 noch flüssich. Auf ner TI-4600 dann drüften die FX doch erst recht kein Prob mit haben (sei vllt. anzumerken das ich auf OpenGL zock)

Sagt ja niemand das es probleme gibt...

Tatsache ist es läuft auf ATI Karten doppelt so schnell :D

Iceman346
2003-09-29, 16:11:05
Original geschrieben von [KoC]Mordred
wo gibbet denn probs bei enclave? das zock ich in max qulai und 8fach anisotrop in 1600 noch flüssich. Auf ner TI-4600 dann drüften die FX doch erst recht kein Prob mit haben (sei vllt. anzumerken das ich auf OpenGL zock)

http://www.withingames.de/index.php?show=articles&type=showarticle&id=71&page=13

Den Test hab ich damals mit dem 44.71 Treiber gemacht. Ne GF4 hatte ich nicht zur Verfügung. Die 9800 Pro ist ne 256 MB Variante.

Quasar
2003-09-29, 16:22:59
Könntest du mir bitte mal das entsprechende Save-Game mailen? Addy per PN.

Mordred
2003-09-29, 16:35:32
Original geschrieben von Iceman346
http://www.withingames.de/index.php?show=articles&type=showarticle&id=71&page=13

Den Test hab ich damals mit dem 44.71 Treiber gemacht. Ne GF4 hatte ich nicht zur Verfügung. Die 9800 Pro ist ne 256 MB Variante.

hui das ist in der Tat herbe :>

HAb jetzt grad net das gleiche gebencht ie ihr hab nur so mal die große Mauer durchgezockt. HAb mit More3D gemssen HQ ohne aniso. auf Direct3D hab 40-110 FPS gehabt das Level über.

Werds mal mit OpenGL probieren mal gucken was das fürn Unterscheid bringt.

Naja ber das die NVS nachlassen kann man net sagen. Diese Benches sprechen für sich http://www.anandtech.com/video/showdoc.html?i=1821&p=22 und nein ich meine net nur doom3 :>

Naja ich denk mal mit dem NV40 werden sie sich etwas HLSW nähern dann dürften auch eineige Sachen vergangenheit sein ;)

btw. grüß mal den CeiserSoze von mich kenn ihn noch auf PcGames Zeiten. Ist er immer noch son 3DFX Fanatiker wie damals?

Dunkeltier
2003-09-29, 16:54:56
Original geschrieben von [KoC]Mordred
hui das ist in der Tat herbe :>

HAb jetzt grad net das gleiche gebencht ie ihr hab nur so mal die große Mauer durchgezockt. HAb mit More3D gemssen HQ ohne aniso. auf Direct3D hab 40-110 FPS gehabt das Level über.

Werds mal mit OpenGL probieren mal gucken was das fürn Unterscheid bringt.

Naja ber das die NVS nachlassen kann man net sagen. Diese Benches sprechen für sich http://www.anandtech.com/video/showdoc.html?i=1821&p=22 und nein ich meine net nur doom3 :>

Naja ich denk mal mit dem NV40 werden sie sich etwas HLSW nähern dann dürften auch eineige Sachen vergangenheit sein ;)

btw. grüß mal den CeiserSoze von mich kenn ihn noch auf PcGames Zeiten. Ist er immer noch son 3DFX Fanatiker wie damals?


Nur dumm, das die meisten (nicht alle!) der neuen Games weniger auf Stencil-, als vielmehr auf den Pixelshader wert legen.

Lolman
2003-09-29, 16:55:42
Warum allen beim Nvidia Sieg in DOOMII Medium Quality einer abgeht wundert mich schon länger :grübel:

Dann findet man einmal Benches wo die FX abgeht, und schon sprechen die für sich. Man sollte nie an einem Review die Leistungsfähigkeit einer GraKa festmachen.

Dem Anandtech Review, kann man z.B. das GamePC Review (http://www.gamepc.com/labs/view_content.asp?id=3x5900u&page=9) entgegenstellen :)

Lolman
2003-09-29, 16:56:23
sry, natürlich DOOMIII...

LovesuckZ
2003-09-29, 17:02:15
Original geschrieben von Lolman
Warum allen beim Nvidia Sieg in DOOMII Medium Quality einer abgeht wundert mich schon länger :grübel:


Weil High quality dank ATi's AF nicht vergleichbar ist.

egdusp
2003-09-29, 17:09:36
Original geschrieben von LovesuckZ
Weil High quality dank ATi's AF nicht vergleichbar ist.

Wenn NV noch weiter "optimiert" dann schon :D
Aber dann wird NV wahrscheinlich trotzdem wieder vorne sein.

mfg
egdusp

Mordred
2003-09-29, 17:19:39
Original geschrieben von Dunkeltier
Nur dumm, das die meisten (nicht alle!) der neuen Games weniger auf Stencil-, als vielmehr auf den Pixelshader wert legen.

Joar es steht eh ausser Frage das NV noch derbe was ändern muss. Die Chips sind zwar allesamt gut (und ich werde sie auch weiterhin nutzen) aber die müssen sich mal eineigen mit MS und ATI auf welcher Basis alles geschen soll. Sprich maln bisschen einheitlicher das ganze. Wers dann besser umsetzt ist ne andere Frage :>

Exxtreme
2003-09-29, 17:26:26
Original geschrieben von Piffan

Ich denke mal eher, dass die Progger mal wieder unschuldig nach DX9 vor fröhlich drauf los geproggt haben. Wie bei Enclave oder Tombraider 6....Mal sehen, ob sich NV dazu äußert......

Falls es grundsätzliche Schwächen der CineFX- Architektur sind, die sich nur durch Extrawürste beim Proggen übertünchen lassen, dann hat NV sich kräftig überhoben....dann wird die starke Verspätung des NV 30 noch heftiger abgestraft als ohnehin schon....

Also die einzige wirksame "Extra-Wurst", die ich sehe, ist auf PS2.0-Effekte zu verzichten. :)

Radeonator
2003-09-29, 17:36:22
Nehmt mal den nVHardPage und spielt ein bissi mit den verschiedenen AF/FSAA modi rum...ihr werdet euch wundern ;)

seahawk
2003-09-29, 17:42:14
Momentan kann man eigentlich zu keiner NV-Karte raten.

Ich würde dringend davor warnen eine zu kaufen.

Dunkeltier
2003-09-29, 17:42:54
Original geschrieben von Radeonator
Nehmt mal den nVHardPage und spielt ein bissi mit den verschiedenen AF/FSAA modi rum...ihr werdet euch wundern ;)


Ich verstehe nicht.:kratz: Wie meinste das? :schleich:

Radeonator
2003-09-29, 17:57:35
Man kann durch etwas rumspielen mit den diversen möglichen Modi einen starken Leistungsschub erreichen, was soll ich sonst meinen ;)

LovesuckZ
2003-09-29, 18:02:20
Ich habe gerade mal die Yager Demo gespielt und abgesehen davon, dass es in der Demo ne abscheuliche Steuerung gibt, lief das Spiel in 1280*960 mit durchschnittlichen 40 FPS.

Mr. Lolman
2003-09-29, 18:07:50
Original geschrieben von Radeonator
Man kann durch etwas rumspielen mit den diversen möglichen Modi einen starken Leistungsschub erreichen, was soll ich sonst meinen ;)

Interessant, könntest du das noch etwas näher ausführen?

Iceman346
2003-09-29, 18:11:50
Original geschrieben von Quasar
Könntest du mir bitte mal das entsprechende Save-Game mailen? Addy per PN.

Grad passiert.

HOT
2003-09-29, 18:16:44
Irgendwie spassig, dass ein original XBox Titel auf NV Karten lahm läuft....
Für Halo gilt ja anscheinend dasselbe...

Quasar
2003-09-29, 18:26:51
Original geschrieben von Iceman346
Grad passiert.

Danke sehr. Ich probier's gleich mal.

egdusp
2003-09-29, 18:29:03
Original geschrieben von LovesuckZ
Ich habe gerade mal die Yager Demo gespielt und abgesehen davon, dass es in der Demo ne abscheuliche Steuerung gibt, lief das Spiel in 1280*960 mit durchschnittlichen 40 FPS.

System? Nicht jeder kennt jedes System der anderen auswendig.

mfg
egdusp

LovesuckZ
2003-09-29, 18:31:45
Original geschrieben von egdusp
System? Nicht jeder kennt jedes System der anderen auswendig.

mfg
egdusp

Stimmt :)

P4 2.85GHZ
5800 @ 400/800
etc.
ohne AA/AF

egdusp
2003-09-29, 18:40:49
Meiner Meinung nach, die stark von Demi und seinen NV3x Ausführeungen beeinflusst ist, sind die NV3x auf komlexes Nicht-Realtime Rendering ausgelegt (so wie fürs Fernsehen oder Zwischensequenzen, 32fp, lange Shader problemlos möglich, etc..), für den Echtzeitberreich haben sie auf DX8 als Standard und DX9 als nicht relevant gesetzt. Sofern Spiele heutzutage auch nur DX8 einsetzen würden, wie bei den vorheirgen Technologiesprüngen zu beobachten war (min 2 Jahre bis sich eine Technik durchsetzt), dann stünde NV sehr gut da.
Naja, es gab da leider ein paar kleine Probleme mit M$ und deren HLSL, Cg ist größtenteils geflopt und NV hat den Entwicklern vergessen zu sagen, dass sie auch noch für DX8 optimieren sollen.

Es war also eine Kombination aus Pech (M$ hat ATIs DX9 Ansatz gewählt, Entwickler sind schneller auf DX9 angesprungen als auf DX8, NV30 hat sich verspätet, so dass alle auf R300 entwickelt haben) und falschen Entscheidungen (keine DX9 Beeinflussung der Entwickler, Hoffen auf das Geschäft mit professioneller Grafikhardware bei Pixar und Co.).
OK, einige Dummheiten kommen auch dazu, wie der Verzicht auf anständiges AA.

Alles in allem steht NV heute zwar ziemlich schlecht da, aber es gibt keinen Grund anzunehmen, dass sich das fortsetzt.

mfg
egdusp

seahawk
2003-09-29, 19:14:53
Original geschrieben von LovesuckZ
Stimmt :)

P4 2.85GHZ
5800 @ 400/800
etc.
ohne AA/AF

Nicht gerade toll für das System - oder ??

LovesuckZ
2003-09-29, 19:16:24
Original geschrieben von seahawk
Nicht gerade toll für das System - oder ??

Ich habe leider keine Vergleiche zur Hand :)

LovesuckZ
2003-09-29, 19:42:30
Original geschrieben von LovesuckZ
Ich habe leider keine Vergleiche zur Hand :)

Anfangssequenz nach dem das Video beendet ist, gemessen per Fraps in einer Aufloesung von 1280*1024


2003-09-29 19:21:30 - yager
Frames: 605 - Time: 12750ms - Avg: 47.450 - Min: 31 - Max: 69

Piffan
2003-09-29, 20:32:51
Original geschrieben von LovesuckZ
Anfangssequenz nach dem das Video beendet ist, gemessen per Fraps in einer Aufloesung von 1280*1024


2003-09-29 19:21:30 - yager
Frames: 605 - Time: 12750ms - Avg: 47.450 - Min: 31 - Max: 69

Wie da wohl die Sache mit der 5600 Ultra aussieht?

Kann mal einer Frapsen mit der 9600 pro?

Wäre ja sinnig, midrange mit midrange zu vergleichen.

ShadowXX
2003-09-30, 10:15:07
Original geschrieben von LovesuckZ
Ich habe gerade mal die Yager Demo gespielt und abgesehen davon, dass es in der Demo ne abscheuliche Steuerung gibt, lief das Spiel in 1280*960 mit durchschnittlichen 40 FPS.

Das ist aber nicht wirklich viel....ich hatte ca. 60fps bei 1280x960x32 4AA/8AF auf einer Radeon 9800Pro / 3Ghz P4-C / 1024MB Ram.

J.S.Shadow

P.S:
ebenfalls bei den Demo

Al-CAlifAX
2003-09-30, 10:38:53
Original geschrieben von ShadowXX
Das ist aber nicht wirklich viel....ich hatte ca. 60fps bei 1280x960x32 4AA/8AF auf einer Radeon 9800Pro / 3Ghz P4-C / 1024MB Ram.

J.S.Shadow

P.S:
ebenfalls bei den Demo

ich finds immer wieder witzig.
Zum einen hat er eine 5800nonultra mit nur 400 Mhz.
Desweiteren einen 2.85 Ghz P4 und hier stellt sich die frage, welchen. desweitern hat er vllt auch nur 512 Mb, was er leider net angegeben hat. jetzt kommst du prollst hier mit deinem 3 Gz P4C, deinen 1024 Mb Ram und einer 9800Pro die sich nie gegen eine 5800 gestellt hat sondern einer 5900Ultra.

Ich sagte ja schonmal ich habe sogar 70 frames teilweise gehabt. Gut ich habe die demo in 1024*768 gespielt. bei 4xAA und 4xAF (vergleich zu 8xAF ATi) hatte ich 50 frames mitunter auch 60 frames. kam auf die gegenerscharr an. Ausserdem sit das spiel ein DX8 spiel. es lief ebenfalls flüssig wenn auch ohne AA und AF auf einer GF4 Ti4200. Also mal ne birnen mit äpfeln vergleichen. zumal ich nur 512 Mb Ram habe ;) und mein Kumpel mit seinem AMD 2600+ und GF4Ti4200 auch nur 512 hat.

So war kein angriff aber prollen mit ner besseren CPU und Ramstärke und dann auch noch ner 9800pro, während der angeprollte nur ne GF5800 non pro hatte. Wir sind hier net im kindergarten oder? Is scheinbar doch ein Männersyndrom, das wir immer und ünerall die besseren sein "wollen" und das bessere zu haben "scheinen".

Danke fürs lesen ;)

Quasar
2003-09-30, 10:42:01
Was hat den ShadowXX's Post mit prollen zu tun?

Ich glaube nicht, daß die Unterschiede im System außer der Graka für den Leistungsunterschied verantwortlich sind.

Al-CAlifAX
2003-09-30, 11:05:40
Original geschrieben von Quasar
Was hat den ShadowXX's Post mit prollen zu tun?

Ich glaube nicht, daß die Unterschiede im System außer der Graka für den Leistungsunterschied verantwortlich sind.

es ist die kombination. FFFX5800nonultra ist nunmal langsamer(unabhängig von DX9) als ne ATi9800pro. Das wäre wie wenn ich nen P4C 3.2 Ghz gegen einen 2800+ krebsen lasse ;). Desweitern führt er 1024 Mb Ram auf, die grade in den jetzt kommenden Spielen für 3-6 frames sorgen. Und dazu noch einen um fast 200 mhz höheren P4. Wobei sich hier eher die Frage stellt. welche CPU hate der Vorredner genau. Wenns nen P4B ist , liegt es auf der hand das auch hier 5 frames locker rauzuholen sind. Bleibt abschliessend die Grka die ihr übriges tut. Sowas ist kein Vergleich. Wenn dann 2 gleiche Systeme. Und sowas ist für mich einfach mal prollen. Fertig. ohne Angriff oder sonstiges. Sondern vorher lesen und dann schreiben.

gruß AC

ShadowXX
2003-09-30, 12:15:56
Original geschrieben von Al-CAlifAX
es ist die kombination. FFFX5800nonultra ist nunmal langsamer(unabhängig von DX9) als ne ATi9800pro. Das wäre wie wenn ich nen P4C 3.2 Ghz gegen einen 2800+ krebsen lasse ;). Desweitern führt er 1024 Mb Ram auf, die grade in den jetzt kommenden Spielen für 3-6 frames sorgen. Und dazu noch einen um fast 200 mhz höheren P4. Wobei sich hier eher die Frage stellt. welche CPU hate der Vorredner genau. Wenns nen P4B ist , liegt es auf der hand das auch hier 5 frames locker rauzuholen sind. Bleibt abschliessend die Grka die ihr übriges tut. Sowas ist kein Vergleich. Wenn dann 2 gleiche Systeme. Und sowas ist für mich einfach mal prollen. Fertig. ohne Angriff oder sonstiges. Sondern vorher lesen und dann schreiben.

gruß AC

Wenn ich rumprollen hätte wollen, dann hätte ich angefangen mit:
'ehhh nv ist doch sowieso sch...sse....'.

Und deine Argument sind auch seeeehr merkwürdig.
Alle sagen scheiss P4..wenn man dan mal einen zum Benchen benutzt ist es aufeinmal der Überprozessor.
Ob 512MB oder 1GB Ram dürfte nicht viel ausmachen (ausser sie wären auf der Graka...;D )
Und laut Aussagen von Leuten wie die, ist die 5800 doch gar nicht so schlecht (bzw. : 'ist doch einen Super-Karte').

Und wie schon erwähnt, habe ich sein Ergebnis nicht schlecht gemacht, sondern nur erwähnt (auch im Hinblick darauf, das bei Yeager die CPU wohl keinen so grosse Rolle spielt (ist ja ein X-Box-Game und die waren bis jetzt alle Gfx-Limitiert)) das die Leistung unter der einer 9800Pro liegt.

Ok, das war zu erwarten...aber man kann doch wohl mal vergleichwerte Posten, ohne gleich Flamewars auszulösen...

Und wenn ich CPU & Ram weggelassen hätte, hätten sich die nächsten darüber aufgeregt, dass dort keine Angaben über eben z.B. die CPU ist...

J.S.Shadow

Piffan
2003-09-30, 12:36:23
Nun mal ruhig Blut....die PcGames schreibt klar, dass wie bei den anderen Xbox- Portierungen der Prozi Nebensache ist, dass in erster Linie die Graka die Musik macht......

Interessant wären Vergleiche zwischen gleichartigen Grakas, also Highend versus Highend oder das gleiche midrange...Das System kann vernachlässigt werden....

Es geht ja nicht um einen Schwanzvergleich, sondern um die Feststellung, ob die CineFX- Architektur wirklich so mau aussieht, wenn die Progger nicht nach cg arbeiten, sondern nach Ati/MS........

Demirurg hat ja so ein paar für mich unverständliche Ausführungen in seinem FX- Artikel gemacht; es könnte doch sein, dass eine Spaltung des Spielermarktes droht oder die Progger halt zweigleisig vorgehen müssen.....Oder ist die FX auch dann lahmer als die Rad, wenn ihre eine Extrawurst gebraten wird?

Bei allem Gestreite, dies sind die für mich wirklich relevanten Fragen!

The_Invisible
2003-09-30, 12:40:50
Original geschrieben von ShadowXX
Wenn ich rumprollen hätte wollen, dann hätte ich angefangen mit:
'ehhh nv ist doch sowieso sch...sse....'.

Und deine Argument sind auch seeeehr merkwürdig.
Alle sagen scheiss P4..wenn man dan mal einen zum Benchen benutzt ist es aufeinmal der Überprozessor.
Ob 512MB oder 1GB Ram dürfte nicht viel ausmachen (ausser sie wären auf der Graka...;D )
Und laut Aussagen von Leuten wie die, ist die 5800 doch gar nicht so schlecht (bzw. : 'ist doch einen Super-Karte').

Und wie schon erwähnt, habe ich sein Ergebnis nicht schlecht gemacht, sondern nur erwähnt (auch im Hinblick darauf, das bei Yeager die CPU wohl keinen so grosse Rolle spielt (ist ja ein X-Box-Game und die waren bis jetzt alle Gfx-Limitiert)) das die Leistung unter der einer 9800Pro liegt.

Ok, das war zu erwarten...aber man kann doch wohl mal vergleichwerte Posten, ohne gleich Flamewars auszulösen...

Und wenn ich CPU & Ram weggelassen hätte, hätten sich die nächsten darüber aufgeregt, dass dort keine Angaben über eben z.B. die CPU ist...

J.S.Shadow

ne FX5800 ist in manchen situationen nur halb so schnell wie ne FX5900u

zu Enclave: das Game hab ich noch wie es rausgekommen ist mit ner GF4 Ti4600 in 1600x1200 mit 4xAF gezockt und hab mich trotzdem gewundert wie flüssig das game noch lief, den ganzen spiel über kein einzigen slowdown, und flüssiger wie flüssig gibt es meines wissens eh nicht (außer die leute die bei q3 noch 300 gegenüber 400fps unterscheiden können)

mfg

The_Invisible
2003-09-30, 12:42:10
Original geschrieben von Piffan
Nun mal ruhig Blut....die PcGames schreibt klar, dass wie bei den anderen Xbox- Portierungen der Prozi Nebensache ist, dass in erster Linie die Graka die Musik macht......

Interessant wären Vergleiche zwischen gleichartigen Grakas, also Highend versus Highend oder das gleiche midrange...Das System kann vernachlässigt werden....

Es geht ja nicht um einen Schwanzvergleich, sondern um die Feststellung, ob die CineFX- Architektur wirklich so mau aussieht, wenn die Progger nicht nach cg arbeiten, sondern nach Ati/MS........

Demirurg hat ja so ein paar für mich unverständliche Ausführungen in seinem FX- Artikel gemacht; es könnte doch sein, dass eine Spaltung des Spielermarktes droht oder die Progger halt zweigleisig vorgehen müssen.....Oder ist die FX auch dann lahmer als die Rad, wenn ihre eine Extrawurst gebraten wird?

Bei allem Gestreite, dies sind die für mich wirklich relevanten Fragen!

wie würde die ATI performen wenn die Spieleentwickler auf nvidia Basis entwickeln? ;)

mfg

Demirug
2003-09-30, 12:48:21
Eine Spaltung sehe ich nicht. Was wir im Moment erleben ist ein neuer Effekt im Spielesektor welcher sich aber nur aufgrund bestimmter Faktoren ergeben konnten.

1. MS hat von DX8 zu DX9 kaum API Änderungen vorgenommen. Es war daher ein leichtes eine vorhandene DX8 Engine auf DX9 umzustellen.

2. Die ISV gingen aufgrund der Erfahrungen mit DX8-Optimierungen davon aus das auch bei DX9-Optimierungen alle Chips sehr ähnlich zu behandeln sind.

3. ATI übte massiv Druck auf die Entwickler aus damit diese DX9 Effekte einbauen. Aufgrund von Punkt 1 war diese Aktion erfolgreicher als eine ähnliche Aktion von nV bei DX8.

4. Zwischen der Verfügbarkeit von ATIs und nVs Hardware lag eine sehr grosse Zeitspanne was dazu führte das sich Punkt 2 in den Köpfen festsetzte.

Piffan
2003-09-30, 12:53:55
Original geschrieben von The_Invisible
ne FX5800 ist in manchen situationen nur halb so schnell wie ne FX5900u

zu Enclave: das Game hab ich noch wie es rausgekommen ist mit ner GF4 Ti4600 in 1600x1200 mit 4xAF gezockt und hab mich trotzdem gewundert wie flüssig das game noch lief, den ganzen spiel über kein einzigen slowdown, und flüssiger wie flüssig gibt es meines wissens eh nicht (außer die leute die bei q3 noch 300 gegenüber 400fps unterscheiden können)

mfg

Es stimmt einfach nicht, was Du sagst! Es gibt unzählige Stellen, wo die GF4 schwächelt, vor allem bei deinen Einstellungen! Es ist unübersehbar in der Szene, wo man ziemlich am Anfang mit dem Händler Marcus die Stadt verlassen hat und im Garten von der Burg ist....Edel ist auch die Stelle, wo man sich in der Vulkanlandschaft durch die Gegnerhorden schneltzelt...

Da wird es auf der GF4 nicht nur zäh, sondern ruckelt deutlich, als fallen da die Frames geschätzt deutlich unter 25....Flüssig ist für mich schwereloses Zocken, ist an manchen Stellen selbst auf der Rad 9700 nicht möglich, wenn man die BQ- Settings übertreibt....

Dass die Demo recht flüssig ist, hat wohl einleuchtende Gründe, aber dieses ist nicht repräsentativ für das gesamte Spiel!

Mordred
2003-09-30, 13:06:32
Original geschrieben von Piffan
Es stimmt einfach nicht, was Du sagst! Es gibt unzählige Stellen, wo die GF4 schwächelt, vor allem bei deinen Einstellungen! Es ist unübersehbar in der Szene, wo man ziemlich am Anfang mit dem Händler Marcus die Stadt verlassen hat und im Garten von der Burg ist....Edel ist auch die Stelle, wo man sich in der Vulkanlandschaft durch die Gegnerhorden schneltzelt...

Da wird es auf der GF4 nicht nur zäh, sondern ruckelt deutlich, als fallen da die Frames geschätzt deutlich unter 25....Flüssig ist für mich schwereloses Zocken, ist an manchen Stellen selbst auf der Rad 9700 nicht möglich, wenn man die BQ- Settings übertreibt....

Dass die Demo recht flüssig ist, hat wohl einleuchtende Gründe, aber dieses ist nicht repräsentativ für das gesamte Spiel!

Sry Piffan aber bei mir isses ebenso. Hab keinerlei Ruckler während des SPiels wahrgenommen. Ebenfalls mit AF 1600 und HQ

€: Muss mich korrigieren seit ich wieder nen älteren Treiber drauf hab isses in der Tat am ruckeln.

Gast
2003-09-30, 13:24:21
Ehrlich gesagt, fide ich es Klasse, daß die Mags jetzt quasi warnen sich nun noch für eine nvidia Karte zu entscheiden. Fürs selbe Geld gibts eben mehr und bessere Leistung. Die "Götterdämmerung" von nvidia ist unvermeidlich geworden und nvidia kann noch von Glück reden, daß Valve nicht nur HL² sondern vor allem den angesagten Demo/Benchmark NOCH NICHT raus gebracht hat!!!
Dann wär vielleicht was los, macht euch drauf gefaßt =)
Jetzt können die Mags die Kurve kriegen und sagen, wir haben ja gewarnt =)
Hat keinen Zweck hier lang drüber zu zwisten, nvidia ist erst mal weg vom Fenster und muß schleunigst die nächste Generation schaffen.

up

Piffan
2003-09-30, 13:53:12
Original geschrieben von Demirug
Eine Spaltung sehe ich nicht. Was wir im Moment erleben ist ein neuer Effekt im Spielesektor welcher sich aber nur aufgrund bestimmter Faktoren ergeben konnten.

1. MS hat von DX8 zu DX9 kaum API Änderungen vorgenommen. Es war daher ein leichtes eine vorhandene DX8 Engine auf DX9 umzustellen.

2. Die ISV gingen aufgrund der Erfahrungen mit DX8-Optimierungen davon aus das auch bei DX9-Optimierungen alle Chips sehr ähnlich zu behandeln sind.

3. ATI übte massiv Druck auf die Entwickler aus damit diese DX9 Effekte einbauen. Aufgrund von Punkt 1 war diese Aktion erfolgreicher als eine ähnliche Aktion von nV bei DX8.

4. Zwischen der Verfügbarkeit von ATIs und nVs Hardware lag eine sehr grosse Zeitspanne was dazu führte das sich Punkt 2 in den Köpfen festsetzte.


Für mich ist das ein klares Eigentor von NV! Denn warum wohl hat man ein alternatives Chipdesign entwickelt und die Hochsprache dazu? Imho war man sich sicher, den Markt kassieren zu können. Wäre Ati nicht flinker gewesen und hätte MS sich auf NVs Version eingelassen, dann stünde es evtl. nicht gut für Ati....

NV ist ja bekannt für weitreichende Planungen und ausgeklügelte Strategien. Dummerweise ließ sich die Realisierung der CineFX- Technik zwar planen, aber die Entwicklung der konkreten Hardware war nicht termingerecht möglich, die enorme Verspätung des NV30 hat das gesamte Konzept von NV durcheinandergeworfen. Oder anders betrachtet: Ati hat gerade noch rechtzeitig zugeschlagen...

Mich interessiert brennend, wie NV dasteht, wenn die Entwickler nach cg compilieren, wenn also die Potenz der Hardware den Ausschlag gibt.....

LovesuckZ
2003-09-30, 14:00:42
Original geschrieben von Piffan
Für mich ist das ein klares Eigentor von NV! Denn warum wohl hat man ein alternatives Chipdesign entwickelt und die Hochsprache dazu?

Warum hat ATi "ein alternatives Chipdesign entwickelt"?
Cg wurde aufgrund der Reaktion der Spieleentwickler in Zusammenhang mit MS entwickelt und jeder kann bzw. konnte Profile für Cg schreiben (also auch ein PS1.4 Profil).

egdusp
2003-09-30, 14:04:29
Original geschrieben von Piffan
Mich interessiert brennend, wie NV dasteht, wenn die Entwickler nach cg compilieren, wenn also die Potenz der Hardware den Ausschlag gibt.....

Ich denke, dass alleine die Compilierung von ATI Shadern auf Cg nicht viel bringen wird. Die Entwickler sind es schon gewohnt Shader zu schreiben, die die Stärken der ATI Hardware ausnutzen und die Schwächen vermeiden (also dependant texture reads und sin/cos Funktionen). Es wären andere Herangehensweisen für die Shader notwendig, damit sie auf CineFX schnell laufen.

Unsere Experten (Demi, Zecke + Co) sind aber wohl der Meinung, dass sich nicht alle Effekte mit für CineFX günstigen Shader darstellen lassen. Dann hätte NV ein echtes Problem. Ansonsten müssten sie nur optimierte Shader für die typischen Matrialien (Wasser, Holz, Metal, Spiegelungen) bereitstellen.

mfg
egdusp

Demirug
2003-09-30, 14:15:46
Original geschrieben von Piffan
Für mich ist das ein klares Eigentor von NV! Denn warum wohl hat man ein alternatives Chipdesign entwickelt und die Hochsprache dazu? Imho war man sich sicher, den Markt kassieren zu können. Wäre Ati nicht flinker gewesen und hätte MS sich auf NVs Version eingelassen, dann stünde es evtl. nicht gut für Ati....

Wieso alternatives Chipdesign? DX enhält keine Bauanleitung für einen Chip. Zu dem Zeitpunkt wenn die IHVs mit iherem Design anfangen müssen besteht die entsprechende DX Version im bestenfall aus ein paar Überlegugen in welche Richtung man gehen möchte. Jeder der also vor der entgültigen festlegung angefangen hat mit dem Design ist ein Risiko eingegangen. 3DLabs zum Beispiel auch und dort ist man in eine ähnliche Falle gelaufen wie nV. Da man dort aber keine Spielerhardware baut ist es nicht ganz so schlimm.

Als nV mit Cg angefangen hat zeigte sich MS unwillig vor dem nächten Hauptrelease von DX etwas in der richtung zu tun also hat nVidia schon mal angefangen und Cg ist ja keine eigene Hochsprache sondern nur ein eigener Compiler welcher die gleichen Shader kompiliert wie der MS Compiler.


NV ist ja bekannt für weitreichende Planungen und ausgeklügelte Strategien. Dummerweise ließ sich die Realisierung der CineFX- Technik zwar planen, aber die Entwicklung der konkreten Hardware war nicht termingerecht möglich, die enorme Verspätung des NV30 hat das gesamte Konzept von NV durcheinandergeworfen. Oder anders betrachtet: Ati hat gerade noch rechtzeitig zugeschlagen...

Das Konzept wurde mit der finalen DX9 Spec über den haufen geworfen. nV hat dann aber wohl gehoft das die Entwickler ähnlich zögerlich auf den DX9 Zug aufspringen wie damals auf den DX8 Zug.

Mich interessiert brennend, wie NV dasteht, wenn die Entwickler nach cg compilieren, wenn also die Potenz der Hardware den Ausschlag gibt.....

Unter DX bringt das nichts weil die weiterentwicklung von Cg dort weitgehend eingestellt wurde nachdem MS angefangen hat den eigenen Compiler 2.X tauglich zu machen. Cg für OpenGL wird wohl über kurz oder lang auch eingestellt werden da hier glslang diese Aufgabe übernimmt. nVidia hat ja inzwischen klar gesagt das Cg nur ein Lückenfüller ist/war bis es jeweils eine allgemeine Lösung gibt. Da die Entscheider für die allgemeinen Lösungen aber nicht mit dem Hintern hochgekommen sind hat man eben Cg geschrieben um wenigstens etwas zu haben.

Gast
2003-09-30, 14:19:17
Original geschrieben von Piffan
Mich interessiert brennend, wie NV dasteht, wenn die Entwickler nach cg compilieren, wenn also die Potenz der Hardware den Ausschlag gibt.....

Spielt keine Rolle, da

1. Nvidia viel zu doof war/ist gute Cg-Compiler zu schreiben ( Cg ist gleich schnell oder langsamer als HLSL von M$ ). Kein _PP; keine Optimierung für Temp-Register soweit ich weiß; imho ein ziemlicher 08/15-Compiler.

2. Nvidia selbst den HLSL-Compiler von M$ für alle DX9-Spiele empfiehlt. Cg stirbt sehr wahrscheinlich im nächsten halben Jahr. Spätestens dann, wenn GLSlang (sp?) und OpenGl 2.0 da sind.

Demirug
2003-09-30, 14:25:39
Original geschrieben von egdusp
Ich denke, dass alleine die Compilierung von ATI Shadern auf Cg nicht viel bringen wird. Die Entwickler sind es schon gewohnt Shader zu schreiben, die die Stärken der ATI Hardware ausnutzen und die Schwächen vermeiden (also dependant texture reads und sin/cos Funktionen). Es wären andere Herangehensweisen für die Shader notwendig, damit sie auf CineFX schnell laufen.

Ein angepasster Compiler (nicht Cg) bringt nicht immer und aleine schon gar nicht etwas. Am meisten bringt derzeit die Kombination aus MS-Compiler (2.A) + FP16 + Det50.

Unsere Experten (Demi, Zecke + Co) sind aber wohl der Meinung, dass sich nicht alle Effekte mit für CineFX günstigen Shader darstellen lassen. Dann hätte NV ein echtes Problem. Ansonsten müssten sie nur optimierte Shader für die typischen Matrialien (Wasser, Holz, Metal, Spiegelungen) bereitstellen.

mfg
egdusp

Generische Materialien können wir uns mit der ersten DX9 Karten Generation wohl sowieso abschmiken. Die Leistung reicht für ein paar Techdemos aber für ein ganzen Spiel derzeit eher nicht.

Das Haupteinsatzgebiet werden Lichteffekte (Brechungen und Reflektionen) sowie die schon bekannten Fullscreen Filter Effekte sein.

Demirug
2003-09-30, 14:28:43
Original geschrieben von Gast
Spielt keine Rolle, da

1. Nvidia viel zu doof war/ist gute Cg-Compiler zu schreiben ( Cg ist gleich schnell oder langsamer als HLSL von M$ ). Kein _PP; keine Optimierung für Temp-Register soweit ich weiß; imho ein ziemlicher 08/15-Compiler.

Temp-Optimierung wird durchgeführt. Allerdings produziert das Teil überlangen Code im Vergleich zum MS Compiler.

2. Nvidia selbst den HLSL-Compiler von M$ für alle DX9-Spiele empfiehlt. Cg stirbt sehr wahrscheinlich im nächsten halben Jahr. Spätestens dann, wenn GLSlang (sp?) und OpenGl 2.0 da sind.

nv sagt ja selbst Cg = Lückenfüller

zwar nicht ganz so direkt aber eben durch die Blume.

Gast
2003-09-30, 14:30:16
Original geschrieben von egdusp
...
die Schwächen vermeiden (also dependant texture reads und sin/cos Funktionen).

Anscheinend sind dependent texture reads keine Schwäche der R300 (soweit man es nicht haltlos übertreibt).

Wenn man bei 4 Dependent Reads bleibt ist sie sogar ziemlich gut, laut Dio (oder OpenGL). Ich kann mir auch nicht vorstellen für was man mehr benötigt.

Wenn ein 4 fach ineinander geschachteltes "Ließ das, wenn dies" nicht mehr ausreicht, dann weiß ich nicht. Bei der NV3X mag sowas schneller sein als ein richtiger Shader, aber auch nur weil die Shader meistens "weniger schnell" sind.

Quelle : http://www.beyond3d.com/forum/viewtopic.php?t=7991&start=0&postdays=0&postorder=asc&highlight=

Ziemlich guter und ausführlicher Thread über "richtiges" Rendern für Film und Fernsehen.

Demirug
2003-09-30, 14:41:14
Original geschrieben von Gast
Anscheinend sind dependent texture reads keine Schwäche der R300 (soweit man es nicht haltlos übertreibt).

Wenn man bei 4 Dependent Reads bleibt ist sie sogar ziemlich gut, laut Dio (oder OpenGL). Ich kann mir auch nicht vorstellen für was man mehr benötigt.

Wenn ein 4 fach ineinander geschachteltes "Ließ das, wenn dies" nicht mehr ausreicht, dann weiß ich nicht. Bei der NV3X mag sowas schneller sein als ein richtiger Shader, aber auch nur weil die Shader meistens "weniger schnell" sind.

Quelle : http://www.beyond3d.com/forum/viewtopic.php?t=7991&start=0&postdays=0&postorder=asc&highlight=

Ziemlich guter und ausführlicher Thread über "richtiges" Rendern für Film und Fernsehen.

Mehr als 4 Dependent Reads gehen derzeit sowieso nicht. Und Aussagen von Dio bzw OpenGL sind immer mit etwas Vorsicht zu genissen. Im Prinzip sind sie auch keine direkte Schwäche nur muss man bei Dependent Reads beim R(V)3XX eben ein bischen mehr aufpassen sonst verliert man Leistung (von der aber reichlich vorhanden ist).

Bei NV3X sind dependent reads nicht schneller als der Rest sondern sie bremsen einfach nicht zusätzlich.

PS: Dependent Reads haben nichts mit "Ließ das, wenn dies" zu tun. Diese Sachen gehören in den Bereich des Flow Control. Ein Dependent Read hat man wenn man das Ergebniss eines Texturereads als Kordinate für einen weiteren Read benutzt.

Piffan
2003-09-30, 18:41:54
Mit "alternativem" Chipdesign meinte ich vielmehr die Tatsache, dass man die klassischen "Pipelines" fallengelassen hat und mit den Quads arbeitet...Habe von dem Artikel zwar nix kapiert, aber irgendwie klang das für mich, als wenn NV unter performance-technischer Sicht ins Klo gegriffen hat....Oder anders gesagt: ähnlich wie beim Pentium 4 mit seinen sehr langen Pipelines muß man beim NV den Code "mundgerecht" servieren, damit die Hardware gut ausgelastet wird....oder die Taktzahlen müssen in schwindeleregende Höhen getrieben werden, um mitzuhalten...

Ist die Analogie zum Pentium 4 vorhanden oder sollte ich lieber die Schnauze halten und mich raushalten als Zocker :D

Demirug
2003-09-30, 18:56:31
Original geschrieben von Piffan
Mit "alternativem" Chipdesign meinte ich vielmehr die Tatsache, dass man die klassischen "Pipelines" fallengelassen hat und mit den Quads arbeitet...Habe von dem Artikel zwar nix kapiert, aber irgendwie klang das für mich, als wenn NV unter performance-technischer Sicht ins Klo gegriffen hat....

Quads waren schon vorher üblich nur wurde das bisher nie irgendwo extra aufgeführt. Nach dem Stand der Dinge arbeit auch ATI mit Quads.

Oder anders gesagt: ähnlich wie beim Pentium 4 mit seinen sehr langen Pipelines muß man beim NV den Code "mundgerecht" servieren, damit die Hardware gut ausgelastet wird....oder die Taktzahlen müssen in schwindeleregende Höhen getrieben werden, um mitzuhalten...

Ist die Analogie zum Pentium 4 vorhanden oder sollte ich lieber die Schnauze halten und mich raushalten als Zocker :D

Gewisse Analogien gibt es da schon. Die lange Pipeline ist eine der Ursachen. Und das mit dem Mundgerechten Code stimmt auch. Im Detail sind es dann aber doch grössere Unterschiede.

zeckensack
2003-09-30, 20:02:31
Original geschrieben von Demirug
Temp-Optimierung wird durchgeführt. Allerdings produziert das Teil überlangen Code im Vergleich zum MS Compiler.



nv sagt ja selbst Cg = Lückenfüller

zwar nicht ganz so direkt aber eben durch die Blume. Cg optimiert IMO für überhaupt nichts - die haben das Ding einfach nicht hinbekommen.

#1: Trivialshader (http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/010501.html)
Cg 1.1 macht aus diesem Code:half4 main(
uniform fixed AlphaModulation,
half3 TexCoord0 : TEXCOORD0,
uniform sampler3D Volume3D,
uniform sampler1D ColorTable) : COLOR
{
fixed4 outcolor = tex3D(Volume3D,TexCoord0);
outcolor = tex1D(ColorTable,outcolor.x);
fixed alpha = outcolor.w;
outcolor.w = alpha * AlphaModulation;
return outcolor;
}
Das
!!FP1.0
# NV_fragment_program generated by NVIDIA Cg compiler
# cgc version 1.1.0003, build date Jul 7 2003 11:55:19
# command line args: -profile fp30
#vendor NVIDIA Corporation
#version 1.0.02
#profile fp30
#program main
#semantic main.AlphaModulation
#semantic main.Volume3D
#semantic main.ColorTable
#var fixed AlphaModulation : : : 0 : 1
#var half3 TexCoord0 : $vin.TEXCOORD0 : TEXCOORD0 : 1 : 1
#var sampler3D Volume3D : : texunit 0 : 2 : 1
#var sampler1D ColorTable : : texunit 1 : 3 : 1
#var half4 main : $vout.COLOR : COLOR : -1 : 1
DECLARE AlphaModulation;
TEX R0.x, f[TEX0].xyzx, TEX0, 3D;
TEX R0, R0.x, TEX1, 1D;
MOVR H0.xyz, R0.xyzx;
MULX H1.x, R0.w, AlphaModulation.x;
MOVX H0.w, H1.x;
MOVX o[COLH], H0;
END
Völlig überflüssig die Zeile im Fettdruck. Warum das ganze drei Tempregister braucht, wird wohl auf ewig ein Rätsel bleiben. Vernünftigerweise sollte das so aussehen:
!!FP1.0
DECLARE AlphaModulation;
TEX R0.x, f[TEX0].xyzx, TEX0, 3D;
TEX R0, R0.x, TEX1, 1D;
MULX R0.w,R0.w,AlphaModulation.x;
MOVX o[COLH],R0;
END

Performance-Verlust durch Einsatz von Cg: 44%


#2: dicker Shader (http://www.opengl.org/discussion_boards/ubb/Forum2/HTML/014012.html)
Leider ist mir der Quellcode nicht bekannt. Hier kam das ARB_fragment_program-Profil zum Einsatz. Der Cg-Compiler generiert 28 Instruktionen und verbraucht 5 Temp-Register.

Ich kann das gleiche auch mit 18 Instruktionen und 2 Temp-Registern.

Cg ist tot.

Piffan
2003-09-30, 20:07:50
Original geschrieben von zeckensack
Cg optimiert IMO für überhaupt nichts - die haben das Ding einfach nicht hinbekommen.

#1: Trivialshader (http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/010501.html)
Cg 1.1 macht aus diesem Code:half4 main(
uniform fixed AlphaModulation,
half3 TexCoord0 : TEXCOORD0,
uniform sampler3D Volume3D,
uniform sampler1D ColorTable) : COLOR
{
fixed4 outcolor = tex3D(Volume3D,TexCoord0);
outcolor = tex1D(ColorTable,outcolor.x);
fixed alpha = outcolor.w;
outcolor.w = alpha * AlphaModulation;
return outcolor;
}
Das
!!FP1.0
# NV_fragment_program generated by NVIDIA Cg compiler
# cgc version 1.1.0003, build date Jul 7 2003 11:55:19
# command line args: -profile fp30
#vendor NVIDIA Corporation
#version 1.0.02
#profile fp30
#program main
#semantic main.AlphaModulation
#semantic main.Volume3D
#semantic main.ColorTable
#var fixed AlphaModulation : : : 0 : 1
#var half3 TexCoord0 : $vin.TEXCOORD0 : TEXCOORD0 : 1 : 1
#var sampler3D Volume3D : : texunit 0 : 2 : 1
#var sampler1D ColorTable : : texunit 1 : 3 : 1
#var half4 main : $vout.COLOR : COLOR : -1 : 1
DECLARE AlphaModulation;
TEX R0.x, f[TEX0].xyzx, TEX0, 3D;
TEX R0, R0.x, TEX1, 1D;
MOVR H0.xyz, R0.xyzx;
MULX H1.x, R0.w, AlphaModulation.x;
MOVX H0.w, H1.x;
MOVX o[COLH], H0;
END
Völlig überflüssig die Zeile im Fettdruck. Warum das ganze drei Tempregister braucht, wird wohl auf ewig ein Rätsel bleiben. Vernünftigerweise sollte das so aussehen:
!!FP1.0
DECLARE AlphaModulation;
TEX R0.x, f[TEX0].xyzx, TEX0, 3D;
TEX R0, R0.x, TEX1, 1D;
MULX R0.w,R0.w,AlphaModulation.x;
MOVX o[COLH],R0;
END

Performance-Verlust durch Einsatz von Cg: 44%


#2: dicker Shader (http://www.opengl.org/discussion_boards/ubb/Forum2/HTML/014012.html)
Leider ist mir der Quellcode nicht bekannt. Hier kam das ARB_fragment_program-Profil zum Einsatz. Der Cg-Compiler generiert 28 Instruktionen und verbraucht 5 Temp-Register.

Ich kann das gleiche auch mit 18 Instruktionen und 2 Temp-Registern.

Cg ist tot.

Jetzt ist auch klar, warum NV so lange Shader unterstützt *eg*

Mr. Lolman
2003-09-30, 20:13:07
Anscheinend existiert cg nicht um Shader auf NV Hardware schneller laufen zu lassen, sondern um sie auf ATI HW langsamer zu machen. *eg*

Demirug
2003-09-30, 21:40:28
Zecki, so ein Mov kann bei den NV3X teilweise wunder bewirken. Der Treiber wirft in wieder raus benutzt in aber als Hinweiss.

zeckensack
2003-09-30, 21:49:21
Original geschrieben von Demirug
Zecki, so ein Mov kann bei den NV3X teilweise wunder bewirken. Der Treiber wirft in wieder raus benutzt in aber als Hinweiss. Möglich, das Problem dabei ist nur, daß der Cg-kompilierte Shader auch auf einer NV-Karte* langsam läuft. Viel langsamer als der 'normale' Code. Das "!!FP1.0"-Profil ist sowieso NV-spezifisch ("!!ARBfp1.0" ist die herstellerneutrale Variante).

*der Threadstarter hat leider nicht gesagt, was er nun genau einsetzt. Aber es muß irgendein NV3x gewesen sein

Piffan
2003-09-30, 22:08:43
Ich habe gar keine NV 30. Aber ich habe die PcGames zitiert, und die redet von einer 5600 Ultra....Was für eine bescheidene Bezeichnung: Einen Kastraten wegen hoher Taktzahl zur "Ultra" zu küren :bonk:

kmf
2003-09-30, 22:15:24
Original geschrieben von zeckensack
Cg optimiert IMO für überhaupt nichts - die haben das Ding einfach nicht hinbekommen.

#1: Trivialshader (http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/010501.html)
Cg 1.1 macht aus diesem Code:half4 main(
uniform fixed AlphaModulation,
half3 TexCoord0 : TEXCOORD0,
uniform sampler3D Volume3D,
uniform sampler1D ColorTable) : COLOR
{
fixed4 outcolor = tex3D(Volume3D,TexCoord0);
outcolor = tex1D(ColorTable,outcolor.x);
fixed alpha = outcolor.w;
outcolor.w = alpha * AlphaModulation;
return outcolor;
}
Das
!!FP1.0
# NV_fragment_program generated by NVIDIA Cg compiler
# cgc version 1.1.0003, build date Jul 7 2003 11:55:19
# command line args: -profile fp30
#vendor NVIDIA Corporation
#version 1.0.02
#profile fp30
#program main
#semantic main.AlphaModulation
#semantic main.Volume3D
#semantic main.ColorTable
#var fixed AlphaModulation : : : 0 : 1
#var half3 TexCoord0 : $vin.TEXCOORD0 : TEXCOORD0 : 1 : 1
#var sampler3D Volume3D : : texunit 0 : 2 : 1
#var sampler1D ColorTable : : texunit 1 : 3 : 1
#var half4 main : $vout.COLOR : COLOR : -1 : 1
DECLARE AlphaModulation;
TEX R0.x, f[TEX0].xyzx, TEX0, 3D;
TEX R0, R0.x, TEX1, 1D;
MOVR H0.xyz, R0.xyzx;
MULX H1.x, R0.w, AlphaModulation.x;
MOVX H0.w, H1.x;
MOVX o[COLH], H0;
END
Völlig überflüssig die Zeile im Fettdruck. Warum das ganze drei Tempregister braucht, wird wohl auf ewig ein Rätsel bleiben. Vernünftigerweise sollte das so aussehen:
!!FP1.0
DECLARE AlphaModulation;
TEX R0.x, f[TEX0].xyzx, TEX0, 3D;
TEX R0, R0.x, TEX1, 1D;
MULX R0.w,R0.w,AlphaModulation.x;
MOVX o[COLH],R0;
END

Performance-Verlust durch Einsatz von Cg: 44%


#2: dicker Shader (http://www.opengl.org/discussion_boards/ubb/Forum2/HTML/014012.html)
Leider ist mir der Quellcode nicht bekannt. Hier kam das ARB_fragment_program-Profil zum Einsatz. Der Cg-Compiler generiert 28 Instruktionen und verbraucht 5 Temp-Register.

Ich kann das gleiche auch mit 18 Instruktionen und 2 Temp-Registern.

Cg ist tot.

Von Hand gesetzter Code ist immer effektiver, als mit Compilern erzeugter. Das weiß niemand besser, als du selbst.

Die Leute (Programmierer) bei nv sind auch nicht blöd. Die haben bestimmt was in der Mache. (* Hoffentlich! *) Nur, gut Ding braucht Weil.

Cg war schon totgeredet gewesen, kurz nachdem er bekannt wurde. Dieses Teil ist wahrscheinlich danach nie gepflegt worden.

Ausblick: Die 30iger Reihe bei den Grakas wird sich komplett als Fehlentwicklung herausstellen, das was davon in die 40iger Reihe mit einfließen wird, wird entflechtet und man wird sich auf alte Tugenden besinnen. Bei der 30iger Reihe kam meines Erachtens zuviel dfx-Technik zum Tragen, netter Versuch, ging aber in die falsche Richtung los.

Zurück zu CG. Als nv CG hergestellt haben, waren sie im Grakasegment die bestimmende Firma. JC im Rücken, Marktleader, eigentlich überall, was konnte da schon schief gehen?

Man errinnere sich: Damals als die Spieleentwickler von Glide (meines Erachtens hätte diese Entwicklung weitergeführt werden müssen) auf D3D umgeschwenkt sind, haben sie mit dafür gesorgt, daß eine führende Firma in die Knie gezwungen wurde bzw. vom Erboden verschwand.

Heute siehst du Parallelen. Nur, nv hat in den fetten Jahren dicke Rücklagen gebildet und sich nicht nur ein Standbein verschafft. Das zahlt sich heute aus. Mit ihrem nforce-Chipsatz mischen die ganz gehörig mit.

Aquaschaf
2003-09-30, 23:00:00
Erläutere mal was für 3DFX Technik im NV30 steckt?

Exxtreme
2003-09-30, 23:00:48
Original geschrieben von Aquaschaf
Erläutere mal was für 3DFX Technik im NV30 steckt?
Der gleiche Stromstecker fand schon auf der Voodoo5 Verwendung. :D :D :D



Just kidding. ;-)

P.S. Irgendwas war da mit dem Vertexshader-Array, welches auch in einem zukünftigen 3dfx-Chip Verwendung finden sollte... AFAIR.

Piffan
2003-09-30, 23:13:45
3DFX- Bretter waren auch schon recht groß :D

Szilard
2003-10-01, 01:53:17
Original geschrieben von Al-CAlifAX
die demo läuft auf meinem rechner mit 40-100 Frames, je nach gegnerschaar und settings. um bei dem demo ihn auf nichtspielbare frameraten zu zwingen muss ich schon mächtig an 8xAf und 4xAA reinrumsen um dann zwischen 10-40 frames zu haben, wieder je nach gegner. also so ganz stimmt bei manchen reviewer nix. habe die demo mal auf ner geforce4 getestet beim kumpel mit nem AMD 2600+ Nforce2 Dualchannel. ebenfalls flüssige frames und da bei ner 64mb karte. Also wer auch immer wieder die gerüchte in die welt setzt das man zum Yager zocken eine ATi brauch sollte sich mal an seiner objektivität versuchen :P

Danke fürs lesen.

Fanboy Aussage?

Ich hatte die Leadtek Winfast A350TDH My Vivo FX5900nu vor kurzen gehabt, bevor ich es wieder verkauft habe und bei mir lief die Yager demo mit 30-40fps (1024x768@4aa/8af) und mit vielen performance einbrüchen. Kann das von dir überhaupt nicht bestätigen! Und bevor hier einer meint, mein Rechner wäre nicht richtig konfiguriert gewesen -> 3dmurks 2003 build 330 = 53xx Punkte. Deto 45.23

Gast
2003-10-01, 02:31:13
Es ist höchste Zeit ahnungslosen Käufern, die jetzt einen Comp oder eine Graka kaufen, die Wahrheit zu sagen, also vom Kauf einer nvidia-Graka abzuraten!
Abschreckendes Beispiel ist der A64-PC von Vobis (http://web.vobis.de/is-bin/INTERSHOP.enfinity/eCS/Store/de/-/EUR/DisplayProductInformation-Short;sid=pWov_E8is8Uv-XBYusb2pSlGY5RaAfLCUnQ=?ProductID=94nZWWZlvcgAAAD3is0BU9eE&technischeinfos=yes&xyz=n&produktbeschreibung=no)

mit FX5200 ... =)

Die FX ist eine Fehlentwicklung, das ist die bittere Wahrheit - leider!

up

mapel110
2003-10-01, 02:43:16
Original geschrieben von Gast
Es ist höchste Zeit ahnungslosen Käufern, die jetzt einen Comp oder eine Graka kaufen, die Wahrheit zu sagen, also vom Kauf einer nvidia-Graka abzuraten!
Abschreckendes Beispiel ist der A64-PC von Vobis (http://web.vobis.de/is-bin/INTERSHOP.enfinity/eCS/Store/de/-/EUR/DisplayProductInformation-Short;sid=pWov_E8is8Uv-XBYusb2pSlGY5RaAfLCUnQ=?ProductID=94nZWWZlvcgAAAD3is0BU9eE&technischeinfos=yes&xyz=n&produktbeschreibung=no)

mit FX5200 ... =)

Die FX ist eine Fehlentwicklung, das ist die bittere Wahrheit - leider!

up

nö, wenn ATI ne grottige ps2.0 graka hingelegt hätte, wäre alles in butter gewesen :)
dann hätte sich niemand über die miese performance beschwerd und alle wären mit fps zahlen jenseits des spielbaren bei dx9 apps zufrieden gewesen bzw die coder hätten weiter auf dx8 gesetzt.

Ailuros
2003-10-01, 05:10:43
Original geschrieben von Aquaschaf
Erläutere mal was für 3DFX Technik im NV30 steckt?

Eigentlich nicht so viel oder aus so wenig (je nach Sichtpunkt) wie sich manche vorstellen. Auf jeden Fall sind die Teile der verwendeten Technologie IMHO nicht daran schuld.

Das meiste betrifft 2D, video playback, Antialiasing Methoden/Optimierungen/Tricks etc.

Ich hab auch keine Ahnung auf was er anspielen wollte, denn die paar Kleinigkeiten die ich ueber den Spectre Nachfolger (Fear) wusste waren immer noch auf dx8.1 Niveau + hierarchical Z und externer Geometrie Einheit. 3dfx hatte sowieso vor voll auf TBDR mit Gigapixel zu setzen, wobei es dann noch immer weniger Gemeinsamkeiten haben kann fuer 3dfx's post-dx8.1 Plaene.

Tigerchen
2003-10-01, 06:38:59
Original geschrieben von Piffan
Für mich ist das ein klares Eigentor von NV! Denn warum wohl hat man ein alternatives Chipdesign entwickelt und die Hochsprache dazu? Imho war man sich sicher, den Markt kassieren zu können. Wäre Ati nicht flinker gewesen und hätte MS sich auf NVs Version eingelassen, dann stünde es evtl. nicht gut für Ati....

NV ist ja bekannt für weitreichende Planungen und ausgeklügelte Strategien. Dummerweise ließ sich die Realisierung der CineFX- Technik zwar planen, aber die Entwicklung der konkreten Hardware war nicht termingerecht möglich, die enorme Verspätung des NV30 hat das gesamte Konzept von NV durcheinandergeworfen. Oder anders betrachtet: Ati hat gerade noch rechtzeitig zugeschlagen...

Mich interessiert brennend, wie NV dasteht, wenn die Entwickler nach cg compilieren, wenn also die Potenz der Hardware den Ausschlag gibt.....

Ich erinnere mich wie Richthofen sich im vorigen Jahr für cg eingesetzt hat und behauptet hat ATI hätte jetzt keine Chance mehr.Da scheint mir deine Theorie daß nVIDIA andere zu einer Technologie zwingen wollte die nur sie selbst richtig durchschauen durchaus schlüssig.

Asuka
2003-10-01, 12:59:02
Original geschrieben von Ailuros
Eigentlich nicht so viel oder aus so wenig (je nach Sichtpunkt) wie sich manche vorstellen. Auf jeden Fall sind die Teile der verwendeten Technologie IMHO nicht daran schuld.

Das meiste betrifft 2D, video playback, Antialiasing Methoden/Optimierungen/Tricks etc.3dfx-Antialiasing im GF FX!? Da kann man ja nur laut lachen :lolaway:
Am grottigen nV-AA oberhalb 2x hat sich auch mit der FX nichts geändert. Ok, es gibt die etwas besseren S-Modi, die aber mächtig Performance fressen und immer noch meilenweit vom 3dfx-AA entfernt sind.
Ich würde mal sagen, das "FX" war nur dazu da, um die ehemaligen 3dfx-Anhänger zu ködern, ohne dabei jedoch irgendwelche nennenswerten 3dfx-Technolien zu verwenden.

Byteschlumpf
2003-10-01, 13:31:34
Original geschrieben von Tigerchen

Ich erinnere mich wie Richthofen sich im vorigen Jahr für cg eingesetzt hat und behauptet hat ATI hätte jetzt keine Chance mehr.Da scheint mir deine Theorie daß nVIDIA andere zu einer Technologie zwingen wollte die nur sie selbst richtig durchschauen durchaus schlüssig.

Würden Spieleentwickler voll auf Cine-FX setzen, würde das Bild praktisch auf den Kopf gestellt sein, da dadurch nVidia klar im Vorteil gegenüber Ati wäre.

Leider ist dieses Cine-FX "Meisterstück" aber vollkommen in die Hose gegangen, da viel zu aufwendig gegenüber dem herkömlichem DirectX und OpenGL, muß nun nVidia die Zeche für dieses verlorene Pokerspiel zahlen.

Die Leidtragenden sind dabei die FX-Kartenkäufer (insbesondere FX5600 Ultra und darunter), da sie Produkte erworben haben, die großteils deutlich langsamer sind, als eine Gf4 Ti, die man wohl als die beste nVidia GPU bezeichnen kann.

Mit Wehmut muß man sich daher an die Ti4200 zurückerinnern, die rundum Spaß gemacht hat, wobei Preis und Leistung bestens gestimmt habe - alles nach einer Ti4xx0 ist als großes Fiasko für den potentiellen Käufer zu werten.

aths
2003-10-01, 13:37:34
Original geschrieben von kmf
Von Hand gesetzter Code ist immer effektiver, als mit Compilern erzeugter. Das weiß niemand besser, als du selbst.Hochsprachen-Code ist einfacher an zukünftige Chips anzupassen, und außerdem wer garantiert dass man so gut ASM kann, um einen guten Compiler zu übertreffen?

daflow
2003-10-01, 13:43:50
Original geschrieben von Byteschlumpf
...
alles nach einer Ti4xx0 ist als großes Fiasko für den potentiellen Käufer zu werten.

Hm, also > alles 5800 aufwärts ist ja wirklich nicht so richtig schlecht, bei JETZIGEN Spielen. Wies dann bei den nextgen-Spielen aussieht wird man wohl erst sagen können wenn diese da sind, es wird aber wohl SEHR von der Optimierung abhängen ob es einen grossen Verlierer/Gewinner gibt...

zeckensack
2003-10-01, 13:45:49
Original geschrieben von aths
Hochsprachen-Code ist einfacher an zukünftige Chips anzupassen, und außerdem wer garantiert dass man so gut ASM kann, um einen guten Compiler zu übertreffen? Grundsätzlich: richtig.
Im Falle von Cg muß man das aber so sehen, daß selbst ein blutiger Anfänger in Sachen Shader-ASM besseren Code erzeugen kann als dieser Compiler.

zeckensack
2003-10-01, 13:47:35
Original geschrieben von PeTa
Hm, also > alles 5800 aufwärts ist ja wirklich nicht so richtig schlecht, bei JETZIGEN Spielen. Wies dann bei den nextgen-Spielen aussieht wird man wohl erst sagen können wenn diese da sind, es wird aber wohl SEHR von der Optimierung abhängen ob es einen grossen Verlierer/Gewinner gibt... Da braucht man nicht zu warten. Die Karten liegen auf dem Tisch.
DX8 hui
DX9 pfui

Byteschlumpf
2003-10-01, 13:59:25
Original geschrieben von PeTa
Hm, also > alles 5800 aufwärts ist ja wirklich nicht so richtig schlecht, bei JETZIGEN Spielen. Wies dann bei den nextgen-Spielen aussieht wird man wohl erst sagen können wenn diese da sind, es wird aber wohl SEHR von der Optimierung abhängen ob es einen grossen Verlierer/Gewinner gibt...
Der Leistungsunterschied zwischen 256bit und 128bit Karten ist leider der Grund für diese große Kluft zwischen aktuellen (Ultra)HighEnd und Midrange Karten, sowohl bei nVidia, als auch bei Ati.

Zu Zeiten der Ti4200 war flottes Zocken für relativ wenig Geld noch so schön realisierbar, da die Ti4200 recht häufig auf Ti4600 Niveau zu bringen war.

Empfehlenswert sind daher Karten, wie die FX5900 non-Ultra und 9700/9800np, möchte man ordentlich flott Spielen können, ohne zutief in die Tasche greifen zu müssen.

daflow
2003-10-01, 14:09:54
Original geschrieben von zeckensack
Da braucht man nicht zu warten. Die Karten liegen auf dem Tisch.
DX8 hui
DX9 pfui
Ich dachte (bis gerade eben) das bei Optimierung auf die NV-shader auch ein gegenteiliges Ergebnis denkbar währe?!
Btw. eigentlich ein nettes Wortspiel: Die Karten liegen auf dem Tisch.. :D (leider nicht auf meinem...;) )

ShadowXX
2003-10-01, 14:48:02
Original geschrieben von PeTa
Ich dachte (bis gerade eben) das bei Optimierung auf die NV-shader auch ein gegenteiliges Ergebnis denkbar währe?!
Btw. egentlich ein nettes Wortspiel: Die karten liegen auf dem Tisch.. :D (leider nicht auf meinem...;) )

Auch wenn D.K. gerne etwas anderes behauptet:
In dem moment wo PS2.0 ins Spiel kommt, kann die FX, selbst bei bester Anpassung, nicht auf r3x0 Werte kommen...einfach weil es physikalisch unmöglich ist (Bei Standardtakten beider Karten).

Liess dir doch mal den Artikel von Demi darüber durch...danach ist man wesentlich schlauer....

J.S.Shadow

Piffan
2003-10-01, 15:15:51
Und manche glauben noch an den Weihnachtsmann, dass ein künftiger Detonator es richten könne...

Die aktuelle PcGames hat es in sich: Die Half- life- Beilage nimmt ausführlich Stellung zur "Shaderschwäche" der FXen.....Nicht nur Gabe Newell von Valve kritisiert die NV- hardware heftig, sogar John Carmack (Doom III) erzählt wenig Gutes: Wenn die NV- Hardware auf das Niveau der Ati- Hardware kommen will, muß der Progger nicht nur einen speziellen Pfad coden, er muß auch die Darstellungsqualität verschlechtern..

Wer sich darunter nix vorstellen kann, lese bitte die PcGames. Da sind nämlich Beispielbilder, was das im Klartext bedeutet. Weil aber die Beispiele von HL2, also von Valve selbst stammen, könnte da natürlich auch nachgeholfen worden sein...Wenn aber J.Carmack ähnliches verlauten lässt, sollten die Alarmglocken schrillen.. Zwar laufe DoomIII etwas schneller auf NV, aber auch nur durch den speziellen Pfad und weil man kritische Dinge vermeidet, welche die FX gar nicht gut leiden kann. In Zukunft werde sich die Schäche der FXen immer mehr auswirken.

Also: Wer gerade jetzt ne neue Graka kaufen will, sollte die PcGames dringendst lesen!

Die Lamestar hingegen weist zwar auf die HL2- Schwäche der FXEn hin und empfiehlt daher für HL2 auch Ati- Karten, räumt aber noch ein, dass ein zukünftiger Deto vielleicht diese Schwäche ausbügelt und man unter dieser Bedingung auch ne FX kaufen könne :bonk:

Hinten bei den Hardwarecharts rangieren dann die Karten von NV an erster Stelle, was sonst :bonk:

Es ist schon erbärmlich, wie viele Redakteure rumeiern und sich nicht trauen auszusprechen, was schon klar ersichtlich ist...

Exxtreme
2003-10-01, 15:25:21
Original geschrieben von Piffan
Und manche glauben noch an den Weihnachtsmann, dass ein künftiger Detonator es richten könne...

Ja, das wundert mich auch noch.

Ich habe das schon seit den ersten TR:AOD-Ergebnissen gesagt, daß die FX-Serie PS2.x-mässig nicht wirklich was taugt. Aber wie immer hört keiner auf mich.

ShadowXX
2003-10-01, 15:32:18
Original geschrieben von Exxtreme
Ja, das wundert mich auch noch.

Ich habe das schon seit den ersten TR:AOD-Ergebnissen gesagt, daß die FX-Serie PS2.x-mässig nicht wirklich was taugt. Aber wie immer hört keiner auf mich.

Ich würde mich nicht Wundern, wenn nV bis zum nV40 mit den "WunderDetos" wartet...und Sie werden dann auch Leistungszuwächse sehen...gegenüber einem nv35.

J.S.Shadow

Piffan
2003-10-01, 15:32:53
Original geschrieben von Exxtreme
Ja, das wundert mich auch noch.

Ich habe das schon seit den ersten TR:AOD-Ergebnissen gesagt, daß die FX-Serie PS2.x-mässig nicht wirklich was taugt. Aber wie immer hört keiner auf mich.

Das Problem ist immer, dass es meist die üblichen Verdächtigen sagen und es darum keiner glauben will :D

Wenn Gabe Newell was sagt, dann ist er gekauft....

Darum ist es nicht schlecht, einen Kronzeugen wie J. Carmack zu hören....oder hat der plötzlich keine Ahnung mehr oder ist gar gekauft ?

Tja, wer nicht hören will, der zahlt halt drauf....ich denke noch an die Heulerei der TNT- Eigner, die auf die Sabbelei reingefallen waren und dachten, Unreal muss mit der überirdisch guten Hardware gefälligst laufen...ich schmunzelte und zockte mit ner Voodoo fröhlich weiter ;)

Es ist Mist, wenn man an eine Firma glaubt und einäugig ist. Für mich ist die letzte gute NV (und ich habe sehr viele gute NV- Karten) die GF4. Die FX ist Krampf pur, ein Zeugnis für Übermut.

Byteschlumpf
2003-10-01, 15:37:41
Original geschrieben von Piffan
Für mich ist die letzte gute NV (und ich habe sehr viele gute NV- Karten) die GF4. Die FX ist Krampf pur, ein Zeugnis für Übermut.

Da stimme ich Dir voll zu. ;)

DrumDub
2003-10-01, 15:37:59
Original geschrieben von Piffan
Es ist Mist, wenn man an eine Firma glaubt und einäugig ist. Für mich ist die letzte gute NV (und ich habe sehr viele gute NV- Karten) die GF4. Die FX ist Krampf pur, ein Zeugnis für Übermut.

ack. man denken, dass nv bei nv3x einfach den gamer- UND real-time-rendering- bzw. cad-markt bedienen wollte. zweiteres ist gut gelungen, wie benchmarks der fx quadros zeigen, ersteres nicht. insofern passt das mit dem übermut schon. man dachte bei nv wohl man hätte in beiden märkten niemanden zu fürchten und könnte daher eine kompromisslösung bauen.

aths
2003-10-01, 15:47:16
Original geschrieben von Byteschlumpf
Zu Zeiten der Ti4200 war flottes Zocken für relativ wenig Geld noch so schön realisierbar, da die Ti4200 recht häufig auf Ti4600 Niveau zu bringen war. Chip- und RAM-Takt auf 4600-er Niveau? Das schaffen nur wenige Ti 4200-Karten stabil.

Piffan
2003-10-01, 15:52:48
Original geschrieben von DrumDub
ack. man denken, dass nv bei nv3x einfach den gamer- UND real-time-rendering- bzw. cad-markt bedienen wollte. zweiteres ist gut gelungen, wie benchmarks der fx quadros zeigen, ersteres nicht. insofern passt das mit dem übermut schon. man dachte bei nv wohl man hätte in beiden märkten niemanden zu fürchten und könnte daher eine kompromisslösung bauen.

Vor lauter Übermut hat man Ati stark unterschätzt....wie können die aber auch so dreist sein und weiterhin mit einem "ungeeigneten" Prozess so einen Monsterchip wie den R300 bauen und dann auch noch mit so hohen Taktzahlen auf die Menschen loslassen.......

Ich bin sicher, dass Ati diesen brachialen Kraftakt nur deshalb vollbracht hat, weil man die Großmachtbestrebungen von NV noch rechtzeitig kontern wollte. Ist ja auch prima gelungen :D

Wäre trotzdem schön, wenn NV schnell in die Socken käme und den nextgen- Chip brächte, der dann hoffentlich wieder vorne liegt. Denn irgendwo hat dieser knallharte Kampf was gutes: Statt zu kleckern, habe sich beide richtig ins Zeug gelegt und wir Konsumenten haben mal wirklich schnellere Chips als die Vorgänger; der R300 und der NV 30 rangieren vom Speed her ne Klasse höher...

Piffan
2003-10-01, 16:07:04
Original geschrieben von aths
Chip- und RAM-Takt auf 4600-er Niveau? Das schaffen nur wenige Ti 4200-Karten stabil.

Wobei der Unterschied beim Ram weniger ins Gewicht fällt als der Unterschied beim Core, LMA 2 sei dank!

Ich finde das Verhältnis Chipleistung zu Speicherbandbreite beim GF4 vollkommen ok, Core- Erhöhungen kommen als Output auch wirklich auf den Monitor. Wenn man bei zukünftigen Spielen auf AF oder FSAA verzichten kann, sollte die G4 noch lange reichen. Die nextgen- Spiele werden sicher fallbacks beinhalten und optisch nur wenig leiden...

Gast
2003-10-01, 16:11:05
Also ich bin gespannt auf die Volari Duo:
Wenn zwei sich streiten, gelle?

up

Byteschlumpf
2003-10-01, 16:13:00
Original geschrieben von aths
Chip- und RAM-Takt auf 4600-er Niveau? Das schaffen nur wenige Ti 4200-Karten stabil.
Zumindest ist Ti4400 Niveau schon eine feine Sache, was schon eher machbar ist.

Roadkill
2003-10-01, 16:22:14
Finde auch, das in letzter Zeit Nvidia nacheglassen hat.
Die haben sich auf ihrer Goldenen Geforce Serie ausgeruht (Geforce2,3,4ti) und als dann der R300 von ATi kam, wurden die total überrumpelt. Und haben dann so ein liebloses Teil wie den 5800er rausgehaun.

StefanV
2003-10-01, 16:22:48
Original geschrieben von aths
Chip- und RAM-Takt auf 4600-er Niveau? Das schaffen nur wenige Ti 4200-Karten stabil.

Das mag sein, nur sind 300MHz sync mit 'ner GF4 TI4200 nicht unüblich, ganz im Gegenteil :)

LovesuckZ
2003-10-01, 16:26:09
Original geschrieben von zeckensack
DX9 pfui

Halo scheint aber das Gegenteil zu beweisen...

ShadowXX
2003-10-01, 16:36:05
Original geschrieben von LovesuckZ
Halo scheint aber das Gegenteil zu beweisen...


? bei den benches die ich gesehen habe, waren die ATIs schneller....

J.S.Shadow

LovesuckZ
2003-10-01, 16:40:31
Original geschrieben von ShadowXX
? bei den benches die ich gesehen habe, waren die ATIs schneller....


Razor kommt im Technikforum auf 36 FPS (dank Deto 51.75) im Default Modus, Anandtech kommt mit dem 52.14 und der 5900U auf irgendwas zwischen 39 - und 41 FPS (ich weiß nicht mehr so genau...).

ShadowXX
2003-10-01, 16:49:39
Original geschrieben von LovesuckZ
Razor kommt im Technikforum auf 36 FPS (dank Deto 51.75) im Default Modus, Anandtech kommt mit dem 52.14 und der 5900U auf irgendwas zwischen 39 - und 41 FPS (ich weiß nicht mehr so genau...).

Ehrlich gesagt komme ich auf mehr FPS im Default, aber da ich momentan den von dir angesprochenen Thread nicht finde, kann ich dir nicht sagen obs nur an der CPU/RAM liegt.

J.S.Shadow

LovesuckZ
2003-10-01, 16:51:44
Original geschrieben von ShadowXX
Ehrlich gesagt komme ich auf mehr FPS im Default, aber da ich momentan den von dir angesprochenen Thread nicht finde, kann ich dir nicht sagen obs nur an der CPU/RAM liegt.
J.S.Shadow

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=97141

/edit: Mir geht es nicht dadrum, dass Nvidia ATi in Halo schlage. Anhand der ergebnisse sieht man, dass die DX9 Leistung nicht grad so unterirdisch sein muss, wie es andere Spiele deklarieren.

Gast
2003-10-01, 16:55:28
beta1.5 oder die vollversion wo ich neulich von gelesen habe, dass die PS2.0 effekte standardmäßig alle deaktiviert wurden und man die nur per parameter in der verknüpfung aktivieren kann ?

LovesuckZ
2003-10-01, 17:00:33
Original geschrieben von Gast
beta1.5 oder die vollversion wo ich neulich von gelesen habe, dass die PS2.0 effekte standardmäßig alle deaktiviert wurden und man die nur per parameter in der verknüpfung aktivieren kann ?

Soll nur bei ATi so sein. Bei den FX karten dagegen ist Default = PS2.0

Gast
2003-10-01, 17:04:19
Original geschrieben von LovesuckZ
Soll nur bei ATi so sein. Bei den FX karten dagegen ist Default = PS2.0

das nen ich mal strange :spock:

ShadowXX
2003-10-01, 17:19:35
Original geschrieben von Gast
das nen ich mal strange :spock:

Nö...das nenne ich TWIMTBP......

J.S.Shadow

Gast
2003-10-01, 17:19:57
um nicht zu sagen äußerst interessant und anguckungswürdig


...mist jetz muss ich nur noch irgendjemand überreden sich das game zu kaufen damit ichs mir vom ihm leihen kann :D

reunion
2003-10-01, 17:30:38
Original geschrieben von LovesuckZ
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=97141

/edit: Mir geht es nicht dadrum, dass Nvidia ATi in Halo schlage. Anhand der ergebnisse sieht man, dass die DX9 Leistung nicht grad so unterirdisch sein muss, wie es andere Spiele deklarieren.

Könnte zum einen daran liegen das PS2.0 gar nicht aktiviert war da 1,1% unterschied im Vergleich zu PS1.4 genausogut unter die Messungenauigkeit fallen könnte(was ich auch glaube da man immerwieder hört das PS2.0 per default ausgeschaltet ist), oder daran das HALO sogut wie keine PS2.0 Effekt "besitzt".

Gast
2003-10-01, 17:41:32
Hat Razor nicht sogar die Shader auslesen lassen??

IIRC warens irgendwas mit 320 1.1-Shadern, 282 1.4 Shadern und 280 2.0-Shader.

LovesuckZ
2003-10-01, 17:43:44
Original geschrieben von reunion
Könnte zum einen daran liegen das PS2.0 gar nicht aktiviert war da 1,1% unterschied im Vergleich zu PS1.4 genausogut unter die Messungenauigkeit fallen könnte(was ich auch glaube da man immerwieder hört das PS2.0 per default ausgeschaltet ist), oder daran das HALO sogut wie keine PS2.0 Effekt "besitzt".

Razor hat Default und einmal per erzwungende PS2.0 gebencht. Beide ergebnisse waren fast (0.1FPS) identisch. Also scheint der Bench doch reproduzierbare ergebnisse liefern und eine Abweichung von 1.1% wiegt da deutlich mehr. Ausserdem gewinnt er beim Erzwingen von PS1.1 auch nur 3 FPS dazu (irgendwas mit 8%). Andere Spiele haben uns klar gemacht, dass der Gewin groeßer sein müsste.

barnygumble
2003-10-01, 20:49:20
Original geschrieben von Exxtreme
Ja, das wundert mich auch noch.

Ich habe das schon seit den ersten TR:AOD-Ergebnissen gesagt, daß die FX-Serie PS2.x-mässig nicht wirklich was taugt. Aber wie immer hört keiner auf mich.

DAS würde ich soo aber nicht sagen :D

Vielleicht lehne ich mich jetzt etwas zu weit aus dem Fenster, wenn ich die Geschichte für nVidia desaströs nenne, aber die endgültige Entscheidung für die 9800 (np) kam genau daher :)
Das daß ein Treiber nicht wird richten können (jedenfalls nicht ohne gewisse "Extras") hat den Zeiger deutlich in Richtung ATI ausschlagen lassen.
Besonders da ich mir nicht gerade alle paar Monate eine neue Graka kaufe (etwa alle 2 Jahre), sollte sie schon ein möglichst gutes Paket auch für zukünftige Spiele darstellen.

Ich würde nicht von mir sagen, ich wäre ein "Fanboy" der einen oder anderen Firma, ich kaufe einfach das, was zu dem Zeitpunkt das rundeste Paket zu einen vernünftigen preis ist.
Diesmal eben ATI. Nächstes mal vielleicht nVidia, oder XGI, wer weis?

Piffan
2003-10-01, 21:34:40
Sympathische Einstellung. Als Kunde ist man König und hat die Wahl.....

MadManniMan
2003-10-02, 17:35:58
Original geschrieben von aths
Chip- und RAM-Takt auf 4600-er Niveau? Das schaffen nur wenige Ti 4200-Karten stabil.

*Ohne bisher weitergelesen zu haben*

Naja, den Chiptakt schafft die ordinäre 42 eigentlich schon und beim RAM-Takt sinds auch nur roundabout 5%, die eben jener benannten 42 zur 46 fehlen.
...aber es vergessen einfach immer alle, daß auch die "großen" Karten noch übertaktet werde können!

aths
2003-10-02, 18:11:20
Original geschrieben von kmf
Bei der 30iger Reihe kam meines Erachtens zuviel dfx-Technik zum Tragen, netter Versuch, ging aber in die falsche Richtung los.3dfx!!

Imo steckt im NV30 recht wenig 3dfx-Technologie.


Original geschrieben von MadManniMan
...aber es vergessen einfach immer alle, daß auch die "großen" Karten noch übertaktet werde können! Wofür die Ti 4600 werkseitig extra unterhalb der eigentlichen Spezifikationen getaktet wird (2,86 ns RAM auf 325 statt 350 MHz...)

kmf
2003-10-02, 21:20:44
Original geschrieben von aths
3dfx!!

Imo steckt im NV30 recht wenig 3dfx-Technologie.



Hätte doch einen Ironie-Smilie setzen sollen. Andere haben es aber auch so gemerkt.

Du hast aber noch den extra versteckten Fehler gefunden. Dafür gibt es eine 16MB 3dfx-Karte aus meiner Sammlung. Wohin darf ich die Karte schicken? Adresse per pn. :)