PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14

aths
2004-06-21, 22:05:53
Original geschrieben von Winter[Raven]
Ich will ja nimmanden auf die Füsse tretten, aber dieses "Schwachsinn" was sich Jesus und paar "Gäste" sich geleistet haben, hätte man gleich beim anfang unterbinden sollen, oder für dieses "banding" ne eigenen Tread erstellen sollen.

Jetzt sind die letzen >3 Seiten zugemühlt mit Fanboy Gelaber, da kann man diesen fread doch gleich dichtmachen. Bei Jesus sehe ich mehr Hintergrundwissen, als beispielsweise bei dir. Genau so wie du Nvidia-Karten gut findest, darf Jesus seine Haltung bezüglich ATI-Karten vertreten, denke ich.

tRpii
2004-06-21, 22:26:25
Original geschrieben von Winter[Raven]
Da der Fread mal wieder zugespammt wurde und keiner der Mods es für nötig hält bissel zusäubern ... :down:

6800U + P4 3.4EE + 61.45 drivers = über 100fps in Far Cry @ 1600x1200 | NV stahmt den X800XT ungespritzt in den Boden.

http://www.anandtech.com/cpu/showdoc.html?i=2091&p=18

Dein Fanboy gehabe in allen Ehren.. ich schenke dir eine Balkengrafik in der zu sehen ist dass der 6800U die XT um 200% schlägt.. muss ja dann wie Weihnachten sein..

Tipp: komm mal etwas von deiner engstürnigen Einstellung runter.. die X800 ist ne Top-Karte und die 6800.. da du die Wahl hast must du dir ja keine X800 holen..

Demirug
2004-06-21, 22:28:26
Da wir gerade mal wieder beim SM3 sind.

Es liegt derzeit durchaus im Rahmen das Wahrscheinlichen das Microsoft viele Entwickler dazu bringen wird längerfristig nicht mehr als SM3 zu benutzen.

Zudem bin ich mir noch durchaus etwas unsicher wie schnell die IHV wirklich SM4 (das es ja nun eigentlich gar nicht mehr gibt) liefern können. Die Messlatte liegt da nun inzwischen verdammt hoch.

Winter[Raven]
2004-06-21, 22:33:19
Original geschrieben von aths
Bei Jesus sehe ich mehr Hintergrundwissen, als beispielsweise bei dir. Genau so wie du Nvidia-Karten gut findest, darf Jesus seine Haltung bezüglich ATI-Karten vertreten, denke ich.

Bei allem Respekt aber mit solchen "Vermutungen" lieber ATHS, wäre ich vorsichtig! Du kennst mich weder Persönlich noch weißt du was ich weiß, oder nicht weiß ;)

Nur weil sich jemand nicht an eurem "Technik"-Postings beteiligt, kannst du entscheiden ob jemand Hintergrund oder Grundwissen besitzt? Ich bin begeistert.

Original geschrieben von aths
Genau so wie du Nvidia-Karten gut findest, darf Jesus seine Haltung bezüglich ATI-Karten vertreten, denke ich.

Das darf er im R420 Fread oder ATI Unterforum gerne tun, dies ist aber ein NV40 Thread.

zeckensack
2004-06-21, 22:36:09
.

kmf
2004-06-21, 22:40:45
Original geschrieben von zeckensack
.

Danke. :)

Crushinator
2004-06-21, 22:48:14
wenn ich mir die letzten 2 Seiten dieses Threads anschaue, fällt mir auf daß sich eine Person gegenüber anderen Forumsteilnehmern nicht nur im Ton vergriffen hat, sondern auch für ein negatives Diskussionsklima sorgt. Ich möchte ja niemanden schief angucken, aber wenn es damit nicht ganz schnell - quasi sofort - aufhört lieber Winter[Raven], werde ich zum bösen Mod!

LovesuckZ
2004-06-21, 23:18:02
Original geschrieben von Crushinator
wenn ich mir die letzten 2 Seiten dieses Threads anschaue, [...]

Gibt es einen Grund, warum nur die letzten zwei?

MarcWessels
2004-06-21, 23:21:44
Original geschrieben von Mr. Lolman
Es scheint sich immer deutlicher herauszukristallisieren:

AMD User sollten sich ne ATi zulegen, Intel User eine NVidia.

http://www.anandtech.com/cpu/showdoc.html?i=2091&p=20


Unglaublich, wie die GeForce auf dem Athlon gegenüber dem P4 regelrecht zusammenbricht - ist sie auf dem Intel-Sys noch schneller als die X800XT, so ist sie auf dem AMD-Sys mit einem Mal nahezu 50%(!!!) langsamer! :-O

Kann es vielleicht sein, daß die 3400+ - Werte noch aus dem ersten 6800U-Review stammen? Sprich mit den alten Treibern und dort entweder ein Treiberbug vorhanden war, der für schlechte AMD-Performance "sorgte" oder eben die Karte insgesamt so "schelcht" dastehen ließ?

Crushinator
2004-06-21, 23:23:35
@LovesuckZ

Ja, mein Hals schwoll schon an als ich nur 2 Seiten zurückblätterte. :motz: Außerdem bin ich erst seit heute wirklich für die Moderation dieses Unterforums mit zuständig. Ich bin am überlegen, ob ich den Thread wirklich splitte. Nur würden's danach in der Anzahl vermutlich mehr Threads als uns allen lieb ist. ;(

LovesuckZ
2004-06-21, 23:26:49
Original geschrieben von MarcWessels
http://www.anandtech.com/cpu/showdoc.html?i=2091&p=20
Unglaublich, wie die GeForce auf dem Athlon gegenüber dem P4 regelrecht zusammenbricht - ist sie auf dem Intel-Sys noch schneller als die X800XT, so ist sie auf dem AMD-Sys mit einem Mal nahezu 50%(!!!) langsamer! :-O


Downfilterung on Scanout (i hoff so richtig) koennte deaktiviert sein und somit entsteht keine Speicherlimitierung beim AA.

robbitop
2004-06-21, 23:31:56
@Lovesuckz
bei 1600x1200 und 4xAA haben wir einen Framebuffer von rund 70MiB und rund 20MiB für den ScanOut.
So wesentlich ist das nicht, wie einige behaupten.

-> Urban Legend??

LovesuckZ
2004-06-21, 23:36:31
Und was machst du mit den Spielen, die diese 20MB benoetigen?

/edit: Computerbase.de hat es ja eindrucksvoll bewiesen, dass diese Methode in Spielen mit hohen Speicherbedarf in hoeheren Aufloesungen kontraproduktiv ist.

robbitop
2004-06-21, 23:41:56
20MiB über den AGP transferieren. Sicher gibt das einen Drop, aber keinen so gewaltigen.
CB hat afair nur gezeigt, dass den NV Karten bei 16x12 4xMS der Speicher ausging, aber ich sehe keinen Belegt, dass es am ScanOut liegt.

LovesuckZ
2004-06-21, 23:45:21
Original geschrieben von robbitop
CB hat afair nur gezeigt, dass den NV Karten bei 16x12 4xMS der Speicher ausging, aber ich sehe keinen Belegt, dass es am ScanOut liegt.

Als kleine Ehrenrettung und zum Untermauern des eben gesagten sei noch erwähnt, dass die 6800 Ultra mit ansonsten gleichen Einstellungen im letzten Test mit 4xAA und 16xAF bei Double- anstatt Triple-Buffering 114,21 fps erreichte. (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/16/#max_payne_2)
Ansonsten auch die 5800U berachten, die im Gegensatz zur 9700pro nichtmal mehr durchlief.

robbitop
2004-06-21, 23:53:45
achso ok, das habe ich nicht so genau gelesen damals, sry :-(

Aber ich glaube, dass der ScanOut eh nur der letzte Tropfen im sprichwörtlichen Fass ist.
Vieleicht sollte man das genauer untersuchen. Ich kann mir nicht vorstellen, dass die 20MiB soviel ausmachen sollen.


Aber mal ganz ehrlich: wen interessiert schon 16x12 bei 4xMS?

betasilie
2004-06-22, 00:14:30
Original geschrieben von Demirug
Ich würde es anders formulieren. Farcry sollte nicht mehr gebencht werden solange nicht auf allen Chips identische Shadermaterial zum Einsatz kommt.
Zumindest bei Karten eines Preissegments, da diese auch gegeneinader gebencht werden.

Gast
2004-06-22, 00:54:13
Kann mir mal einer bidde diese frgen Beantworten thx :)

1. Was denkt ihr bringt der Pixel Shader 3,0 was ?

2. Ist der unterschied jetzt immer noch so groß wie 5900 und 98OO Pro ? jetzt nicht nur der speed

Gast
2004-06-22, 01:10:40
Original geschrieben von reunion
Damals wurde gesagt PS1.4 ist kein Standard da es ja nur von einem Hersteller unterstützt wird, außerdem wurde behauptet es ist total nutzlos. Jetzt ist es bei PS/VS 3.0 vom NV40 das gleiche, und aufeinmal ließt man von genau den gleichen Leuten wie toll das SM3.0 vom NV40 nicht ist...

Du kannst ATIs Stand damals nicht mit dem von NV vergleichen. Außerdem gab es keine Hochsprachen und ATI selber hatte lange Zeit PS1.4 nur auf der 8500 zu bieten. Bis zur 9000er hats ja noch ne ganze Weile gedauert.

Zudem war PS1.3 in DX8.1 ebenso integriert wie PS 1.4
1.4 war schlichtweg nur optional.
Für SM3.0 gibts eben nur SM3.0 und nichts darunter.
Hochsprachen sind im Überfluss vorhanden und zumindest ein Anbieter wird das Featureset im Verlaufe des Jahres in allen Produkten anbieten und hat zudem auch wenn ein wenig eingebüßt immer noch eine komplett andere Ausgangslage am Markt als ATI damals mit dem R200 bzw RV250.

Gast
2004-06-22, 01:11:40
Original geschrieben von reunion
Und ich möchte nicht wissen wieviel Leute die behauptet haben PS1.4 ist total unwichtig und sowieso kein Standard jetzt aufeinmal SM3.0 in den Himmel loben...

wollte noch anfügen, dass für die Mehrheit der Entwickler - ich würde sagen 95% Nvidia der Standard war und nicht DX8.0 oder 8.1

MarcWessels
2004-06-22, 01:59:43
Original geschrieben von LovesuckZ
Downfilterung on Scanout (i hoff so richtig) koennte deaktiviert sein und somit entsteht keine Speicherlimitierung beim AA.

Stimmt! Daran könmnte es in der Tat leigen - also sind die 3400+-Ergebnisse wohl einfach aus dem alten Review übernommen worden.

Ansonsten kann ich zu der 6800U-Performance nur sagen: Hut ab! In Spielen und Qualitätssettings in denen die GeForce anfangs langsamer war als die X800XT PE, ist sie nun gleichschnell und ist insgesamt gesehen SCHNELLER als der ATI-Gegner! Bravo!! :)

Somit steht meine Kaufentscheidung endgültig fest!

P.S.:Gibt's denn nu n Voltagemod für die Karten oder immer noch nicht?

betasilie
2004-06-22, 02:09:16
Original geschrieben von MarcWessels
P.S.:Gibt's denn nu n Voltagemod für die Karten oder immer noch nicht?
Jo, das würde mich auch interessieren, weil bei mir auch direkt eine WaKü drauf komen würde.

Mich würde dann auch interessieren, ob 6800, GT und Ultra die gleiche GPU-Spannung anliegen haben. ... Bzw. wieviel Volt bekommen die jeweiligen Karten?

betasilie
2004-06-22, 02:13:53
Original geschrieben von Gast
Kann mir mal einer bidde diese frgen Beantworten thx :)

1. Was denkt ihr bringt der Pixel Shader 3,0 was ?
Kannst Du vernachlässigen bei der Kaufentscheidung, wenn Du die Karte nicht bis 2006/2007 behalten willst, imho.

Original geschrieben von Gast
2. Ist der unterschied jetzt immer noch so groß wie 5900 und 98OO Pro ? jetzt nicht nur der speed
Nein, ATI und NV leigen gleich auf. Beide Karten haben Vor- und Nachteile. Daher kaufe nach Preis oder nach Benchmarks von Spielen, die Du gerne spielst.

Auf vernünftige FarCry Benchmarks musst Du aber noch bis nächste Woche warten, weil dann erst der Patch rauskommt, der die 6800er mit DX9-Shadern arbeiten lässt.

SKYNET
2004-06-22, 02:18:46
Original geschrieben von betareverse
Jo, das würde mich auch interessieren, weil bei mir auch direkt eine WaKü drauf komen würde.

Mich würde dann auch interessieren, ob 6800, GT und Ultra die gleiche GPU-Spannung anliegen haben. ... Bzw. wieviel Volt bekommen die jeweiligen Karten?

VR-Zone is your best friend

SKYNET
2004-06-22, 02:21:04
Original geschrieben von betareverse
Kannst Du vernachlässigen bei der Kaufentscheidung, wenn Du die Karte nicht bis 2006/2007 behalten willst, imho.


Nein, ATI und NV leigen gleich auf. Beide Karten haben Vor- und Nachteile. Daher kaufe nach Preis oder nach Benchmarks von Spielen, die Du gerne spielst.

Auf vernünftige FarCry Benchmarks musst Du aber noch bis nächste Woche warten, weil dann erst der Patch rauskommt, der die 6800er mit DX9-Shadern arbeiten lässt.

auch ohne den patch ist die ultra nun genausoschnell b.z.w. schneller als die x800xt bei farcry, siehe neuste reviews auf http://www.anandtech.com/cpu/showdoc.html?i=2091&p=18

der neue treiber drückt richtig bei ATI im gesicht, und das war erst der anfang, mit weiteren treibern wird die architektur des chips besser unterstüttz und immermehr speed gewonnen werden. :up:

Ailuros
2004-06-22, 02:39:27
Original geschrieben von SKYNET
auch ohne den patch ist die ultra nun genausoschnell b.z.w. schneller als die x800xt bei farcry, siehe neuste revies auf http://www.anandtech.com/cpu/showdoc.html?i=2091&p=18

der neue treiber drückt richtig bei ATI im gesucht, und das war erst der anfang, mit weiteren treibern wird die architektur des chips besser unterstüttz und immermehr speed gewonnen werden. :up:

Ich will hoffen dass NV40 und NV45 mit gleichem Takt laufen (ergo 400MHz fuer beide oder 450MHz fuer beide), sonst brauchen die NV45 Treiber wohl noch so einige Arbeit. Falls es aber 450MHz fuer beide sein sollten, dann sind diese NV40 Exemplare aber ganz verdammt rar, bis zum Punkt dass es fast unmoeglich ist eins zu finden.

Wen zum Henker scheren no AA/AF Resultate erstmal ueberhaupt bei >500$ ultra high end GPUs? In dem Sinn sehe ich bei beiden Seiten (R420/NV40) nicht besonders merkbare Unterschiede (und ergo Gleichstand) und das in den meisten benutzten Spielen des Reviews.

MarcWessels
2004-06-22, 02:44:30
Original geschrieben von Ailuros
Wen zum Henker scheren no AA/AF Resultate erstmal ueberhaupt bei >500$ ultra high end GPUs?

Mich z.B.! :p

Man kauft sich die Karten ja nicht um mit einem alles Aktuelle und Zukünftige mit volle Pulle AA/AF zu spielen sondern um ÜBERHAUPT genügend Leistung selbst für technisch aufwendige Engines zu haben - in den meisten Fällen wird für AA kein Raum sein (wenn man immer konstant 60fps haben will, erst Recht nicht).

betasilie
2004-06-22, 02:56:00
Original geschrieben von MarcWessels
Mich z.B.! :p

Man kauft sich die Karten ja nicht um mit einem alles Aktuelle und Zukünftige mit volle Pulle AA/AF zu spielen sondern um ÜBERHAUPT genügend Leistung selbst für technisch aufwendige Engines zu haben - in den meisten Fällen wird für AA kein Raum sein (wenn man immer konstant 60fps haben will, erst Recht nicht).
Ja sicher. Ohne AF zu zocken ist wirklich lächerlich. Und in diesem Preissegment und zum jetzigen Zeitpunkt sind Benchmarks ohne AA auch ziemlicher quatsch. Ich bitte dich, welches aktuelle Game kannst Du nicht mit AA gamen mit den Karten? :spock:

betasilie
2004-06-22, 02:56:43
Original geschrieben von SKYNET
VR-Zone is your best friend
Gleich mal lesen.

Ailuros
2004-06-22, 02:58:11
Original geschrieben von MarcWessels
Mich z.B.! :p

Man kauft sich die Karten ja nicht um mit einem alles Aktuelle und Zukünftige mit volle Pulle AA/AF zu spielen sondern um ÜBERHAUPT genügend Leistung selbst für technisch aufwendige Engines zu haben - in den meisten Fällen wird für AA kein Raum sein (wenn man immer konstant 60fps haben will, erst Recht nicht).

Es ging um FarCry in den letzten paar Posts. Selbst ~50 fps in 1600*1200*32 mit 4xAA/8xAF duerften genug sein, wenn nicht dann 1280*1024*32 mit 4xAA/8xAF an die 70 fps (mehr oder weniger).

Was in dem Fall =/>100 fps mit verwaschenen Texturen und tanzenden Maeandern auf poly edges nutzvoll sind, ist mir persoenlich fremd.

Absolut "zukunftsicher" ist eigentlich nur zukuenftige Hardware fuer "zukuenftige" Spiele. Heutige high end GPUs haben genug Leistung dass man zumindest in 1280 (Aussnahme Spiele wo AA nicht funktioniert) 4xAA/8xAF anwenden kann in heutigen Spielen.

Ich werde mich um Spiele die naechstes Jahr ankommen, erst naechstes Jahr kuemmern; rohe non-AA/AF Leistung in heutigen Spielen sagt mir momentan gar nichts fuer was in der Zukunft kommen koennte.

betasilie
2004-06-22, 03:00:00
Original geschrieben von SKYNET
auch ohne den patch ist die ultra nun genausoschnell b.z.w. schneller als die x800xt bei farcry, siehe neuste revies auf http://www.anandtech.com/cpu/showdoc.html?i=2091&p=18
Ohne AA und AF. :freak: ... Und erstmal auf den Patch warten. Die 6800er rendern mit DX8-Shadern und daher kann man diese Benchmarks in die Tonne kloppen.

Original geschrieben von SKYNET
der neue treiber drückt richtig bei ATI im gesucht, und das war erst der anfang, mit weiteren treibern wird die architektur des chips besser unterstüttz und immermehr speed gewonnen werden. :up:
Was Du nicht alles weißt. Bei der FX-Serie haben einige Leute auch immer behauptet, die Treiber werden sich über Jahre melken lassen.

Und ATI kann ggf. auch nich einiges bei den Treibern rausholen, insbesondere beim Speichermangement.

Ailuros
2004-06-22, 03:08:14
Und ATI kann ggf. auch nich einiges bei den Treibern rausholen, insbesondere beim Speichermangement.

Hmmmm jetzt mal anders rum: ich wuerde liebend gerne wissen mit was fuer Treiber-settings alle Loesungen verglichen wurden.

Falls mein Verdacht stimmen sollte, dann wird es wohl moeglich sein fuer ATI das Speichermanagement ein bisschen mehr zu optimieren (viel eigentlich nicht denn sie sind ja Bandbreiten-limitiert wie verrueckt), aber die wahre Frage ist ob sie die scheusslichen R420 Textur-Filterung-Optimierungen entfernen werden oder nicht. Hier kann es sogar sein dass sich vielleicht die Bildqualitaet verbessert, Leistung dann aber im Durchschnitt unbedingt nicht.

ATI braucht unbedingt schnelleres GDDR3 um die 16 SIMD@520MHz effizient fuettern zu koennen. Wuerde die Bandbreite die Fuellraten nicht so stark limitieren, haetten sie auch wenig oder keinen Grund zu solchen Optimierungen (siehe oben) zu greifen.

Alles IMHO natuerlich.

betasilie
2004-06-22, 03:20:20
Original geschrieben von Ailuros
Hmmmm jetzt mal anders rum: ich wuerde liebend gerne wissen mit was fuer Treiber-settings alle Loesungen verglichen wurden.

Falls mein Verdacht stimmen sollte, dann wird es wohl moeglich sein fuer ATI das Speichermanagement ein bisschen mehr zu optimieren (viel eigentlich nicht denn sie sind ja Bandbreiten-limitiert wie verrueckt), aber die wahre Frage ist ob sie die scheusslichen R420 Textur-Filterung-Optimierungen entfernen werden oder nicht. Hier kann es sogar sein dass sich vielleicht die Bildqualitaet verbessert, Leistung dann aber im Durchschnitt unbedingt nicht.

ATI braucht unbedingt schnelleres GDDR3 um die 16 SIMD@520MHz effizient fuettern zu koennen. Wuerde die Bandbreite die Fuellraten nicht so stark limitieren, haetten sie auch wenig oder keinen Grund zu solchen Optimierungen (siehe oben) zu greifen.

Alles IMHO natuerlich.
Das sehe ich ähnlich. ATI sollte imo mögliche Performancegewinne durch die Treiber, der AF-Quali zugute kommen lassen. ...

SKYNET
2004-06-22, 04:05:27
Original geschrieben von Ailuros


Wen zum Henker scheren no AA/AF Resultate erstmal ueberhaupt bei >500$ ultra high end GPUs? In dem Sinn sehe ich bei beiden Seiten (R420/NV40) nicht besonders merkbare Unterschiede (und ergo Gleichstand) und das in den meisten benutzten Spielen des Reviews.

du hast schon gesehn das die ultra bei 1600*1200 4xAA/8xAF genausoschnell ist wie die XT ? :P

http://images.anandtech.com/graphs/initial%20pci%20express%20graphics_062004120650/2540.png

SKYNET
2004-06-22, 04:06:59
Original geschrieben von betareverse
Ohne AA und AF. :freak: ... Und erstmal auf den Patch warten. Die 6800er rendern mit DX8-Shadern und daher kann man diese Benchmarks in die Tonne kloppen.


Was Du nicht alles weißt. Bei der FX-Serie haben einige Leute auch immer behauptet, die Treiber werden sich über Jahre melken lassen.

Und ATI kann ggf. auch nich einiges bei den Treibern rausholen, insbesondere beim Speichermangement.

du erinnerst dich aber schon an die performance unterschide der detos bei den GF4 karten ? ;)

r@h
2004-06-22, 06:06:13
Original geschrieben von SKYNET
du hast schon gesehn das die ultra bei 1600*1200 4xAA/8xAFgenausoschnell ist wie die XT ? :PUnd was wir davon zu halten haben, hoffentlich auch... ;)
(Stichwort BQ ahoi)

Razor

Korak
2004-06-22, 07:24:17
Original geschrieben von r@h
Und was wir davon zu halten haben, hoffentlich auch... ;)
(Stichwort BQ ahoi)

Razor

Und das auch noch auf beiden Seiten :freak:

FC-Benches sollte man erstmal ignorieren.

MB@W
2004-06-22, 08:17:58
Original geschrieben von Korak
Und das auch noch auf beiden Seiten :freak:
Leider. Ich habe mich damit schon irgendwie abgefunden.
Original geschrieben von Korak
FC-Benches sollte man erstmal ignorieren.
Das lese ich schon seit Monaten.
Wie kann es sein, dass man bei Crytek am SM3.0-Support arbeitet, aber es nicht schafft die Nvidias "normal" arbeiten zu lassen? Das kotzt langsam an. :banghead:
Bevor man sich etwas neues vornimmt, muss man doch sichergehen, dass die "Basis" optimal läuft, was bei FC nicht der Fall ist.
Würde FC nicht zum TWIMTBP-Programm gehören, würde ich sagen, dass Crytek unfähig ist. So drängen sich schon andere Gedanken auf, vor allem, wenn man bedenkt, dass man mit der Version 1.0 auf den Nvidias die volle Quali geboten hat. Und nun brauchen die "Jahre" um das wieder hinzukriegen?
Was soll der Scheiss?

PS Dieser Post ist mit Absicht provokativ, schlagt mich bitte nicht. ;D

MikBach

Quasar
2004-06-22, 08:59:11
Original geschrieben von Gast
1.4 war schlichtweg nur optional.
Für SM3.0 gibts eben nur SM3.0 und nichts darunter.

Wobei SM3 auch nur eine Option für DX9 darstellt. Das würde ich also nicht als Argument durchgehen lassen.

Tjell
2004-06-22, 09:02:52
Original geschrieben von MB@W
Würde FC nicht zum TWIMTBP-Programm gehören, würde ich sagen, dass Crytek unfähig ist. So drängen sich schon andere Gedanken auf, vor allem, wenn man bedenkt, dass man mit der Version 1.0 auf den Nvidias die volle Quali geboten hat. Und nun brauchen die "Jahre" um das wieder hinzukriegen?

Genau umgekehrt: Weil Crytek mit Far Cry zum TWIMTBP-Programm zählt, kommt man kaum umhin zu denken die seien unfähig. Denn mit der Teilnahme daran geht man doch als Otto-Normalverbraucher davon aus, daß sie den Mitbewerber Ati benachteiligen müßten. ?-)

[editiert zur Verdeutlichung]

Quasar
2004-06-22, 09:04:01
Original geschrieben von Ailuros
Wen zum Henker scheren no AA/AF Resultate erstmal ueberhaupt bei >500$ ultra high end GPUs?
Ich könnte mir vorstellen, daß Leute, die ihr teuer erstandenes Produkt solange behalten, bis es einen realtiven Level erreicht hat, wie heute eine GF2/Radeon256, durchaus auch an der Rohleistung und den Features, die sich erst in einem Jahr oder so durchsetzen könnten, interessiert sind.
*shrugs*

Zugegeben, die meisten Leute, die so einkaufen, wählen eher Mid-Range Produkte. :)

Quasar
2004-06-22, 09:09:58
Original geschrieben von Ailuros
ATI braucht unbedingt schnelleres GDDR3 um die 16 SIMD@520MHz effizient fuettern zu koennen. Wuerde die Bandbreite die Fuellraten nicht so stark limitieren, haetten sie auch wenig oder keinen Grund zu solchen Optimierungen (siehe oben) zu greifen.

Alles IMHO natuerlich.

Andersrum wird IMO ein Schuh draus: Momentan gewinnt man in shader- und bandbreitenlimitierten Szenarien wie Far Cry beim Top-Modell ca. 10% Leistung.
Wenn die Füllrate allerdings voll ausgeschöpft werden könnte, würde dieser Gewinn auch in niedrigeren Auflösungen und AA/AF-Stufen durchschlagen.

So, wie sie jetzt dasteht, ist die Optimierung für'n Allerwertesten: Man verliert durch Verzicht darauf keine Benchmarks, die man nicht sowieso verloren hätte und gewinnt keine, die man nicht auch so gewonnen hätte.

Anders sieht es allerdings bei der X800 Pro aus. Die konnte i.d.R. trotz aktiver Optimierungen mit der GT "mithalten" (Ausreisser gab's in beide Richtungen) - ohne wäre sie schlechter dagestanden.

Gleiches gilt IMO für die R9600-Reihe - hier wurde allerdings von NV mit ähnlich dümmlichen Optimierungen gearbeitet - wobei das Ganze im Mid-Range noch eher verständlich ist, da hier 10-20% Zugewinn durchaus die Spielbarkeit in einer höheren Auflösung verbessern können.

Quasar
2004-06-22, 09:12:41
Original geschrieben von MB@W
TWIMTBP-Programm

Original geschrieben von Tjell
TWIMTBP-Programm

Um TWIMTBP und GITG wird viel zuviel Aufstand gemacht. Viel mehr als eine Sponsorfläche für das jeweilige Logo, für welches die IHVs Geld auf den Tisch legen, ist das nicht.

MB@W
2004-06-22, 09:24:32
Original geschrieben von Quasar
Um TWIMTBP und GITG wird viel zuviel Aufstand gemacht. Viel mehr als eine Sponsorfläche für das jeweilige Logo, für welches die IHVs Geld auf den Tisch legen, ist das nicht.

Bist du sicher, dass da keine "Sümmchen" von den IHVs fliessen, um den Mitbewerber zu benachteiligen, bzw um das eigene Produkt besser dastehen zu lassen?

Die wichtigste Frage von mir, hat aber bis jetzt keiner beantwortet: Warum haben sie es in V1.0 geschafft und jetzt schaffen sie es nicht? Wenn ich dafür eine "logische" Erklärung kriege, bin ich wirklich zufrieden und halte die Füsse still. ;D

MikBach

Demirug
2004-06-22, 09:38:56
Original geschrieben von MB@W
Bist du sicher, dass da keine "Sümmchen" von den IHVs fliessen, um den Mitbewerber zu benachteiligen, bzw um das eigene Produkt besser dastehen zu lassen?

Die wichtigste Frage von mir, hat aber bis jetzt keiner beantwortet: Warum haben sie es in V1.0 geschafft und jetzt schaffen sie es nicht? Wenn ich dafür eine "logische" Erklärung kriege, bin ich wirklich zufrieden und halte die Füsse still. ;D

MikBach

Die Summen fliessen für die Werbeflächen.

Zu FarCry selbst habe ich IMHO so genug gesagt. Nachdem ich gesehen habe wie man dort rendert wundert mich ehrlich gesagt nichts mehr.

Quasar
2004-06-22, 09:50:08
Original geschrieben von MB@W
Bist du sicher, dass da keine "Sümmchen" von den IHVs fliessen, um den Mitbewerber zu benachteiligen, bzw um das eigene Produkt besser dastehen zu lassen?

Sicher bin ich nicht, da ich nicht bei nV und ATi als Finanzbuchhalter beschäftigt bin - soviel mal vorweg.

Aber da die Software-Hersteller auch Geld verdienen wollen, können sie es sich kaum leisten, daß ihr Produkt auf Hersteller X deutlich schlechter läuft, als auf Hersteller Y. Nur die allerwenigsten würden, auch mangels Vergleichsmöglichkeit, in so einem Falle der Grafikkarte ("hat doch DX9 und 256MB!") die Schuld zuschieben, sondern sich einfach über das Spiel ärgern - zumal auch einige Spielezeitschriften hier etwas...err... blauäugig ihre Kunden "informieren".

Wenn man sich als ISV also "kaufen" liesse, dann müsste man sich vom kaufenden IHV quasi die komplette Entwicklung des Spieles, sowie den entgangenen Gewinn finanzieren lassen - das sind Summen, die IMO seltenst aus der Portokasse als "Sponsoring" fliessen können.


edit:
Meinst du, Ferrari gewinnt, weil sie Opterons einsetzen? ;)

MB@W
2004-06-22, 10:08:14
Original geschrieben von Demirug
Die Summen fliessen für die Werbeflächen.

Zu FarCry selbst habe ich IMHO so genug gesagt. Nachdem ich gesehen habe wie man dort rendert wundert mich ehrlich gesagt nichts mehr.

Danke für die Information.

Allerdings interessiert es mich weniger wie die CryEngine rendert, sondern das was ich auf dem Monitor sehe. Und da sieht die BQ bei ATI doch besser aus.

Was mich allerdings am meisten wundert, ist, dass die Qualli bei Nvidia schon mal besser war, aber das habe ich ja schon gepostet.

OK. Schluss mit FC. Wir kommen nicht weiter.

MikBach

DanMan
2004-06-22, 10:19:55
Original geschrieben von Quasar
Ich könnte mir vorstellen, daß Leute, die ihr teuer erstandenes Produkt solange behalten, bis es einen realtiven Level erreicht hat, wie heute eine GF2/Radeon256, durchaus auch an der Rohleistung und den Features, die sich erst in einem Jahr oder so durchsetzen könnten, interessiert sind.
*shrugs*

Zugegeben, die meisten Leute, die so einkaufen, wählen eher Mid-Range Produkte. :)
Muss ich widersprechen. Ich bin einer von den Leuten, die du da angesprochen hast. Wenn ich mir eine neue GraKa kaufe, dann muss die 2-3Jahre halten (hab immernoch ne GF4). Aber eben genau aus diesem Grund darf es dann auch die teuerste sein, da die sich über die Jahre ja amortisiert.
In der Konsequenz muss ich dann lediglich nach ca. 2 Jahren bei den neusten Spielen ein wenig kürzer treten was hohe Auflösung, hohe AA & AF Einstellungen, usw. angeht. Aber damit kann ich gut leben.

robbitop
2004-06-22, 10:46:02
@Mikbach

einfach bei TommtiSystems den R300 Pfad mit FP32 oder FP16 laden.
IMO sieht FP16 nicht wirklich schlechter aus als FP24 bei FC. Und auf meiner FX hats mir im Gegensatz zu 1.1 Version wirklich die Sprache verschlagen (positiv) und es läuft auf max Details flüssig. Leider nur in 1024.

Jesus
2004-06-22, 11:05:24
ich finds nur lustig das ehemals verteufelte Webseiten jetzt da sie plötzlich die Nv Karten besser darstellen als Mass aller dinge genommen werden...

btw mit AF / AA ist die x800 schneller :)
das war auch vorher schon so. Und obendrein verwendet FC mit der 6800 LowPrecision Shader , soviel zur BQ und Performance ( unterschied FP 16 - FP32 , 50 % ) .

Und auch die X800 wird nicht korrekt unterstützt ( "treated as a Geforce card" , lt. ATI ) im aktuellen Patch 1.1.

P.S.: hat schonmal jemand bei diesen Treibern FarCry.exe in FartCry.exe umbenannt ? :D

(del676)
2004-06-22, 11:08:20
oh man
echt

75% dieses forums bestehen aus ein und denselben posts/flames/beleidigungen

das macht echt keinen spass mehr hier zu lesen

dauernd das gleiche kindergartengesülze

MB@W
2004-06-22, 11:09:19
Original geschrieben von Quasar
Aber da die Software-Hersteller auch Geld verdienen wollen, können sie es sich kaum leisten, daß ihr Produkt auf Hersteller X deutlich schlechter läuft, als auf Hersteller Y. Nur die allerwenigsten würden, auch mangels Vergleichsmöglichkeit, in so einem Falle der Grafikkarte ("hat doch DX9 und 256MB!") die Schuld zuschieben, sondern sich einfach über das Spiel ärgern - zumal auch einige Spielezeitschriften hier etwas...err... blauäugig ihre Kunden "informieren".

Wenn man sich als ISV also "kaufen" liesse, dann müsste man sich vom kaufenden IHV quasi die komplette Entwicklung des Spieles, sowie den entgangenen Gewinn finanzieren lassen - das sind Summen, die IMO seltenst aus der Portokasse als "Sponsoring" fliessen können.

Danke auch dir für die Erklärung. :up: Klingt logisch.


edit:
Meinst du, Ferrari gewinnt, weil sie Opterons einsetzen? ;)

Ja. ;D


Ne, war ein witz.
Ferrari war schon ohne die Opterons Spitze.

MikBach

SKYNET
2004-06-22, 11:20:14
Original geschrieben von MB@W
Danke auch dir für die Erklärung. :up: Klingt logisch.



Ja. ;D


Ne, war ein witz.
Ferrari war schon ohne die Opterons Spitze.

MikBach

mit opterons können sie aber schneller strategien berechnen ;D

scherz, aber ferrari verdient es die schnellsten server CPU's zuhaben da sie auch die besten autos haben.

die langsameren teams haben ja intel... eine deutung ? :D


p.s. ich bekomme noch diese woche meine GT *freu*

robbitop
2004-06-22, 11:24:31
hm ob nun FP16 oder FP32..den Unterschied sieht man bei Far Cry imo nicht.
Setzt man FP16 ein, so hat man NV die leicht geringere präzision, setzt man FP32 ein, so hat ATi die geringere Präzision. Gleichstand gibts da nicht, so what?
Zumal FP32 den NV40 kaum Leistung kostet bei Far Cry afair.
Aber die 120MHz mehr Chiptakt schlagen bei ATi bei FC schon oftmals gut durch =)

SKYNET
2004-06-22, 11:31:36
Original geschrieben von robbitop
hm ob nun FP16 oder FP32..den Unterschied sieht man bei Far Cry imo nicht.
Setzt man FP16 ein, so hat man NV die leicht geringere präzision, setzt man FP32 ein, so hat ATi die geringere Präzision. Gleichstand gibts da nicht, so what?
Zumal FP32 den NV40 kaum Leistung kostet bei Far Cry afair.
Aber die 120MHz mehr Chiptakt schlagen bei ATi bei FC schon oftmals gut durch =)

macht nix, demnächst werde ich mal mit gleichem takt wie ne XT benchen, mal sehn was die XT dazu sagt... ;D

Crushinator
2004-06-22, 11:31:46
Original geschrieben von Ulukay
(...)
75% dieses forums bestehen aus ein und denselben posts/flames/beleidigungen
(...)
das macht echt keinen spass mehr hier zu lesen (...) Das stimmt, allerdings auch deshalb weil viele von Euch in jedem Posting, welches nicht eure eigene Meinung wiederspiegelt, etwas sieht was es oft nicht beeinhaltet.

An dieser Stelle möchte ich ein letztes mal (auch explizit an Dich Jesus :motz: ) an die Vernunft appelieren: Stay on Topic, plz! und meldet lieber die Euch ärgernden Postings, anstatt im Thread darauf einzugehen.

Quasar
2004-06-22, 11:32:42
Original geschrieben von Jesus
das war auch vorher schon so. Und obendrein verwendet FC mit der 6800 LowPrecision Shader , soviel zur BQ und Performance ( unterschied FP 16 - FP32 , 50 % ) .

50% - Meinst du jetzt in Sachen Präzision oder in Sachen Leistunng?


edit:
Nach den mahnenden Worten des großen crushinators auf On-Topic reduziert.

LovesuckZ
2004-06-22, 11:33:57
Original geschrieben von Jesus
das war auch vorher schon so. Und obendrein verwendet FC mit der 6800 LowPrecision Shader , soviel zur BQ und Performance ( unterschied FP 16 - FP32 , 50 % ) .

Achja?
Komisch, denn CB.de bringen es nur auf 16 bzw. 18% in 1600*1200...

Und auch die X800 wird nicht korrekt unterstützt ( "treated as a Geforce card" , lt. ATI ) im aktuellen Patch 1.1.


Du solltest aufhoeren so weiter zu machen, denn langsam aber sicher wirst du mit ein Grund sein, dass dieser Forumsteil nur noch registrierten (und damit punktanfaelligen) Usern zugaenglich wird...

MB@W
2004-06-22, 11:40:14
Original geschrieben von robbitop
@Mikbach

einfach bei TommtiSystems den R300 Pfad mit FP32 oder FP16 laden.
IMO sieht FP16 nicht wirklich schlechter aus als FP24 bei FC. Und auf meiner FX hats mir im Gegensatz zu 1.1 Version wirklich die Sprache verschlagen (positiv) und es läuft auf max Details flüssig. Leider nur in 1024.

Danke für den Hinweis, allerdings kenne ich diese Möglichkeit schon.
Das ist aber imo keine Lösung für den Durchschnittsspieler, oder anders gesagt, die max. mögliche BQ sollte STANDARD sein. Einstellungen im Spiel selbst kann doch jeder Dau vornehmen, und falls nötig ändern.

Aber egal, wir müssen halt irgendwie damit leben, und selbst Hand anlegen. :banghead:

MikBach

seahawk
2004-06-22, 12:35:53
Original geschrieben von Jesus
ich finds nur lustig das ehemals verteufelte Webseiten jetzt da sie plötzlich die Nv Karten besser darstellen als Mass aller dinge genommen werden...

btw mit AF / AA ist die x800 schneller :)
das war auch vorher schon so. Und obendrein verwendet FC mit der 6800 LowPrecision Shader , soviel zur BQ und Performance ( unterschied FP 16 - FP32 , 50 % ) .

Und auch die X800 wird nicht korrekt unterstützt ( "treated as a Geforce card" , lt. ATI ) im aktuellen Patch 1.1.

P.S.: hat schonmal jemand bei diesen Treibern FarCry.exe in FartCry.exe umbenannt ? :D

Ach die X800 kann also auch FP16 ???

Oder meinst Du, dass sie nur DX8 nutzt wie eine GeForce 4 ??

Für die 50% Unterschied zwischen FP16 und FP32 hätte ich gerne ein Link, der ausführlich ist.

sprich :

- verwendete Shader (mehrere)
- BQ Vergleich
- Benchmakrs
- Gamebenches mit Aussage zum prozentualen Anteil an FP16

ansonsten "Einfach mal die Fresse halten"

Tjell
2004-06-22, 13:24:28
Fragment Processor Precision
R420 = FP24
NV 40 = FP32, FP16

Warum NVidia auf FP32 beharrt, ist für mich nicht nachvollziehbar:
Zum jetzigen Zeitpunkt und wahrscheinlich noch bis Ati auch SM 3.0-Support bietet, wird es beim Großteil aller Spiele nicht implementiert werden, da sich der Aufwand nicht lohnt.

Vielmehr wird es wohl darauf hinauslaufen, daß FP16 als kleinster gemeinsamer Nenner weiterhin, auch wegen älteren Graka-Generationen, neben FP24 als Renderingpfad eingesetzt wird. Der Sinn einer "Shader Präzision von 32 Bit Floating Point" ist gegeben, nur halt noch nicht zum jetzigen Zeitpunkt.

Einen NV40 werde ich mir zwar holen, aber ich erwarte nicht wirklich einen wirklichen Vorteil von FP32 sowie auch nur unter Umständen eine Mehrleistung der NVidia-Karten unter DX9.0c und vollem Support durch die Spieleengine gegenüber den R420 (ganz abgesehen von endlich mal einer finalen "NV40-Forceware").

LovesuckZ
2004-06-22, 13:37:48
Original geschrieben von Tjell
Warum NVidia auf FP32 beharrt, ist für mich nicht nachvollziehbar:
Zum jetzigen Zeitpunkt und wahrscheinlich noch bis Ati auch SM 3.0-Support bietet, wird es beim Großteil aller Spiele nicht implementiert werden, da sich der Aufwand nicht lohnt.

FP32 "implementiert" man nicht, genauso wie FP16 oder FP24. Solange wie Shader noch bei bei weniger als 100 Anweisungen ( die U3 Eninge soll nur max. 200 Anweisungen bieten), ist FP32 und auch in manchen Faellen FP24 overkill. Trotzdem ist es wichtig, dass dieses Format angeboten wird, da dadurch die Entwickler in ihrer Programmierung nicht eingeschraenkt sind.

Vielmehr wird es wohl darauf hinauslaufen, daß FP16 als kleinster gemeinsamer Nenner weiterhin, auch wegen älteren Graka-Generationen, neben FP24 als Renderingpfad eingesetzt wird. Der Sinn einer "Shader Präzision von 32 Bit Floating Point" ist gegeben, nur halt noch nicht zum jetzigen Zeitpunkt.


FP16 und FP24 sind keine Renderpfade.
Ein Entwickler sollte immer die kleinstmoegliche Genauigkeit fuer die Shader bzw. Anweisungen verwenden, mit welcher es zu keinen Fehlern kommt. Vorallen aufgrund der Tatsache, dass die FX und NV40 Karten durch FP16 deutlich profitieren koennen (NV40 sind es sogar 50%+), macht es keinen Sinn stur auf volle Genauigkeit zu beharren.

FP24 ist im Bezug auf Leistung und Qualitaet nicht besser als FP32. Das einzige, warum man FP24 verwenden sollte, liegt darin, dass man ca. 30% an Transistoren im Gegensatz zu FP32 spart.

Gast
2004-06-22, 13:43:00
Original geschrieben von Tjell
Fragment Processor Precision
R420 = FP24
NV 40 = FP32, FP16

Warum NVidia auf FP32 beharrt, ist für mich nicht nachvollziehbar:
Zum jetzigen Zeitpunkt und wahrscheinlich noch bis Ati auch SM 3.0-Support bietet, wird es beim Großteil aller Spiele nicht implementiert werden, da sich der Aufwand nicht lohnt.



Und fuer mich ist nicht nachvollziehbar was du da schreibt.;)

Es gibt unter DX9 nur full precision (FP24 oder mehr) und partial precision (FP16 oder mehr).

FP32 ist also immer dann automatisch implementiert (falls man da von Implementierung sprechen kann), wenn full precision gefordert ist.

ShadowXX
2004-06-22, 13:50:31
Original geschrieben von Gast
Und fuer mich ist nicht nachvollziehbar was du da schreibt.;)

Es gibt unter DX9 nur full precision (FP24 oder mehr) und partial precision (FP16 oder mehr).

FP32 ist also immer dann automatisch implementiert (falls man da von Implementierung sprechen kann), wenn full precision gefordert ist.

Das einzige was man dem noch hinzufügen muss, ist das ab SM3.0 FP32 sogar vorgeschrieben ist...

Demirug
2004-06-22, 13:52:12
Ich glaube es gibt was die Rechengenauigkeiten von DX immer noch Missverständnisse.

1. Es ist nicht so das man sich für ein ganzen Spiel/Anwendung festlegen muss ob man nun mit FP16 auskommt oder mindestens FP24 haben will. Man darf das für jede Shaderanweisung getrennt entscheiden. Es ist natürlich einfacher für die Entwickler das als Rundumschlag global festzulegen. Im Sinne der Spec ist das aber nicht unbedingt.

2. Inzwischen gibt es bei DX9 4 Rechengenauigkeiten wobei 2 davon gleich sind.

PS 2.0/2.X Full precision = mindestens FP24
PS 2.0/2.X Partial precision = mindestens FP16
PS 3.0 Full precision = mindestens FP32
PS 3.0 Partial precision = mindestens FP16

Gast
2004-06-22, 13:53:19
Original geschrieben von ShadowXX
Das einzige was man dem noch hinzufügen muss, ist das ab SM3.0 FP32 sogar vorgeschrieben ist...

Oh ja, das hatte ich doch glatt vergessen...

Tjell
2004-06-22, 13:57:51
Ok, ok.
Techniknote im Bezug auf Shader-Präzision:
"Tjell - 6 - setzen!"

Eigentlich wollte ich auf das hinaus, was Lovesuckz am Ende seines Posts geschrieben hat:

NVidia hätte sich für diese Chipgeneration auf FP24 beschränken, dadurch Schaltkreise einsparen und dafür einen Chip basteln sollen, der den R420 durch (z. B.) mehr Pipelines oder höheren Takt von der Bahn hätte fegen können.

Soll auch heißen: SM 3.0-Hardware kann man vielleicht als verfrüht eingeführt bezeichnen.

ShadowXX
2004-06-22, 14:02:43
Original geschrieben von Demirug
PS 3.0 Partial precision = mindestens FP16

Den kannte ich noch nicht...

Könnte ATI dann ein SM3.0 HW bauen, die nur mit PS3.0"pp" funktioniert???

Oder sind die FP32 trotzdem "vorgeschrieben" und die FP16+ sind nur eine "dazugehörende" optionale möglichkeit??

Jesus
2004-06-22, 14:02:53
also so viel ich weiss wurde extra für den FX Renderpath bei FC von Full Precision ( was ATI macht ) auf Low Precision runtergeschraubt ( mit Patch 1.1 ) um die Performance drastisch zu erhöhen.

Die Bildqualitätseinbussen sind ganz offensichtlich und überall vertreten ( Stichwort: Light fragments etc... ), auch beim NV40 ( der immer noch denselben Renderpfad verwendet)

Mit der Áussage "treated like a Geforce card" meine ich nicht den Shaderpfad ( hier ist eher treated like a R300 :) der fall, also kein erweiterter F buffer und PS 2.0b ) sondern die Textur behandlung die teilweise noch auf Nvidia ( depth stencils ) optimiert ist wenn in FC eine X800 verwendet wird. Von daher sind die Benchmarks hinfällig.

Hier noch der Artikel über FP 32 - FP16 Performance der 6800:

"The most obvious thing to notice is that, overall, partial precision mode rendering increases shader rendering speed. Shader 2 through 8 are lighting shaders (with 2 being a simple diffuse lighting shader). These lighting shaders (especially the point and spot light shaders) will make heavy use of vector normalization. As we are running in partial precision mode, this should translate to a partial precision normalize, which is a "free" operation on NV40. Almost any time a partial precision normalize is needed, NV40 will be able to schedule the instruction immediately. This is not the case when dealing with full precision normalization, so the many 50% performance gains coming out of those lighting shaders is probably due to the partial precision normalization hardware built into each shader unit in NV40. The smaller performance gains (which, interestingly, occur on the shaders that have image quality issues) are most likely the result of decreased bandwidth requirements, and decreased register pressure: a single internal fp32 register can handle two fp16 values making scheduling and managing resources much less of a task for the hardware. "

http://anandtech.com/video/showdoc.html?i=2044&p=9

Demirug
2004-06-22, 14:06:21
Original geschrieben von ShadowXX
Den kannte ich noch nicht...

Könnte ATI dann ein SM3.0 HW bauen, die nur mit PS3.0"pp" funktioniert???

Oder sind die FP32 trotzdem "vorgeschrieben" und die FP16+ sind nur eine "dazugehörende" optionale möglichkeit??

Man muss Full precision unterstützen um PS 3.0 melden zu können.

LovesuckZ
2004-06-22, 14:07:04
Original geschrieben von ShadowXX
Könnte ATI dann ein SM3.0 HW bauen, die nur mit PS3.0"pp" funktioniert???

Nein, da SM3.0 klar FP32 als "Full precision" vorschreibt. Du hast also dann weiterhin nur eine SM2.x Hardware.

Tjell
2004-06-22, 14:11:19
Original geschrieben von Jesus
also so viel ich weiss wurde extra für den FX Renderpath bei FC von Full Precision ( was ATI macht ) auf Low Precision runtergeschraubt ( mit Patch 1.1 ) um die Performance drastisch zu erhöhen.

Die Bildqualitätseinbussen sind ganz offensichtlich und überall vertreten ( Stichwort: Light fragments etc... ), auch beim NV40 ( der immer noch denselben Renderpfad verwendet)

Mit der Áussage "treated like a Geforce card" meine ich nicht den Shaderpfad ( hier ist eher treated like a R300 :) der fall, also kein erweiterter F buffer und PS 2.0b ) sondern die Textur behandlung die teilweise noch auf Nvidia ( depth stencils ) optimiert ist wenn in FC eine X800 verwendet wird. Von daher sind die Benchmarks hinfällig.

Wuss?

Renderpfad? Shaderpfad? Generelle Präzision?

Kann mir jemand sagen, was nun (vor allem in Bezug auf Far Cry) mit der Renderschwäche der NV30/35/38 und dem FP16, FP24 sowie FP32 gemeint ist, wenn darüber hier diskutiert wird.

Ich dachte mal, daß ich das verstanden hätte... :(

ShadowXX
2004-06-22, 14:13:26
Original geschrieben von Demirug
Man muss Full precision unterstützen um PS 3.0 melden zu können.

Danke für die schnelle Antwort...

@Lovesuckz:
Ich konnte mir auch nicht vorstellen, das das erlaubt ist...aber wollte lieber mal nachfragen...

Es gibt bei DX ja viele "Schlupflöcher" ....
(vielleicht ist DX ja von ehemaligen deutschen Steuerbeamten "designed"??? ;D )

aths
2004-06-22, 14:42:54
Original geschrieben von Gast
Kann mir mal einer bidde diese frgen Beantworten thx :)

1. Was denkt ihr bringt der Pixel Shader 3,0 was ?CPU- und GPU-Entlastung.


Original geschrieben von Gast
Du kannst ATIs Stand damals nicht mit dem von NV vergleichen. Außerdem gab es keine Hochsprachen und ATI selber hatte lange Zeit PS1.4 nur auf der 8500 zu bieten. Bis zur 9000er hats ja noch ne ganze Weile gedauert.

Zudem war PS1.3 in DX8.1 ebenso integriert wie PS 1.4
1.4 war schlichtweg nur optional.
Für SM3.0 gibts eben nur SM3.0 und nichts darunter.Für 1.4 gibts auch nur 1.4 und nichts darunter :freak: Für DX9 reicht das pure SM 2.0 à la R300 völlig aus, alles andere ist optional.

aths
2004-06-22, 14:45:24
Original geschrieben von Tjell
Genau umgekehrt: Weil Crytek mit Far Cry zum TWIMTBP-Programm zählt, kommt man kaum umhin zu denken die seien unfähig. Denn mit der Teilnahme daran geht man doch landläufig davon aus, daß sie den Mitbewerber Ati benachteiligen müßten. ?-) TWIMTBP soll zunächst nur heißen, dass das Game out of the box auf Nvidia-Grafikkarten ohne Grafikfehler läuft.

Original geschrieben von LovesuckZ
Vorallen aufgrund der Tatsache, dass die FX und NV40 Karten durch FP16 deutlich profitieren koennen (NV40 sind es sogar 50%+), macht es keinen Sinn stur auf volle Genauigkeit zu beharren.Soweit ich weiß, profitiert NV40 nicht mehr so stark von _PP wie noch der NV35.

Quasar
2004-06-22, 14:45:42
Original geschrieben von Jesus
also so viel ich weiss wurde extra für den FX Renderpath bei FC von Full Precision ( was ATI macht ) auf Low Precision runtergeschraubt ( mit Patch 1.1 ) um die Performance drastisch zu erhöhen.
Partial Precision, sonst richtig.

Original geschrieben von Jesus
Die Bildqualitätseinbussen sind ganz offensichtlich und überall vertreten ( Stichwort: Light fragments etc... ), auch beim NV40 ( der immer noch denselben Renderpfad verwendet)
Ganz offensichtlich sind sie teilweise, oft sieht man gar keinen Unterschied - denn nicht alles wird in Far Cry, entgegen landläufiger Meinungen, mit 2.0-Shadern gerendert.

Original geschrieben von Jesus
Mit der Áussage "treated like a Geforce card" meine ich nicht den Shaderpfad ( hier ist eher treated like a R300 :) der fall, also kein erweiterter F buffer und PS 2.0b ) sondern die Textur behandlung die teilweise noch auf Nvidia ( depth stencils ) optimiert ist wenn in FC eine X800 verwendet wird. Von daher sind die Benchmarks hinfällig.

F-Buffer und 2.b-Renderpfad sind in Far Cry wohl ein bißchen.... nutzlos? Die Shader sind einfach zu kurz und simpel.

Und du meinst allen Ernstes, daß eine Karte, die Far Cry nicht erkennt, wird als nVidia-Karte gewertet auch wenn die Vendor-ID ganz etwas anderes aussagt?


Original geschrieben von Jesus
Hier noch der Artikel über FP 32 - FP16 Performance der 6800:

"[...]this should translate to a partial precision normalize, which is a "free" operation on NV40.[...]"

Und das war's auch schon - andere Shader gewinnen (fast) nichts hinzu. (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/6/#shader_fuellrate)

Bin mal gespannt, wenn die nV40 die PP_nrm zur Rekonstruktion komprimierter Normals nutzt...

Jesus
2004-06-22, 14:52:05
Original geschrieben von Quasar
Und du meinst allen Ernstes, daß eine Karte, die Far Cry nicht erkennt, wird als nVidia-Karte gewertet auch wenn die Vendor-ID ganz etwas anderes aussagt?


ja

http://www.hardocp.com/article.html?art=NjI4LDM=

"The game is treating us like a GeForce card because the X800 had not been seen by the games authors when the game shipped. This causes problems since the app was trying to render depth data to a texture which we dont support. (Nvidia has a proprietary backdoor to enable depth stencil textures)

"Now if we change the caps of our card to support PS2.0 instead of 2.x the problem went away (i.e change the exposed PS caps for the X800 to an 9700 then the bug goes away). So the bottom line is that the game needs a patch."


ausserdem werden in innenlevels für verdammt viel shader verwendet, ( rohre, boden taschenlampe, fast alles )

Aussen dagegen sieht man weniger unterschiede ( ausser beim Wasser ).

aths
2004-06-22, 14:54:31
Original geschrieben von Tjell
Soll auch heißen: SM 3.0-Hardware kann man vielleicht als verfrüht eingeführt bezeichnen. Ja und nein. Die NV40-Architektur ist nicht sehr gut für SM 3.0 geeignet. (Dafür läuft wenigstens das alte CineFX jetzt sehr schnell.) Die 3.0-Neuigkeiten sind aber die Zukunft, z. B. Shader nur so weit zu berechnen, wie erforderlich. Will man 3.0 nicht nur be-, sondern ausnutzen, muss man gegenüber älteren Versionen umdenken. Damit können die Entwickler jetzt schon anfangen.

Der Spieler profitiert indirekt schon jetzt, da 3.0 ja das komplette CineFX-Shaderfeatureset mit einschließt (welches deutlich fortschrittlicher als SM 2.0 ist.)

Original geschrieben von Quasar
Bin mal gespannt, wenn die nV40 die PP_nrm zur Rekonstruktion komprimierter Normals nutzt... Wie willst du NRM zur Z-Rekonstruktion nutzen? :kratz:

DrumDub
2004-06-22, 14:55:53
Original geschrieben von Quasar
Ganz offensichtlich sind sie teilweise, oft sieht man gar keinen Unterschied - denn nicht alles wird in Far Cry, entgegen landläufiger Meinungen, mit 2.0-Shadern gerendert.


jupp. siehe: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1750540#post1750540

2.0 bzw. 2.x shader spielen auch eher eine quantitativ untergeordnete rolle in far cry.

aths
2004-06-22, 14:58:30
Original geschrieben von MB@W
Danke für den Hinweis, allerdings kenne ich diese Möglichkeit schon.
Das ist aber imo keine Lösung für den Durchschnittsspieler, oder anders gesagt, die max. mögliche BQ sollte STANDARD sein. Einstellungen im Spiel selbst kann doch jeder Dau vornehmen, und falls nötig ändern.Standard sollte der beste Kompromiss sein. Maximal mögliche BQ könnte in unspielbarer Geschwindigkeit resultieren.

Tjell
2004-06-22, 15:03:40
Original geschrieben von aths
Ja und nein. Die NV40-Architektur ist nicht sehr gut für SM 3.0 geeignet. (Dafür läuft wenigstens das alte CineFX jetzt sehr schnell.) Die 3.0-Neuigkeiten sind aber die Zukunft, z. B. Shader nur so weit zu berechnen, wie erforderlich. Will man 3.0 nicht nur be-, sondern ausnutzen, muss man gegenüber älteren Versionen umdenken. Damit können die Entwickler jetzt schon anfangen.

Ich verneige mich wieder mal vor dem kurzen knackigen Zwischenfazit des "Dr. of 3D" - aths - und darf mich dieser Meinung anschließen. :kicher:


P.S. Da dieser Thread endlich wieder deutlich an technischem Niveau gewinnt und damit in Sphären entgleitet, zu denen ich nichts sagen kann, überlasse ich die Diskussion wieder den versierten Leuten und begnüge mich mit (mehr oder weniger verstehendem) Lesen.
:wink:

Demirug
2004-06-22, 15:06:01
Original geschrieben von aths
Ja und nein. Die NV40-Architektur ist nicht sehr gut für SM 3.0 geeignet. (Dafür läuft wenigstens das alte CineFX jetzt sehr schnell.) Die 3.0-Neuigkeiten sind aber die Zukunft, z. B. Shader nur so weit zu berechnen, wie erforderlich. Will man 3.0 nicht nur be-, sondern ausnutzen, muss man gegenüber älteren Versionen umdenken. Damit können die Entwickler jetzt schon anfangen.

Du verallgemeinerst.

SM3 ist ja nicht nur dynamisches Branching.

Object Instancing scheint soweit ich das bisher sehen konnte ganz gut zu funktionieren.

LovesuckZ
2004-06-22, 15:10:05
Original geschrieben von aths
Soweit ich weiß, profitiert NV40 nicht mehr so stark von _PP wie noch der NV35.

Profitiert der NV40 nicht durch NRM?
Auch wenn er weniger von _pp profitieren würde, den Leistungsgewinn von 50% und mehr sind nicht zu verachten und sollten den Programmierern anstoss sein, mehr auf _pp zu setzen.

Demirug
2004-06-22, 15:13:34
Original geschrieben von LovesuckZ
Profitiert der NV40 nicht durch NRM?
Auch wenn er weniger von _pp profitieren würde, den Leistungsgewinn von 50% und mehr sind nicht zu verachten und sollten den Programmierern anstoss sein, mehr auf _pp zu setzen.

Der "Zauberbefehl" beim NV40 ist nrm_pp. Wenn ein Shader viel normalisiert kann das durchaus auch viel bringen weil ein nrm_pp beim NV40 oft "4free" ist.

Gast
2004-06-22, 15:21:45
Original geschrieben von Tjell


Soll auch heißen: SM 3.0-Hardware kann man vielleicht als verfrüht eingeführt bezeichnen.

Fast 2 Jahre nachdem SM3 im DX API spezifiziert wurde bezeichnst du SM3 in HW als zu frueh? Ist das dein Ernst?
Hat es sowas je schon gegeben, dass erst knappe 2 Jahre nach einer DX Spec. entsprechende HW verfuegbar war?

Quasar
2004-06-22, 15:31:47
Original geschrieben von aths
Wie willst du NRM zur Z-Rekonstruktion nutzen? :kratz:

Gar nicht, das war ein fauxpas_pp.
Aber ich würde gern damit normalmapping beschleunigen, darf ich?

robbitop
2004-06-22, 15:32:57
Original geschrieben von aths
CPU- und GPU-Entlastung.


meinst du für CPU Entlastung nicht eher VS3?

Tjell
2004-06-22, 15:37:59
Original geschrieben von Gast
Fast 2 Jahre nachdem SM3 im DX API spezifiziert wurde bezeichnst du SM3 in HW als zu frueh? Ist das dein Ernst?
Hat es sowas je schon gegeben, dass erst knappe 2 Jahre nach einer DX Spec. entsprechende HW verfuegbar war?

Wenn es sich zeigen sollte, daß innerhalb der Lebensspanne des NV40 als High-End-Chip nur eine geringe Anzahl der Spiele Gebrauch von SM3.0 machen werden, dann ist so ein Fazit gerechtfertigt.

Ich persönlich bin ein wenig zwiegespalten über den NV40 als SM3.0-unterstützenden Chip - zum einen begrüße ich die Richtung der Entwicklung, zum anderen befürchte ich, daß es keinen entscheidenden Nutzen auf kurze Sicht mit sich bringt.

DrumDub
2004-06-22, 15:38:46
Original geschrieben von robbitop
meinst du für CPU Entlastung nicht eher VS3?

das ist doch wohl logisch, oder? ;)

jesus hätte wohl besser von sm 3.0 sprechen sollen. irgendwie vergessen die leute die vs immer.

Quasar
2004-06-22, 15:39:07
Original geschrieben von Jesus
ja
http://www.hardocp.com/article.html?art=NjI4LDM=


Gut, gut, den Spruch kannte ich schon. Es gab in letzter Zeit aber für meinen Geschmack ein paar zuviel "interpretierbare" Wahrheiten aus den Mündern von Presseleuten.

Zur Klärung frage ich dann mal folgendes:
Sieht dieser Abschnitt aus der Far Cry log.txt

Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS.2.0 and PS.1.1
Vertex shaders usage: VS.2.0 and VS.1.1
Shadow maps type: Mixed Depth/2D maps
Stencil shadows type: Two sided

Auf R300 und R420 auch so aus?

Original geschrieben von Jesus
ausserdem werden in innenlevels für verdammt viel shader verwendet, ( rohre, boden taschenlampe, fast alles )
Einmal
ohne Taschenlampe (http://home.arcor.de/quasat/3DC-Pics/FarCry0003_a.JPG) und einmal mit (http://home.arcor.de/quasat/3DC-Pics/FarCry0004_a.JPG).
Fast alles weiß, besonders der Boden und die Taschenlampe. ;)

Original geschrieben von Jesus
Aussen dagegen sieht man weniger unterschiede ( ausser beim Wasser ).
Genau, das Wasser muss ja demnach auch mit Pixelshader 2.0 erzeugt (http://home.arcor.de/quasat/3DC-Pics/FarCry0000_a.JPG) werden, oder?
Damn, auch das ist nicht weiß....

(Wer's nicht kennt: Das ist die Einfärbefunktion des nV-Treibers, der Pixelshader grob nach Version einfärben kann)

edit:
Link 1 gefixt, jedes Bild ~50-60k

MikBach
2004-06-22, 15:39:52
Original geschrieben von aths
Standard sollte der beste Kompromiss sein. Maximal mögliche BQ könnte in unspielbarer Geschwindigkeit resultieren.

Na ja, wenn ich mir die Performance von FC ansehe, dann halte ich es für in Ordnung, wenn man die max. mögliche, von den Programmierern gewollte BQ fordert.
Dass FC mit der max. BQ ordentlich läuft beweist doch der R360 zu genüge. Mir ist schon klar das man FC so proggen könnte, dass NV40/R420 Probleme bekommen. Die FarCry-Engine ist ja nicht am Ende. ;)

Ich will einfach nur, dass ich alles auf "Very High" stelle, und auch DIESE BQ bekomme. Bei ATI ist es der Fall, bei Nvidia leider nicht.
Das schlimme ist ja, das TommtiSystems beweist, dass es geht mit der vollen BQ, Crytek aber den Nv-User bevormundigt und die max. BQ darf ich nur auf ATI sehen. Warum?
Muss ich es extra "zu Fuss" machen?
Ist doch Scheisse.
Für mich ist es ganz einfach. Man bietet die max. von den Programmierern gewollte Qualli auf allen Karten. Sollte die Performance nicht stimmen, kann man doch runterregeln.
Kann doch nicht sooo schwer sein!

DrumDub
2004-06-22, 15:44:40
Original geschrieben von Quasar
(Wer's nicht kennt: Das ist die Einfärbefunktion des nV-Treibers, der Pixelshader grob nach Version einfärben kann)


ich kannte es noch nicht. coole sache. und bestätigt ja auch meine ergebnisse: hauptsächlich ps und vs 1.1. :)

Jesus
2004-06-22, 15:50:24
naja hängt natürlich immer vom Level ab, und Holzboden glänzt ja auch bekannt lich nicht sonderlich :)

geh mal ins bunkerlevel am anfang ( da wo alles blau ist , ziemlich viel licht etc. )

Jesus
2004-06-22, 15:53:37
Original geschrieben von aths
Die 3.0-Neuigkeiten sind aber die Zukunft, z. B. Shader nur so weit zu berechnen, wie erforderlich.

das tut der x800 übrigens auch ohne PS3.0:

Quelle THG:

"Another improvement is that now, only the pixels actually used by a shader program are saved, and not the entire frame of a scene. "

LovesuckZ
2004-06-22, 15:56:08
Direkten Link bitte.

Gast
2004-06-22, 15:58:15
http://graphics.tomshardware.com/graphic/20040504/ati-x800-06.html

Quasar
2004-06-22, 16:02:59
Original geschrieben von Jesus
das tut der x800 übrigens auch ohne PS3.0:

Quelle THG:

"Another improvement is that now, only the pixels actually used by a shader program are saved, and not the entire frame of a scene. "

Das bezieht sich nur auf den F-Buffer und bedeutet nicht mehr, als das eine dynamische Zuweisung der Buffergröße möglich ist.

LovesuckZ
2004-06-22, 16:03:05
/edit...

Quasar
2004-06-22, 16:06:10
Original geschrieben von Jesus
naja hängt natürlich immer vom Level ab, und Holzboden glänzt ja auch bekannt lich nicht sonderlich :)

geh mal ins bunkerlevel am anfang ( da wo alles blau ist , ziemlich viel licht etc. )

Dazu habe ich ehrlich gesagt keine Lust mehr.

Du stellst eine Behauptung nach der anderen auf und kaum eine davon ist haltbar.
Du siehst keine Mip-Bänder, nichtmal auf deinen eigenen Screenshots, die du auch in Bewegung bewundert hättest können, du siehst "besseres" Wasser, obwohl es nicht besser ist, du "siehst" überall Pixelshader 2.0, wo keine sind...

Danke, aber mir steht nicht mehr der Sinn danach.

Jesus
2004-06-22, 16:08:04
naja ich solange ich keine anständigen gegenbeweise sehe bleib ich auch dabei :)

Quasar
2004-06-22, 16:14:11
Und genau damit entlarvst du deine Trolligkeit...

Eine Behauptung nach der anderen in den Raum werfen ohne sich vorher mal ein bißchen zu informieren. =)

Wenn ich jetzt in den Bunker-Level ginge, und dort auch nur wenig PS2.0 fände (man beachte den Konjunktiv), würdest du im nächsten Post wieder eine beliebige Aussage treffen.

Viel Spaß, Troll. =)

Jesus
2004-06-22, 16:22:08
lol ok Videos ( auf denen man auch was sieht... ) und screenshots sind also behauptungen ohne Grundlage... alles klar.

Genauso wie zitate anderer Webseiten ? lolig.

Ich werde mich allerdings nicht auf mehr auf dein Niveau herablassen ( alles besser wissen zu müssen ).

Belassen wirs dabei, du hast recht, alle anderen haben unrecht.

Gast
2004-06-22, 16:27:54
Original geschrieben von aths
CPU- und GPU-Entlastung.


Für 1.4 gibts auch nur 1.4 und nichts darunter :freak: Für DX9 reicht das pure SM 2.0 à la R300 völlig aus, alles andere ist optional.

Nein für SM3.0 schimpft sich das Ganze DX9.0c.
DX8.1 integrierte aber auch PS1.3

Quasar
2004-06-22, 16:31:09
Original geschrieben von Jesus
lol ok Videos ( auf denen man auch was sieht... ) und screenshots sind also behauptungen ohne Grundlage... alles klar.

Genauso wie zitate anderer Webseiten ? lolig.

Ich werde mich allerdings nicht auf mehr auf dein Niveau herablassen ( alles besser wissen zu müssen ).

Belassen wirs dabei, du hast recht, alle anderen haben unrecht.

Selber :lol: - soweit ich das sehe, reißt du Zitate aus dem Kontext, wie bei THG, postest Aussagen von PR-Leuten als "Wahrheit" und stellst eine sinnlose Behauptung nach der anderen auf.

Jesus
2004-06-22, 16:34:20
OK.

Gast
2004-06-22, 16:45:59
Original geschrieben von Tjell
Wenn es sich zeigen sollte, daß innerhalb der Lebensspanne des NV40 als High-End-Chip nur eine geringe Anzahl der Spiele Gebrauch von SM3.0 machen werden, dann ist so ein Fazit gerechtfertigt.

Ich persönlich bin ein wenig zwiegespalten über den NV40 als SM3.0-unterstützenden Chip - zum einen begrüße ich die Richtung der Entwicklung, zum anderen befürchte ich, daß es keinen entscheidenden Nutzen auf kurze Sicht mit sich bringt.

Dann wäre so ein Fazit immer gerechtfertigt. Noch nie haben viele Spiele zu sagen wir optimalen Lebzeiten einer Graka die entsprechende Technik ausrechend genutzt.

Das war bei DX7 und T&L so, das war bei DX8 und GF3, R200, GF4 so und das war auch bei R300, R350, NV30 und NV35 so. Das wird auch diesmal nicht anders sein. Das kann aber NIEMALS ein Grund sein so ein Fazit zu ziehen. Im Gegenteil. Ein negatives Fazit muss immer für den Hersteller und die Chips gezogen werden, die fest definierte Standards nach so einem langen Zeitraum noch immer nicht unterstützen, da diese Produkte die Entwicklung aufhalten um bremsen.

Crushinator
2004-06-22, 16:48:49
Quasar und Jesus,

da Ihr meiner letzten Bitte scheinbar nicht freiwillig folgen konntet, hier die offizielle Aufforderung, besonders an Quasar, die "unfeinen" Bemerkungen sein zu lassen. Das Faß ist übrigens voll, und als nächstes mache ich nicht nur den <:kicher:> Thread </:kicher:> dicht!

MikBach
2004-06-22, 17:00:51
Original geschrieben von Quasar
Einmal
ohne Taschenlampe (http://home.arcor.de/quasat/3DC-Pics/FarCry0003_a.JPG) und einmal mit (http://home.arcor.de/quasat/3DC-Pics/FarCry0004_a.JPG).
Fast alles weiß, besonders der Boden und die Taschenlampe. ;)


Genau, das Wasser muss ja demnach auch mit Pixelshader 2.0 erzeugt (http://home.arcor.de/quasat/3DC-Pics/FarCry0000_a.JPG) werden, oder?
Damn, auch das ist nicht weiß....

(Wer's nicht kennt: Das ist die Einfärbefunktion des nV-Treibers, der Pixelshader grob nach Version einfärben kann)


Soweit ich dein Posting verstanden habe, werden PS2.0 weiss markiert. Richtig?
Vielleicht setzt man bei Nvidia an einigen Stellen PS1.X statt PS2.0 ein. Zumindest beim Wasser müssten es doch AFAIK PS2.0 sein(Ultra High).

@ Crushinator
Falls ich zu OT(FarCry) bin, bitte posten. :)
Mich interessiert wirklich sehr, wie der Unterschied in der Qualli begründet ist. Und da es zur Zeit nichts neues zum NV40 gibt... :D

q@e
2004-06-22, 17:10:19
Original geschrieben von MikBach
Soweit ich dein Posting verstanden habe, werden PS2.0 weiss markiert. Richtig?
Vielleicht setzt man bei Nvidia an einigen Stellen PS1.X statt PS2.0 ein. Zumindest beim Wasser müssten es doch AFAIK PS2.0 sein(Ultra High).


Richtig - aber die FX lief mit der FP32-dll von Tommti-Systems.

sry
;(

robbitop
2004-06-22, 17:12:20
auch wenn Quasar und Jesus ein wenig von der Sachlichen Ebene gewandt haben, so stimme ich mit den Kerngedanken von Quasar überein.
Schön für Leute die kein Banding sehen, die können gleich das High performance AF von NV nutzen oder eben gar kein AF...kostet weniger Leistung :)

ich gebe zu, dass ich auch nicht immer die Stagesoptimierung sehe oder Brilinear.

btw: es heisst "Thread"..das Wort "Fred" ist IMO eine Unart

Einstein
2004-06-22, 17:17:22
Original geschrieben von robbitop
auch wenn Quasar und Jesus ein wenig von der Sachlichen Ebene gewandt haben, so stimme ich mit den Kerngedanken von Quasar überein.
Schön für Leute die kein Banding sehen, die können gleich das High performance AF von NV nutzen oder eben gar kein AF...kostet weniger Leistung :)

ich gebe zu, dass ich auch nicht immer die Stagesoptimierung sehe oder Brilinear.

btw: es heisst "Thread"..das Wort "Fred" ist IMO eine Unart

Full ack. :up:

Crushinator
2004-06-22, 17:19:38
Ich als jemand, der dieses Forum objektiv moderieren möchte, kann mir nicht erlauben, vom Einen zu verlangen nicht persönlich zu werden und vom Anderen nicht. :)

Demirug
2004-06-22, 17:24:32
Original geschrieben von MikBach
@ Crushinator
Falls ich zu OT(FarCry) bin, bitte posten. :)
Mich interessiert wirklich sehr, wie der Unterschied in der Qualli begründet ist. Und da es zur Zeit nichts neues zum NV40 gibt... :D

Wir haben extra ein FarCry Forum. http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?s=&forumid=83

Mach doch dort einen Thread zu dem Thema auf.

Ich bin dann, soweit ich zeitlich dazu komme, sogar bereit von ein paar Stellen in Farcry die verwendeten Shader heraus zu ziehen. Dann kann man genau die Unterschiede zwischen R3XX und NVxy zeigen.

robbitop
2004-06-22, 17:34:54
natürlich nicht Crushinator, würde diese Einstellung auch nicht ändern.
Ich sagte ja nur, dass ich Quasar in seinen Kerngedanken beipflichte.

MikBach
2004-06-22, 17:38:11
Original geschrieben von Gast
Dann wäre so ein Fazit immer gerechtfertigt. Noch nie haben viele Spiele zu sagen wir optimalen Lebzeiten einer Graka die entsprechende Technik ausrechend genutzt.

Das war bei DX7 und T&L so, das war bei DX8 und GF3, R200, GF4 so und das war auch bei R300, R350, NV30 und NV35 so. Das wird auch diesmal nicht anders sein. Das kann aber NIEMALS ein Grund sein so ein Fazit zu ziehen. Im Gegenteil. Ein negatives Fazit muss immer für den Hersteller und die Chips gezogen werden, die fest definierte Standards nach so einem langen Zeitraum noch immer nicht unterstützen, da diese Produkte die Entwicklung aufhalten um bremsen.
Welche Zeit meinst du?
Nvidia ist ja auch "erst" jetzt beim SM3.0, obwohl das schon laaaange in DX9 enthalten ist.
Solange es in der Praxis nichts bringt, ist es doch egal. :|
Für Entwickler ist SM3.0 sicherlich eine nette Sache, damit sie für die Zukunft "trainieren" können. Das SM2.0 ist ja noch nicht am Ende(Specs), deswegen sehe ich zur Zeit SM3.0 nicht als ein "must have"-Feature an.
Warum soll die Tatsache, dass der R420 keinen SM3.0-Support bietet die Etwicklung bremsen? :kratz:
Die Entwickler können doch einen NV40 benutzen. Ist sogar vorteilhaft für Nvidia, da die Spiele auf dem NV40(auch NV50) problemlos laufen sollten.
Sollte der R420 SM3.0-Support bieten, kommt es ja auch nicht von heute auf morgen, dass wir SM3.0 in Spielen bewundern dürfen. Man muss doch erst mal abwarten bis eine genügend grosse Basis "am Markt" ist.
Bis SM3.0-Karten 10% erreichen, könnte noch 1 Jahr vergehen, auch wenn der R420 SM3.0 hätte, da alles HighEnd.

MikBach
2004-06-22, 17:44:43
Original geschrieben von Demirug
Wir haben extra ein FarCry Forum. http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?s=&forumid=83

Mach doch dort einen Thread zu dem Thema auf.

Ich bin dann soweit ich zeitlich dazu komme sogar bereit von ein paar Stellen in Farcry die unterschiedlichen Shader zwischen R300 und NVXY heraus zu ziehen und zu zeigen wo welcher benutzt wird.

Danke für den Tip. Werde ich machen. :)

Wollte eigentlich nur wissen, ob die unterschiedliche BQ durch "verschiedene" Shader oder durch etwas anderes begründet ist.

edit: Muss erstmal über den Threadtitel und den Inhalt nachdenken, damit im Thread nicht zu viel getrollt wird. ;D

robbitop
2004-06-22, 17:48:31
"Warum soll die Tatsache, dass der R420 keinen SM3.0-Support bietet die Etwicklung bremsen? "

Weil die Ausbreitung von SM3 Hardware dann nicht hoch genug für die Entwickler ist und sie somit auf andere Leute achten müssen die es nicht haben.

Ich habe für solche Ansichten immer ein radikales Beispiel parat (Konjunktiv):
Hätte NV 2002 statt den NV30 fertigzustellen, einen verdoppelten NV25 gebracht, wäre so manches anders geworden. Ein 8x2 Setup, 4VS, SM1.3, vieleicht noch eine Colorcompression und ein 256bit Interface, FlipChip Package, 150nm, das teil wär somit auch gut erhältlich gewesen, geschäzte 85Mio Transistoren und hätte den R300 wohl ziemlich versägt...ABER dann hätten wieder viele Leute geschimpft. Kein SM2 ...lalalala...Technologiebremse...
Damals war SM2 in soziemlich keinem Spiel.
Dadurch dass NV SM2 eingeführt (und sogar übertroffen hat) und es sogar im LowCost Markt gebracht hat, ist die SM2 Verbreitung so hoch, dass man SEHR SEHR schnell SM2 Spiele hatte.
Ein verdoppelter NV25 hätte bewirkt, dass unsere Spiele noch immer mit Shadern mit Integer Präzision berechnet werden würden. Somit ist vorhandene SM3 Hardware sehr sehr wichtig für die unmittelbare zukunft und den Einsatz neuer Technologien.

Das soll nicht als Flame verstanden werden, sondern lediglich als Beispiel.
Ich bin mir sicher, dass wenn R420 SM3 gehabt hätte, wir das auch relativ flott zusehen bekämen.

MikBach
2004-06-22, 18:17:03
Original geschrieben von robbitop
"Warum soll die Tatsache, dass der R420 keinen SM3.0-Support bietet die Etwicklung bremsen? "

Weil die Ausbreitung von SM3 Hardware dann nicht hoch genug für die Entwickler ist und sie somit auf andere Leute achten müssen die es nicht haben.
Was sagst du denn zu meiner Begründung:?
"Sollte der R420 SM3.0-Support bieten, kommt es ja auch nicht von heute auf morgen, dass wir SM3.0 in Spielen bewundern dürfen. Man muss doch erst mal abwarten bis eine genügend grosse Basis "am Markt" ist.
Bis SM3.0-Karten 10% erreichen, könnte noch 1 Jahr vergehen, auch wenn der R420 SM3.0 hätte, da alles HighEnd."
Und komm mir bitte nicht mit den "kleinen" NV-Karten, die kommen sollen. Diese sind für SM3.0 genausogut geeignet, wie die FX5200 für SM2.0. :D
Original geschrieben von robbitop
Ich habe für solche Ansichten immer ein radikales Beispiel parat (Konjunktiv):
Hätte NV 2002 statt den NV30 fertigzustellen, einen verdoppelten NV25 gebracht, wäre so manches anders geworden. Ein 8x2 Setup, 4VS, SM1.3, vieleicht noch eine Colorcompression und ein 256bit Interface, FlipChip Package, 150nm, das teil wär somit auch gut erhältlich gewesen, geschäzte 85Mio Transistoren und hätte den R300 wohl ziemlich versägt...ABER dann hätten wieder viele Leute geschimpft. Kein SM2 ...lalalala...Technologiebremse...
Damals war SM2 in soziemlich keinem Spiel.
Dadurch dass NV SM2 eingeführt (und sogar übertroffen hat) und es sogar im LowCost Markt gebracht hat, ist die SM2 Verbreitung so hoch, dass man SEHR SEHR schnell SM2 Spiele hatte.
Ein verdoppelter NV25 hätte bewirkt, dass unsere Spiele noch immer mit Shadern mit Integer Präzision berechnet werden würden. Somit ist vorhandene SM3 Hardware sehr sehr wichtig für die unmittelbare zukunft und den Einsatz neuer Technologien.

Netter Vergleich. Ist auch was wahres dran.
Man muss aber sagen, dass der R300 genug Power für die SM2.0-Features hat(te), was beim NV40 in Verbindung mit SM3.0 noch nicht geklärt ist.

Gast
2004-06-22, 18:32:34
Das läuft in die falsche Richtung, ein Spieleentwickler überlegt sich doch sehr genau, ob es sich für ihn lohnt, einen bestimmten Effekt einzubauen.
Man schaut nicht "oh wieviele haben jetzt ne FX59+ und ne R97+ gekauft", nein es wird geschaut wieviele DX9 Beschleuniger verkauft wurden, gibt es genug davon, baut man bestimmte Effekte ein, um das Spiel aktraktiver zu machen, was wiederum mehr Käufer resultiert.
So wird es doch gehandhabt, warum soll ein Entwickler Sachen einbaun die man nur auf 5% aller Grafikkarten zeigen kann...
Glaube nicht das die schaun "oh soviele LowCost Grafikarten gibts, da müssen wir aber einige Effekte drausenlassen".

ironMonkey
2004-06-22, 18:39:02
Original geschrieben von Gast
Das läuft in die falsche Richtung, ein Spieleentwickler überlegt sich doch sehr genau, ob es sich für ihn lohnt, einen bestimmten Effekt einzubauen.
Man schaut nicht "oh wieviele haben jetzt ne FX59+ und ne R97+ gekauft", nein es wird geschaut wieviele DX9 Beschleuniger verkauft wurden, gibt es genug davon, baut man bestimmte Effekte ein, um das Spiel aktraktiver zu machen, was wiederum mehr Käufer resultiert.
So wird es doch gehandhabt, warum soll ein Entwickler Sachen einbaun die man nur auf 5% aller Grafikkarten zeigen kann...
Glaube nicht das die schaun "oh soviele LowCost Grafikarten gibts, da müssen wir aber einige Effekte drausenlassen".


Für Zocker ist SM3 unintressant, darum gehts hier nicht, sondern darum was man mit SM3 machen kann um zu schauen was man den so in ein Spiel das in 2 Jahren kommt so alles einbauen kann.


Sinn und Zweck von NV40 und R420 unterscheiden sich eh viel zu stark.


Gruß

seahawk
2004-06-22, 18:39:44
Original geschrieben von Crushinator

Quasar und Jesus,

da Ihr meiner letzten Bitte scheinbar nicht freiwillig folgen konntet, hier die offizielle Aufforderung, besonders an Quasar, die "unfeinen" Bemerkungen sein zu lassen. Das Faß ist übrigens voll, und als nächstes mache ich nicht nur den <:kicher:> Thread </:kicher:> dicht!

Pfft, aber ein Gast darf hier immer wieder mit haltlosen Behauptungen ankommen.

Sorry aber ich kann Quasar verstehen.

seahawk
2004-06-22, 18:45:45
Original geschrieben von MikBach
Was sagst du denn zu meiner Begründung:?
"Sollte der R420 SM3.0-Support bieten, kommt es ja auch nicht von heute auf morgen, dass wir SM3.0 in Spielen bewundern dürfen. Man muss doch erst mal abwarten bis eine genügend grosse Basis "am Markt" ist.
Bis SM3.0-Karten 10% erreichen, könnte noch 1 Jahr vergehen, auch wenn der R420 SM3.0 hätte, da alles HighEnd."
Und komm mir bitte nicht mit den "kleinen" NV-Karten, die kommen sollen. Diese sind für SM3.0 genausogut geeignet, wie die FX5200 für SM2.0. :D

Netter Vergleich. Ist auch was wahres dran.
Man muss aber sagen, dass der R300 genug Power für die SM2.0-Features hat(te), was beim NV40 in Verbindung mit SM3.0 noch nicht geklärt ist.

Exakt, bevor man SM3.0 Spiele sehen wird, muss eine ausreichend große Anzahl an KArten auf dem MArkt sein. Bauen ATI und NV solche Karte nerreicht man diesen Punkt schneller, baut keiner solche Karten erreicht man den Punkt nie.
Hat der R300 genug Power für SM2.0 ?? Das ist die Frage. Heutige Spiele setzen nur sehr vereinzelt auf 2.0, das meiste ist noch 1.X. Ich sehe kein Grund warum der NV40 nicht auch einzelne 3.0 Shader ausreichend performant darstellen können sollte.

Crushinator
2004-06-22, 19:05:49
Original geschrieben von seahawk
Pfft, aber ein Gast darf hier immer wieder mit haltlosen Behauptungen ankommen. Lies auch Du es bitte von meinen Lippen ab: Wenn es Euch stört, was ein Gast schreibt, meldet es bitte! Auch ich bin in der Lage PNs in Empfang zu nehmen.
Sorry aber ich kann Quasar verstehen. Ich kann Quasars Argumente bestens verstehen, um nicht zu sagen daß ich sie toll finde. Aber alles, was das Niveau unnötig sinken läßt, bringt mein Blut - besonders in letzter Zeit - zum Kochen. :(

MikBach
2004-06-22, 19:26:50
Original geschrieben von seahawk
Ich sehe kein Grund warum der NV40 nicht auch einzelne 3.0 Shader ausreichend performant darstellen können sollte.
Durchaus möglich :), aber wissen tun wir es nicht.

Original geschrieben von Crushinator
Lies auch Du es bitte von meinen Lippen ab:
Der war gut.


Aber alles, was das Niveau unnötig sinken läßt, bringt mein Blut - besonders in letzter Zeit - zum Kochen.
Full Ack.
Fachwissen ohne Ende, aber ein Benehmen wie Kinder.
@Quasar
meine nicht dich damit :), sondern das Klima in letzter Zeit hier im Forum. :(

robbitop
2004-06-22, 19:37:06
es geht nicht unbedingt um den Speed.
Ich denke mal, dass die FX maßgeblich daran beteiligt ist, dass wir jetzt SM2 Spiele haben. Besonders die 5600 und die 5200, welche Jahr SM2 in den Massenmarkt gebracht haben, ob die SM2 Leistung da war steht auf einem anderen Blatt, aber man hat nun eine SM2 Basis.

Und genau dies verhindert ATi mit der R420 Familie für SM3, wobei man sagen muss, das SM3 schneller kommen könnte als SM2, da die Umsetzung nicht so schwer zu realisieren ist.

Erst die Features und dann die Performance.
Und von den Spielen haben wir alle was. Insofern kreide ich privat ATi diesen Lapsus stark an, da es ja um die direkte Zukunft geht. Performance ist eben nicht alles.

Jesus
2004-06-22, 19:39:45
NAja SM 3.0 ist aber u.a. dazu da die Performance bei gleichen Features zu erhöhen :)

robbitop
2004-06-22, 19:43:49
nicht nur

ShadowXX
2004-06-22, 19:49:00
Original geschrieben von Jesus
NAja SM 3.0 ist aber u.a. dazu da die Performance bei gleichen Features zu erhöhen :)

Das SM3.0 besteht nicht nur aus branching und der nv40 hat ausserdem auch noch mehr neue Features bekommen als "nur" ein vollständiges SM3.0...

Die VS3.0 finde ich fast interessanter als die PS3.0...

MikBach
2004-06-22, 20:04:13
Original geschrieben von ShadowXX
Die VS3.0 finde ich fast interessanter als die PS3.0...

Was denn genau? :naughty:

Gast
2004-06-22, 20:08:55
Original geschrieben von MikBach
Was sagst du denn zu meiner Begründung:?
"Sollte der R420 SM3.0-Support bieten, kommt es ja auch nicht von heute auf morgen, dass wir SM3.0 in Spielen bewundern dürfen. Man muss doch erst mal abwarten bis eine genügend grosse Basis "am Markt" ist.
Bis SM3.0-Karten 10% erreichen, könnte noch 1 Jahr vergehen, auch wenn der R420 SM3.0 hätte, da alles HighEnd."
Und komm mir bitte nicht mit den "kleinen" NV-Karten, die kommen sollen. Diese sind für SM3.0 genausogut geeignet, wie die FX5200 für SM2.0. :D


Ob die FX5200 schnell genug ist für SM2.0 oder nicht spielt gar keine Rolle. Tatsache ist, dass sie der Marktverbreitung von DX9 ungemein geholfen hat. Ein Publisher interessiert sich nur für die Marktverbreitung. Wieviel % der Karten am Markt beherrschen ein gewisses Feaureset. Performance ist erstmal uninteressant.
Der Entwickler, der mit diesen Effekten experimentiert wird vom Publisher bezahlt. Wenn der Publisher etwas nicht will, dann gibts das eben auch nicht. Heisst im Umkehrschluss, wenn nur HIgh End Karten oder nur eine Seite ein Featureset anbietet dauert die Verbreitung länger.
Insofern nützt uns natürlich ein R420 mit SM3.0 auch nicht viel mehr. ATI muss seine ganze Palette auf das neue Featureset umstellen so wie es Nvidia tun wird und das machen sie nicht, weil sie einfach Ressourcen und Geld sparen wollen. Und das ist der Punkt, den ich als Spieler ihnen dann derbst ankreide. Mir ist es nämlich vollkommen egal wie ATIs Hausrechnung aussieht. Ich will nur das beste für mich und den Gamingbereich und deswegen muss es für diese Gammelei einfach herbe Kritik geben. Es kann einfach nicht sein.
Die Konkurenz schafft es auch auf der gesamten Palette und daran messe ich ATI und nicht daran, ob sie nun 5 fps schneller sind mit aktivierten Filtercheats.


Netter Vergleich. Ist auch was wahres dran.
Man muss aber sagen, dass der R300 genug Power für die SM2.0-Features hat(te), was beim NV40 in Verbindung mit SM3.0 noch nicht geklärt ist.

Sehe ich anders. Bisherhige Spiele haben noch gar nicht genug auf SM2.0 gesetzt. Die meissten haben nur in Teilen entsprechende Effekte. Für SM2.0 halte ich auch die R3xx Reihe zu langsam. Genug Power sagen die meissten doch nur, weils schneller war als bei der Konkurenz. Ob das dann letztlich genug zum featurereichen Spielen ist würde ich klar verneinen. Daraum gehts aber auch nicht. Gut ist, dass das Featureset enthalten war. Und genauso ist es jetzt eben mehr als schlecht, das das Featureset nicht enthalten ist. Das muss stark kritisiert werden und wenn ich mir anschaue, dass ATI diverse Trickserein bzw. Cheats eingebaut hat nur um bei den ersten Reviews besser auszusehen, dann zeigt mir das doch mehr als genug, dass sie genau vor dieser Kritik am technologischen Stillstand reichlich Angst hatten. Die wäre derbe ausgefallen ohne die Optimierungen.
So konnten die das bei den ersten Tests erst einmal überdecken. Jetzt wo alles aufgedeckt ist, sieht man einfach, das von großem Mehrwert bei Performance gegenüber der Konkurenz einfach nix mehr übrig geblieben ist nur investieren die eben 60 Mio Transistoren mehr die sie Geld kosten und bringen aktuelle Technik. Und genau das honoriere ich und hoffe das viele mitziehen. Je mehr ATI dafür kritisiert wird, desto eher werden sie gezwungen sein mehr zu tun. Das momentane ist einfach für mich nicht ausreichend um eine Belohnung zu rechtfertigen. Da haben die anderen mehr getan.

MikBach
2004-06-22, 20:23:37
Original geschrieben von Gast
Ob die FX5200 schnell genug ist für SM2.0 oder nicht spielt gar keine Rolle. Tatsache ist, dass sie der Marktverbreitung von DX9 ungemein geholfen hat. Ein Publisher interessiert sich nur für die Marktverbreitung. Wieviel % der Karten am Markt beherrschen ein gewisses Feaureset. Performance ist erstmal uninteressant.
Der Entwickler, der mit diesen Effekten experimentiert wird vom Publisher bezahlt. Wenn der Publisher etwas nicht will, dann gibts das eben auch nicht. Heisst im Umkehrschluss, wenn nur HIgh End Karten oder nur eine Seite ein Featureset anbietet dauert die Verbreitung länger.
Insofern nützt uns natürlich ein R420 mit SM3.0 auch nicht viel mehr. ATI muss seine ganze Palette auf das neue Featureset umstellen so wie es Nvidia tun wird und das machen sie nicht, weil sie einfach Ressourcen und Geld sparen wollen. Und das ist der Punkt, den ich als Spieler ihnen dann derbst ankreide. Mir ist es nämlich vollkommen egal wie ATIs Hausrechnung aussieht. Ich will nur das beste für mich und den Gamingbereich und deswegen muss es für diese Gammelei einfach herbe Kritik geben. Es kann einfach nicht sein.
Die Konkurenz schafft es auch auf der gesamten Palette und daran messe ich ATI und nicht daran, ob sie nun 5 fps schneller sind mit aktivierten Filtercheats.



Sehe ich anders. Bisherhige Spiele haben noch gar nicht genug auf SM2.0 gesetzt. Die meissten haben nur in Teilen entsprechende Effekte. Für SM2.0 halte ich auch die R3xx Reihe zu langsam. Genug Power sagen die meissten doch nur, weils schneller war als bei der Konkurenz. Ob das dann letztlich genug zum featurereichen Spielen ist würde ich klar verneinen. Daraum gehts aber auch nicht. Gut ist, dass das Featureset enthalten war. Und genauso ist es jetzt eben mehr als schlecht, das das Featureset nicht enthalten ist. Das muss stark kritisiert werden und wenn ich mir anschaue, dass ATI diverse Trickserein bzw. Cheats eingebaut hat nur um bei den ersten Reviews besser auszusehen, dann zeigt mir das doch mehr als genug, dass sie genau vor dieser Kritik am technologischen Stillstand reichlich Angst hatten. Die wäre derbe ausgefallen ohne die Optimierungen.
So konnten die das bei den ersten Tests erst einmal überdecken. Jetzt wo alles aufgedeckt ist, sieht man einfach, das von großem Mehrwert bei Performance gegenüber der Konkurenz einfach nix mehr übrig geblieben ist nur investieren die eben 60 Mio Transistoren mehr die sie Geld kosten und bringen aktuelle Technik. Und genau das honoriere ich und hoffe das viele mitziehen. Je mehr ATI dafür kritisiert wird, desto eher werden sie gezwungen sein mehr zu tun. Das momentane ist einfach für mich nicht ausreichend um eine Belohnung zu rechtfertigen. Da haben die anderen mehr getan.

Sorry Gast, hab mir nicht die Zeit genommen alles(genau) zu lesen, nur den Schluss. :)
"Je mehr ATI dafür kritisiert wird, desto eher werden sie gezwungen sein mehr zu tun."
Was meinst du damit?
Der R500 soll doch SM3.0 haben. Die tun doch was, die Frage ist nur: "zur welcher Zeit"!
Zwingen muss man sie nicht.

SKYNET
2004-06-22, 20:37:46
Original geschrieben von Crushinator
Lies auch Du es bitte von meinen Lippen ab: Wenn es Euch stört, was ein Gast schreibt, meldet es bitte! Auch ich bin in der Lage PNs in Empfang zu nehmen.
Ich kann Quasars Argumente bestens verstehen, um nicht zu sagen daß ich sie toll finde. Aber alles, was das Niveau unnötig sinken läßt, bringt mein Blut - besonders in letzter Zeit - zum Kochen. :(


1. da hst du recht
2. blutdruck senkendes mittel: gäste können nichtmehr posten.

[ontopic]

Original geschrieben von Quasar
...oder Shadercompiler-Optimierungen für die neue Architektur.
Wobei ich da 20% ausser in Spezialfällen für ziemlich optimistisch halte.

ich nicht, der neue 61.45 hat meines wissens nach über 50% leistung gebacht, und nichtnur da zugelget, auch andere games profitieren davon.

siehe anandtech im den PCI-E vs. AGP 8x review, da ist der alte treiber WEIT abgeschlagen.

Demirug
2004-06-22, 20:47:36
Original geschrieben von SKYNET
ich nicht, der neue 61.45 hat meines wissens nach über 50% leistung gebacht, und nichtnur da zugelget, auch andere games profitieren davon.

siehe anandtech im den PCI-E vs. AGP 8x review, da ist der alte treiber WEIT abgeschlagen.

Wobei ich nicht nachvollziehen kann was Anandtech da zusammen gebencht hat.

Zudem sollte man um die Steigerung bei der Shaderleistung zu beurteilen am besten nur Shader benchen.

Gast123456
2004-06-22, 20:49:07
Original geschrieben von SKYNET
ich nicht, der neue 61.45 hat meines wissens nach über 50% leistung gebacht, und nichtnur da zugelget, auch andere games profitieren davon.

siehe anandtech im den PCI-E vs. AGP 8x review, da ist der alte treiber WEIT abgeschlagen.

http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1938595#post1938595

SKYNET
2004-06-22, 21:01:28
Original geschrieben von Demirug
Wobei ich nicht nachvollziehen kann was Anandtech da zusammen gebencht hat.

Zudem sollte man um die Steigerung bei der Shaderleistung zu beurteilen am besten nur Shader benchen.

die benches mit dem 3400+ sind noch mit alten treibern.
die neuen sind meines wissens nach mit den neusten beta treibern beider hersteller gemacht worden.

kann mich auch irren. :o

MarcWessels
2004-06-22, 21:25:07
Neee, auf ATI-Seite nicht mit den neuesten Betas... ;)

seahawk
2004-06-22, 21:30:46
Original geschrieben von MikBach
Durchaus möglich :), aber wissen tun wir es nicht.


Aber das wußten wir beim Erscheinen des R300 auch nicht. Ich bin mir sicher, dass der NV40 einen SM3.0 Anteil entsprechend des heute üblichen SM2.0 Anteils (FarCry oder TR6) ausreichend schnell darstellen können wird. Für reine 3.0 Spiele wird die Power nicht reichen. Das bieten vielleicht R500 und NV50.

aths
2004-06-22, 22:34:52
Original geschrieben von Demirug
Du verallgemeinerst.

SM3 ist ja nicht nur dynamisches Branching.

Object Instancing scheint soweit ich das bisher sehen konnte ganz gut zu funktionieren. Ja; woanders schrieb ich verallgemeinernd, SM 3.0 solle CPU und GPU entlasten*. Aber was den VS angeht, habe ich mich bis auf Texture Sampling noch nicht weiter gekümmert :ups: :schleich:

* Was da ausdrücken soll, weniger neue Effekte ermöglichen, sondern die Performance bringen um Effekte fit fürs Echtzeitrendering zu machen. SM 3.0 kann ggü. 2.0 eine Menge im Shader möglich machen, was man vorher von Hand erledigen musste. Angesichts der großen Quad-Batches im NV dürfte das Primärfeature "Branching im PS" nicht sonderlich performen. Echte Shadertest habe ich leider nicht.

aths
2004-06-22, 22:36:54
Original geschrieben von LovesuckZ
Profitiert der NV40 nicht durch NRM?
Auch wenn er weniger von _pp profitieren würde, den Leistungsgewinn von 50% und mehr sind nicht zu verachten und sollten den Programmierern anstoss sein, mehr auf _pp zu setzen. Das ist alles etwas komplizierter. Ob NRM ggü. der R420-Pipe insgesamt schneller ist, weiß ich nicht (vermutlich ja, zumindest unter bestimmten Umständen.) _PP reicht für Normalen in der Regel aber aus. Jede NV40-Pipe kann dank Extra-Hardware pro Takt ein NRM_PP (oder ein Fog-Blending) rechnen, ohne die Shader-Units zu belasten.

Original geschrieben von Quasar
Gar nicht, das war ein fauxpas_pp.
Aber ich würde gern damit normalmapping beschleunigen, darf ich? Für Bumpmapping sollte normalisiert werden. NRM_PP ist nicht so gut wie NRM. Aber deutlich besser, als NRM auf DX8-HW (wegen der geringen Genauigkeit, FP16 ist FX9 deutlich überlegen.) Da Bumpmapping (bzw. pixelgenaue Beleuchtung) in absehbarer Zukunft eine Hauptaufgabe des Pixelshaders sein wird, ist das NRM_PP "for free" natürlich eine gute Sache.

Mr. Lolman
2004-06-22, 22:37:36
Öegt euch nicht sosehr auf die tollen SM3.0 Features (wie z.B. Insturction length) fest. Die Shader der UE3 Demo hatten nur 50-200 Instructionen, und trotzdem hats stellenweise geruckelt.

Mr. Lolman
2004-06-22, 22:40:00
Original geschrieben von SKYNET
1. da hst du recht
2. blutdruck senkendes mittel: gäste können nichtmehr posten.

[ontopic]



ich nicht, der neue 61.45 hat meines wissens nach über 50% leistung gebacht, und nichtnur da zugelget, auch andere games profitieren davon.

siehe anandtech im den PCI-E vs. AGP 8x review, da ist der alte treiber WEIT abgeschlagen.

Wenn du mit deiner flamenden Art so weiter machst, kann ich mir vorstellen, dass du bald froh bist, dass Gästen das Posten erlaubt ist.

aths
2004-06-22, 22:40:41
Original geschrieben von robbitop
meinst du für CPU Entlastung nicht eher VS3? Auch der Pixelshader 3.0 kann die CPU entlasten (weil er für bestimmte Effekte neue CPU-schonendere Methoden erlaubt, die mit 2.0 nicht möglich sind.)

aths
2004-06-22, 22:45:42
Original geschrieben von MikBach
Na ja, wenn ich mir die Performance von FC ansehe, dann halte ich es für in Ordnung, wenn man die max. mögliche, von den Programmierern gewollte BQ fordert.Ok, dann verstand ich dich miss. Natürlich sollte ein Treiber standardmäßig genau das liefern, was der Programmierer einstellt.
Original geschrieben von MikBach
Ich will einfach nur, dass ich alles auf "Very High" stelle, und auch DIESE BQ bekomme. Bei ATI ist es der Fall, bei Nvidia leider nicht.Hm. Das liegt dann doch aber an Crytek. Der Programmierer will dort nicht, dass NV-User maximale BQ bekommen.
Original geschrieben von MikBach
Für mich ist es ganz einfach. Man bietet die max. von den Programmierern gewollte Qualli auf allen Karten. Sollte die Performance nicht stimmen, kann man doch runterregeln.
Kann doch nicht sooo schwer sein! Hrn. Der Programmierer, so sollte mein Posting verstanden werden, wird sinnvollerweise die Konfiguration für den ersten Start so einstellen, dass das Spiel halbwegs ruckelfrei läuft.

Jesus
2004-06-22, 22:47:06
Original geschrieben von aths
Da Bumpmapping (bzw. pixelgenaue Beleuchtung) in absehbarer Zukunft eine Hauptaufgabe des Pixelshaders sein wird, ist das NRM_PP "for free" natürlich eine gute Sache.

und daher ist der VS 3.0 eher zweitranging, um nicht zu sagen überflüssig, glaubt man den worten der UE 3.0 entwickler.

aths
2004-06-22, 22:52:25
Original geschrieben von Gast
Nein für SM3.0 schimpft sich das Ganze DX9.0c.
DX8.1 integrierte aber auch PS1.3 DX9.0c integriert auch das DirectX7 Multitexturing-Setup :freak:.

aths
2004-06-22, 22:56:37
Original geschrieben von Jesus
das tut der x800 übrigens auch ohne PS3.0:

Quelle THG:

"Another improvement is that now, only the pixels actually used by a shader program are saved, and not the entire frame of a scene. " Das hat nichts mit dem mit SM 3.0 möglichen Early-Out via texkill nichts zu tun; mit SM 3.0 kann man ganze Shaderteile einfach überspringen wenn sie beim Effekt für das aktuelle Pixel nicht gebraucht werden. Mit SM 2.0 muss alles durchgerechnet werden, egal ob das (Zwischen-)Ergebnis genutzt (oder mittels CMP verworfen) wird.

aths
2004-06-22, 22:58:22
Original geschrieben von Jesus
und daher ist der VS 3.0 eher zweitranging, um nicht zu sagen überflüssig, glaubt man den worten der UE 3.0 entwickler. Der VS 3.0 ist wegen der Object Instancing-Möglichkeit genauso wenig überflüssig wie mit seiner Texture-Sample-Fähigkeit. Momentan wird sicherlich mehr als nur die Unreal-3-Engine entwickelt.

Gast
2004-06-22, 23:27:29
Original geschrieben von MikBach
Sorry Gast, hab mir nicht die Zeit genommen alles(genau) zu lesen, nur den Schluss. :)
"Je mehr ATI dafür kritisiert wird, desto eher werden sie gezwungen sein mehr zu tun."
Was meinst du damit?
Der R500 soll doch SM3.0 haben. Die tun doch was, die Frage ist nur: "zur welcher Zeit"!
Zwingen muss man sie nicht.

doch muss man. Je weniger sie momentan Geschäft machen umso mehr müssen sie sich beeilen.
Das ist eine ziemlich simple Marktlogik.
Und wer sagt mir denn, dass sie zwar beim R500 wenn er dann irgendwann einmal kommmt SM3 haben werden, plötzlich die anderen nicht schon wieder eine STufe weiter sind. Dann muss ich doch feststellen, dass ATI einfach hinterhinkt. Deshalb ist es zwingend erforderlich sie möglichst hart dafür zu kritisieren. Ansonsten setzen die Ihre Strategie weiterhin fort und das ist nicht in meinem Interesse. Das es ATI recht ist, ist mir schon klar. Sie sparen ja dadurch Geld. Nur ist mir als Kunde das scheiss egal wie deren Rechnung aussieht. Die anderen investieren mehr und daran messe ich sie und das sollte jeder tun. Wir haben nämlich gar nix davon, wenn wir sowas hinnehmen. Das führt nämlich dann dazu, dass es beim nächsten Mal andere genauso machen.

Hauwech
2004-06-23, 02:20:35
Original geschrieben von Jesus
und daher ist der VS 3.0 eher zweitranging, um nicht zu sagen überflüssig, glaubt man den worten der UE 3.0 entwickler.

ATI muss ja demnach voll bescheuert sein wenn sie jemals einen VS 3.0 Chip überhaupt entwickeln nur weil die UE3 Götter es für überflüssig erklären. Es benutzt ja eh sonst keiner...

Hast du schon eine Nachricht an ATI geschickt um sie vor einem finanziellen Desaster durch Verschwendung von Transistoren für VS 3.0 zu warnen?

Ich bin mir ganz sicher das sie dir danken werden!!!

Sorry Mods aber das ist einfach nur noch :lolaway:

SKYNET
2004-06-23, 02:51:51
Original geschrieben von Mr. Lolman
Wenn du mit deiner flamenden Art so weiter machst, kann ich mir vorstellen, dass du bald froh bist, dass Gästen das Posten erlaubt ist.

hä ?

r@h
2004-06-23, 06:16:51
Original geschrieben von SKYNET
hä ? Einfach ignorieren...

Razor

SKYNET
2004-06-23, 06:30:11
Original geschrieben von r@h
Einfach ignorieren...

Razor

ich glaub besser ist das.

seahawk
2004-06-23, 07:35:36
Original geschrieben von SKYNET
ich glaub besser ist das.

Definitiv - und Jesus Gast sollte man auch ignorieren.

MB@W
2004-06-23, 08:50:47
Original geschrieben von aths
Hm. Das liegt dann doch aber an Crytek. Der Programmierer will dort nicht, dass NV-User maximale BQ bekommen.
Das ist aber schade. :(
Original geschrieben von aths
Hrn. Der Programmierer, so sollte mein Posting verstanden werden, wird sinnvollerweise die Konfiguration für den ersten Start so einstellen, dass das Spiel halbwegs ruckelfrei läuft.
Das ist klar. Ist auch so gewünscht, dass sich ein Spiel automatisch auf die Graka einstellt, und automatisch low,medium oder high für bestimmte Effekte einstellt.
Das meine ich aber nicht. Mir geht es darum, dass wenn ich alles auf "Very High" stelle, dann will ich auch "Very High" sehen und nicht nur "High"(Beispiel).

MikBach

MB@W
2004-06-23, 10:35:54
Original geschrieben von Gast
doch muss man. Je weniger sie momentan Geschäft machen umso mehr müssen sie sich beeilen.
Das ist eine ziemlich simple Marktlogik.
Hört sich ja alles logisch an, nur wie willst du die Etwicklung des R500 beschleunigen? :???:
Die Entwicklung einer GPU ist ein komlpexer und langwieriger Prozess, da kann man nicht mehr viel beschleunigen. Die sind doch dabei, mehr kann man nicht machen.
Ausserdem verstehe ich die Aufregung nicht so ganz.
Es gibt zur Zeit keine Spiele, die auf Nvidia besser aussehen als auf ATI, im Gegenteil das Vorzeigespiel(Grafik) FC sieht auf ATI besser aus bzw. läuft einfach besser. Warum jetzt ATI in Zugzwang sein sollte? :???:

Und wer sagt mir denn, dass sie zwar beim R500 wenn er dann irgendwann einmal kommmt SM3 haben werden, plötzlich die anderen nicht schon wieder eine STufe weiter sind. Dann muss ich doch feststellen, dass ATI einfach hinterhinkt.
ATI war mit dem R200 shadertechnisch überlegen, in der Praxis kam aber nichts. Vielleicht denken die jetzt, dass es nicht immer sinnvoll ist, die "neusten" Features schnellstmöglich anzubieten, wenn sie in der Praxis ja eh erst viel später eingesetzt werden. :ratlos:

MikBach

Tjell
2004-06-23, 10:54:02
Im Übrigen hat NVidia aus ihren Fehlern mit dem NV30 lernen müssen und können.

Ati kann man zugute halten, daß sie nicht unter Zugzwang waren, etwas revolutionär Neues vorzustellen, weshalb sie auch lieber den ursprünglich als SM3.0-Chip geplanten R400 gestrichen haben, als ein nicht wirklich konkurrenzfähiges oder realisierbares Projekt stemmen zu wollen.

NVidia hat aus der Bedrängnis heraus nach vorn preschen müssen, was sie mit dem schnellen NV40 und dem vollständigen DX9-Support auch erreicht haben.

Was uns diese Technik auf kurze Sicht bringen wird - man wird sehen.

seahawk
2004-06-23, 10:57:45
1.4 ist aber nur bedingt ein taugliches Beispiel.

a) ist es wesentlich leichter aus HLSL ein Profil für 3.0 zu erzeugen, als es damals war 1.4 einzubauen

b) war die Marktsituation anders. Nur die 8500 hatte 1.4. Heute wird NV in allen Ablegern der NV4X Serie 3.0 anbieten. Also von Entrylevel bis Highend. Dazu kommt noch was evtl. (sehr evtl.) von Power VR kommt.

Ich persönlich halte 3.0 heute für absolut sinnfrei in Games. Allerdings wird die heutige Einführung von 3.0 dafür sorgen, dass wir 3.0 Software haben werden, wenn der R500/NV50 auf den Markt kommt. Diese Karten werden wesentlich performanter unter 3.0 sein und es voll ausnutzen können. Nur ohne die NV4X Serie würden diese Features bei der Vorstellung dieser Chips auch sinnlos sein, da die Software bei 2.0 stehen bleiben würde.

DrumDub
2004-06-23, 11:11:28
Original geschrieben von aths
Auch der Pixelshader 3.0 kann die CPU entlasten (weil er für bestimmte Effekte neue CPU-schonendere Methoden erlaubt, die mit 2.0 nicht möglich sind.)

mist... wieder falsch gelegen... na, wie auch immer. vs 3.0 ist in dieser hinsicht wohl wesentlich interessanter.

DrumDub
2004-06-23, 11:14:58
Original geschrieben von seahawk
Ich persönlich halte 3.0 heute für absolut sinnfrei in Games. Allerdings wird die heutige Einführung von 3.0 dafür sorgen, dass wir 3.0 Software haben werden, wenn der R500/NV50 auf den Markt kommt. Diese Karten werden wesentlich performanter unter 3.0 sein und es voll ausnutzen können. Nur ohne die NV4X Serie würden diese Features bei der Vorstellung dieser Chips auch sinnlos sein, da die Software bei 2.0 stehen bleiben würde.

amen. aus meiner sicht als spieler. :)

Ailuros
2004-06-23, 11:25:55
Original geschrieben von SKYNET
du hast schon gesehn das die ultra bei 1600*1200 4xAA/8xAF genausoschnell ist wie die XT ? :P



(....du liebe Zeit explodieren diese Threads wie verrueckt, da kann man ja gar nicht mehr mithalten...)

Skynet,

Hast Du Dir den Kommentar den Du von mir gequotet hast, genau durchgelesen oder erscheint es nur mir dass wir die gleiche Sache mit anderen Worten erwaehnten?

---------------------------------------------------------

Neues Material dass ihr vielleicht noch nicht gesehen habt:

http://www.digit-life.com/articles2/gffx/nv40-2.html

Die Frage ist ob hier Optimierungen auch bei ATI abgeschaltet wurden.

Gast
2004-06-23, 11:31:41
"Both companies' drivers have trilinear filtering optimisation enabled by default."

Also ist Bri bei ATI an.

MB@W
2004-06-23, 11:33:18
Original geschrieben von seahawk
Ich persönlich halte 3.0 heute für absolut sinnfrei in Games. Allerdings wird die heutige Einführung von 3.0 dafür sorgen, dass wir 3.0 Software haben werden, wenn der R500/NV50 auf den Markt kommt. Diese Karten werden wesentlich performanter unter 3.0 sein und es voll ausnutzen können. Nur ohne die NV4X Serie würden diese Features bei der Vorstellung dieser Chips auch sinnlos sein, da die Software bei 2.0 stehen bleiben würde.

Full Ack.

Ich habe ja auch schon geschrieben, dass für Entwickler zur Zeit ein NV40 ein Muss ist, um die neue Techink kennenzulernen, und um nicht in technologischen Rückstand gegenüber anderen Entwicklern zu geraten.

MikBach

Ailuros
2004-06-23, 11:44:03
Was SM3.0 generell betrifft ist es IMHO die quasi Vorschwelle fuer SM4.0. Man kann einem Entwickler nie frueh genug neue Features liefern.

Momentan ist der Grund der sich immer wieder wiederholenden Streitereien, dass beide grosse IHVs eine radikal verschiedene Strategie zum Thema SM3.0 haben.

NVIDIA will aus verstaendlichen Gruenden das Interesse auf SM3.0 konzentrieren, wobei im Gegenteil ATI davon so viel wie moeglich ableiten will.

Die Frage waere in dem Fall wohl eher ob SM3.0 auf NV40 wirklich brauchbar ist; so wie es aussieht heisst es wohl eher ja aber unter gewissen Bedingungen. Das Gegenteil kann natuerlich nur eine Alternative Loesung irgendwann mal beweisen und es kann auch NV50 oder was immer auch heissen. Und wenn das zu komisch klingt fuer manche, einfache Frage: ist SM3.0 auf NV40 genauso "straightforward" und einfach zu benutzen fuer den Entwickler als SM2.0 auf R3xx als Gegenbeispiel?

Die wahre Frage ist ob die Technologie die fuer SM3.0 steht generell nutzvoll ist oder nicht. Ein absolutes ja von mir, denn ATI wird auch damit in zukuenftigen Loesungen ueberzeugen wollen. Wenn Euch das Ganze nicht zu einer nuechternen Perspektive als zuvor fuehrt, dann koennt Ihr ruhig weitermachen und Eure Meinung den marketing Aussagen des jeglichen IHVs anpassen.

Wenn es zu Technologie kommt, ist mir persoenlich jeder merkenswerter Fortschritt wertvoll und da ist mir das PR/marketing jedes IHV eigentlich egal.

Ailuros
2004-06-23, 11:45:49
Original geschrieben von Gast
"Both companies' drivers have trilinear filtering optimisation enabled by default."

Also ist Bri bei ATI an.

Das dumme ist dann eben, dass fuer die GT Resultate mit und ohne Optimierungen vorhanden sind.

reunion
2004-06-23, 11:59:55
Original geschrieben von robbitop
es geht nicht unbedingt um den Speed.
Ich denke mal, dass die FX maßgeblich daran beteiligt ist, dass wir jetzt SM2 Spiele haben. Besonders die 5600 und die 5200, welche Jahr SM2 in den Massenmarkt gebracht haben, ob die SM2 Leistung da war steht auf einem anderen Blatt, aber man hat nun eine SM2 Basis.

Seh ich nicht so. Der Hauptgrund warum es heute Spiele wie FarCry gibt ist die R300 Serie. Für die FX-Serie, besonders für die FX5200 und FX5600 musste man ja desöfteren DX9 Effekte weglassen. Würden diese Karten schneller sein mit der berechnung von DX9 Effekten hätten wir heute vermutlich schon mehr Spiele mit SM2.0 support.


Erst die Features und dann die Performance.


Das ist die Taktik von NV, ATI implementiert ein Feature nur wenn es auch schnell genug ist und in der Praxis verwendet werden kann.

robbitop
2004-06-23, 12:03:14
ein so kurzfristiges Denken finde ich ehrlich gesagt zum :dpuke:

ich habe ein solches Beispiel ein paar Seiten vorher verdeutlicht. IMO sollte man den jeweiligen IHV hart kritisieren für ein solches Vorgehen, denn in 1-2 Jahren gibt es Auswirkungen auf die Spielewelt.
Hätte ATi mit der R4xx Familie SM3 ebenfalls gebracht, statt seit 2002 zu sparen, hätte man bald eine breite SM3 Basis und in kurzer Zeit hätten wir SM3 Spiele.

Aber das kann man nun erstmal vergessen, dass euch das nicht stört...hauptsache 10FPS mehr und 10W weniger [und das bei Relationen, wo diese Werte annähernd irrelevant sind]..

Ailuros
2004-06-23, 12:04:32
Das ist die Taktik von NV, ATI implementiert ein Feature nur wenn es auch schnell genug ist und in der Praxis verwendet werden kann.

Offizielle Entschuldigungen zur Seite: eine "schnelle" SM3.0 Implementierung waere fuer ATI durchaus moeglich gewesen, haetten sie auch Zeit und Resourcen dafuer gehabt. Ich sehe nicht ein warum man alles so einfach verdauen muss, wenn die Aenderungen auf ATI's roadmap so radikal waren, oder glaubt Ihr allen Ernstes dass R420 schon immer geplant war?

Einfacher: wir hatten keine Zeit dazu und siehe dazu XBox2.

robbitop
2004-06-23, 12:06:19
siehst DU vieleicht nicht so.
Und dennoch schufen die 5600 und die 5200 erst die SM2 Basis. LowCost Karten werden 10x mehr verkauft als ein HighEnd R3xx. Gut der Radeon 9600 Reihe kann man da auch etwas zugestehen. Aber ohne die FX wäre heute so manches anders, wenn du das nicht sehen willst, weiss ich auch nicht.

Eine Basis muss erstmal da sein. Ob man da optimiert und Dinge weglässt ist eine andere Sache, aber die BASIS ist da ;)

reunion
2004-06-23, 12:07:23
Original geschrieben von aths
Hm. Das liegt dann doch aber an Crytek. Der Programmierer will dort nicht, dass NV-User maximale BQ bekommen.



Und woran glaubst du liegt das?

robbitop
2004-06-23, 12:08:01
@AiL
ATi hat den R400 letztes Jahr abgebrochen.
Vieleicht weil er nicht lieferbar wäre, vieleicht weil er nicht gegen NV40 bestanden hätte...wer weiss.
Möglich gewesen wäre es. ATi hat 2 Jahre für den Desktopmark kaum R & D aufgewendet (oder vernachlässigbar wenig).

reunion
2004-06-23, 12:12:08
Original geschrieben von robbitop
siehst DU vieleicht nicht so.
Und dennoch schufen die 5600 und die 5200 erst die SM2 Basis. LowCost Karten werden 10x mehr verkauft als ein HighEnd R3xx. Gut der Radeon 9600 Reihe kann man da auch etwas zugestehen. Aber ohne die FX wäre heute so manches anders, wenn du das nicht sehen willst, weiss ich auch nicht.

Eine Basis muss erstmal da sein. Ob man da optimiert und Dinge weglässt ist eine andere Sache, aber die BASIS ist da ;)


Was hab ich von einer Basis die diese Effekt mangels performance dann nicht benutzten kann?

DrumDub
2004-06-23, 12:12:11
robbitop

ati hat doch selber gesagt, dass der r400 zu ambitioniert war, um ihn 2004 in hardware zu giessen. dave orton selber (b3d interview) hat ja nvidia seine bewunderung dafür ausgesprochen, dass sie es mit relativ wenig transistoren geschafft haben eine sm 3.0 gpu wie den nv40 rauszubringen.

robbitop
2004-06-23, 12:16:14
@reunion
"Was hab ich von einer Basis die diese Effekt mangels performance dann nicht benutzten kann?"

Du hast DX9 Spiele heutzutage.


@DrumDub
"ati hat doch selber gesagt, adss der r400 zu ambitioniert war, um ihn 2004 in hardware zu giessen. dave orton selber (b3d interview) hat ja nvidia seine bewunderung dafür ausgesprochen, dass sie es mit relativ wenig transistoren geschafft haben eine sm 3.0 gpu wie den nv40 rauszubringen."

Offizielle Aussagen müssen nicht immer der Realität entsprechen. Man sagt z.B. niemals Dinge, die einem selbst schaden könnten.

LovesuckZ
2004-06-23, 12:18:54
Original geschrieben von Ailuros
Offizielle Entschuldigungen zur Seite: eine "schnelle" SM3.0 Implementierung waere fuer ATI durchaus moeglich gewesen, haetten sie auch Zeit und Resourcen dafuer gehabt.

Sie hatten mindesten 2 Jahre Zeit. Warum sollte ATi nicht in der Lage sein ebenfalls ein konkurenzfaehiges Design auf die Beine zu stellen?
Der Xbox2 Deal kam deutlich spaeter zustande und hat bestimmt keinen Einfluss auf die Entwicklung des r400/420 gehabt.
Aufgrund der Tatsache, dass ATi keine Veraenderung an den TMU's, dem AA und AF Verfahren sowie an den Vertexshadern (featuremaeßig) vorgenommen hat,laesst die Ausrede, dass man nur das einbauen werde, welches verwendet werden koennten nicht zaehlen. Das gleicht einer Bankrotterklaerung, wenn man innerhalb von 2 Jahren nicht über das Featureset eines r300 deutlich hinauskomme.

robbitop
2004-06-23, 12:22:53
die 2 Jahre haben sie am R400 gearbeitet, der gecancled worden ist.
Gut ATi hat noch etwas von diesem, da dieser in die XBOX und andere Projekte mit einfliessen wird.

seahawk
2004-06-23, 12:34:09
Original geschrieben von reunion
Was hab ich von einer Basis die diese Effekt mangels performance dann nicht benutzten kann?

Dir ist schon klar wie ein Publisher so etwas entscheidet ??

Die Frage ist wieviele potentielle Kunden haben eine Karte die in der Lage ist die Effekte theoretisch darzustellen!!

Gäbe es also nur die ehemaligen High-Endkarten bis zur 9600pro, die ausreichend schnell dür DX9.0 sind, wären das vielleicht 20% der Käufer.

Mit den langsameren DX9.0 Karten werden es vielleicht 65%.

-> Wie würden diese Prozentzahlen wohl die Entscheidung des Publishers beeinflußen??

DrumDub
2004-06-23, 12:35:17
Original geschrieben von robbitop
Offizielle Aussagen müssen nicht immer der Realität entsprechen. Man sagt z.B. niemals Dinge, die einem selbst schaden könnten.

das ist mir schon klar, aber diese aussage schadet ati doch indirekt, weil sie beweist, dass sie nicht fähig waren das design des r400 zu realisieren.

robbitop
2004-06-23, 12:35:31
du hasts erfasst Seahawk :up:

EDIT:

@DrumDub
hm das schon, aber im gleichen Zuge erwähnt Dave auch dass ATi die Performance wichtiger war und betreibt somit (IMO) eine falsche Propaganda und damit auch eine Rechfertigung, die die Leute hören wollen (die Leute die alle kurzfristig denken und das scheint die Masse zu sein)

ironMonkey
2004-06-23, 12:35:55
Original geschrieben von LovesuckZ
Sie hatten mindesten 2 Jahre Zeit. Warum sollte ATi nicht in der Lage sein ebenfalls ein konkurenzfaehiges Design auf die Beine zu stellen?
Der Xbox2 Deal kam deutlich spaeter zustande und hat bestimmt keinen Einfluss auf die Entwicklung des r400/420 gehabt.
Aufgrund der Tatsache, dass ATi keine Veraenderung an den TMU's, dem AA und AF Verfahren sowie an den Vertexshadern (featuremaeßig) vorgenommen hat,laesst die Ausrede, dass man nur das einbauen werde, welches verwendet werden koennten nicht zaehlen. Das gleicht einer Bankrotterklaerung, wenn man innerhalb von 2 Jahren nicht über das Featureset eines r300 deutlich hinauskomme.

Gegnfrage, warum sollte sich den ATI den Arsch aufreissen um bei den features mit NV mithalten zu können wenn man es schafft in ein paar Wochen einen Chip zu entwickeln der fast überall die längern Balken hat und somit ordentlich Geldin die Kassen bringt und man so weiter an seinem nächsten Chip arbeiten kann??????

Du Vergisst aber auch wirklich immer das es hier um Geld geht.

Zumal es keine bankrotterklärung ist sondern eine Demütigung von NV, selbst nach 2 Jahren haben sie es nicht gepackt an ATI ran zu kommen obwohl die extra drauf geachtet haben ja nix neues einzubauen.



Gruß

robbitop
2004-06-23, 12:39:02
@IronMonkey

ja sicher hast du mit den Argumenten aus Herstellersicht absolut Recht. Das ist viel billiger für ATi.

Aber wir sind weder Auktionäre noch Investoren noch der Hersteller.
Wir sind User/Kunden, es geht um uns. Und da kannst du sowas gutheissen?

Sry :(

DrumDub
2004-06-23, 12:42:04
Original geschrieben von robbitop
hm das schon, aber im gleichen Zuge erwähnt Dave auch dass ATi die Performance wichtiger war und betreibt somit (IMO) eine falsche Propaganda und damit auch eine Rechfertigung, die die Leute hören wollen (die Leute die alle kurzfristig denken und das scheint die Masse zu sein)

propaganda? das ist pr-arbeit. ;)

nv hat das gleiche ja auch zu zeiten des nv3x gemacht, als sié ins hintertreffen geraten sind, insofern sollte man sich davon nicht irritieren lassen. die gläubigen aka fanboys werden den firmen sowieso alles von den lippen ablesen und für bare münze halten.

eigentlich gehört die diskussion ins speku-forum... ;)

robbitop
2004-06-23, 12:44:38
sicher, keiner der beiden IHVs ist moralisch besser als der andere. (Und gerade wegen der PR-Arbeit traue ich den offiziellen Aussagen der IHVs nicht sehr..wer das tut ist selbst schuld IMO)
Aber was man NV ganz klar zugute halten muss, ist dass sie technologisch trotz schlechter Performance mitgezogen haben beim NV3x.

Was meinst du, was ein doppelter NV25 an R & D gespart hätte? Aber schicke Floating Point Shader hätten wir heutzutage dann nicht.

seahawk
2004-06-23, 12:50:27
Original geschrieben von ironMonkey
Gegnfrage, warum sollte sich den ATI den Arsch aufreissen um bei den features mit NV mithalten zu können wenn man es schafft in ein paar Wochen einen Chip zu entwickeln der fast überall die längern Balken hat und somit ordentlich Geldin die Kassen bringt und man so weiter an seinem nächsten Chip arbeiten kann??????

Du Vergisst aber auch wirklich immer das es hier um Geld geht.

Zumal es keine bankrotterklärung ist sondern eine Demütigung von NV, selbst nach 2 Jahren haben sie es nicht gepackt an ATI ran zu kommen obwohl die extra drauf geachtet haben ja nix neues einzubauen.

Gruß

z.B. weil sie beim R300 und den 2.0 Shadern gesehen haben, dass der IHV, der als erster Hardware verfügbar hat, die Optimierungsrichtlinien und die Programmierweise erheblich zu seinen Gunsten beeinflußt.
MIt SM3.0 könnten sie eine ähnliche Erfahrung machen wie NV mit CineFX.

Ich persönlich freue micht nicht, wenn ein Hersteller nur die Speed verbessert, ohne die Features zu steigern. Und besonders nicht, wenn dabei auch noch Einschränkungen der Bildqualität vorgenommen werden.
Ich würde sagen, NV hat es geschafft trotz 3.0 Shadern die Performance der reinen Speekarte R420 zu erreichen. Das war eine gute Leistung.

Gast
2004-06-23, 12:51:06
Original geschrieben von robbitop
die die Leute hören wollen (die Leute die alle kurzfristig denken und das scheint die Masse zu sein)


Dann bin ich das beste Gegenbeispiel. Denn bis auf die Radeon 8500, und die Voodoo1 hat meine HW immer dem aktuellen Stand der Technik hinterhergehinkt. (ok, anfangs noch die 9700pro, aber deren Ende wurde ja mit dem Release der 5800Ultra schon vorzeitig prophezeit.


Ich sehe irgendwie die kosten/Nutzen Relation nicht. Klar ists ne Glaubensfrage, aber es ist halt nunmal nicht so einfach ein Stück HW herzustellen, welches

a) das schnellste ist
b) die neueste Technik hat
c) leise/kühl/kompakt ist
d) günstig ist


Nach etlichen Jahre des Computerspielens (eigentlich schon seit der GF1, ist mir aufgefallen, dass ich am ehesten auf die neueste Technik verzichten kann (sofern die anderen Faktoren stimmen), die mir das Abgehen der selben zu Lebzeiten nie aufgefallen ist.

(Allenfalls bei der Expendable Demo, die auf Matrox G400 Karten einfach am Besten aussah)


Wenn man ohnehin bereit ist, für sein besonderes Stück HW noch zusätzlich Geld für eine leisere Kühlung u.ä. auszugeben, ists auch kein Problem. PCs sind halt für viele Leute ein Hobby. Aber wirtschaftlich gesehen, war man bisher fast immer besser dran, die erste neue Technologiegeneration auszulassen, oder sich gleich die HW zu kaufen, die vielleicht nicht die 100% pefekte BQ liefert, dafür aber 1/2 Jahr lang länger im PC rennt...

Mr. Lolman
2004-06-23, 12:51:56
Kekse :balla:

seahawk
2004-06-23, 12:59:34
Ach, da habe ich eine andere Erfahrung gemacht.

Erst macht Sinn früh auf die neue Technologie zu springen.

- abgesehen von der ersten Power VR (zu Voodozeiten)

- die GeForce 3 hat bis zur 9700pro gehalten und die 9700pro wird einem NV45 weichen.

Mit den Karten konnte ich immer alle Spiele mit ausreichender Qualität bei Nutzung aller Features und genug Speed haben.

DrumDub
2004-06-23, 13:01:55
Original geschrieben von robbitop
Aber was man NV ganz klar zugute halten muss, ist dass sie technologisch trotz schlechter Performance mitgezogen haben beim NV3x.

das war eine desginentscheidung, die lange vor der veröffentlichung des r300 gefallen ist. das hat auch etwas mit der strategie von nv zu tun, die da imho anders ist, als die von ati.

Was meinst du, was ein doppelter NV25 an R & D gespart hätte? Aber schicke Floating Point Shader hätten wir heutzutage dann nicht.

hätte, könnte, wäre... nv wollte technologisch etwas völlig innovatives schaffen (was ihnen auch gelungen ist), ist dabei aber bezüglich der realisierung mit problmemen konfrontiert worden, die es ihnen nicht möglich machten das projekt rechtzeitig fertigzustellen, sodass ati eben mit einer weniger ambitionierten, aber performanteren lösung besser dastand. weil es eben das konkurrenzprodukt gab, wurde der nv30 veröffentlicht. eventuell hätte nv darauf verzichtet, wenn es den r300 nicht gegeben hätte und wäre direkt mit dme nv35 rausgekommen... andererseits hätte nv den nv30 sicher veröffentlicht, wenn der r300 keine konkurrenz gewesen wäre und wie hätte heute nicht so eine schnelle UND ambitionierte gpu wie den nv40. im prinzip muss man ati dafür denken, dass sie nv mit dem r300 in den arsch getreten haben. sonst sähs für uns konsumenten heute sicher nicht so dolle aus... ;)

LovesuckZ
2004-06-23, 13:02:28
Original geschrieben von ironMonkey
Gegnfrage, warum sollte sich den ATI den Arsch aufreissen um bei den features mit NV mithalten zu können wenn man es schafft in ein paar Wochen einen Chip zu entwickeln der fast überall die längern Balken hat und somit ordentlich Geldin die Kassen bringt und man so weiter an seinem nächsten Chip arbeiten kann??????

Was bringt dir Speed, wenn du es nicht in Bildqualitaet eintauschen kann?
Ati's 6AA kann die zur Zeit miserable Filterung nicht ausgleichen. Somit habe ich zwar in 99% aller Spiele 100+ FPS, aber was kann ich damit anfangen? Nichts.
Speed ist eben nicht alles, vorallen, wenn man dann noch eine schlechtere Qualitaet in kauf nehmen muss.

Zumal es keine bankrotterklärung ist sondern eine Demütigung von NV, selbst nach 2 Jahren haben sie es nicht gepackt an ATI ran zu kommen obwohl die extra drauf geachtet haben ja nix neues einzubauen.


Sie sind nicht dran? Aus welchen blickwinkel?
Speed? Dann muss man nur kann man nur die X800XT nehmen. Features? Klar unterlegen.
Bildqualitaet? Einzig 6xAA schimmert noch heraus, da ATi aber keine Lust hat auch Supersampling anzubieten, ist Nvidia's 8xS Modus eine ebenfalls gute Alternative. von der Filterung brauchen wir ja nicht reden.
Leistungsaufnahme? Resultiert aus featurelosigkeit, ist also kein "pro" Argument. Denn der NV40 hat einen ganzen rv350 Core mehr "on Board". Trotzdem ist die Leistungsaufnahme mit 80 Watt (bzw. 90) immer noch zu hoch, um von "sparsam" zu reden.

Ist sehe nicht, wo ATi Nvidia demuetigt. Speedmaeßig sind sie nur beim X800XT Modell besser.

Hauwech
2004-06-23, 13:09:52
Original geschrieben von reunion
Was hab ich von einer Basis die diese Effekt mangels performance dann nicht benutzten kann?

Du siehst es nur aus Spielersicht. Es geht bei der Basis aber um die Verbreitung eines bestimmten Techlevels, Performance ist zweitrangig. Mit DX Next aendert es sich vielleicht ein bisschen: min. 10 fps@ 640x480?.

Paranoia...
Das es heute nicht mehr DX9 Spiele gibt kannst du theoretisch beiden IHVs anlasten. Warum? ATI hat von Anfang an keinen LowCost DX9 Chip rausgebracht. NV hat zwar LowCost DX9 Chips gebracht aber viel zu spaet.

robbitop
2004-06-23, 13:11:50
es geht mir nicht darum, Leute wegen ihrer Kaufentscheidung zu kritisieren. Es geht mir einzig und allein darum, dass die Leute kritischer werden. Ihr seid die Käufer, ihr habt das Geld, was der IHV will, also gebt ihr das an denjenigen, der eure Bedürfnisse am besten befriedigt. Das ist klar und das soll jeder selbst entscheiden. Aber ich finde, dass man trotzdem massiv kritik ausüben sollte.

Es geht schliesslich um unsere Spielezukunft.

DrumDub
2004-06-23, 13:14:26
Original geschrieben von robbitop
es geht mir nicht darum, Leute wegen ihrer Kaufentscheidung zu kritisieren. Es geht mir einzig und allein darum, dass die Leute kritischer werden. Ihr seid die Käufer, ihr habt das Geld, was der IHV will, also gebt ihr das an denjenigen, der eure Bedürfnisse am besten befriedigt. Das ist klar und das soll jeder selbst entscheiden. Aber ich finde, dass man trotzdem massiv kritik ausüben sollte.

Es geht schliesslich um unsere Spielezukunft.

:up: absolut. deshalb sollten wir uns freuen, dass es mometan zwei so starke konkurrenten gibt und jeden trick, die konsumenten bezüglich der performance zu lasten der bq zu täuschen, gnandenlos anprangern.

LovesuckZ
2004-06-23, 13:19:02
Original geschrieben von DrumDub
[...] jeden trick, die konsumenten bezüglich der performance zu lasten der bq zu täuschen, gnandenlos anprangern.

Achja?
Ich sehe es eher so, dass dies doch gerade gefordert wird -> her mit den FPS!

Hakkerstiwwel
2004-06-23, 13:28:17
Original geschrieben von LovesuckZ
1.da ATi aber keine Lust hat auch Supersampling anzubieten, ist Nvidia's 8xS Modus eine ebenfalls gute 2.Alternative. Leistungsaufnahme? Resultiert aus featurelosigkeit, ist also kein "pro" Argument.
zu 1. fuer mich DAS Feature zugunsten nV, wuerde mir allerdings einen reinen 4xRGSSAA Modus wuenschen damit man FSAA auch auf den aktuellen Games anwenden kann welche keine Unterstuetzung fuer MSAA bieten
2.da ich bei allem Spieltrieb Wert auf ein leises System lege IMO DER Vorteil bei Ati. Dass der R420 kein SM3.0 hat, mag fuer einige ein Nachteil sein, da es MIR in der Praxis aber keine bis wenige Vorteile bringt, sehe ICH nicht ein warum ich die dadurch entstehenden Nachteile in Kauf nehmen muss.

zum Speed -> solange bei beiden in den von mir bevorzugten Settings die Spielbarkeit gewaehrleistet ist, geht es mir am A*** vorbei ob die eine hier die andere da 10 FPS mehr bringt

LovesuckZ
2004-06-23, 13:39:47
Original geschrieben von Hakkerstiwwel
2.da ich bei allem Spieltrieb Wert auf ein leises System lege IMO DER Vorteil bei Ati. Dass der R420 kein SM3.0 hat, mag fuer einige ein Nachteil sein, da es MIR in der Praxis aber keine bis wenige Vorteile bringt, sehe ICH nicht ein warum ich die dadurch entstehenden Nachteile in Kauf nehmen muss.


Dies ist zu kurz gedacht. Eine leise Kuehlung kann ich nachruesten bzw. ein Anbieter mit solch einer kaufen. SM3.0 kann man nicht nachruesten.

Hakkerstiwwel
2004-06-23, 13:47:56
Original geschrieben von LovesuckZ
Dies ist zu kurz gedacht. Eine leise Kuehlung kann ich nachruesten bzw. ein Anbieter mit solch einer kaufen. SM3.0 kann man nicht nachruesten.
Nein, es haengt nicht nur an der GrakaKuehlung. Mehr Stromverbrauch fuehrt dazu dass sich das NT mehr erhitzt, und ergo die NT Luefter schneller drehen, zweitens erehoeht sich die GH Temperatur, weswegen diese Luefter heraufgeregelt werden muessen. Ich betrachte das Ganze nicht isoliert, sondern als integralen Bestandteil des Systems.
Da die SM3.0 Effekte genausogut (nur langsamer) ueber SM2.0 simulieren lassen koennen, ist SM3.0 IMO ebenso eher ein "Nice to" als ein "Must Have".

ShadowXX
2004-06-23, 14:07:47
Original geschrieben von Hakkerstiwwel
Nein, es haengt nicht nur an der GrakaKuehlung. Mehr Stromverbrauch fuehrt dazu dass sich das NT mehr erhitzt, und ergo die NT Luefter schneller drehen, zweitens erehoeht sich die GH Temperatur, weswegen diese Luefter heraufgeregelt werden muessen. Ich betrachte das Ganze nicht isoliert, sondern als integralen Bestandteil des Systems.
Da die SM3.0 Effekte genausogut (nur langsamer) ueber SM2.0 simulieren lassen koennen, ist SM3.0 IMO ebenso eher ein "Nice to" als ein "Must Have".

Alles kann man mit dem SM2.0 nicht nachbauen, was das SM3.0 so kann...

Speziell im VS3.0 bereich gibt es Dinge, die man nur Schwer bzw. nur über die CPU emulieren kann...anderes gar nicht (z.B. die Texturpipelines innerhalb des VS3.0).

P.S.
für Berichtigungen bin ich offen (an Demi bzw. aths gerichtet)

ShadowXX
2004-06-23, 14:09:52
Original geschrieben von LovesuckZ
Dies ist zu kurz gedacht. Eine leise Kuehlung kann ich nachruesten bzw. ein Anbieter mit solch einer kaufen. SM3.0 kann man nicht nachruesten.

Was meinst du...wird es sowas wie den VGA-Silencer auch für den nv40 geben???

Wäre nett...und wahrscheinlich sofort gekauft...

(Wenn die dumdöseligen Karten endlich mal eintreffen würden...)

robbitop
2004-06-23, 14:22:10
ja den wird es geben (ist doch bekannt seit der CeBIT).
AFAIK gibt es 3 Modelle pro IHV, die sich lediglich in der Dimensionierung (UPR/Größe des Kühlkörpers) unterscheiden.

Wegen 10W gerechnet auf 200W (ohne Monitor) oder auf 300W (mit Monitor) einen Aufstand zu machen, ist IMO ziemlich seltsam..aber gut. Wer das Eine (Videoprozessor, FP16 TMUs, SM3 ...) haben will, muss das andere eben dulden (delta 10W). Und es wird mit Sicherheit einen Vendor geben, der auch für NV40 eine leise Kühlung hat (MSI/Creative z.B.).

DrumDub
2004-06-23, 14:35:07
Original geschrieben von LovesuckZ
Achja?
Ich sehe es eher so, dass dies doch gerade gefordert wird -> her mit den FPS!

ja, aber man muss ja nicht mit dem strom schwimmen. wenn ich mir computerbase und 3dcenter ansehe, so gibt es ja auch diese adressen, die sich nicht verarschen lassen. borsti von thg tut doch mittlerweile selbiges. insofern betshte imho noch hoffnung...

die sicherheit von autos hat bis in die 1950/60er jahre eigentlich auch keinen käufer interssiert...

Mr. Lolman
2004-06-23, 14:38:19
Original geschrieben von robbitop
Es geht schliesslich um unsere Spielezukunft.

Dann bin ich wohl nur der Durchschnittsspieler, der stellenweise nichteinmal merkt das nur bi-AF an ist. :ratlos:


Mal im Ernst. Die HW Entwicklung geht ohnhin viel zu schnell vonstatten. Wenn da jetzt ein bisschen gebremst würde, würden die Spiele mit der Zeit trotzdem besser aussehen, ohne dass man sich sofort einen neuen PC kaufen muss. (Bei Konsolen funktoiniert das ja auch)


Beispiel Farcry: Alle sind ganz hinundweg von der tollen Grafik, dabei ist diese blendende Optik zum Hauptteil der fähigen Gamedesigner zuzuschreiben. Für die gebotene Technik, läuft die Engine zu langsam. Trotzdem wars ein Quasimeilenstei, der tw. die Leute dazu bewegt hat, ihre HW aufzurüsten.

Man merkts ganz gut bei den Prozessoren, da war ja in letzter Zeit, vom Geschwindigkeitsaspekt betrachtet die Entwicklung 'eher' am hinken. Wärs nicht so, hätte jetzt schon jeder 4Ghz, dann gäbs wahrscheinlich auch schon Spieled ie 4Ghz brauchen würden. Aber würden die echt soviel besser sein (Gamedesign = Zeit = Geld), oder wärs nicht eher so, dass die Entwickler einfach schleissiger proggen könnten, weil die notwendige Basis ohnehin schon vorhanden ist!?

Nur mal so zum Nachdenknen....

Mr. Lolman
2004-06-23, 14:49:04
Original geschrieben von seahawk
Ach, da habe ich eine andere Erfahrung gemacht.

Erst macht Sinn früh auf die neue Technologie zu springen.

- abgesehen von der ersten Power VR (zu Voodozeiten)

- die GeForce 3 hat bis zur 9700pro gehalten und die 9700pro wird einem NV45 weichen.

Mit den Karten konnte ich immer alle Spiele mit ausreichender Qualität bei Nutzung aller Features und genug Speed haben.


Gut, meine GraKa Karriere sah so aus...


4MB Diamond Monster (Voodoo1) (Winter 1996) @P133
16MB CL 3D Blaster Voodoo Banshee (Winter 1998) @P133 -> PII/416
64MB 3dfx Voodoo5 (Winter 2000) @PII/416 -> XP1500+
64MB Radeon 8500 (Frühling 2002) @XP1500+ -> XP2GHz
128MB Radeon 9700pro (Winter 2002) @XP2GHz -> XP2.4GHz


...trotzdem konnte ich die Spiele, schön mit vollsten Details spielen. (z.B. MoHaa @ V5 in 1024, 2xAA)

robbitop
2004-06-23, 14:50:33
dieser Post bewegt mich ganz und gar nicht zum "Nachdenken", aber jedem das Seine.

Ich kann Far Cry mit meiner 1 Jahr alten FX5900 bei 1280 und sogar 4xAF und maximalen Details mit R300_PP Pfad sehr schön flüssig spielen, so what?

Und wer eben nur eine Ti4200/NV31/36 hat, der muss eben in den Details ein paar Einsparungen hinnehmen.
Solche Innovationen wie FC begrüße ich persönlich. Inzwischen läuft es klasse.

Und gespannt bin ich ja mal auf das virtuelle Displacement Mapping in Version 1.2/1.3

Mr. Lolman
2004-06-23, 14:55:15
Original geschrieben von robbitop
dieser Post bewegt mich ganz und gar nicht zum "Nachdenken", aber jedem das Seine.

Ich kann Far Cry mit meiner 1 Jahr alten FX5900 bei 1280 und sogar 4xAF und maximalen Details mit R300_PP Pfad sehr schön flüssig spielen, so what?

Und wer eben nur eine Ti4200/NV31/36 hat, der muss eben in den Details ein paar Einsparungen hinnehmen.
Solche Innovationen wie FC begrüße ich persönlich. Inzwischen läuft es klasse.

Und gespannt bin ich ja mal auf das virtuelle Displacement Mapping in Version 1.2/1.3

Siehst du, meine GraKa ist >1 1/2 Jahre alt, und auf meinem 17" CRT läuft Farcry in 1024 mit 4xAA/AF (und BQ tweaks)

Ich hab letztens eine Probe aufs Exempel gemacht, alles @ Very(Ultra)High Detail, rendermode normal, und ohne Tweaks läuft in 1152 mit 4xAA/AF genauso schnell wie in 1024 und eben Weitsichtweaks und Paradise Rendermode, dabei ist meine Karte um die Hälfte älter als deine, und war damals auch sicher günstiger (360€ - 150€ für die 8500), hat aber nicht diese tollen, damals als unendlich wichtig propagierten Features wie CineFX, usw...

betasilie
2004-06-23, 14:55:59
Original geschrieben von Mr. Lolman
Mal im Ernst. Die HW Entwicklung geht ohnhin viel zu schnell vonstatten. Wenn da jetzt ein bisschen gebremst würde, würden die Spiele mit der Zeit trotzdem besser aussehen, ohne dass man sich sofort einen neuen PC kaufen muss. (Bei Konsolen funktoiniert das ja auch)

Full Ack! ...

betasilie
2004-06-23, 14:57:15
Original geschrieben von robbitop
Und gespannt bin ich ja mal auf das virtuelle Displacement Mapping in Version 1.2/1.3
Hast Du dir mal die Demomap runtergeladen?

http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=148784

ShadowXX
2004-06-23, 15:02:49
Original geschrieben von robbitop
ja den wird es geben (ist doch bekannt seit der CeBIT).
AFAIK gibt es 3 Modelle pro IHV, die sich lediglich in der Dimensionierung (UPR/Größe des Kühlkörpers) unterscheiden.


Upppsss....

Hab ich wohl verschlafen...dachte die wären nur für die nv3X-Chips gewesen...

Das kommt davon, wenn man nicht alles genau liesst und teile nur überfliegt...

robbitop
2004-06-23, 15:08:01
Mal Ehrlich:
die R300 war ein Meilenstein bei den Grafikkarten, wie die GF3 oder die Voodoo.
Klar halten die länger als alle anderen Karten. Eine GF3 reicht heute noch für fast alles aus.
Deine R300 dürfte sogar schneller sein als meine 5900 in Far Cry. Und der R300 hat für das Jahr 2002/03 sein soll an Technologie erfüllt und hat zudem das ganze von der Performance SEHR GUT nutzbar gemacht. Somit: keine Kritik.

Das ist allerdings anders beim R420. Dieser ist im Prinzip immernoch Techlevel 2002. Klar die Performance stimmt und es gibt ZUR ZEIT nichts was er nicht darstellen kann, was die Konkurenz darstellen kann in Spielen.
Aber LOLMAN darum gehts mir doch gar nicht.
Es geht mir darum, dass ein SM3 Support, die Zukunft für UNS positiv beinflusst hätte, so wie es R3xx und NV3x taten.

NV3x finde ich nur in sofern gut damals, dass er SM2 Technologie für die Massen brachte (5600/5200) und natürlich mitzog an der technischen Evolution.
Ob er nun technisch weiter war als R300 ist mir in diesem Moment ziemlich egal, da er in der Praxis nicht wesentlich weiter war und ein paar Dinge wie HDR und MET nicht unterstützt hat.

Nun sind wir bei SM3 und es wäre klasse geworden, hätte ATi mitgezogen.

Nochmal es geht mir nicht darum, was du oder irgendwer sich für Hardware kauft. Sollt ihr machen wie ihr das mögt. Ich finde nur, dass so manchem eine kritische Sichtweise einfach fehlt.

Genaudasselbe bei den Optimierungen: die sind im Prinzip gut. Die 9600 Reihe kann die Optimierungen gut gebrauchen, da man hier nicht Rohleistung im Überfluss hat.
Bei der X800 ist das anders.
Ich begrüße Optimierungen auf jeden Fall, damit für wenig BQ Verlust ein neues Setting spielbar wird. - Das aber sollte nur eine OPTION im Panel sein, so dass jeder selbst auswählen kann, ob er maximale Filterung bekommt oder eben die optimierte Variante. Bevormundung ist das Letzte, ob ein Setting nun sinnvoll oder nicht, steht auf einem anderen Blatt.
Und auch hier fehlt die kritische Sichtweise von vielen.

Warum bauen die IHVs Optimierungen nicht als OPTION ein? Das reicht doch vorerst.

Mr. Lolman
2004-06-23, 15:14:43
DAgegen spricht, das SM3.0 sehr einfach zu implementieren ist, und kaum zusätzlichen Aufwand für den Entwickler stellt. Sollte sich dieses Feature zu Lebzeiten des R420 zum offensichtlichen Goodie etablieren, dann wird es Ati ohnehin zu spüren bekommen. (Ich verkauf' den ATi Dreck, sh1ce BQ, jetzt kommt mir nurmehr NV HW in den Rechner)


Aber ich glaub soweit wirds nicht kommen, da der einzige mir bekannt wirkliche (vielleicht später mal) offensichtliche Vorteil die Möglichkeit des Mipmappings bei Shadern sein soll. (iirc :ratlos: )

/edit: bezüglich der Optimierungen: ACK, genau meine Meinung)

Mmmmmh
2004-06-23, 15:17:05
@robbitop
:laola: :up:

betasilie
2004-06-23, 15:39:47
Original geschrieben von robbitop
Mal Ehrlich:
die R300 war ein Meilenstein bei den Grafikkarten, wie die GF3 oder die Voodoo.
Klar halten die länger als alle anderen Karten. Eine GF3 reicht heute noch für fast alles aus.
Deine R300 dürfte sogar schneller sein als meine 5900 in Far Cry. Und der R300 hat für das Jahr 2002/03 sein soll an Technologie erfüllt und hat zudem das ganze von der Performance SEHR GUT nutzbar gemacht. Somit: keine Kritik.

Das ist allerdings anders beim R420. Dieser ist im Prinzip immernoch Techlevel 2002. Klar die Performance stimmt und es gibt ZUR ZEIT nichts was er nicht darstellen kann, was die Konkurenz darstellen kann in Spielen.
Aber LOLMAN darum gehts mir doch gar nicht.
Es geht mir darum, dass ein SM3 Support, die Zukunft für UNS positiv beinflusst hätte, so wie es R3xx und NV3x taten.

NV3x finde ich nur in sofern gut damals, dass er SM2 Technologie für die Massen brachte (5600/5200) und natürlich mitzog an der technischen Evolution.
Ob er nun technisch weiter war als R300 ist mir in diesem Moment ziemlich egal, da er in der Praxis nicht wesentlich weiter war und ein paar Dinge wie HDR und MET nicht unterstützt hat.

Nun sind wir bei SM3 und es wäre klasse geworden, hätte ATi mitgezogen.

Nochmal es geht mir nicht darum, was du oder irgendwer sich für Hardware kauft. Sollt ihr machen wie ihr das mögt. Ich finde nur, dass so manchem eine kritische Sichtweise einfach fehlt.

Natürlich wäre es besser gewesen, wenn ATI beim SM3.0 mitgezogen hätte, aber imho dramatisierst Du das ganze zu sehr.

Viel wichtiger für die Spieleentwicklung ist, dass ATI und NV im Midrange und Low-Cost Segment echte SM2.0 Hardware anbieten (die FX5200 zähle ich nicht dazu), damit die installierte Basis von SM2.0 Hardware ordentlich wächst. Das ist wichtig für den technologischen Fortschritt in der Spieleindustrie.

aths
2004-06-23, 16:00:02
Original geschrieben von MB@W
Das ist aber schade. :(

Das ist klar. Ist auch so gewünscht, dass sich ein Spiel automatisch auf die Graka einstellt, und automatisch low,medium oder high für bestimmte Effekte einstellt.
Das meine ich aber nicht. Mir geht es darum, dass wenn ich alles auf "Very High" stelle, dann will ich auch "Very High" sehen und nicht nur "High"(Beispiel).

MikBach Ok jetzt habe ich endlich verstanden, was du meintest. Besser ist das, natürlich, wenn gleiche Settings gleiche BQ erzeugen würden. Andererseits ist das nicht immer möglich, wenn ohnehin unterschiedliche Shadersets mitgeliefert werden.

aths
2004-06-23, 16:01:12
Original geschrieben von DrumDub
na, wie auch immer. vs 3.0 ist in dieser hinsicht wohl wesentlich interessanter. Nicht umsonst spricht NV vom "Shader Model 3.0". PS und VS haben bis auf einige Ausnahmen den gleichen Instruktionssatz. Was man mit dem PS und VS jeweils machen kann, wird sich immer ähnlicher.

Original geschrieben von Tjell
NVidia hat aus der Bedrängnis heraus nach vorn preschen müssen, was sie mit dem schnellen NV40 und dem vollständigen DX9-Support auch erreicht haben.Auch NV40 unterstützt nicht alle DirectX9-Features.

Hauwech
2004-06-23, 16:04:21
Original geschrieben von Hakkerstiwwel
Nein, es haengt nicht nur an der GrakaKuehlung. Mehr Stromverbrauch fuehrt dazu dass sich das NT mehr erhitzt, und ergo die NT Luefter schneller drehen, zweitens erehoeht sich die GH Temperatur, weswegen diese Luefter heraufgeregelt werden muessen. Ich betrachte das Ganze nicht isoliert, sondern als integralen Bestandteil des Systems.
Da die SM3.0 Effekte genausogut (nur langsamer) ueber SM2.0 simulieren lassen koennen, ist SM3.0 IMO ebenso eher ein "Nice to" als ein "Must Have".

Als wenn eine GF6 alleine an hoeheren Temps schuld ist. Was ist denn mit den ganzen Ocern? Da muesstest du doch auch voll dagegen sein wenn da mit Voltmods, Spannungserhoehungen und und und gearbeitet wird. Weiter gedacht kann ich auch sagen das bei den heutigen Chipsaetzen eine Soundkarte doch eigentlich auch ueberfluessig ist. Zieht nur Strom und heizt das Gehaeuse auf. Und die 5 bis 6 PCI-Slots? Kosten auch Geld und man braucht sie als Normalanwender eigentlich nicht. Max 2 duerften ausreichen. Das ist ok wenn also schon bei der Herstellung von Komponenten Mehrkosten entstehen und bei einer Graka, welche wesentlich mehr Features bietet als die Konkurrenz, ein hoeherer Stromverbrauch rauskommt?

Wozu ein Case mit mehr als ein 3 1/2 Schacht wo man doch heute Festplatten wahnsinniger Groesse hat? Mehr als ein 5 1/4 Schacht wenn doch ein DVD-Brenner doch vollkommen ausreicht? Grakas mit mehr als 1 Monitor Anschluss? Ich kann doch eh nicht auf 2 Monitore gleichzeitig schauen. Nicht zu vergessen das der 2te Monitor ja auch noch Strom zieht.

Ganz klar, nur die GF6 ist also an hoeheren Temps und mehr Stromverbauch alleine schuld.

aths
2004-06-23, 16:06:15
Original geschrieben von Ailuros
Was SM3.0 generell betrifft ist es IMHO die quasi Vorschwelle fuer SM4.0. Man kann einem Entwickler nie frueh genug neue Features liefern.

Momentan ist der Grund der sich immer wieder wiederholenden Streitereien, dass beide grosse IHVs eine radikal verschiedene Strategie zum Thema SM3.0 haben.

NVIDIA will aus verstaendlichen Gruenden das Interesse auf SM3.0 konzentrieren, wobei im Gegenteil ATI davon so viel wie moeglich ableiten will.

Die Frage waere in dem Fall wohl eher ob SM3.0 auf NV40 wirklich brauchbar ist; so wie es aussieht heisst es wohl eher ja aber unter gewissen Bedingungen. Das Gegenteil kann natuerlich nur eine Alternative Loesung irgendwann mal beweisen und es kann auch NV50 oder was immer auch heissen. Und wenn das zu komisch klingt fuer manche, einfache Frage: ist SM3.0 auf NV40 genauso "straightforward" und einfach zu benutzen fuer den Entwickler als SM2.0 auf R3xx als Gegenbeispiel?

Die wahre Frage ist ob die Technologie die fuer SM3.0 steht generell nutzvoll ist oder nicht. Ein absolutes ja von mir, denn ATI wird auch damit in zukuenftigen Loesungen ueberzeugen wollen. Wenn Euch das Ganze nicht zu einer nuechternen Perspektive als zuvor fuehrt, dann koennt Ihr ruhig weitermachen und Eure Meinung den marketing Aussagen des jeglichen IHVs anpassen.

Wenn es zu Technologie kommt, ist mir persoenlich jeder merkenswerter Fortschritt wertvoll und da ist mir das PR/marketing jedes IHV eigentlich egal. Wegen solchen Postings mag ich unseren Ailuros :knuddel:

DrumDub
2004-06-23, 16:07:51
Original geschrieben von aths
Nicht umsonst spricht NV vom "Shader Model 3.0". PS und VS haben bis auf einige Ausnahmen den gleichen Instruktionssatz. Was man mit dem PS und VS jeweils machen kann, wird sich immer ähnlicher.

deshalb auch die zukunft bei ppps? nun gut. aber logisch werden immer eben noch ps und vs-einheiten angesprochen, oder nicht? auf der anderen seite hieß es ja auch schon sm 2.0.

aths
2004-06-23, 16:09:08
Original geschrieben von reunion
Seh ich nicht so. Der Hauptgrund warum es heute Spiele wie FarCry gibt ist die R300 Serie. Für die FX-Serie, besonders für die FX5200 und FX5600 musste man ja desöfteren DX9 Effekte weglassen. Würden diese Karten schneller sein mit der berechnung von DX9 Effekten hätten wir heute vermutlich schon mehr Spiele mit SM2.0 support.Ja. Andererseits kann man für das Geld nicht unbedingt sowohl die Features, als auch die Power erwarten.

Original geschrieben von reunion
Das ist die Taktik von NV, ATI implementiert ein Feature nur wenn es auch schnell genug ist und in der Praxis verwendet werden kann. Im groben stimmt das. (Obwohl die 9200 LE oder 9600 SE jeweils nicht sonderlich gut für DX8 bzw. DX9 geeignet sind.) Allerdings ist beim NV40 jetzt auch CineFX sehr schnell, und was vergleichbares gibt's von ATI derzeit nicht.


Original geschrieben von reunion
Und woran glaubst du liegt das? Dazu müsste ich das erst mal auf meiner FX 5900 XT untersuchen. Vermutlich wäre die Karte mit vollen PS-Effekten überfordert.

aths
2004-06-23, 16:15:55
Original geschrieben von robbitop
du hasts erfasst Seahawk :up:

EDIT:

@DrumDub
hm das schon, aber im gleichen Zuge erwähnt Dave auch dass ATi die Performance wichtiger war und betreibt somit (IMO) eine falsche Propaganda Wieso falsch? Die Performance ist sehr wichtig – zu ATIs Nachteil liegt NV performancemäßig nicht mehr zurück. Beim NV50 reden wir noch mal über die SM 3.0-Performance. 3.0-Features sind beim NV40 größtenteils Zuckerguss. Dafür hat er andere dedizierte Einheiten, um "Zukunfts-Techniken" zu beschleunigen. Mit oder ohne 3.0-Support in Zukunft, der NV40 ist für zukünftige Games ohne Frage deutlich besser als R420. Die Frage für den Käufer ist höchstens, wann diese Games kommen, und ob es dann von ATI nicht auch längst entsprechende (im Forschritt natürlich noch bessere) Hardware gibt.

aths
2004-06-23, 16:17:27
Original geschrieben von ironMonkey
Zumal es keine bankrotterklärung ist sondern eine Demütigung von NV, selbst nach 2 Jahren haben sie es nicht gepackt an ATI ran zu kommen obwohl die extra drauf geachtet haben ja nix neues einzubauen.So wie ich das sehe, gibt es performancemäßig etwa Gleichstand.

Original geschrieben von robbitop
Was meinst du, was ein doppelter NV25 an R & D gespart hätte? Aber schicke Floating Point Shader hätten wir heutzutage dann nicht. Doch – die FP24-Units im R300 :)

Tjell
2004-06-23, 16:19:07
Original geschrieben von aths
Auch NV40 unterstützt nicht alle DirectX9-Features.

Wuss? :???:

deekey777
2004-06-23, 16:21:18
Original geschrieben von Ailuros
Was SM3.0 generell betrifft ist es IMHO die quasi Vorschwelle fuer SM4.0. Man kann einem Entwickler nie frueh genug neue Features liefern.

Momentan ist der Grund der sich immer wieder wiederholenden Streitereien, dass beide grosse IHVs eine radikal verschiedene Strategie zum Thema SM3.0 haben.

NVIDIA will aus verstaendlichen Gruenden das Interesse auf SM3.0 konzentrieren, wobei im Gegenteil ATI davon so viel wie moeglich ableiten will.

Die Frage waere in dem Fall wohl eher ob SM3.0 auf NV40 wirklich brauchbar ist; so wie es aussieht heisst es wohl eher ja aber unter gewissen Bedingungen. Das Gegenteil kann natuerlich nur eine Alternative Loesung irgendwann mal beweisen und es kann auch NV50 oder was immer auch heissen. Und wenn das zu komisch klingt fuer manche, einfache Frage: ist SM3.0 auf NV40 genauso "straightforward" und einfach zu benutzen fuer den Entwickler als SM2.0 auf R3xx als Gegenbeispiel?

Die wahre Frage ist ob die Technologie die fuer SM3.0 steht generell nutzvoll ist oder nicht. Ein absolutes ja von mir, denn ATI wird auch damit in zukuenftigen Loesungen ueberzeugen wollen. Wenn Euch das Ganze nicht zu einer nuechternen Perspektive als zuvor fuehrt, dann koennt Ihr ruhig weitermachen und Eure Meinung den marketing Aussagen des jeglichen IHVs anpassen.

...

Sorry fürs Abkürzen.
:love1:

Aber: :up: und SM 3.0 ist'ne tolle Sache.

PS:
In der vergangenen Nacht hatte ich eine Vision, dass dieser Thread geschlossen wurde...

aths
2004-06-23, 16:21:32
Original geschrieben von DrumDub
wenn der r300 keine konkurrenz gewesen wäre und wie hätte heute nicht so eine schnelle UND ambitionierte gpu wie den nv40. im prinzip muss man ati dafür denken, dass sie nv mit dem r300 in den arsch getreten haben. sonst sähs für uns konsumenten heute sicher nicht so dolle aus... ;)Japp. ATI hat mit dem R300 NV aus der Faulheit gerissen. NV40 ist für mich ein Zeichen, dass NV endlich realisiert hat, dass auch in Kanada Grafikchips entwickelt werden, die sich sehen lassen können.

aths
2004-06-23, 16:27:20
Original geschrieben von robbitop
Ob er nun technisch weiter war als R300 ist mir in diesem Moment ziemlich egal, da er in der Praxis nicht wesentlich weiter war und ein paar Dinge wie HDR und MET nicht unterstützt hat.Seit wann unterstützt die 5200 // 5600 kein HDR?

Original geschrieben von robbitop
Nun sind wir bei SM3 und es wäre klasse geworden, hätte ATi mitgezogen.Klasse wäre auch, hätte NV beim 1.4-er mitgezogen. Oder den DXT1-Bug gefixt, der von NV10 - NV28 zu sehen war (NV25 und NV28 hatten ja diese Verschlimmbesserung drin.)

robbitop
2004-06-23, 16:29:39
natürlich nutze ich das mittel der Hyperbel, um es verständlicher rüberzubringen.
SM3 ist in der Tat leichter zu realisieren. Ich verstehe nicht, wie man technischen Stillstand dulden kann.

@aths
falsch nicht in dem Sinne, dass ich finde dass performance unwichtig sei. Ich finde Performance sogar sehr wichtig. Aber nicht wenn die Technologie auf der Strecke bleibt.
Performance um jeden Preis (also auf Kosten der Tech) finde ich ist eine falsche Propaganda.

Natürlich ist die SM2 Performance der R300 Architektur ebenfalls verantwortlich für Far Cry. Ich denke das ist eine Zusammensetzung aus allem.

Ich weiss, dass R300 FP24 FPUs besitzt, aber es geht mir um die breite SM2 Basis

zu SM1.4:
ack
Aber SM1.4 kannst du kaum mit SM3 vergleichen, eben wegen der Implementierung.
SM1.4 kam einfach zu schnell auf 1.1 Du kannst nicht verlangen dass man jedes Jahr ein frisches Design bringt, aber alle 2 Jahre schon.


zu HDR/MET
zeig mir auf einer FX, dass HDR/MET funktioniert mit aktuellem Treiber.
Für mich funktioniert das so lange nicht, bis es supportet wird. Was nutzt uns die theoretische Unterstützung?

aths
2004-06-23, 16:31:11
Original geschrieben von betareverse
Viel wichtiger für die Spieleentwicklung ist, dass ATI und NV im Midrange und Low-Cost Segment echte SM2.0 Hardware anbieten (die FX5200 zähle ich nicht dazu), damit die installierte Basis von SM2.0 Hardware ordentlich wächst. Das ist wichtig für den technologischen Fortschritt in der Spieleindustrie. Hrnja und nein. Mit der 9600 gibt's seit längerem eine Grafikkarte, die für DirectX9-Spiele reicht und sich jeder ehrliche Gamer leisten konnte/kann. (Die Graka kostete so viel wie 3-4 aktuelle Titel.) Von NV gibts vielleicht die 5700, die zu spät kam und zu teuer war.

Mit CineFX ist man effizienter als mit SM 2.0, sofern man so viele Instruktionen / Sekunde ausführen kann, wie die 2.0-Vergleichshardware. Da 3.0 CineFX inkludiert, sehe ich nichts was dagegen spricht, dass eine Karte mit 4 Pipes auch volle 3.0-Compliance hat. 2.0-Support sollte eher technisches Mindestniveau sein.

aths
2004-06-23, 16:33:06
Original geschrieben von DrumDub
deshalb auch die zukunft bei ppps? nun gut. aber logisch werden immer eben noch ps und vs-einheiten angesprochen, oder nicht?Ja. Physikalisch im Moment auch. Vermutlich wird auch SM 4.0 noch hardwaremäßige "echte" VS und PS zulassen.
Original geschrieben von DrumDub
auf der anderen seite hieß es ja auch schon sm 2.0. Den Begriff "Shader Model <insert Version>" sah ich zum ersten mal im Zusammenhang mit 3.0.

aths
2004-06-23, 16:40:00
Original geschrieben von robbitop
natürlich nutze ich das mittel der Hyperbel, um es verständlicher rüberzubringen.
SM3 ist in der Tat leichter zu realisieren. Ich verstehe nicht, wie man technischen Stillstand dulden kann. Man muss auf der anderen Seite nicht auf jeden Zug sofort aufspringen. Was mich privat beim R420 mehr nervt als der 2.0-Support, ist die Texturfilterqualität.

Original geschrieben von robbitop
@aths
falsch nicht in dem Sinne, dass ich finde dass performance unwichtig sei. Ich finde Performance sogar sehr wichtig. Aber nicht wenn die Technologie auf der Strecke bleibt.
Performance um jeden Preis (also auf Kosten der Tech) finde ich ist eine falsche Propaganda.Die FX 5200 ist das Gegenstück – Features um jeden Preis. Volle CineFX-Funktion in einer GPU mit 45 Mio Transistoren :freak: das begrenzt den Nutzen auf Spezialfälle.

Original geschrieben von robbitop
Ich weiss, dass R300 FP24 FPUs besitzt, aber es geht mir um die breite SM2 BasisBei der 5200 und 5600 heißt das natürlich, dass vieles via DX8-Shader gemacht wird: Die Effekte sind noch gut genug, und die Performance stimmt auch einigermaßen. Leider gab es nie eine Art GF3 MX. Das hat NV mit der FX-Familie endlich nachgeholt.

Original geschrieben von robbitop
zu HDR/MET
zeig mir auf einer FX, dass HDR/MET funktioniert mit aktuellem Treiber.
Für mich funktioniert das so lange nicht, bis es supportet wird. Was nutzt uns die theoretische Unterstützung? Wieso wirfst du HDR und MET in einen Topf?

Ein Gast
2004-06-23, 16:41:41
6800GT vs. x800
http://www.trustedreviews.com/article.aspx?head=15&page=1135

robbitop
2004-06-23, 16:51:21
@aths
MET wird von NV genutzt um HDR nachzubilden??

Du siehst das aus Nutzersicht völlig richtig aths, aber die Publisher sehen sich die Zahlen an, wieviel SM2 Karten verkauft worden sind und entscheiden dann.
Privat nervt mich an der R420 nur, dass sie keine SSAA Hybriden hat und die Filterung (wie auch beim NV40).
Aber als Nutzer, der ein wenig in die Zukunft sieht, stört mich schon, dass ATi seit 2 Jahren prinzipiell nichts gemacht hat.

zeckensack
2004-06-23, 16:59:52
Original geschrieben von robbitop
@aths
MET wird von NV genutzt um HDR nachzubilden??Das ist nicht NV's Entscheidung. Die Applikation entscheidet ob und wie "HDR" implementiert wird. NV kann nur Features anbieten oder eben nicht.

aths
2004-06-23, 17:03:44
Original geschrieben von robbitop
@aths
MET wird von NV genutzt um HDR nachzubilden??Meinen wir mit HDR High Dynamic Rendering?

Original geschrieben von robbitop
Aber als Nutzer, der ein wenig in die Zukunft sieht, stört mich schon, dass ATi seit 2 Jahren prinzipiell nichts gemacht hat. Das stört mich nicht als Nutzer, da es Alternativen gibt; eher stört das als kritischer Schreiberling.

robbitop
2004-06-23, 17:07:23
@zecki

danke für die Ergänzung.
Ich denke meine Antwort ist Rechfertigung genug für das "in einen Topf schmeissen"

@aths
als Käufer stört es mich nicht.
als Redakteur, tja da tut man seine Meinung kund.
aber als Nutzer schon, denn ich bin Spieler, wie viele andere auch und es geht IMO schon darum, wie die spiele der nahen Zukunft aussehen werden

betasilie
2004-06-23, 17:26:43
Original geschrieben von aths
Hrnja und nein. Mit der 9600 gibt's seit längerem eine Grafikkarte, die für DirectX9-Spiele reicht und sich jeder ehrliche Gamer leisten konnte/kann. (Die Graka kostete so viel wie 3-4 aktuelle Titel.) Von NV gibts vielleicht die 5700, die zu spät kam und zu teuer war.

Mit CineFX ist man effizienter als mit SM 2.0, sofern man so viele Instruktionen / Sekunde ausführen kann, wie die 2.0-Vergleichshardware. Da 3.0 CineFX inkludiert, sehe ich nichts was dagegen spricht, dass eine Karte mit 4 Pipes auch volle 3.0-Compliance hat. 2.0-Support sollte eher technisches Mindestniveau sein.
Keine Frage. Ich meinte auch mindestens SM2.0. Wenn NV echte SM3.0 Hardware in Midrange und gff. Lowcost bingt, wäre das natürlich toll.

Aber lieber eine performante SM2.0 Hardware, als eine grottenlangsame SM3.0 Hardware, von der niemand was hat, außer der Karton im Regal.

Gast
2004-06-23, 17:33:44
Original geschrieben von robbitop
Mal Ehrlich:
die R300 war ein Meilenstein bei den Grafikkarten, wie die GF3 oder die Voodoo.

:???:
Du bist ja so vom SM3.0 angetan, aber die GF3 ist für dich ein Meilenstein, obwohl der damalige Konkurrent R200 shadertechnisch überlegen war? :???:
Irgendwie kann ich dir nicht folgen.

SKYNET
2004-06-23, 17:36:21
Original geschrieben von ShadowXX
Was meinst du...wird es sowas wie den VGA-Silencer auch für den nv40 geben???

Wäre nett...und wahrscheinlich sofort gekauft...

(Wenn die dumdöseligen Karten endlich mal eintreffen würden...)

gibt es schon von zalman

robbitop
2004-06-23, 17:48:41
@gast
bei der Betrachtung ging es um die Performance, da Lolman meinte seine Karte hällt seit 1,5Jahren.
Und die GF3 war zu ihrer Zeit die technisch weiteste Karte.
Als die 8500 kam, war die GF4 ihr konkurent (die 2 Monate mit der GF3 Ti200/500 zähle ich jetzt mal nicht dazu).

Ich bin nicht von SM3 angetan, sondern finde lediglich, dass man alle 2 Jahre technologisch erweitern sollte.

MarcWessels
2004-06-23, 17:52:14
Original geschrieben von LovesuckZ
Ist sehe nicht, wo ATi Nvidia demuetigt. Speedmaeßig sind sie nur beim X800XT Modell besser.

Was aber seit dem neuen nVidia-Treiber aber auch nicht mehr zuzutreffen scheint (Anandtech-Review).

MarcWessels
2004-06-23, 17:55:43
Original geschrieben von robbitop
Ich kann Far Cry mit meiner 1 Jahr alten FX5900 bei 1280 und sogar 4xAF und maximalen Details mit R300_PP Pfad sehr schön flüssig spielen, so what?

Flüssig??

robbitop
2004-06-23, 18:01:31
@Marc
flüssig =! Smooth

alles Weitere liesst du hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=150369&goto=newpost) ..zu sehr OT ;)

Mr. Lolman
2004-06-23, 18:10:40
Original geschrieben von MarcWessels
Was aber seit dem neuen nVidia-Treiber aber auch nicht mehr zuzutreffen scheint (Anandtech-Review).

Fixier dich nicht drauf. Tombman hat in Ut2004 Stellen gefunden, die auf der x880xt fast doppelt so schnell sind, wie auf ner 6800 Ultra...

robbitop
2004-06-23, 18:15:41
darauf würde ich mich auch nicht verlassen, bei Far Cry hat er auch keine brauchbaren Werte geliefert (siehe Quasars Gegenmessung).

Mr. Lolman
2004-06-23, 18:27:56
Original geschrieben von robbitop
darauf würde ich mich auch nicht verlassen, bei Far Cry hat er auch keine brauchbaren Werte geliefert (siehe Quasars Gegenmessung).

Hm, muss mir entgangen sein, wo war das?

MikBach
2004-06-23, 18:39:40
Original geschrieben von robbitop
@gast
bei der Betrachtung ging es um die Performance, da Lolman meinte seine Karte hällt seit 1,5Jahren.
Und die GF3 war zu ihrer Zeit die technisch weiteste Karte.
Als die 8500 kam, war die GF4 ihr konkurent (die 2 Monate mit der GF3 Ti200/500 zähle ich jetzt mal nicht dazu).

Ich bin nicht von SM3 angetan, sondern finde lediglich, dass man alle 2 Jahre technologisch erweitern sollte.

Der Gast war ich. :D

Die GF4TI war dem R200 shadertechnisch auch unterlegen, und?
Hat keinen gestört, sieht man ja am Erfolg der GF4TI. Verstehst du jetzt was ich meine?
Technologie schön und gut, aber die meisten gucken ja eh nur auf FPS. ;)
Noch ein Beispiel:
Die FX, eine super Karte mit toller Technik, und?
In vielen neuen Spielen, wo viele/komplizierte/fullscreen Shader vorkommen, sind die vergleichbaren ATIs einfach schneller bei gleicher oder besserer BQ. Und, wo bleibt die tolle Technik.
Zu den 2 Jahren:
man solte technologisch erweitern wenn es nötig/sinnvoll ist. Und diese Entscheidung muss man den IHVs überlassen. ATI ist halt mal derbe auf die Schnauze gefallen mit der Technologieführung(welche nichts gebracht hat in der Praxis), und jetzt sind sie vielleicht nicht mehr so optimistisch, wenn es um neue Technologie geht, vor allem wenn man wusste, dass die Performance eh nicht das Wahre gewesen wäre(was wir beim NV40 noch abwarten müssen).

Blaire
2004-06-23, 19:25:56
Original geschrieben von Mr. Lolman
Fixier dich nicht drauf. Tombman hat in Ut2004 Stellen gefunden, die auf der x880xt fast doppelt so schnell sind, wie auf ner 6800 Ultra...

Das würde mich nicht wirklich wundern. Die Texturen wirken auf der Geforce6800U gegenüber meiner alten Radeon9800Pro deutlich schärfer. Ob es bei der ATi so gewollt ist, um Benchmarks zu gewinnen weiss ich nicht.

MfG

q@e
2004-06-23, 19:29:29
Original geschrieben von robbitop

Aber als Nutzer, der ein wenig in die Zukunft sieht, stört mich schon, dass ATi seit 2 Jahren prinzipiell nichts gemacht hat.

Wieso?
Sie haben genau das gemacht, was die "Community" verlangte: Speed, Speed und nochmal Speed. Nebenbei wurden ein paar kleinere Bugs in der Hardware gefixt und die Treiber auf ein sehr ordentliches Niveau gebracht.

Die X800XT PE ist die Karte, die die längsten Benchmark-Balken liefert - echte leistungsfähigkeit interessiert schlicht keinen mehr.

betasilie
2004-06-23, 19:30:52
Original geschrieben von q@e
Die X800XT PE ist die Karte, die die längsten Benchmark-Balken liefert - echte leistungsfähigkeit interessiert schlicht keinen mehr.
Wie definierst Du echte Leistungsfähigkeit?

Gast
2004-06-23, 19:32:03
Original geschrieben von aths
Wieso falsch? Die Performance ist sehr wichtig – zu ATIs Nachteil liegt NV performancemäßig nicht mehr zurück. Beim NV50 reden wir noch mal über die SM 3.0-Performance. 3.0-Features sind beim NV40 größtenteils Zuckerguss. Dafür hat er andere dedizierte Einheiten, um "Zukunfts-Techniken" zu beschleunigen. Mit oder ohne 3.0-Support in Zukunft, der NV40 ist für zukünftige Games ohne Frage deutlich besser als R420. Die Frage für den Käufer ist höchstens, wann diese Games kommen, und ob es dann von ATI nicht auch längst entsprechende (im Forschritt natürlich noch bessere) Hardware gibt.

das stimmt aber das kann ihm eigentlich egal sein, da aus der derzeitigen Sicht NV einfach nicht mehr zurückliegt in der Performance.
Somit bekommst beim NV40 einfach mehr fürs Geld. Da kann dir dann ja auch wurscht sein wie sich das Ganze beim R500 vs NV50 ausgeht.

Ranz0r
2004-06-23, 19:32:52
Original geschrieben von Blaire
Das würde mich nicht wirklich wundern. Die Texturen wirken auf der Geforce6800U gegenüber meiner alten Radeon9800Pro deutlich schärfer. Ob es so gewollt ist um Benchmarks zu gewinnen weiss ich nicht.

MfG


Öhm der Quote passt aber gar nich? Der Quote sagt das Ut2k4 an einigen Stellen doppelt so schnel list und du sagst das dich das nich wudnern würd weil die Texturen schärfer bei der 6800U sind um längere Benchbalken zu haben ?!

Konfus ;)

Gast
2004-06-23, 19:35:07
Original geschrieben von Gast
:???:
Du bist ja so vom SM3.0 angetan, aber die GF3 ist für dich ein Meilenstein, obwohl der damalige Konkurrent R200 shadertechnisch überlegen war? :???:
Irgendwie kann ich dir nicht folgen.

Der damalige Konkurent zur GF3 war noch die alte Radeon.
Die 8500 kam über ein halbes Jahr später. Das hat mit direktem Konkurenten nix mehr zu tun.
Sie war allenfalls Konkurent zur GF3Ti500 und dann kurz danach zur GF4Ti.

LovesuckZ
2004-06-23, 20:04:30
Original geschrieben von MikBach
Die GF4TI war dem R200 shadertechnisch auch unterlegen, und?

Der Vergleich hinkt, da der r200 kein SM2.0 bot.
Denn aus der selben Sicht unterliegt der r4xx auch den NV3x Karten.

Zu den 2 Jahren:
man solte technologisch erweitern wenn es nötig/sinnvoll ist.

Also garnicht.
Als der r3xx kam, gab es nichtmal Techdemos. Also haette dieser auch kein SM2.0 benoetigt. Und das würde bedeuten, dass wir heute keine Grafikpracht wie in farcry haetten.
Und warum sollte naechtes Jahr SM3.0 wichtig seien, wenn es heute keine Hardware gaebe und dementsprechend keine Spiele? Garnicht. Also warum es anbieten?

robbitop
2004-06-23, 20:10:01
@Mikbach
damals hatte man mit der GF3 schon ein technologisch hoch modernes Design geschaffen, SM1.4 kam 1 Jahr später, es kann niemand erwarten dass man jedes Jahr und mit jedem Refresh die Pipeline neu konstruiert, aber nach 2 Jahren darf man das erwarten.

Und nochmal: es geht mir nicht darum was ihr euch für HW kauft, sondern nur, dass ihr etwas kritischer werdet.
That's all ;)