PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI x700 benchmarks


Seiten : 1 [2]

Gast
2004-09-23, 11:59:17
aufjedenfall wird nv in nennenswerten stückzahlen noch vor ati liefern, wenn dus nicht glaubst ist mir das auch egal... die zukunft wird mir rechtgeben... auch wenn ich mich jetzt weit ausm fenster lehn, den wer kann schon sagen was die zukunft bringt.



Wenn man seine Aussage in dem gleichen Satz wieder vollständig relativiert, dann braucht man auch keine Beiträge posten :D

Gaestle
2004-09-23, 12:20:48
Wenn man seine Aussage in dem gleichen Satz wieder vollständig relativiert, dann braucht man auch keine Beiträge posten :D

Und wenn man seinen Diskussionspartner nicht verstehen WILL, kann man auch den Rand halten,
@holunderman
und man muss nicht jeden rechschraipunksfählor ankreiden.

Zur Verfügbarkeit:
http://www.tweakpc.de/?news_id=6647
Man beachte die letzte Zeile.

Grüße

Labberlippe
2004-09-23, 12:43:31
Shaderreplacment ist keine universiellen Filterungsaenderung.
Weißt du, wo Nvidia optimiert? W sie die Shader ersetzen oder effizienteres Cachemapping betreiben?
Fakt ist, dass ATi nun in jedem Topspiel die Shader einfach ersetzen kann und dies fuehrt dazu, dass Nvidia nachzieht. Schoene neue Welt, nicht?
Es tut mir leid, aber cheaten so zu legalisieren, ist fuer mich laecherlich.

/edit: Schonmal daran gedacht, dass jedes neue Patch das ergebnis des Spiels vollkommen umdrehen kann?


Hi

Schon daran gedacht, das man a.i. deaktivieren kann.

Ich hatte auch keine Probs damit das nv die Shader bei Doom3 austauscht.
Somit habe ich es auch nicht bei ATi.
Solange ich das ganze disablen kann ist alles in Butter.

Unter uns gesagt, ich frage mich noch imemr wo Doom3 soviel Leistung verbrät.
Schatten und Licht alles schön und gut, aber die Texturen sind hässlich und erinnern mich an N64 Zeiten.

Gruss Labberlippe

Holundermann
2004-09-23, 12:50:01
sry, ich wollt mich nicht über nen rechtschreibfehler aufbauen, ich hab homäopatisch nur noch nie in zusammenhang mit liefermengen gesehn, deswegen hab ichs nicht verstanden... ich hab das wort hinter homopatisch nicht gesehn...

dieser kleine seitenhieb sei mir verziehn :)

arcanum
2004-09-23, 13:12:40
Gib mir den Händler an, bei dem ich heute, den 23.09.2004 eine 6600GT kaufen kann, und zwar für unglaublich günstige 208 Euro.

es geht darum, in welchem preissegment die jeweilige karte positioniert wird und nicht um die verfügbarkeit, über die wir bei ati gar nicht zu sprechen brauchen:

es wurde mehrfach behauptet dass die 6600gt ~250€ kosten wird - eine behauptung die schlichtweg falsch ist. es gibt nicht den geringsten anhaltspunkt dafür, ausserdem würde sich nvidia mit der ähnlich teuren 6800 im weg stehen wie ich es bereits oben erwähnt habe.

die zweite frage die aufgeworfen wurde ist, ob ati die x700xt tatsächlich im gleichen preissegment wie die 6600gt positionieren wird.

da es mir langsam zu blöd wird mich dauernd zu wiederholen, klinke ich mich vorerst mal aus. ich weiss nicht ob einige hier nicht verstehen wollen oder können. aber dem gast rate ich sich den thread nochmal durchzulesen.


edit:
Solltest du die Diskussion nicht befolgt haben, geht es um die schwachsinnige Behauptung, ich könnte jetzt eine 6600GT kaufen, nur weil bei geizhals irgendjemand ankündigt, sie überhaupt verkaufen zu wollen.

auch wenn du die diskussion verfolgst scheinst du von dem was hier geschrieben wurde leider kein einziges wort zu verstehen. es ging um geizhals als referenz für preise und nicht um die verfügbarkeit.

edit:
es heisst homöopathie -> homöopathisch

Gaestle
2004-09-23, 13:25:37
sry, ich wollt mich nicht über nen rechtschreibfehler aufbauen, ich hab homäopatisch nur noch nie in zusammenhang mit liefermengen gesehn, deswegen hab ichs nicht verstanden... ich hab das wort hinter homopatisch nicht gesehn...

dieser kleine seitenhieb sei mir verziehn :)

*räusper*

ähem...

naja...

also...

es heißt
"homöopathisch"

und um jetzt richtig den Bildungshanswurst raushängen zu lassen:
es kommt von "Homöopathie" , dazu hier: http://www.wissen.de/xt/default.do?MENUID=40,156,538&MENUNAME=InfoContainer&OCCURRENCEID=WD001GW00043827.WD001GW00043827.TM01-FullContent&WissenID=QVKw19FTAdoTM3KVncc7Q51Gn0ixwFvIvrr3JwZL8Oj33mHiS0xd|861252012211368566 0/182718474/6/7062/7062/7003/7003/7062/-1|7813835963933065531/182718477/6/7062/7062/7003/7003/7062/-1|1095938263662

Nicht böse sein, aber ein kleiner aths steckt doch in uns allen... :kicher: (wo ist das aths smiley?)

Grüße

Gast
2004-09-23, 13:32:10
es geht darum, in welchem preissegment die jeweilige karte positioniert wird und nicht um die verfügbarkeit, über die wir bei ati gar nicht zu sprechen brauchen:

es wurde mehrfach behauptet dass die 6600gt ~250€ kosten wird - eine behauptung die schlichtweg falsch ist. es gibt nicht den geringsten anhaltspunkt dafür, ausserdem würde sich nvidia mit der ähnlich teuren 6800 im weg stehen wie ich es bereits oben erwähnt habe.



wo steht denn was die 6600 gt kosten wird ? Nirgends. Alles nur gerüchte.

Genauso bei der X700 ( wobei wohl die 256er pro und 128er xt gleich viel kosten werden )

aths
2004-09-23, 14:07:32
wo steht denn was die 6600 gt kosten wird ? Nirgends. Alles nur gerüchte.

Genauso bei der X700 ( wobei wohl die 256er pro und 128er xt gleich viel kosten werden )Und wo steht das?

Black-Scorpion
2004-09-23, 14:13:21
Und wo steht das?
Es ist immer schlecht seine eigenen Artikel nicht zu kennen. ;)
Da steht es so in der Tabelle, zumindest die $ Preise.

Holundermann
2004-09-23, 14:20:15
na, danke gaestle, wieder was gelernt :) ich hab aber extra gegooglt mit dem wort, nachdem ich soviele treffer hatte dacht ich mir es passt so, muss ich wohl doch den duden in meine favoritenleiste legen :)

Mumins
2004-09-23, 14:51:45
es wurde mehrfach behauptet dass die 6600gt ~250€ kosten wird - eine behauptung die schlichtweg falsch ist. es gibt nicht den geringsten anhaltspunkt dafür, ausserdem würde sich nvidia mit der ähnlich teuren 6800 im weg stehen wie ich es bereits oben erwähnt habe.
Die PCI-E Version von Gainward ist auf Geizhals gelistet zu Preisen von 240€ für die 6600GT und 265€ für die golden Sample. Das können sie auch verlangen, da es nichts gleichwertiges auf PCI-E gibt. Die AGP Version von Leadtek ist ab 209€ gelistet. Das mag noch nichts heissen, aber i.d.R. ist es so, dass sich diese Preise von Geizhals ungefähr bestätigen.

arcanum
2004-09-23, 16:00:41
Die PCI-E Version von Gainward ist auf Geizhals gelistet zu Preisen von 240€ für die 6600GT und 265€ für die golden Sample. Das können sie auch verlangen, da es nichts gleichwertiges auf PCI-E gibt. Die AGP Version von Leadtek ist ab 209€ gelistet. Das mag noch nichts heissen, aber i.d.R. ist es so, dass sich diese Preise von Geizhals ungefähr bestätigen.

gainward war schon immer ein paar € teurer als andere hersteller und bei der leadtek handelt es sich um die pci-e version.

Gaestle
2004-09-23, 16:31:12
na, danke gaestle, wieder was gelernt :) ich hab aber extra gegooglt mit dem wort, nachdem ich soviele treffer hatte dacht ich mir es passt so, muss ich wohl doch den duden in meine favoritenleiste legen :)

Ein letztes mal OT von mir hier:
ich empfehle eher wissen.de

ansonsten hier der duden link (genaues Linken geht irgendwie nicht, du musst dann auf "Duden-Suche" klicken: http://www.duden.bifab.de/index2.html?duden-suche/duden-suche.html

Grüße

LovesuckZ
2004-09-23, 17:24:21
Hi
Schon daran gedacht, das man a.i. deaktivieren kann.

Das macht Shaderreplacement gleich legal?
Ueberspritzt ausgedreuckt weurde das bedeuten, ich koennte jemanden ausrauben, stelle mich dann und darf das erbeute Gut behalten...

Ich hatte auch keine Probs damit das nv die Shader bei Doom3 austauscht.
Somit habe ich es auch nicht bei ATi.
Solange ich das ganze disablen kann ist alles in Butter.


A.I. wird dafuer benutzt, dass ATi ihre Cheatspielchen bezueglich der Shader ganz offiziell durchziehen koennen.
Das waere genauso, als wenn ATi/Nvidia ihre Filter im Defaultzustand schlechter machen und dann argumentieren, dass dies nicht schlimm waere, weil man die Tricks ja ausstellen koennte (hm, eigentlich macht es Nvidia wahrscheinlich mit dem naechsten offiziellen treiber ja...).
Beides ist aber einfach laecherlich.

Sackgesicht
2004-09-23, 17:56:17
@ ls
fuer dich noch mal zum mitschreiben :
beide IHVs betreiben Shaderreplacements und Filteroptimierungen, die man bei beiden auf unterschiedliche Weise abstellen kann. Im Prinzip ist es nichts schlechtes, solange man es deaktivieren kann, der Grossteil der User wird dies allerdings nicht tun und sich daran erfreuen dass er evtl eine FSAA oder AF Stufe hoeher einstellen kann.
Sowohl die nV4x als auch R(V)4x Reihe sind gute Produkte, und bei gleicher Verfuegbarkeit werden die meisten Aufruester die eine nV im System haben zu einem nV greifen, wie auf der anderen Seite die Ati User wieder zu einer Ati greifen werden.

LovesuckZ
2004-09-23, 19:40:10
Im Prinzip ist es nichts schlechtes, solange man es deaktivieren kann, der Grossteil der User wird dies allerdings nicht tun und sich daran erfreuen dass er evtl eine FSAA oder AF Stufe hoeher einstellen kann.


:up:
Deswegen wundere ich mich immer noch, warum man ueberhaupt "brilinear" eingefuehrt hat, wenn man auch bilinear hat. Schlecht? Ne, man kann es ausstellen...
Vielleicht solltest du mal richtig lesen:
Filteroptimierungen, wenn sie nicht wie von Nvidia wie in Ut2003 angewendet werden, betreffen jede Anwendung. Shaderreplacement ist dagegen nur auf wenige Anwendungen beschraenkt. Gleich? Mitnichten. oder ist es fair, wenn Nvidia ploetzlich auf dem Shadermark2.1 optimieren wuerde? Oder wieso war das Shaderaustausch im 3DMark2003 schlecht? Immerhin konnte man dies mit einem Patch ausschalten. Ist doch gut so!

Mr. Lolman
2004-09-23, 19:53:38
:up:
Deswegen wundere ich mich immer noch, warum man ueberhaupt "brilinear" eingefuehrt hat, wenn man auch bilinear hat. Schlecht? Ne, man kann es ausstellen...
Vielleicht solltest du mal richtig lesen:
Filteroptimierungen, wenn sie nicht wie von Nvidia wie in Ut2003 angewendet werden, betreffen jede Anwendung. Shaderreplacement ist dagegen nur auf wenige Anwendungen beschraenkt. Gleich? Mitnichten. oder ist es fair, wenn Nvidia ploetzlich auf dem Shadermark2.1 optimieren wuerde? Oder wieso war das Shaderaustausch im 3DMark2003 schlecht? Immerhin konnte man dies mit einem Patch ausschalten. Ist doch gut so!

Du hast wohl auch in der Witzkistn gschlafn. ;)

Bei soviel doppeldeutigen Sarkasmus ist es ziemlich schwer deine wahre Meinung herauszulesen...

Pirx
2004-09-23, 20:01:46
Nein das glaube ich dann doch nicht:lol:

aths
2004-09-23, 20:53:01
Das macht Shaderreplacement gleich legal?
Ueberspritzt ausgedreuckt weurde das bedeuten, ich koennte jemanden ausrauben, stelle mich dann und darf das erbeute Gut behalten...Nein. Sofern der Kunde aufgeklärt wird was die Optionen bewirken, ist es richtig, solche Dinge zur Verfügung zu stellen.

MikBach
2004-09-23, 20:56:11
Filteroptimierungen, wenn sie nicht wie von Nvidia wie in Ut2003 angewendet werden, betreffen jede Anwendung. Shaderreplacement ist dagegen nur auf wenige Anwendungen beschraenkt. Gleich? Mitnichten.
Lol. Willst uns hier alle verarschen?
Deswegen ist Shaderreplacement( wenn es nur bestimmte Spiele betrifft) eine Verarsche. Man gaukelt Leistung vor, wo sie nicht vorhanden ist. Wenn, dann soll man bitte allgemein optimieren, und nicht um Benchmarks zu gewinnen und Spiele abseits des Mainstream aussen vor lassen.
Siehe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=170036
und besonders dieser Post:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2271611&postcount=10

So ein Vorgehen ist imo für den Müll.
Wenn schon optimieren, dann für alle Spiele. Nicht nur die, die gebencht werden.

LovesuckZ
2004-09-23, 21:07:16
Nein. Sofern der Kunde aufgeklärt wird was die Optionen bewirken, ist es richtig, solche Dinge zur Verfügung zu stellen.

Du findest es also in Ordnung, die Shader auszutauschen, nur weil man es deaktivieren koennte?
Somit muesste es doch auch in Ordnung, auch ohne diese Moeglichkeit. Warum dann eigentlich nicht? Immerhin fuehrt Shaderreplacement, nicht wie globale Filterungsoptimierungen, zu einem IQ Verlust...

Jesus
2004-09-23, 21:07:55
Lol. Willst uns hier alle verarschen?
Deswegen ist Shaderreplacement( wenn es nur bestimmte Spiele betrifft) eine Verarsche. Man gaukelt Leistung vor, wo sie nicht vorhanden ist. Wenn, dann soll man bitte allgemein optimieren, und nicht um Benchmarks zu gewinnen und Spiele abseits des Mainstream aussen vor lassen.
Siehe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=170036
und besonders dieser Post:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2271611&postcount=10

So ein Vorgehen ist imo für den Müll.
Wenn schon optimieren, dann für alle Spiele. Nicht nur die, die gebencht werden.

Naja da NV wohl eher nicht simple Applikationserkennung ( FartCry.exe, 3dmurks03.exe etc.) bei ihrem Shaderreplacement machen könnte es wohl daran liegen, dass die "replacten Shader" ( aka. "Optimierungen") manchmal an der falschen Stelle oder im ganz dummen Fall im falschen Spiel eingesetzt werden...

Immerhin fuehrt Shaderreplacement, nicht wie globale Filterungsoptimierungen, zu einem IQ Verlust...

ähm, wo steht dass es keine negativen BQ einflüsse hat ? Wie Demi schon sagte, NV macht wohl noch wesentlich mehr, und ich glaube sehr wohl dass im einen oder anderen Game es negativen Einfluss ( bspw. durch PP replacement) auf die BQ hat (mglw. in FC auf nv4x , Beleuchtung / Glanzeffekte bzw. Taschenlampenradius kleiner als auf R3xx und auch Nv3x - wäre ein Indiz dafür)

LovesuckZ
2004-09-23, 21:08:29
Lol. Willst uns hier alle verarschen?

Nein, nur dich. :ugly:

aths
2004-09-23, 21:12:29
Du findest es also in Ordnung, die Shader auszutauschen, nur weil man es deaktivieren koennte?Somit besteht die Möglichkeit, auch die echte Leistung (ohne Shaderreplacement) zu benchen. Dass Shaderreplacement (mit hinterlegten handoptimierten Versionen) betrieben wird ist ein Übel, welches im Konkurrenzkampf bleiben wird.

LovesuckZ
2004-09-23, 21:15:32
ähm, wo steht dass es keine negativen BQ einflüsse hat ?

Siehst du in Doom3 Unterschiede in der Bildqualitaet?
Dagegen kann die Filterungsverschlechterung in einigen Spielen deutlich auffallen.

Wie Demi schon sagte, NV macht wohl noch wesentlich mehr,

Was mehr und aufwas bezieht sich das jetzt?

und ich glaube sehr wohl dass im einen oder anderen Game es negativen Einfluss ( bspw. durch PP replacement) auf die BQ hat (mglw. in FC auf nv4x , Beleuchtung / Glanzeffekte bzw. Taschenlampenradius kleiner als auf R3xx und auch Nv3x - wäre ein Indiz dafür)

1. Aha, Nvidia ergaenzt alles mit _pp Flags. Sehr hart, kannst du das auch beweisen? Bzw. siehst du unterschiede in Doom3 zwischen einem Nv4x und einem r4xx?
2. Entsteht das Problem durch den treiber oder durch eine zurueckgezogenden Patch?

Gast
2004-09-23, 21:16:38
Du findest es also in Ordnung, die Shader auszutauschen, nur weil man es deaktivieren koennte?

Klar, man soll doch ehrlich zum Kunden sein. ATI versucht es. Nvidia?

LovesuckZ
2004-09-23, 21:18:20
Somit besteht die Möglichkeit, auch die echte Leistung (ohne Shaderreplacement) zu benchen.

Also ja. Haette gereicht.
Du erlaubst mir aber auch, dass ich Shaderreplacement und Filterungs"optimierungen" nicht als legal aussehen lasse, nur weil man die Moeglichkeit hat sie auszustellen und diese Moeglichkeit missbraucht wird, neue, "schlimmere" Optimierungen zu etablieren.

Dass Shaderreplacement (mit hinterlegten handoptimierten Versionen) betrieben wird ist ein Übel, welches im Konkurrenzkampf bleiben wird.

Nein, wenn die Reviewer und User richtig aufklaeren würden. Das unternimmt der Großteil nicht.

LovesuckZ
2004-09-23, 21:19:14
Klar, man soll doch ehrlich zum Kunden sein. ATI versucht es. Nvidia?

Taten es schon vor 6 Monaten ;)

Quasar
2004-09-23, 21:20:09
[Shaderreplacement] gaukelt Leistung vor, wo sie nicht vorhanden ist.

Das tut Filtercheating umso mehr, als daß es universell diese Vergaukelung betreibt. Die Leistung wird durch verminderte Filterqualität sicherlich kaum erhöht.

Gast
2004-09-23, 21:20:58
Also ja. Haette gereicht.
Du erlaubst mir aber auch, dass ich Shaderreplacement und Filterungs"optimierungen" nicht als legal aussehen lasse, nur weil man die Moeglichkeit sie auszustellen.



Nein, wenn die Reviewer und User richtig aufklaeren würden. Das unternimmt der Großteil nicht.

Lovesuck versucht uns hier durch jede Menge Thread den unspassigen TV-Abend zu versüssen, langsam wird der Bogen aber überspannt!

Kann mann nicht bestimmte USER einfach mit einem grünem NVIDIA Logo versehen, quasi, als FAN-Boymarke.

Quasar
2004-09-23, 21:22:40
ähm, wo steht dass es keine negativen BQ einflüsse hat ? Wie Demi schon sagte, NV macht wohl noch wesentlich mehr, und ich glaube sehr wohl dass im einen oder anderen Game es negativen Einfluss ( bspw. durch PP replacement) auf die BQ hat (mglw. in FC auf nv4x , Beleuchtung / Glanzeffekte bzw. Taschenlampenradius kleiner als auf R3xx und auch Nv3x - wäre ein Indiz dafür)

Far Cry setzt mit Patch 1.1 ganz offiziell pp-Hints ein, Doom3 tut das ebenfalls.

Jesus
2004-09-23, 21:24:24
1. Aha, Nvidia ergaenzt alles mit _pp Flags. Sehr hart, kannst du das auch beweisen? Bzw. siehst du unterschiede in Doom3 zwischen einem Nv4x und einem r4xx?

Vielen Dank dass du mir das Wort im Munde umdrehst.


2. Entsteht das Problem durch den treiber oder durch eine zurueckgezogenden Patch?

Keine ahnung bin ich Jesus ? :ugly:
Falls es durch den Patch auftritt, dann sogar in 2 Versionen davon (die Vorab- zum NV SM3.0 gut dastehenlassen und die Finale inkl. SM2.0b)

Aber DASS NV Shaderreplacement (u.a.) betreibt, darüber willst du doch jetzt nicht ernsthaft streiten oder ?

Far Cry setzt mit Patch 1.1 ganz offiziell pp-Hints ein, Doom3 tut das ebenfalls.

EDIT :"BULLSHIT"

Demirug
2004-09-23, 21:28:57
Daher gibts ja auch die schönen Artefakte (bei FC) ;)

Nein, zu wiederholten mal das liegt nicht an den PP Flags sondern an dem Shader als solches. Mit FP32 funktioniert er nämlich überhaupt nicht mehr.

Jesus
2004-09-23, 21:30:34
Nein, zu wiederholten mal das liegt nicht an den PP Flags sondern an dem Shader als solches. Mit FP32 funktioniert er nämlich überhaupt nicht mehr.

Oh ok :uidea:

LovesuckZ
2004-09-23, 21:32:08
Vielen Dank dass du mir das Wort im Munde umdrehst.

Ja? Du redest davon, dass Nvidia _pp Replacement betreiben würde. Artefakte gibt es erst, wenn die genauigkeit nicht reicht. Und heutzutage tritt dies nur auf, wenn man wirklich ueberall ein _pp anhaengt.
Daher, wo macht Nvidia sowas?

Falls es durch den Patch auftritt, dann sogar in 2 Versionen davon (die Vorab- zum NV SM3.0 gut dastehenlassen und die Finale inkl. SM2.0b)

Du belegst gerade, dass der Patch dafuer verantwoertlich ist, danke.

Aber DASS NV Shaderreplacement (u.a.) betreibt, darüber willst du doch jetzt nicht ernsthaft streiten oder ?


Wo in farcry?

MikBach
2004-09-23, 21:32:23
Nein, zu wiederholten mal das liegt nicht an den PP Flags sondern an dem Shader als solches. Mit FP32 funktioniert er nämlich überhaupt nicht mehr.
Mathematisch vereinfacht? Oder gibt es eine ander Begründung?

BTW der vorletzte Gast war ich. Keks war weg.

Jesus
2004-09-23, 21:35:40
Ja? Du redest davon, dass Nvidia _pp Replacement betreiben würde. Artefakte gibt es erst, wenn die genauigkeit nicht reicht. Und heutzutage tritt dies nur auf, wenn man wirklich ueberall ein _pp anhaengt.
Daher, wo macht Nvidia sowas?

Hat schonmal jemand wirklich danach gesucht ? Das ATI Bri AF ist auch niemandem aufgefallen bis man dann durch synthetische Tests drauf gekommen ist das was nicht stimmt.


Du belegst gerade, dass der Patch dafuer verantwoertlich ist, danke.


lol schon wieder :P



Wo in farcry?

nein generell.

LovesuckZ
2004-09-23, 21:39:19
Hat schonmal jemand wirklich danach gesucht ? Das ATI Bri AF ist auch niemandem aufgefallen bis man dann durch synthetische Tests drauf gekommen ist das was nicht stimmt.

Dafuer muesstest du jedes Spiel mit Shadern testen. Viel Spass ;)

Demirug
2004-09-23, 21:39:44
Mathematisch vereinfacht? Oder gibt es eine ander Begründung?

BTW der vorletzte Gast war ich. Keks war weg.

Im Detail habe ich mir den Grund dafür nicht angeschaut. Das "Problem" ist aber bei nVidia bekannt und meist auf Grenzwertverletzungen zurückzuführen.

MikBach
2004-09-23, 21:41:09
Dafuer muesstest du jedes Spiel mit Shadern testen. Viel Spass ;)
Lol. Was habe Shader mit AF zu tun?

MikBach
2004-09-23, 21:43:27
Das "Problem" ist aber bei nVidia bekannt und meist auf Grenzwertverletzungen zurückzuführen.
Wie meinen?
Das raffe ich jetzt nicht.
Heisst das jetzt, dass Nvidia nicht immer FP16 rendert, wo es so sein sollte?
Oder sind die Grenzwertverletzungen anders gemient?

Demirug
2004-09-23, 21:48:45
Wie meinen?
Das raffe ich jetzt nicht.
Heisst das jetzt, dass Nvidia nicht immer FP16 rendert, wo es so sein sollte?
Oder sind die Grenzwertverletzungen anders gemient?

Das mit FP16 ist bei den FXen sehr kompliziert. Meist wird nämlich mit FP32 gerechnet und lediglich mit FP16 gespeichert aber darum geht es hier nicht.

Wenn man einen Shader von FP16 auf FP32 hochnimmt kann es passieren das sich durch den veränderten Zahlenbereich eben auch das Ergebniss verändert und am Schluss nicht mehr im darstelbaren Bereich [0..1] landet.

aths
2004-09-23, 22:03:42
Also ja. Haette gereicht.
Du erlaubst mir aber auch, dass ich Shaderreplacement und Filterungs"optimierungen" nicht als legal aussehen lasse, nur weil man die Moeglichkeit hat sie auszustellen und diese Moeglichkeit missbraucht wird, neue, "schlimmere" Optimierungen zu etablieren.Du benötigst meine Erlaubnis nicht, um eine bestimmte Meinung zu vertreten.

Nein, wenn die Reviewer und User richtig aufklaeren würden. Das unternimmt der Großteil nicht. Zunächst sind die IHVs in der Pflicht. Viele Leute sehen "unsichtbare" Filtercheats und applikationsspezifisches Shaderreplacement als Vorteil. Meine Meinung hierzu ist bekannt, dass den Vorteilen für einige Leute Nachteile gegenüber stehen, die schwerer wiegen.

Brilinear, bi-AF auf sekundären TS, reduzierte Samplezahl für den AF-Grad kann unter bestimmten Voraussetzungen Leistung bringen ohne sich deutlich nachteilig auf die Qualität auszuwirken. Hat man dann die Option, dies zuzuschalten, ist das doch gut.

Gleiches gilt für handoptimierte Replacementshader. Besser wäre ein besserer Optimizer, doch solange es den nicht gibt, werden wenigstens einige Spiele schneller gemacht.

Natürlich ist das Primärziel der IHVs, mit diesen Tricks Benches zu gewinnen und damit empfohlen zu werden. Die Extra-"Leistung" gibts außerdem nicht gratis, wie einige Leute (imo etwas naiv) glauben sondern wird beim Kauf der Graka mitbezahlt.

MikBach
2004-09-23, 22:06:17
Das mit FP16 ist bei den FXen sehr kompliziert. Meist wird nämlich mit FP32 gerechnet und lediglich mit FP16 gespeichert aber darum geht es hier nicht.

Wenn man einen Shader von FP16 auf FP32 hochnimmt kann es passieren das sich durch den veränderten Zahlenbereich eben auch das Ergebniss verändert und am Schluss nicht mehr im darstelbaren Bereich [0..1] landet.
Jetzt vestehe ich was du meinst. Um Platz im Speicher zu sparen wird das Ergebniss mit FP16 gespeichert und dann "aufpolliert" ;)
Was kann das bewirken?
Sieht man nichts mehr oder Artefakte? Oder wirkt sich diese Unart irgendwie anders aus?

aths
2004-09-23, 22:09:03
Jetzt vestehe ich was du meinst. Um Platz im Speicher zu sparen wird das Ergebniss mit FP16 gespeichert und dann "aufpolliert" ;) Da hast du ihn wohl missverstanden.

Was kann das bewirken?Auf 3DC gibts einen netten Artikel zu FP-Formaten.
Sieht man nichts mehr oder Artefakte? Oder wirkt sich diese Unart irgendwie anders aus? _PP ist keine Unart.

MikBach
2004-09-23, 22:13:44
Da hast du ihn wohl missverstanden.
Mag sein. Habe es nochmal überdacht.

Auf 3DC gibts einen netten Artikel zu FP-Formaten.
Ja, den werde ich mir mal genauer ansehen. Hab nur überflogen.
_PP ist keine Unart.
Wenn Full Precision gefordert wird, man es aber nicht tut und in FP16 speichert, können manchmal böse Dinge passieren, wie in FC Patch 1.1. ;)

Quasar
2004-09-23, 22:15:15
Far Cry Patch 1.1 setzt aber selbst pp_hints.

Demirug
2004-09-23, 22:17:20
Jetzt vestehe ich was du meinst. Um Platz im Speicher zu sparen wird das Ergebniss mit FP16 gespeichert und dann "aufpolliert" ;)
Was kann das bewirken?
Sieht man nichts mehr oder Artefakte? Oder wirkt sich diese Unart irgendwie anders aus?

Es geht nicht um Platz im Speicher sondern im Chipinternen Registerfile. Mit FP32 rechnen und dann mit FP16 speichern ist auf jeden Fall genauer als auch mit FP16 zu rechen. Teilweise machen das die FXen aber auch weil eines der ADD-Werke nur FP16 beherscht. Das wird dann aber auch nur benutzt wenn FP16 erlaubt ist.

MikBach
2004-09-23, 22:17:24
Far Cry Patch 1.1 setzt aber selbst pp_hints.
Wie man sieht reicht das aber nicht immer.

MikBach
2004-09-23, 22:19:03
Es geht nicht um Platz im Speicher sondern im Chipinternen Registerfile. Mit FP32 rechnen und dann mit FP16 speichern ist auf jeden Fall genauer als auch mit FP16 zu rechen. Teilweise machen das die FXen aber auch weil eines der ADD-Werke nur FP16 beherscht. Das wird dann aber auch nur benutzt wenn FP16 erlaubt ist.
Danke.
Damit kann ich was anfangen. :)

Quasar
2004-09-23, 22:19:27
Reicht wofür? Oder meinst du, daß CryTek den Shader kaputt gemacht hat?

MikBach
2004-09-23, 22:20:53
Reicht wofür? Oder meinst du, daß CryTek den Shader kaputt gemacht hat?
Ne, die BQ bei der FX....

aths
2004-09-23, 22:25:51
Ne, die BQ bei der FX....Die BQ der FX hängt davon ab, was die Anwendung verlangt. Wenn ich Demirug richtig verstanden habe, funktionieren bestimmte Shader von FC nur mit FP24 oder auch "echtem" FP16, aber nicht mehr mit FP32. Da die FX bei der Verwendung von FP16 intern meist mit FP32 rechnet, kann sich somit ein unschöner Effekt ergeben, der aber nicht bei _PP zu suchen ist.

Quasar
2004-09-23, 22:26:03
Ne, die BQ bei der FX....

Wieso ist die Bildqualität dann mit dem Radeon-Pfad und durchgehendem (!) FP16 dann i.O. - wenn CryTek nichts grob verbockt hat?

Holundermann
2004-09-24, 09:06:52
wenn ich das richtig verstanden hab weil die radeon intern schon mit fp16 rechnet und nicht umrechnen muss und es somit zu keinen fehlern kommt...

deekey777
2004-09-24, 10:05:22
Und was sagt nVidia zur X700?
-> Klick mich! (http://www.hardware-mag.de/news.php?id=36587)

Gast
2004-09-24, 10:12:11
Und was sagt nVidia zur X700?
-> Klick mich! (http://www.hardware-mag.de/news.php?id=36587)

Ein Skandal!

Quasar
2004-09-24, 10:22:48
wenn ich das richtig verstanden hab weil die radeon intern schon mit fp16 rechnet und nicht umrechnen muss und es somit zu keinen fehlern kommt...

öh....nein. Die Radeon rechnet mit FP24.

Sackgesicht
2004-09-24, 10:36:53
Und was sagt nVidia zur X700?
-> Klick mich! (http://www.hardware-mag.de/news.php?id=36587)
"Doom3 is up to 112% slower than the 6600GT"
Wie geht denn das bitte?

50 fps - 112% = -6 fps ???

Holundermann
2004-09-24, 10:52:54
nene, falscher rechengang: wenn die radeon zB 10 fps hat und die gt 22 hat sie 1xx% mehrperformance, aber ist ja nur marketingblabla, einfach überfliegen und paarmal schmunzeln!

Gast
2004-09-24, 11:00:40
nene, falscher rechengang: wenn die radeon zB 10 fps hat und die gt 22 hat sie 1xx% mehrperformance, aber ist ja nur marketingblabla, einfach überfliegen und paarmal schmunzeln!
dann muesste es heissen "..GT is 112% faster.."
darueber schmunzeln ist ok, aber bitte KEINE VERGEWALTIGUNG DER REGELN DER KOENIGIN DER WISSENSCHAFTEN

Holundermann
2004-09-24, 11:04:42
jo, stimmt :) nicht genau gelesen...

Labberlippe
2004-09-24, 11:05:43
dann muesste es heissen "..GT is 112% faster.."
darueber schmunzeln ist ok, aber bitte KEINE VERGEWALTIGUNG DER REGELN DER KOENIGIN DER WISSENSCHAFTEN


Hi

Hehehe
Darf ich den Satz als Sig nehmen. ?

.-)

Gruss Labberlippe

Sackgesicht
2004-09-24, 11:12:33
Sure

Gast
2004-09-24, 13:09:26
Wieso ist die Bildqualität dann mit dem Radeon-Pfad und durchgehendem (!) FP16 dann i.O. - wenn CryTek nichts grob verbockt hat?

Weils womöglich nicht so einfach ist, sich an die Devguides zu halten.

FC 1.1 ist auf den FXen ja schneller als FC 1.0, 1.2 Tommti's FP16 und FP32. Nur haben se Shader verwendet, bei denen FP16 nicht mehr ausreicht. Vielleicht hält sich der NV Treiber auch nicht an die PP Hints, kann ja auch sein. Crytek sollte man eher danken, dass trotz der crappigen Shaderperformance die FX Reihe nicht ganz so schlecht dasteht, wie sie eigentlich könnte.

Aber klar, Crytek ist Schuld. Wenn die Performance generell schlecht ist, ist Microsoft dafür zu bashen, und wenns Treiberprobleme gibt, dann soll gefälligst der Kartenhersteller das reparieren. Klar ;D

Lolman

Quasar
2004-09-24, 13:14:14
Weils womöglich nicht so einfach ist, sich an die Devguides zu halten.

FC 1.1 ist auf den FXen ja schneller als FC 1.0, 1.2 Tommti's FP16 und FP32. Nur haben se Shader verwendet, bei denen FP16 nicht mehr ausreicht. Vielleicht hält sich der NV Treiber auch nicht an die PP Hints, kann ja auch sein. Crytek sollte man eher danken, dass trotz der crappigen Shaderperformance die FX Reihe nicht ganz so schlecht dasteht, wie sie eigentlich könnte.

Aber klar, Crytek ist Schuld. Wenn die Performance generell schlecht ist, ist Microsoft dafür zu bashen, und wenns Treiberprobleme gibt, dann soll gefälligst der Kartenhersteller das reparieren. Klar ;D

Lolman

Lies' mal insbesondere Demirugs Kommentare auf der vorigen Seite.

Gast
2004-09-24, 13:18:54
Lies' mal insbesondere Demirugs Kommentare auf der vorigen Seite.

Ok, hab ich thx. Aber inwiefern steht das konträr zu meinen Aussagen?

Lolman

Quasar
2004-09-24, 13:29:39
FC 1.1 ist auf den FXen ja schneller als FC 1.0, 1.2 Tommti's FP16 und FP32. Nur haben se Shader verwendet, bei denen FP16 nicht mehr ausreicht.

Insofern.

Gast
2004-09-24, 13:41:25
Insofern.

Das wäre aber nur falsch, sofern der Meinung ist, dass, weil FP16 nicht mehr ausreicht, man einfach FP32 nehmen sollte. Dies sollte mein Post jedoch nicht implizieren. Fakt ist, dass FC1.1 am flottesten läuft, und dafür auch die mieseste BQ bietet.

Also sollte man, sofern man auf maximale Performance aus ist, FC 1.1 verwenden. Will man bestmögliche BQ, bei ansprechender Performance ist Tommtis FP16 Patch ideal.
AFAIK geht auch irgendwas mit Demis Tweaker und FC 1.2, aber wie hier das Performanceverhältnis vgl zu FC1.1 und Tommtis FP16 ist, weiss ich nicht...


Und prinzipiell gesehen sollte ein Spiel erst mal schön Spielbar laufen. und das ist bei FC 1.1 noch eher der Fall als bei Tommtis FP16. Ein kleiner Querverlgleich* hat ergeben, dass der FP16 Patch auf ner FX5900 in 1024x768 ungefähr so schnell rennt, wie FC1.0 auf ner 9800pro in der selben Auflösung mit 4xAA und 4xAF. Das standard FC1.1 ist da aif den FXen schon ein Stückchen flotter., und ich persönlich hab lieber ein Spiel, wo ich noch zumindest ein bisschen AF einstellen kann, und dafür zeitweise irgendwo mit Banding leben muss, als eins, was zwar wundervolle artefaktfreie BQ bietet, dafür sich an der Grenze der ertragbaren Performance bewegt.

*in irgendeinem der ganzen Posts über die FC Problematik. Keine Chance, dass ich das noch jemals finde. Sry...

Lolman

Quasar
2004-09-24, 13:47:35
Fakt ist, dass FC1.1 am flottesten läuft, und dafür auch die mieseste BQ bietet.

Das ist Fakt, richtig.

Das wäre aber nur falsch, sofern [man?] der Meinung ist, dass, weil FP16 nicht mehr ausreicht, man einfach FP32 nehmen sollte. Dies sollte mein Post jedoch nicht implizieren.

Was sollte dein Posting denn implizieren, wenn du schreibst:
Nur haben se Shader verwendet, bei denen FP16 nicht mehr ausreicht.

Wer ist "se" - Crytek doch wohl, gell? Und wieso reicht FP16 nicht aus? Wegen der Artefakte, oder? Und wieso verschwindet der Shader ganz, wenn man auf FP32 geht?

Ah, richtig - weil nV unfähig ist und/oder cheatet, richtig?

Oder magst du deinen Post vielleicht so erklären, daß man auch auf eine andere Schlußfolgerung kommen kann?

Gast
2004-09-24, 14:02:25
Wer ist "se" - Crytek doch wohl, gell?

Jepp.

Und wieso reicht FP16 nicht aus? Wegen der Artefakte, oder?

Jupp.

Und wieso verschwindet der Shader ganz, wenn man auf FP32 geht?


Weil der Shader kein darstellbares Ergebnis mehr liefern würde.

Ah, richtig - weil nV unfähig ist und/oder cheatet, richtig?


Unfähig sind die sicher nicht. Das wäre der Fall, wenn die FC Performance der FX Reihe weit abgeschlagen hinter der, der R3x0 Reihe liegen würde. Und damit mein ich irgendwas im Bereich von +50%

Oder magst du deinen Post vielleicht so erklären, daß man auch auf eine andere Schlußfolgerung kommen kann?

Der Schelm ist, wie er denkt. ;)

NV ist insofern unfähig (gewesen), als das sich die Shaderspeed der FX Reihe meistens auf einem unzufriedestellendem Niveau bewegt. Der einzigen Unfähigkeit, der man Crytek bezichtigen kann, ist, dass sie bei FC1.0 die Prioritäten, falsch bezügl. dem Verhältnis der FX Geschwindigkeit vs. BQ gesetzt haben.

Lolman

Quasar
2004-09-24, 14:13:01
Irgendwie beantwortet das nicht die Frage, wieso nV unfähig gewesen sein soll, wenn sowohl der Originalzustand als auch der Radeon-Pfad mit durchgehendem FP16 als auch Patch v1.2 ohne grobe Artefakte mit dem betreffendem Shader gerendert werden, aber Patch 1.1 nicht.



Wenn der output eines Shaders verschwindet, sobald er mit irgendwas >FP24 und <=FP32 gerechnet wird, hat wer genau den Scheiss am Hacken?

aths
2004-09-24, 14:16:05
NV ist insofern unfähig (gewesen), als das sich die Shaderspeed der FX Reihe meistens auf einem unzufriedestellendem Niveau bewegt. Der einzigen Unfähigkeit, der man Crytek bezichtigen kann, ist, dass sie bei FC1.0 die Prioritäten, falsch bezügl. dem Verhältnis der FX Geschwindigkeit vs. BQ gesetzt haben. ATI ist insofern unfähig (noch immer), als dass sich das Shader-Featureset auf einem unzufriedestellendem Niveau bewegt. CryTek kann man in vielen Aspekten der Unfähigkeit bezichtigen, z. B. die CineFX-Technik vom Leistungsaspekt her auszureizen.

Die beiden Sätze oben geben nicht exakt meine Meinung wieder, sie sind bewusst als einseitige Gegenposition zu deiner imo einseitigen Meinung gedacht.

Jesus
2004-09-24, 14:39:18
ATI ist insofern unfähig (noch immer), als dass sich das Shader-Featureset auf einem unzufriedestellendem Niveau bewegt. CryTek kann man in vielen Aspekten der Unfähigkeit bezichtigen, z. B. die CineFX-Technik vom Leistungsaspekt her auszureizen.

welches Game bzw. welcher Hersteller hat denn das jemals gemacht ? Ich kenne keinen. Und es sind bestimmt nicht alle "unfähig"...

Nenn mir doch bitte ein Beispiel wo die überragende Feature Vielfalt von SM2.0a oder CineFX genutzt wurde (und kein NV Techdemo bitte).

r@h
2004-09-24, 15:48:36
<snip>, und ich persönlich hab lieber ein Spiel, wo ich noch zumindest ein bisschen AF einstellen kann, und dafür zeitweise irgendwo mit Banding leben muss, als eins, was zwar wundervolle artefaktfreie BQ bietet, dafür sich an der Grenze der ertragbaren Performance bewegt.<snap>*grunz*

Also Lolmann (unregged?), dann zeig mir bitte nur eine einzige Scene, die mit dem FP16-'Hack' vom Tommti Artefakte irgendwelcher Art zeigt. Die sinnbefreiten Optimierungen von CryTec sind damit ja sowieso von dannen, insofern man 'reinstes' FP16 zu FP24 bekommt (im Vergleich FX5900@FP16 und R9800p@FP24, die ich beide im Rechner habe). Lediglich die 'Plastik'-Optik ist verschwunden - welches ich sogar ausgesprochen gut finde - aber Artefakte konnte ich beim besten Wissen nicht finden.

Ach ja... mit dem 66.31 sehen die Rohre im Research-Level wieder OK aus (FC1.1), dafür aber sind 'irgendwie' die Scheiben im Archive-Level weg... na ja, Shit happens!
;D

Razor

aths
2004-09-24, 15:52:00
welches Game bzw. welcher Hersteller hat denn das jemals gemacht ? Ich kenne keinen.Ich auch nicht :(

Gehen wir jedoch mal spaßeshalber davon aus, die Radeon 9700 wäre feature- wie leistungsmäßig ungefähr auf NV30-Niveau, und 9800 würde in etwa dem NV35 entsprechen ... wie würde es dann aussehen? (Also was ist Ursache, was ist Wirkung?)

Nenn mir doch bitte ein Beispiel wo die überragende Feature Vielfalt von SM2.0a oder CineFX genutzt wurde (und kein NV Techdemo bitte). Viele CineFX-Features (also Dinge von Profil 2_A) werden in zukünftigen Spielen genutzt werden, die eigentlich für NV40+ gedacht sind.

BTW möchte ich nicht so verstanden werden, dass etwa supergeile, aber ultralahme Features besser sein als lediglich solide, aber sehr schnelle Features.

LovesuckZ
2004-09-24, 16:00:44
Nenn mir doch bitte ein Beispiel wo die überragende Feature Vielfalt von SM2.0a oder CineFX genutzt wurde (und kein NV Techdemo bitte).

Shadermark2.1.

Sphinx
2004-09-24, 16:04:43
Shadermark2.1.

Spiel ich tag ein tag aus...
Ich denke mal LovesuckZ du weißt was er damit auszudrücken erwähnte...

Gast
2004-09-24, 16:21:02
Irgendwie beantwortet das nicht die Frage, wieso nV unfähig gewesen sein soll, wenn sowohl der Originalzustand als auch der Radeon-Pfad mit durchgehendem FP16 als auch Patch v1.2 ohne grobe Artefakte mit dem betreffendem Shader gerendert werden, aber Patch 1.1 nicht.



NV hat die HW gestellt die das rechnen muss. Crytek könnte man nur eine gewisse Unfähigkeit insofern vorwerfen, dass sie dem User nicht die Wahl lassen, ob ers schnell oder schön gerechnet haben will. Die "groben" Artefakte von Patch 1.1 wurden bei direkten Bildvergleichen ja von einigen als Nichtigkeit abgetan.

Ich hab den Zugang zu Spielen, dass sie erst mal schnell genug dargestellt werden sollen. Das war bei FC 1.0 auf FXen nicht unbedingt der Fall. 1.1 brachte Besserung, nur ist, in Anbetracht der gebotenen BQ, die Performance zw. ATi und NV nicht mehr vergleichbar. Das ist auch der einzige Grund, warum ich mich über die FC 1.1 BQ echauffierte. Tommtis FP16 bringt zwar im Vergleich zu FC1.0 deutliche Performanceverbesserungen, nur wär in meinen Augen die FC Performance (in Anbetracht der gebotenen Grafik) dann unzufriedenstellend, wenn ich bei meiner Radeon, bei gleicher Performance, auf AA/AF verzichten müsste. (vgl. Tommtis FP16 @ FX vs. FC1.0 @ R3x0)




Wenn der output eines Shaders verschwindet, sobald er mit irgendwas >FP24 und <=FP32 gerechnet wird, hat wer genau den Scheiss am Hacken?[/QUOTE]

Der, der die Shader geschireben hat, logisch. Aber liegts nicht an der HW Architektur, dass die Shader überhaupt so geschrieben wurden? Und sollte ein Spiel nicht mal prinzipiell flüssig laufen, bevor man sich Gedanken über die BQ macht?

Und ists nicht irgendwie blöd, dass selbst auf ner 8500/9600 FC ganz gut spielbar ist, während man bei FXen <5900 nicht unbedingt gut beraten ist, den FP16 Patch zu nehmen? Ist das wirklich Cryteks schuld? Andererseits ists jetzt Tommtis oder Microsofts schuld, dass Shader vom Shadermark2.1 auf ner R3x0 tw. <5x so schnell rennen wie auf ner NV30? Oder kann man vielleicht sogar nicht doch ein bisschen NV den schwarzen Peter in die Schuhe schieben?


Die aktuelle Generation ist ganz gut. Keine Frage. Bei DoomIII sogar enorm gut, v.A. dann, wenn man die Mittelklasse beider IHVs zum Vergleich heranzieht. Aber das ewige Schönreden der Unzulänglichkeiten der vorigen Generation geht mir gehörig auf den Keks. Da bekommt man dan Aussagen zu hören, dass man bei Treiberproblemen sich an den Kartenhersteller wenden soll. Ists wirklich NVs unendlicher Güte zu verdanken, dass wir regelmässig mit neuen Treibern versorgt werden, oder würde, in Anbetracht der Treiberentwicklung, nicht die NV HW in einem viel schlechteren Licht stehen, wenn jetzt jeder Kartenhersteller sein eigenes Süppchen kochte?


Aber vielleicht hab ich ja wirklich einen falschen Zugang zu der Sache. Denn irgendwie drängt sich mir der Verdacht auf, dass bei einer ordentlichen ATi Optmierung shaderintensive Spieleszenen auf Ati HW 3-5x schneller laufen müssten als auf NV HW? Ok, das will ja keiner, aber implziertes das im gegenteiligen Fall nicht wiederum, dass so gut wie alle Computerspiele ohnhin auf Teufel komm raus, auf NV HW optimiert werden? (Das ist mir sogar ganz recht, denn bei einem ungefähren Gleichstand gibts einen stärkeren Wettbewerb, was sich wiederum auf günstigere HW Preise niederschlägt)

Deswegen reg ich mich nicht über die Macken der NV3x Generation auf, so wies für manche vielleicht den Anschein hat, sondern ausschliesslich über den Zang, den Manche Leute zu dem Thema haben. Denn wenn was scheisse läuft, kann einfach nicht NV dran schuld sein. Unmöglich. Nein Nein Nein.

Lolman

Quasar
2004-09-24, 16:23:25
Der, der die Shader geschireben hat, logisch.
Na, siehst du. :)

LovesuckZ
2004-09-24, 16:24:58
Ich denke mal LovesuckZ du weißt was er damit auszudrücken erwähnte...

Sind Spiele alles heutzutage?
Wenn ja, braeuchte man auch keine hohere Genauigkeit als FP16...

Gast
2004-09-24, 16:28:50
Shadermark2.1.

Da darf man aber wieder nur das Ergebnis am Bildschirm sehen,. ungeachtet der gebotenen Performance. Der Grossteil der Kartenkäufer sind halt Spieler. Die stehen sich eher auf flüssige Grafik, anstatt auf ein grosses Spektrum an Möglichkeiten Oberflächenberechnungen auf der GraKa beschleunigt auszugeben.

Dass ein Dev. völlig andere Prioritäten hat ist klar. Nur sollten die nicht mit den für ohnen bietenden Vorteilen nicht bei den Spielern hausieren gehen, und so tun als wärs für den Durchschnittsspieler eine so tolle Sache mehr Freiheiten bei der Shaderprogrammierung zu haben...



@r@h:

Unreggt, Reggt is ja wurscht, solang ich meinen Namen drunter setz, oder?

BTW: Ich hab auch nirgends geschrieben, dass Tommtis FP16, Artefakte auch nur irgendeiner Art hervorruft. Da hast du mich anscheinend leider falsch verstanden.

MikBach
2004-09-24, 16:48:55
Sind Spiele alles heutzutage?
Wenn ja, braeuchte man auch keine hohere Genauigkeit als FP16...
Die Karten werden meistens von Spielern benutzt, für einen Office PC reicht auch eine Shadergenauigkeit von FP0 ;)
Warum jaulen denn so viele rum, dass FP24 bei den ATIs zu wenig sein? :hammer:

Gast
2004-09-24, 17:02:27
Na, siehst du. :)


War das jetzt ne Provokation, oder hast du nicht weitergelesen?

Lolman

Tjell
2004-09-24, 17:20:35
Die Karten werden meistens von Spielern benutzt, für einen Office PC reicht auch eine Shadergenauigkeit von FP0 ;)
Warum jaulen denn so viele rum, dass FP24 bei den ATIs zu wenig sein? :hammer:
Ich nicht. Mir geht's aber auf'n Sack, daß genügend rote Fanboys immer noch FP32 als unnütz oder Overkill bezeichnen, obwohl auch ATI bei Ihrem SM3.0-Chip darauf gehen muß.

MikBach
2004-09-24, 17:37:03
Mir geht's aber auf'n Sack, daß genügend rote Fanboys immer noch FP32 als unnütz oder Overkill bezeichnen,
Ja, in 1-2 Jahren werden wir nicht an FP32 vorbeikommen. Deswegen hat mich auch die Aussage von LS so gewundert.

Quasar
2004-09-24, 17:58:05
War das jetzt ne Provokation, oder hast du nicht weitergelesen?

Lolman

Nein, ich sogar davon UND dahinter das gelesen, was du geschrieben hast - aber das betrifft das Thema IMO nur wenig. Wenn's dich aber beruhigt, sage ich gern noch was zu dem hier:

Und ists nicht irgendwie blöd, dass selbst auf ner 8500/9600 FC ganz gut spielbar ist, während man bei FXen <5900 nicht unbedingt gut beraten ist, den FP16 Patch zu nehmen?
Lolman
Die 8500 ist irgendwie eine 'dumme' Wahl - da sie genau das nicht darstellt, was die FX bremst, meinst' nicht? ;)

aths
2004-09-24, 18:20:22
Aber vielleicht hab ich ja wirklich einen falschen Zugang zu der Sache. Denn irgendwie drängt sich mir der Verdacht auf, dass bei einer ordentlichen ATi Optmierung shaderintensive Spieleszenen auf Ati HW 3-5x schneller laufen müssten als auf NV HW?Wenn gleichzeitig ein mathematisch äquivalenter Shader auf CineFX optimiert wird, ist die Radeon "nur" etwa doppelt so schnell.

Das Problem bei der Sache ist aber, dass das nur für SM 2.0 gilt. DX8 ist auf NV3x nicht oder kaum langsamer, und 2.X Profil 2_A beherrscht die Radeon gleich gar nicht. Man könnte das also so sehen, dass hier willkürlich ein Szenario definiert wird in dem ATI dann gewinnt.

Das Argument, dass DX9-Spiele zurzeit aber tatsächlich auf SM 2.0-Möglichkeiten aufbauen, und in der Praxis die Radeon mit ihrer Pixelshadergeschwindigkeit die GeForce FX deutlich abhängt, ist natürlich nicht von der Hand zu weisen. Aber imo wird mit dem Beispiel "FC" die Sache zu verzerrt, so als ob man generell mit einer FX ziemlich arm dran wäre.

Die 8500 ist irgendwie eine 'dumme' Wahl - da sie genau das nicht darstellt, was die FX bremst, meinst' nicht? ;)Ein stummes e wird nicht mehr apostrophiert.


Da darf man aber wieder nur das Ergebnis am Bildschirm sehen,. ungeachtet der gebotenen Performance. Der Grossteil der Kartenkäufer sind halt Spieler. Die stehen sich eher auf flüssige Grafik, anstatt auf ein grosses Spektrum an Möglichkeiten Oberflächenberechnungen auf der GraKa beschleunigt auszugeben.

Dass ein Dev. völlig andere Prioritäten hat ist klar. Nur sollten die nicht mit den für ohnen bietenden Vorteilen nicht bei den Spielern hausieren gehen, und so tun als wärs für den Durchschnittsspieler eine so tolle Sache mehr Freiheiten bei der Shaderprogrammierung zu haben... Nach dieser Argumentation sollten sich die Entwickler solange auf DX8 beschränken, bis praktisch jeder schnelle DX9-HW hat?

Mr. Lolman
2004-09-24, 19:31:07
Wenn gleichzeitig ein mathematisch äquivalenter Shader auf CineFX optimiert wird, ist die Radeon "nur" etwa doppelt so schnell.


Müsste doch reichen um jedem CineFX basierende HW auszureden, oder? ;)


Das Problem bei der Sache ist aber, dass das nur für SM 2.0 gilt. DX8 ist auf NV3x nicht oder kaum langsamer, und 2.X Profil 2_A beherrscht die Radeon gleich gar nicht. Man könnte das also so sehen, dass hier willkürlich ein Szenario definiert wird in dem ATI dann gewinnt.


Man könnte sehen, dass sich aufgrud der Einschränkungen der HW, mehr an dieser selbst orientiert, und 'zufälligerweise' so das 'bessere' - idF schneller gerechnete - Ergebnis zustande bringt. Soll heissen, dass ich noch nirgends einen für den Spieler (nicht für den Entwickler!!!) greifbaren Vorteil von SM3.0 ausmachen hab können.


Nach dieser Argumentation sollten sich die Entwickler solange auf DX8 beschränken, bis praktisch jeder schnelle DX9-HW hat?

Ja meinetwegen... Solangs niemand schafft, eine Killerapp. auf den Markt zu bringen, die die User davon überzeugt, das er baldigst aufrüsten soll, weil diese angesprochene Technik (sei es HW T&L, CineFX, SM3.0) nicht nur einen grossen optischen und/oder performancetechnischen Vorteil bietet, sondern weil in kürzester Zeit auch viele Spieleprogrammierer diese Technik anwenden werden - vielleicht z.B. weil sie einfach(er) zu implementieren ist.

Quasar
2004-09-24, 19:42:57
Ein stummes e wird nicht mehr apostrophiert.

Ich bin doch kein Bayer! Das ist die Auslassung von "meinste" - und das "e" wird hier im Norden sehr wohl gesprochen. ;)

Tjell
2004-09-24, 19:53:27
...
Ja meinetwegen... Solangs niemand schafft, eine Killerapp. auf den Markt zu bringen, die die User davon überzeugt, das er baldigst aufrüsten soll, weil diese angesprochene Technik (sei es HW T&L, CineFX, SM3.0) nicht nur einen grossen optischen und/oder performancetechnischen Vorteil bietet, sondern weil in kürzester Zeit auch viele Spieleprogrammierer diese Technik anwenden werden - vielleicht z.B. weil sie einfach(er) zu implementieren ist.
Verstehe ich Dich richtig? Programmiertechnischer Stillstand in Bezug auf Evolution der Bild-/Effektqualität wäre für Dich in Ordnung?

---

Stimmt ja, HDTV braucht auch kein Mensch, sieht doch alles jetzt schon gut aus, oder?

---

Bessere Hardware braucht man dann jedoch auch nicht, weil es wird ja keine Software entwickelt, die höhere Anforderungen stellen könnte. Stillstand allerorten, nVidia, ATI, XGI... alle schließen ihre Pforten, niemand braucht mehr bessere Technologie.


Also wenn das obige tatsächlich Deine Auffassung ist, dann bin ich froh, daß das nur die Deine ist.

Ich bin doch kein Bayer! Das ist die Auslassung von "meinste" - und das "e" wird hier im Norden sehr wohl gesprochen.
Das "e" darfst Du ruhig schreiben, geht übrigens auch schneller als "ALT + #". :D
Wenn Du das "e" doch weglassen willst, dann ersetzt es aber auch kein anderes Zeichen.

Gast
2004-09-24, 20:37:32
;o) Ich bin 28 und seit etlichen Jahren (Seit Voodoo1 und natürlich auch schon davor) dabei!-Habe also schon sehr viel erlebt. Das ATI den Markt beherrscht ist ja wohl der Witz! Natürlich war der R300 ein genialer Zug und hat dem NV30/35 in shaderlastigen Anwendungen wenig Chancen gelassen, aber seit dem NV40 ist NV wieder da!Der "neue" ATI-Chip ist im Prinzip nur ein
um 8 Pipelines erweiteter R3xx,mal von DX2.0b, größerem Registerspeicher- (eines der grössten Mankos des R3xx bis hin zur 9800XT) und der neuen Texturkomp.(Die bisher keinen Entwickler int..) abgesehen. Ausserdem hat der R420 den Taktvorteil. Beide Chips sind sehr schnell und für die nächste Zeit bestens geeignet! Ich würde mich aber trotzdem für den NV40 entscheiden. Er ist einfach unglaublich innovativ!!-Die Features (auch im Videobereich) sind dem ATI-Pendant um min. eine Länge vorraus und OGL ist immer noch NVs Domäne! Die X700 Pro und XT ist in den Benchmarks die ich gelesen habe (fast alle) mit der 6600GT etwa gleichauf.-Mal gewinnt der 6600GT mal der X700XT! Der Abstand ist aber nie besonders gross +/- 10%! Der 6600GT bietet als "Zuckerl" halt noch SLI!! Der Preis und die Verfügbarkeit wird einiges entscheiden. Ich würde aber trotzdem die NV-Lösung vorziehen. PS. NV hat schon viel früher angefangen mit Spielefirmem zu arbeiten und bietet (laut Berichten) einen besseren Support.-Auch wenn ATI in diesem und dem Treiberbereich stetig aufhohlt!

LovesuckZ
2004-09-25, 09:03:22
Soll heissen, dass ich noch nirgends einen für den Spieler (nicht für den Entwickler!!!) greifbaren Vorteil von SM3.0 ausmachen hab können.

Weil ATi noch nicht mit SM3.0 erschienen ist? ;)
SM3.0 führt zur Vereinfachung der Arbeit des Entwicklers und gibt ihn mehr Moeglichkeiten ein bestimmtest Ergebnis einfacher zu erreichen.
Nvidia deckt die Beduerfnisse des Entwicklers ab und er setzt diese Beduerfnisse in seine Entwicklungen um. Und aufrund dieser Abdeckung entstehen neue Beduerfnisse, die vom IHV wieder gedeckt werden muessen.
Der Spieler profitiert davon, dass die Spiele bezuglich der Grafik schoener und effektiver werden.


Ja meinetwegen... Solangs niemand schafft, eine Killerapp. auf den Markt zu bringen, die die User davon überzeugt, das er baldigst aufrüsten soll, [...] weil in kürzester Zeit auch viele Spieleprogrammierer diese Technik anwenden werden - vielleicht z.B. weil sie einfach(er) zu implementieren ist.

Ein Spiel zu programmieren bedeutet heute Jahre darin zu investieren. Da du nicht in der Lage bist, eine technik zu erfinden, die eine Implementierung von neuen Features ohne Codeaenderungen in großen Maßen erlaubt, ist es nett, wenn du erklaeren koenntest, wie es zu einem technischen Fortschritt kommt, wenn man keine neuen "schwerwiegenden" Features unterstuetzen sollte, aus der Sicht eines IHV.
Es führt einfach zu Stillstand und wenn du, als ATi user, dies willst, dann benutze bitte in Zukunft nie das SM3.0 (also alle seine Features) und sonstige neuen Eigenschafften der beiden Konkurenzkarten.

Gast
2004-09-25, 11:07:39
Zitat:
Weil ATi noch nicht mit SM3.0 erschienen ist?
SM3.0 führt zur Vereinfachung der Arbeit des Entwicklers und gibt ihn mehr Moeglichkeiten ein bestimmtest Ergebnis einfacher zu erreichen.
Zitatende.



Das ist das was NVIDIA suggerieren möchte aver ob Segen oder Fluch sei doch im momentanen Reifestadium von Shader Model 3.0 äußerst in Frage gestellt.



Zitat:
Nvidia deckt die Beduerfnisse des Entwicklers ab und er setzt diese Beduerfnisse in seine Entwicklungen um. Und aufrund dieser Abdeckung entstehen neue Beduerfnisse, die vom IHV wieder gedeckt werden muessen.
Der Spieler profitiert davon, dass die Spiele bezuglich der Grafik schoener und effektiver werden.
Zitatende.

Was ist das denn für ne schwammige Formulierung!? :/
Produkte zu entwickeln die auf die Bedürfnisse der Konsumenten zugeschnitten sollte wohl allgemeine Gültigkeit haben das ist sicherlich kein Grundsatz dem alleine NVIDIA sich verschrieben hat.



Zitat:
Ein Spiel zu programmieren bedeutet heute Jahre darin zu investieren. Da du nicht in der Lage bist, eine technig zu erfinden, die eine Implementierung von neuen Features ohne Codeaenderungen in großen Maßen erlaubt, ist es nett, wenn du erklaeren koenntest
Zitatende.

Nicht zwangsläufig. Es gibt genügend Development Kits die einem Team die Möglichkeiten offerieren sollen ihre Visionen schnell in konstruktives Material umzuwandeln Nicht umsonst wird eine Menge Geld mit Lizensierungen von Grafik Engines gemacht und auch hier bieten sich je nach Qualität der Entwicklungstools noch gewisse Flexibilitätsspielräume.

Coda
2004-09-25, 11:24:16
Und auf was werden die Development Kits entwickelt? :rolleyes:

Gast
2004-09-25, 11:47:31
Auf was, oder für was?

Es ist doch so Development Tools bieten Dir die Möglichkeit unter "komfortablen" Bedingungen kreativ zu werden vergleiche das mal mit HTML Code den du zum einen per Hand generierst völlig manuell oder andererseits mit WYSIWYG Editoren zusammenzauberst.

Das Resultat kann im großen und ganzen jenach Qualität des Editors aka Development Kits die gleiche Qualität erzielen wie die manuelle Variante nur in einem wesentlich kürzeren Zeitraum.

aths
2004-09-25, 11:50:16
Das ist das was NVIDIA suggerieren möchte aver ob Segen oder Fluch sei doch im momentanen Reifestadium von Shader Model 3.0 äußerst in Frage gestellt.NV40 bietet abgesehen von der Programmlänge nur die 3.0-Minimalforderungen, diese aber (natürlich) vollständig. Im Gegensatz zu 2.0 und 2.X gibt es bei 3.0 kein 3.X, das heißt, weitere 3.0-Implementierungen könnten z. B. Texturfilter im Vertexshader anbieten, aber die großen Unterschiede wie zwischen 2.X Profil 2_A und 2.0 sind in DX9.0c prinzipiell nicht möglich. Dass NV40s 3.0 ein Segen ggü. ATIs 2.X 2_B ist, steht hoffentlich außer Frage.

Was die Ausführungseffizienz vom Branching angeht: NV43 kann (dank schmalerer Architektur) mit kleineren Quadbatches arbeiten. Das wirkt sich entsprechend auf den möglichen Performancegewinn aus.

Auf den Performancegewinn kommt es derzeit gar nicht so an. Mit 3.0 kann man heute schon "Zukunfts-Engines" schreiben, die Branching nutzen. Aufgrund dem Zwang zum vereinheitlichen Datenformat (FP32) und dem fast einheitlichem Instruction Set im VS und PS ist der Entwickler in der Programmierung der Effekte freier, als mit 2.0.

Gestern fiel mir auf: Das Programm zu meiner Belegarbeit könnte man eigentlich für Pixelshader Profil 2_A schreiben. Die GPU kann dank CineFX alles, was ich für das Thema für die CPU programmieren werde. Dazu gehören lange Shader, FP32 und ein paar Kleinigkeiten. Leider kann ich derzeit noch keine GPU entsprechend programmieren. Hätte ich eine X700 (oder X800) drin, bräuchte ich mir darum prinzipiell keine Gedanken machen: Die Shaderfähigkeiten des R420 sind für das Thema ungenügend. Mit dem 3_0-Profil können viel mehr Dinge auf der Grafikkarte berechnet werden, als vergleichsweise simple Bumpmapping-Effekte in Spielchen.

Zukünftige 3.0-HW wird im Mittelklasse-Bereich auf absehbare Zeit nicht die 6800 GT/Ultra-Performance erreichen. Entsprechend werden Zukunftsspiele die 3.0 nutzen, wohl nicht unbedingt einen NV55 Ultra voraussetzen, damit man sie überhaupt spielen kann. GF3 hat lange gereicht. R9700 hat lange gereicht (reicht eigentlich noch immer.) Ob man als Spieler 3.0 hier und jetzt braucht, ist einfach zu beantworten: Nein. Doch ein Produkt dass einen großen Technologie- und Performance-Schub bietet, hat wie die Vergangenheit zeigt, eine recht lange Lebensdauer.


Was soll man jetzt also mit einer X700? Mittelmäßige Performance, wie die 6600 auch. Letztere hat allerdings SM 3.0-Support und eine durchgehende FP16-Pipe. Gut natürlich, dass ATI den R420 überhaupt ins Mittelklasse-Segment bringt (Verbreitung von 3Dc.) Als Konkurrenz zur 6600 kann ich die X700 aber nur schwerlich ernst nehmen.

Produkte zu entwickeln die auf die Bedürfnisse der Konsumenten zugeschnitten sollte wohl allgemeine Gültigkeit haben das ist sicherlich kein Grundsatz dem alleine NVIDIA sich verschrieben hat.Richtig, die technische Überlegenheit ist nur temporär. Ohne viel Fantasie sind Szenarien denkbar, in denen wieder Nvidia als Technologiebremse dasteht.

Gast
2004-09-25, 12:29:51
@aths

Es wird ja oft über die Notwendigkeit respektive den Nutzwert von Shader Model 3.0 im NV40 debattiert und die Quintessenz der ganzen Ansichten und Anschauungen die im Netz kursieren besagt doch eigentlich das der Verwendungszweck sich lediglich auf einzelne Optimierungen beläuft die ganz spezifisch auf die etwas degenerierten Shader Model 3.0 Eigenschaften des NV40 angepasst werden müssen um einen reelen Nutzwert zu erzielen.

Nun steht sicherlich außer Zweifel das mit den
Shader Model 3.0 Fähigkeiten des NV40 zumindest auf experimenteller Ebene mehr angestellt werden kann als mit Shader Model 2b die Frage die sich hier stellt ist aber ob in der Lebensphase des NV40 und seiner Derivate (Refreshes) die Shader 3.0 Implementierung des NV40 jemals den experimentellen Charakter wird ablegen können und nicht als ein Alleinstellungsmerkmal auf dem Papier verbleibt sondern ganz konkrete reproduzierbare Qualitätsunterschiede sei es durch FPS oder visuell wird erzielen können.

Ich bezweifle das und somit muss man doch konstatieren dürfen das NVIDIA ganz bewusst aus Marketingkalkül vielleicht sogar alleinig deswegen beim NV40 auf ShaderModel 3.0 Fähigkeiten gesetzt hat.

Tjell
2004-09-25, 12:43:08
@aths

Es wird ja oft über die Notwendigkeit respektive den Nutzwert von Shader Model 3.0 im NV40 debattiert und die Quintessenz der ganzen Ansichten und Anschauungen die im Netz kursieren besagt doch eigentlich das der Verwendungszweck sich lediglich auf einzelne Optimierungen beläuft die ganz spezifisch auf die etwas degenerierten Shader Model 3.0 Eigenschaften des NV40 angepasst werden müssen um einen reelen Nutzwert zu erzielen.

Nun steht sicherlich außer Zweifel das mit den
Shader Model 3.0 Fähigkeiten des NV40 zumindest auf experimenteller Ebene mehr angestellt werden kann als mit Shader Model 2b die Frage die sich hier stellt ist aber ob in der Lebensphase des NV40 und seiner Derivate (Refreshes) die Shader 3.0 Implementierung des NV40 jemals den experimentellen Charakter wird ablegen können und nicht als ein Alleinstellungsmerkmal auf dem Papier verbleibt sondern ganz konkrete reproduzierbare Qualitätsunterschiede sei es durch FPS oder visuell wird erzielen können.

Ich bezweifle das und somit muss man doch konstatieren dürfen das NVIDIA ganz bewusst aus Marketingkalkül vielleicht sogar alleinig deswegen beim NV40 auf ShaderModel 3.0 Fähigkeiten gesetzt hat.
Sag diesen Satz noch einmal mit derselben Überzeugung, wenn ATI seine SM3.0-Hardware auf den Markt bringt und die Vorteile dessen dem geneigten Konsumenten und den Herstellern nahebringt.

Gast
2004-09-25, 12:52:01
Ich möchte nicht als NVIDIA Populist verstanden werden und habe auch kein Loyalitätsempfinden weder NVIDIA noch ATI gegenüber was für den einen gilt gilt selbstverständlich für den anderen genauso.

Die NVIDIA Karten sind deswegen mitnichten schlecht ich selber finde das NVIDIA das homogenere Portfolio von Midrange - HighEnd aufweisen kann jedoch müssen solche marketingsstrategischen Maßnahmen einfach erkannt und benannt werden dürfen obgleich das natürlich ein legitimes Mittel wenngleich moralisch fragwürdiges ist.

Im Laufe der Firmenhistorie von NVIDIA ist es ja evident das man offensichtlich keine Gewissensbisse hat sämtliche Register zu ziehen um die Konkurrenz zu demontieren ;)

aths
2004-09-25, 13:59:16
@aths

Es wird ja oft über die Notwendigkeit respektive den Nutzwert von Shader Model 3.0 im NV40 debattiert und die Quintessenz der ganzen Ansichten und Anschauungen die im Netz kursieren besagt doch eigentlich das der Verwendungszweck sich lediglich auf einzelne Optimierungen beläuft die ganz spezifisch auf die etwas degenerierten Shader Model 3.0 Eigenschaften des NV40 angepasst werden müssen um einen reelen Nutzwert zu erzielen.Was ist beim NV40 degeneriert?

Der reale Nutzwert besteht unter anderem darin, dass die ganzen alten CineFX-Features jetzt full-speed laufen. NVPerf zeigt ganz gut (siehe Demirugs Posting zum Doom3-"Generalshader") wie effizient (in wie wenig Takten) der NV40 Pixel- bzw. Fragmentshader ausführen kann. Da SM 3.0 die CineFX-Features inkludiert und bei der 3.0-Implementierung im NV40 diese Features im Gegensatz zur GeForce FX auch noch sehr schnell sind, ergeben sich alleine daraus Vorteile. Zusätzlich bringt der NV40 pro Pipe ein "kostenloses" NRM_PP mit und andere Dinge, die gar nicht zum SM 3.0 gehören, aber der Performance zuträglich sind.

Nun steht sicherlich außer Zweifel das mit den Shader Model 3.0 Fähigkeiten des NV40 zumindest auf experimenteller Ebene mehr angestellt werden kann als mit Shader Model 2b die Frage die sich hier stellt ist aber ob in der Lebensphase des NV40 und seiner Derivate (Refreshes) die Shader 3.0 Implementierung des NV40 jemals den experimentellen Charakter wird ablegen können und nicht als ein Alleinstellungsmerkmal auf dem Papier verbleibt sondern ganz konkrete reproduzierbare Qualitätsunterschiede sei es durch FPS oder visuell wird erzielen können.Die Frage steht. Ich denke, man kann sie mit "sehr wahrscheinlich" beantworten.

Ich bezweifle das und somit muss man doch konstatieren dürfen das NVIDIA ganz bewusst aus Marketingkalkül vielleicht sogar alleinig deswegen beim NV40 auf ShaderModel 3.0 Fähigkeiten gesetzt hat. Komische Argumentation: Nur damit sich das Produkt besser vermarkten lässt, baute man noch die fehlenden Dinge für 3.0 ein? Wenn die Entwickler diese Features nicht verlangt hätten, hätte NV sich die Transistoren wohl gespart.

Oder warum hat ATI dem R420 einen größeren Instructioncount spendiert? Weil sich 2_B besser anhört als 2_0 oder weil absehbar wurde, dass man mit 32+64 Instruktionen bessere Effekte nicht mehr singleplass rendern kann?

Wenn ich 7of5 richtig interpretiere (da muss man ja zwischen den Zeilen lesen) findet er an SM 3.0 nur eins blöd: Dass ATI im Moment kein entsprechendes Produkt hat.

aths
2004-09-25, 14:13:40
Im Laufe der Firmenhistorie von NVIDIA ist es ja evident das man offensichtlich keine Gewissensbisse hat sämtliche Register zu ziehen um die Konkurrenz zu demontieren ;)Ja. Wäre der Thread nicht zu, hätte ich noch die Folien kommentiert. Und gefragt, wieso die GF mit Deto 65.xx und die Radeon mit Cat 4.7 gebencht wurde.

Gast
2004-09-25, 14:51:12
Ich weiß nicht warum sich einige immer über SM3 aufregen müssen. Techniken werden stetig weiterentwickelt und SM3 ist ein weiterentwickeltes SM2. Technischer Fortschritt ist gut und je eher Entwickler auf SM3 setzen können desto besser. Das Nvidia hier Kompromisse eingehen musste ist klar (Stichwort: Transistorcount und damit Leistungsaufnahme, Kosten usw.). Aber es werden immer Kompromisse eingegangen und der Käufer muss letzlich entscheiden welche Kompromisse für ihn am tragfähigsten sind. Der NV40 wird aber nicht per se dadurch schlechter, weil er SM3 bietet, unabhängig davon wie die Leistung aussieht. Er bietet es und wir können uns eher auf noch schönere Spiele freuen als wenn er es nicht tuen würde. Technischen Gleichstand wird es (hoffentlich) nie geben, also ist immer einer in der technologische Spitzenreiter. Dies muss allerdings nicht zwangsläufig mit Preis-Leistungssieger einhergehen, also gibt es immer Gründe entweder grün oder rot zu wählen (oder auch eine andere Farbe).

LordDeath
2004-09-25, 18:05:02
...und wir können uns eher auf noch schönere Spiele freuen ...

soweit ich weiß, kann man alles, was man mit sm3.0 darstellen kann, auch mit sm2.0 darstellen!
aber sm3.0 soll dies in weniger rechenvorgängen ermöglichen können, wenn die programmier sich damit extra befassen...

aths
2004-09-25, 18:33:32
soweit ich weiß, kann man alles, was man mit sm3.0 darstellen kann, auch mit sm2.0 darstellen!Wenn man schlechtere Qualität inkauf nimmt, und bestimmte Probleme mit zusätzlicher CPU-Arbeit löst, und gewisse Grenzen bei Zwischenergebnissen nicht über/unterschreitet, dann ja.

LordDeath
2004-09-25, 18:37:41
Wenn man schlechtere Qualität inkauf nimmt, und bestimmte Probleme mit zusätzlicher CPU-Arbeit löst, und gewisse Grenzen bei Zwischenergebnissen nicht über/unterschreitet, dann ja.


werden dann aber heutige sm3.0 karten auch games flüssig darstellen können, wo solche shader, die mit sm2.0 nicht mehr dargestellt werden können, auftauchen? <-- drecks 2 nebensätze zu einem hauptsatz :D

aths
2004-09-25, 18:40:18
werden dann aber heutige sm3.0 karten auch games flüssig darstellen können, wo solche shader, die mit sm2.0 nicht mehr dargestellt werden können, auftauchen? <-- drecks 2 nebensätze zu einem hauptsatz :DJedenfalls flüssiger als wenn der gleiche Effekt mit 2.0 realisiert wird.

Jesus
2004-09-25, 19:07:46
Jedenfalls flüssiger als wenn der gleiche Effekt mit 2.0 realisiert wird.

Das ist aber sinnlos weils dann wohl den gleichen Effekt mit SM2.0 nicht geben wird ;)

Gast
2004-09-25, 21:42:14
Das ist aber sinnlos weils dann wohl den gleichen Effekt mit SM2.0 nicht geben wird ;)
womit du ja untermausert, dass Sm2.0 dann Qualität verloren geht.
Deshalb ist SM3.0 in jedem Fall wünschenswert.

Die Frage ob es nun ein muss ist oder nicht stellt sich ohnehin nicht.
Solange die Performance in der selben Kategorie ist wie bei der Konkurenz und das ist sie allemal, dann gibt es ja gar keinen Grund mehr auf SM3.0 Hardware zu verzichten. Sie kostet ja mich ja nicht mehr.
Nvidia hat diesmal halt mehr investiert als ATI, Es kostet vielleicht Nvidia ein bisschen mehr Geld aber zweifelsohne bringt es auch Marktanteile, denn wie ich bereits schrieb - solange die Produkte konkurenzfähig bei annähernd gleichen Preisen sind kaufe ich das technisch neuere und zukunftsorientiertere und das ist derzet NV4x Hardware.

Gast
2004-09-25, 21:51:08
Zitat:
Was ist beim NV40 degeneriert?
Zitatende.

Die Shader Model3 Implementierung.
Ist es nicht so das man diese lediglich partiell implementiert hat um den Transistor Count noch einigermaßen im Zaum zu halten?

Ist es nicht ebenfalls eine Tatsache das ShaderModel 3 angesichts der Features von denen die Softwareschmiede Gebrauch zu machen pflegt eher sekundäre Beachtung geschenkt bekommt?
(Abgesehen von FarCry derren Entwickler ja bekanntlich beim Launch Presse Event zugegen waren und von daher verwundert der explizite Shader Model 3.0 Support auch wenig war es doch selbiger für den NVIDIA eindeutig propagierte.)

Kurz und bündig ist Shader Model 3.0 nicht quasi eine verfrühte Einführung eines vermeintlichen Fortschritts der wenn es mal soweit ist das davon reger Gebrauch gemacht wird der NV40 ohnehin seinen Zenith erreicht hat!?

Mumins
2004-09-25, 22:23:00
Kurz und bündig ist Shader Model 3.0 nicht quasi eine verfrühte Einführung eines vermeintlichen Fortschritts der wenn es mal soweit ist das davon reger Gebrauch gemacht wird der NV40 ohnehin seinen Zenith erreicht hat!?

Selbst wenn es so wäre, irgendwann muss immer der erste Schritt gemacht werden.

Gast
2004-09-26, 12:24:04
Zitat:
Was ist beim NV40 degeneriert?
Zitatende.

Die Shader Model3 Implementierung.
Ist es nicht so das man diese lediglich partiell implementiert hat um den Transistor Count noch einigermaßen im Zaum zu halten?

Ist es nicht ebenfalls eine Tatsache das ShaderModel 3 angesichts der Features von denen die Softwareschmiede Gebrauch zu machen pflegt eher sekundäre Beachtung geschenkt bekommt?
(Abgesehen von FarCry derren Entwickler ja bekanntlich beim Launch Presse Event zugegen waren und von daher verwundert der explizite Shader Model 3.0 Support auch wenig war es doch selbiger für den NVIDIA eindeutig propagierte.)

Kurz und bündig ist Shader Model 3.0 nicht quasi eine verfrühte Einführung eines vermeintlichen Fortschritts der wenn es mal soweit ist das davon reger Gebrauch gemacht wird der NV40 ohnehin seinen Zenith erreicht hat!?

darum gehts nicht.
Unterm Strich bleibt einfach, dass Nvidia absolut gleichwertige Produkte liefert die zusätzlich noch mit neuerer Technik ausgestattet sind.
Es ist daher eigentlich völlig wurscht wann SM3 verwendet wird.
Warum soll ich fürs gleiche Geld auf SM3 verzichten? Weil das ATI Logo drauf ist? Bleibt doch mal realistisch.
Nvidia hat mehr investiert als ATI und das wird sich auszahlen.
Es besteht derzeit kein Grund die neue ATI Hardware zu kaufen, es sei denn man ist in der kleinen Minderheit, die das derzeit maximale in Form der X800XT-PE wollen und auf SLI nicht mehr warten wollen.
Das ist dann aber auch schon alles. im restlichen Feld hat Nvidia überall mehr zu bieten bei der neuen Hardware.
Deswegen ist die ganze Diskussion um SM3.0 sinnlos.
Man nimmt es halt gern mit, wenn man dafür nicht mehr zahlt. So handelt jeder Käufer der nur ein bisschen Grips hat.
Das ist genauso wenn 2 Autohersteller - sagen wir mal Mercedes und BMW gleichwertige Autos herausbringen, nur dass z.b. BMW diesen dann serienmäßig mit einem Boardcomputer zum selbstständigen Einparen versehen, wo bloss noch die Software fehlt.
Dann nehm ich natürlich auch den BMW, weil ich als Kunde jegliche Leistung die mir geboten wird gern mitnehme, sofern ich sie nicht extra bezahlen muss.

Nochmal die Frage SM3 vs SM2b stellt sich überhaupt nicht, da ATI derzeit keine deutlich bessere Hardware mehr bietet. R3xx ist aus, vorbei und Geschichte.

Jesus
2004-09-26, 12:27:17
ich fordere hiermit die Log-in Pflicht für Fanboys ! :rolleyes:

Labberlippe
2004-09-26, 13:41:15
Das macht Shaderreplacement gleich legal?
Ueberspritzt ausgedreuckt weurde das bedeuten, ich koennte jemanden ausrauben, stelle mich dann und darf das erbeute Gut behalten...



A.I. wird dafuer benutzt, dass ATi ihre Cheatspielchen bezueglich der Shader ganz offiziell durchziehen koennen.
Das waere genauso, als wenn ATi/Nvidia ihre Filter im Defaultzustand schlechter machen und dann argumentieren, dass dies nicht schlimm waere, weil man die Tricks ja ausstellen koennte (hm, eigentlich macht es Nvidia wahrscheinlich mit dem naechsten offiziellen treiber ja...).
Beides ist aber einfach laecherlich.

Hi

Deine Meinung kann ich nicht ganz nachvollziehen, bei Doom3 warst Du ja der überzeugung das nVIDIA Top Leistungen im Treiberbereich bringt.
Auch wenn man hier Shaderreplacement treibt.

Die Frage die bleibt ist, ob durch A.I die Bildqualität erhalten bleibt.
Wenn die Bildqualität erhalten bleibt dann ist es doch fein.
Wenn man es deaktivieren kann, dann ist es noch besser.


Besser ein bischen Kontrolle als gar keine.

Was die "Tricks" anbetrifft muss man hier deutlich sagen, das die lieben Tester sich halt einmal mit der Hardware genauer auseinander setzen sollen.

Wenn einfach nur ohne rücksicht auf Verluste gebencht wird, dann braucht man sich über falsche angaben nicht wundern.
Ein grossteil der Teste ist zu faul um sich die Panels genauer anzusehen.

Gruss Labberlippe

Labberlippe
2004-09-26, 13:45:50
Du findest es also in Ordnung, die Shader auszutauschen, nur weil man es deaktivieren koennte?
Somit muesste es doch auch in Ordnung, auch ohne diese Moeglichkeit. Warum dann eigentlich nicht? Immerhin fuehrt Shaderreplacement, nicht wie globale Filterungsoptimierungen, zu einem IQ Verlust...


Hi

Das Problem daran ist, das manche Games nicht gerade ideal mit der Shaderprogrammierung umgehen und einiges an Leistung verschenken.
Natürlich köönnte man erwähnen das die IHVs hier mehr "Druck" machen, nur jeder will das natürlich nicht.

Gerade so komplexe Funktionen wie die Shader sind in meine Augen noch immer im Anfangsstadium bis diese vernünftig genutzt werden.
Wenn hier die HW-Hersteller aber in der Zwischenzeit aber durch Funktionen wie A.I das ganze umgehen können das ist, das in Ordnung.
Es muss natürlich ausschaltbar sein, Keine Frage.

Nur auf Dauer werden dann die SW-Hersteller die "bessere" Form auch unterstüzen und dann wird, A.I auch automatisch überflüssig.

Gruss Labberlippe

aths
2004-09-26, 13:52:53
Zitat:
Was ist beim NV40 degeneriert?
Zitatende.

Die Shader Model3 Implementierung.
Ist es nicht so das man diese lediglich partiell implementiert hat um den Transistor Count noch einigermaßen im Zaum zu halten?Nein, das ist nicht so. Alles was zur SM 3.0-Compliance erforderlich ist, wurde eingebaut.

SM 3.0 ist im Gegensatz zu 2.X sehr einheitlich – bessere Implementierungen haben kaum die Chance, mehr Features zu unterstützen. Dazu müsste es schon ein DX9.0d geben, was aber nicht in Sicht ist.

Ist es nicht ebenfalls eine Tatsache das ShaderModel 3 angesichts der Features von denen die Softwareschmiede Gebrauch zu machen pflegt eher sekundäre Beachtung geschenkt bekommt? Nein, auch das ist keine Tatsache. Viele Softwareschmieden entwickeln – wegen SM 3.0 – bereits auf NV40.

Natürlich werden ihre Werke bei der Fertigstellung in ein, zwei Jahren zum Erreichen bester Performance die dann beste Hardware benötigen und nicht auf dem NV40 am besten laufen.

Kurz und bündig ist Shader Model 3.0 nicht quasi eine verfrühte Einführung eines vermeintlichen Fortschritts der wenn es mal soweit ist das davon reger Gebrauch gemacht wird der NV40 ohnehin seinen Zenith erreicht hat!? Auch dies ist nicht so. SM 3.0 ist kein bisschen zu früh und stellt einen echten Fortschritt dar.

Der Fortschritt ist vor allem im Vergleich zur Radeon ersichtlich. Das beste ist, dass die besseren Features bereits vom NV30 jetzt mit dem NV40 sehr schnell sind.

LordDeath
2004-09-26, 13:54:14
ob shaderreplacement fair oder unfair ist, liegt meiner meinung nur dran, ob die bildqualität erhalten bleibt!
das größte manko ist aber meiner meinung nach, dass spielspezifische shaderoptimierungen mit der zeit den gesamten treiber aufblähen! dann haben wir vielleicht in einigen jahren 200mb große treiber, wo optimierungsprofile von games von heute noch drinnen sind!

tdexwjgb
2004-09-26, 15:02:26
Ich denke mal, dass eine R700 (PRO) für den Gelegenheitsspieler, der, wenn er spielt, schon leistungshungrige Games spielt, ideal ist.

Ich bin auch so einer und werde mir wahrscheinlich die R700PRO ViVo von HIS holen, weil sie im Vergleich zur Standardversion eine leisere Kühlung hat.

Ist was bekannt, ob der Arctic Cooling VGA Silencer Rev4 auch auf R700er Karten (Sapphire, etc., also mit lauter Kühlung) passt?

Sind auch schon Preise für R700-Karten bekannt? Nicht die offiziell von ATI angegebenen 199$ sondern realistische Preise (die werden sicher anfangs mehr als 199$~165€ kosten...)?


mfg

LovesuckZ
2004-09-26, 16:02:43
Kurz und bündig ist Shader Model 3.0 nicht quasi eine verfrühte Einführung eines vermeintlichen Fortschritts der wenn es mal soweit ist das davon reger Gebrauch gemacht wird der NV40 ohnehin seinen Zenith erreicht hat!?

Und ohne dem SM3.0 des NV40 werde nie Gebrauch davon gemacht.
Sagen wir es so: Auch wenn der NV40 für diese Spiele zu langsam waere, ohne diese Technik würde es sie nicht zu diesem Zeitpunkt.

Jesus
2004-09-26, 18:23:20
mal wieder etwas ontopic, bei anandtech gibts n Catalys AI Artikel:

http://anandtech.com/video/showdoc.aspx?i=2220&p=9

ATI no longer drops down to bilinear filtering in aniso, no matter what texture stage is used (before, if an object's initial texture was anything other than the highest resolution, bilinear filtering was used). If Catalyst AI is turned off and trilinear is requested, it is always done on everything now.

aths
2004-09-26, 18:40:05
mal wieder etwas ontopic, bei anandtech gibts n Catalys AI Artikel:Ja dass es dann full tri gibt hat ATI zu 3dc auch so gesagt. Ich hoffe, dass dann endlich Benches möglich sind, die die echte Leistung vergleichen.

Demirug
2004-09-26, 19:05:28
Ja dass es dann full tri gibt hat ATI zu 3dc auch so gesagt. Ich hoffe, dass dann endlich Benches möglich sind, die die echte Leistung vergleichen.

Ja und Nein. AI deaktiviert halt leider auch durchaus "legale" Optimierungen.

ATI sollte da wirklich etwas feiner abstufen.

EDIT: und bevor man es wirklich nutzen kann die Bugs im CCC beseitigen.

Gast
2004-09-26, 21:17:00
Und ohne dem SM3.0 des NV40 werde nie Gebrauch davon gemacht.
Sagen wir es so: Auch wenn der NV40 für diese Spiele zu langsam waere, ohne diese Technik würde es sie nicht zu diesem Zeitpunkt.

Drogenprobleme????

BodyLove
2004-09-26, 21:45:52
EDIT: und bevor man es wirklich nutzen kann die Bugs im CCC beseitigen.

Ack. Finde den CCC zwar nice, aber die Bugs und imho die Anforderungen des CCC ist imho zu hoch. Hab wieder den alten CP drauf, da sie mir mehr leistung bietet. Auf Schönheit kann ich in diesem "Segment" verzichten.

dildo4u
2004-10-25, 21:28:30
http://www.beyond3d.com/reviews/ati/rv410/


ATI Radeon X700 XT/PRO Review von beyond3d

3dzocker
2004-11-18, 22:33:21
inzwischen gibts ja auch den 4.12 Beta für ATI und den ?????? für NVidia.
Wie schauts denn jetzt aus???
Schwanke nämlich zwischen den beiden Karten, XT oder GT, nat. nur mit 256MB GraKa-Speicher.

tschau

Gast
2004-11-18, 22:47:51
????Ich kenne nur die X700Pro mit 256mb XT und GT haben 128.

BK-Morpheus
2004-11-18, 22:51:59
Hmm, anhand der Benches würde ich sagen, dass die 256MB Pro Verision doch nicht so sehr lohnt...irgendwie kann sie den größeren RAM bisher nicht zu ihrem Vorteil gegenüber der höher getakteten, aber mit nur 128MB ausgestatteten XT Version, ausspielen.
Was meint ihr...lohnen sich eher die 256MB, oder die XT mit 128MB und mehr Takt?

Naja, auf der anderen Seite kann man den Speicher der 256MB Pro Version scheinbar recht gut OCen...wenn das eher die Regel ist, dass der Speicher sich über 500mhz pushen lässt, dann wäre die 256MB Pro Version schon ganz nett.

BK-Morpheus
2004-11-19, 10:51:19
????Ich kenne nur die X700Pro mit 256mb XT und GT haben 128.
Da (http://www.hardtecs4u.com/?id=1100726901,82996,ht4u.php) gibt's unter anderem ne X700XT mit 256MB.
Finde ich aber auch komisch, da es bei den Datenblättern der X700 eigentlich hiess, dass es nur die Pro Version mit 256MB geben wird.

up¦²
2004-11-19, 17:45:00
Hey BK-Morpheus, da hast du ja einen Schatz gefunden :smile:
PowerColor SCS X700XT (http://www.tul.com.tw/Global/productlist.aspx?folderid=1&cat1=12&cat2=128&cat3=320)

http://www.tul.com.tw/webmaster/product/detail/images/891.jpg

http://www.tul.com.tw/webmaster/product/images/319.jpg

Genau was ich suche! ;)

Gast
2004-11-19, 17:51:48
PowerColor SCS X700XT (http://www.tul.com.tw/Global/productlist.aspx?folderid=1&cat1=12&cat2=128&cat3=320)

Die X700 hat aber keine 160 Mio. Transistoren. ;)

Quasar
2004-11-19, 17:52:54
:up:
Die würde mir auch gefallen - hoffentlich bald auch mit AGP-Geschmack!