PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : auch mid-range gpus mit 3.0 shadern


Spake
2004-02-16, 17:35:03
tjoa wie oben schon steht frag ich mich ernsthaft ob die nächsten mid-range karten PS/VS 3.0 überhaupt besitzen werden
wäre ja nett dass erste mal dass neue dx features nett in die mid-range chips integriert werden (g4mx ;))

grade bei Ati stellt sich mir schon die frage
besonders nachdem die letzten specks und codenamen für deren zukünftige chips auftauchten
ich hab dort nirgends was mit RV4xx gesehen und da selbst der R420 die neuen shader nett wirklich gut unterstützen wird glaub ich persönlich nett an derartige shader in diesem halbjahr bei karten im stile eine R9600 oder fx5600 geschweige denn bei den noch kleineren karten

imo würde es sich wohl auch nett für nv/Ati lohnen denn immerhin glaub ich nett dass dx9.0c sich als so großartig für einen DAU anhört welche sich eine fx5200 nur wegen dx9 gekauft hatt

Was meint ihr:
werden die R9600/fx5700 nachfolger schon die neuen shader unterstürtzen bzw. die features ihrer großen brüder(nv40/R420)???

mapel110
2004-02-16, 18:13:54
http://www.3dcenter.org/artikel/2004/01-27_a.php
nvidia plant sowas, aber wohl auch erst deutlich später.(NV42)

Bei ATI ist generell wenig bekannt.

Und wie skalierbar die PowerVR Series5 ist, muss man abwarten.

p.s. du verwechselst wohl mid range mit low cost?!

Gast
2004-02-16, 18:14:02
also bei Nvidia kannst du zu 100% davon ausgehen.
Der CEO hat letzte Woche bei den Quartalszahlen offiziell bestätigt, dass alle NV4x Derivate voll auf den 3.0 Standard setzen.

Also rein von den Features her, wird zumindest Nvidia auf der ganzen Linie auf PS/VS 3.0 setzen.
Macht auch irgendwo Sinn. Gerade mit den Midrange und Low End Produkten der NV3x Reihe können sie sehr gut punkten. Vor allem deshalb, weil eben alles an Board ist von der Technik her. Die Performance ist nur zweitrangig in dem Preissegment.

Spake
2004-02-16, 19:16:31
Original geschrieben von mapel110
http://www.3dcenter.org/artikel/2004/01-27_a.php
nvidia plant sowas, aber wohl auch erst deutlich später.(NV42)

Bei ATI ist generell wenig bekannt.

Und wie skalierbar die PowerVR Series5 ist, muss man abwarten.

p.s. du verwechselst wohl mid range mit low cost?!
ich sehe unter mid-range alles so um die 200 €
dazu gehören meines wissen die RV360 und der nv41
es gibt natürlich auch abgespeckte R360 und nv38 aber die seh ich den transistoren wegen nett als mid-range

vielleicht sollte ich meine frage spezifizieren:
werden bei chips bei denen es besonders auf wenig transistoren ankommt bald PS/VS3.0 auf hardwareeben verfügbar sein?

nv ging mit der g4mx den transitorensparweg und hat nur dx7 zeugs verbaut und Ati hockt bei der <=R9200 immernoch auf dx8 rum


->übrigens finde ich es nett verwunderlich dass nv sagt dass alle nv4x derivate 3.0 shader haben werden
das war mir schon immer klar
-->aber dass heißt ja noch lange nett dass nv auch bald kostengünstigere chips auf nv4x basis rausbringen wird
der nachfolger der fx5200/5700 könnte genausogut einfach einen nv3x codenamen erhalten und nur 2.0 shader besitzen

imo kann man ja nie genug transitoren sparen und ich bin mir nett ganz sicher ob der DAU einen mehrwert empfindet nur weil seine karte dx9.0c und nicht "nur" dx9.0 kann :D

Tigerchen
2004-02-16, 19:16:57
Ja. Auf der Packung stehts drauf und in der Realität werden die Shader mittels Treiber auf den den kleinen Karten einfach abgeschaltet. Ist ja auf den kleinen FX-Karten heute schon so.
Wirklich schnelle 3.0 Shader gibts erst ab NV50 / R500.
Ihr versprecht euch viel zu viel von den neuen Chips.
Und in Zukunft werden die Abstände zu wirklicher "neuer" Hardware eher noch größer. Alleine schon um die immensen Kosten wieder reinholen zu können.

Coda
2004-02-16, 20:11:56
Die Terminologie DX 9.0c ist eigentlich auch falsch
DX 9 unterstützt in sämtlichen Versionen Shader 3.0

ow
2004-02-16, 20:15:22
.

Godmode
2004-02-16, 20:30:40
Ich bin mir fast sicher das Nvidia mit dem Nv40 wieder Midrange und LowCost Chips mit VS/PS 3.0 bringen wird. Ich weiss das sie NUR mit den Lowcost und Midrange Chips wirklichen Gewinn machen und daher wird es sicher wieder solche Chips geben. Das Marketing wird dann wieder anpreisen: Mit unserer GeforceFX6000 Reihe werden Enthusiasten und Preisbewußte Käufer mit überagender Kinoqualität durch DirectX 9.1 belohnt. In mit ungeahnter Geschwindigkeit können sie ihren Gegner kalt stellen... dieses ganza blalbalalbalab. Und die ganzen Nubs lesen das wieder auf kaufen wieder mit freude ein:)

Hauwech
2004-02-16, 20:39:16
Da es fuer den Verkauf von neuen Grafikkarten eigentlich nur foerderlich sein kann, wird es mit Sicherheit eine 9.0c Runtime geben. Und sei es nur der neue Name und der Rest bleibt geich. ;) Fuer Otto Normalo reicht es das die neuen Chips laut Verpackung *grossen fetten DX 9.0c oder sogar, Marketing sei Dank: DX 9.1 Aufkleber vorstell* mehr koennen....wie schnell ist egal ==> siehe FX 5200

*Schulterzuck* Lassen wir uns ueberraschen :)

Xmas
2004-02-16, 21:01:28
Original geschrieben von Tigerchen
Ja. Auf der Packung stehts drauf und in der Realität werden die Shader mittels Treiber auf den den kleinen Karten einfach abgeschaltet. Ist ja auf den kleinen FX-Karten heute schon so.
Mittels Treiber wird da nichts abgeschaltet.

Demirug
2004-02-16, 21:12:23
Original geschrieben von ow
Das kann man so nicht direkt sagen.

Die DX Runtime ist derzeit schon bei 9.0b, für das SDK ist noch ein Update auf 9.0c vorgesehen (Sommer 2004 Update). Ob´s auch eine 9.0c Runtime geben wird ist mir unbekannt.

Das stimmt so auch nicht ganz. Die SDKs bekommen keine Buchstaben sondern nur die Runtimes.

Die SDKs heisen einfach:

- DX 9.0 SDK
- DX 9.0 SDK Sommer 2003 Update
- DX 9.0 SDK Sommer 2004 Update

Demirug
2004-02-16, 21:13:26
Original geschrieben von Xmas
Mittels Treiber wird da nichts abgeschaltet.

Man kann über den Treiber die gemeldete maximal unterstützte Shaderversion reduzieren.

Xmas
2004-02-16, 21:22:06
Natürlich kann man das, aber das war nicht das Thema ;)

DrumDub
2004-02-16, 21:55:49
Original geschrieben von Xmas
Mittels Treiber wird da nichts abgeschaltet.

richtig. das spiel/die anwendung schaltet diese ab. aber für den endanwender ist der effekt derselbe, auch wenn der versierte nutzer dies natürlich umgehen kann.

Gast
2004-02-16, 22:01:43
Original geschrieben von bans3i
Ich bin mir fast sicher das Nvidia mit dem Nv40 wieder Midrange und LowCost Chips mit VS/PS 3.0 bringen wird. Ich weiss das sie NUR mit den Lowcost und Midrange Chips wirklichen Gewinn machen und daher wird es sicher wieder solche Chips geben. Das Marketing wird dann wieder anpreisen: Mit unserer GeforceFX6000 Reihe werden Enthusiasten und Preisbewußte Käufer mit überagender Kinoqualität durch DirectX 9.1 belohnt. In mit ungeahnter Geschwindigkeit können sie ihren Gegner kalt stellen... dieses ganza blalbalalbalab. Und die ganzen Nubs lesen das wieder auf kaufen wieder mit freude ein:)

Die Argumentation verstehe ich nun gar nicht.
1. Sollten wir doch alle froh sein, wenn das Featureset von der billigsten bis zur teuersten Karte an Board ist. Nur dann ist ein Publisher auch daran interessiert seine Entwickler anzuweisen entsprechende Features zu nutzen.
Für die 5% Enthusiasten macht kein Schwanz den Aufwand ausser vielleicht ID Software und Epic.
Aber da hörts dann auch schon auf.

2. Kann ich das Argument auch überhaupt nicht nachvollziehen, wenn ich mir die Produktpalette anschaue. Du kannst mit deinen Sätzen eigentlich nur die FX5200 gemeint haben. Denn im Midrange bietet ja auch ATI DX9 Features an.
Natürlich ist das DX9 der FX5200 nicht gerade atemberaubend schnell nur wehre ich mich dagegen dass negativ auszulegen gegen die Karte.
Fakt ist doch, dass der Wettbewerb technologisch ältere Produkte anbietet in diesem Preissegment die noch nichtmal schneller sind, und ein absolut nicht zeitgemäßes AA und AF bieten.
Ich könnte dich ja verstehen, wenn die Wettbewerber Low Cost Produkte liefern würden, die die FX5200 zerreissen aber die lächerlicher 9200 kann das wohl kaum sein. Mit der kann es eine FX5200 locker aufnehmen.
Insofern verstehe ich deinen Ansatz hier nicht so ganz. Du kannst mir ja bescheid geben, wenn die Konkurenten was besseres anbieten. Bis dahin bietet Nvidia das tauglichste Low End Produkt an und dass auch noch mit DX9 als Bonus.

marco42
2004-02-17, 00:38:54
Original geschrieben von bans3i
Ich bin mir fast sicher das Nvidia mit dem Nv40 wieder Midrange und LowCost Chips mit VS/PS 3.0 bringen wird. Ich weiss das sie NUR mit den Lowcost und Midrange Chips wirklichen Gewinn machen und daher wird es sicher wieder solche Chips geben. Das Marketing wird dann wieder anpreisen: Mit unserer GeforceFX6000 Reihe werden Enthusiasten und Preisbewußte Käufer mit überagender Kinoqualität durch DirectX 9.1 belohnt. In mit ungeahnter Geschwindigkeit können sie ihren Gegner kalt stellen... dieses ganza blalbalalbalab. Und die ganzen Nubs lesen das wieder auf kaufen wieder mit freude ein:)

Ist halt Marketing?! Glaubst du jeder braucht die hoehste Aufloesung mit dem besten Filtering. Ich zB warte auf eine Karte, die endlich das GLSlang Featureset komplett in Hardware unterstuetzt. Das wird dann wohl eine NV 4X(haben immer noch die besten Linux Treiber) sein.

Ich Spiele schon seit Jahren kaum noch, ab und zu bzflag, aber auch das kaum noch. Ich finde einfach, dass die Spiele in den Achtzigern und Anfang der Neunziger einfach mehr Spass machten. Mir ist das egal, ob das Spiel nun nur eine festverdrahtete geometry engine oder eine Shading Language ala Renderman unterstuetzt. Es sollte einfach nur richtig Spass machen.

PS kennt jemand einen guten Carrier Command Clone?

Godmode
2004-02-17, 01:03:01
Original geschrieben von Gast
Die Argumentation verstehe ich nun gar nicht.
1. Sollten wir doch alle froh sein, wenn das Featureset von der billigsten bis zur teuersten Karte an Board ist. Nur dann ist ein Publisher auch daran interessiert seine Entwickler anzuweisen entsprechende Features zu nutzen.
Für die 5% Enthusiasten macht kein Schwanz den Aufwand ausser vielleicht ID Software und Epic.
Aber da hörts dann auch schon auf.

2. Kann ich das Argument auch überhaupt nicht nachvollziehen, wenn ich mir die Produktpalette anschaue. Du kannst mit deinen Sätzen eigentlich nur die FX5200 gemeint haben. Denn im Midrange bietet ja auch ATI DX9 Features an.
Natürlich ist das DX9 der FX5200 nicht gerade atemberaubend schnell nur wehre ich mich dagegen dass negativ auszulegen gegen die Karte.
Fakt ist doch, dass der Wettbewerb technologisch ältere Produkte anbietet in diesem Preissegment die noch nichtmal schneller sind, und ein absolut nicht zeitgemäßes AA und AF bieten.
Ich könnte dich ja verstehen, wenn die Wettbewerber Low Cost Produkte liefern würden, die die FX5200 zerreissen aber die lächerlicher 9200 kann das wohl kaum sein. Mit der kann es eine FX5200 locker aufnehmen.
Insofern verstehe ich deinen Ansatz hier nicht so ganz. Du kannst mir ja bescheid geben, wenn die Konkurenten was besseres anbieten. Bis dahin bietet Nvidia das tauglichste Low End Produkt an und dass auch noch mit DX9 als Bonus.


1.) Den Aufwand den man sich für Spezialeffekte macht, die nur 5% der User mit guten Frameraten spielen können, macht man um das Game gut zu vermarkten. Klar schauen die Entwickler darauf das sie das Game so designen das es auch auf den schwächeren/älteren Karten läuft, welche die meisten User haben. Wer kann sich schon ne 5950 oder ne 9800Xt kaufen? Ich ganz bestimmt nicht. Deshalb gibt es Fallbacks (zb Pixelshader wird mit Hilfe Multitexturing nachgemacht, da die Graka kein Pixelshading beherscht oder es zu langsam macht. Meistens sind dann Fallbacks aber qualitativ schlechter/langsamer als die pixelshadingversion des Effektes) Die Presse wird sicher kein großes Lob aussprechen wenn das Game graphisch nicht State-of-Art ist. Dann heißt es gleich wieder "Die Graphik ist eher schon etwas angestaubt..." Und was bringt den eben ein Featureset wenn nicht alles verwendet werden kann weil die Graka von Grund auf zu langsam ist?


2.Ok da hab ich wirklich das falsche Wort verwendet. Zu Midrange/Mainstream gehört ja auch die 9500-9600XT und die FXen 5600-5700Ultra, die ja super GPUs sind. Ja ich weiss das ATI im Low-End-Sektor eigentlich nichts zu bieten hat, ich äußere mich zur Fx5200 deswegen immer negativ, weil ich sie in meinem Notebook hab und ich ne Fx5900XT gewohnt bin. Und im alten Rechner hab ich noch die gute Ti 4400 drinnen und die läuft auch um Häuser besser als die Fx5200. Ja im Gegensatz zu ATIs 9200 ist die Fx5200 eine Klasse für sich. Aber im großen und ganzen ist es ja trotzdem für die Katz wenn die Karte DX9.0 in vollem Umfang beherrscht(!PS/VS 3.0 natürlich), die Effekte aber dann so langsam dargestellt werden können, dass ich auf DX8 Fallback zurückgreifen muss!! Kannst du mir sagen was dann DX9.0 Feature-Set bringt???



Original geschrieben von marco42
Ist halt Marketing?! Glaubst du jeder braucht die hoehste Aufloesung mit dem besten Filtering. Ich zB warte auf eine Karte, die endlich das GLSlang Featureset komplett in Hardware unterstuetzt. Das wird dann wohl eine NV 4X(haben immer noch die besten Linux Treiber) sein.

Ich Spiele schon seit Jahren kaum noch, ab und zu bzflag, aber auch das kaum noch. Ich finde einfach, dass die Spiele in den Achtzigern und Anfang der Neunziger einfach mehr Spass machten. Mir ist das egal, ob das Spiel nun nur eine festverdrahtete geometry engine oder eine Shading Language ala Renderman unterstuetzt. Es sollte einfach nur richtig Spass machen.

PS kennt jemand einen guten Carrier Command Clone?



Ja da hast du schon Recht mit Auflösung und Co., mir persönlich macht ein Game auch mehr Spass wo das Spielprinzip noch im Vordergrund steht und nicht die Grafik. Warum glaubst du spiele ich noch ab und zu CS? Ja klar wegen der Mega-Graphik :schlag: Ich spiele es natürlich weil es SPASS macht. Deswegen spielt man doch ein Game weil es SPASS macht!!!!. Die Gute Graphik war mal ein netter Effekt nebenbei, aber heutzutage gehört das eben auch dazu. Stell dir vor wo wir wären wenn das Gameplay immer besser geworden wäre die Graphik aber immer gleich geblieben wäre? Also man sollte ein gewisses Verhältnis zwischen Gameplay und Technik finden!! Von einem neuen Game erwarte ich nunmal das es wieder besser ausieht als der Vorgänger, wenn dabei allerdings dann das Gameplay leidet ist das extrem traurig, aber die Publisher werden das sicher in den Verkaufszahlen merken.

Odal
2004-02-17, 03:29:22
es muesste korrekter heissen wer will die sich schon kaufen, kaufen koennte ich mir sowas ohne probleme, nur seh nicht ein in eine graka soviel geld zu stecken die es leicht abgeschwaecht fuer viel weniger geld gibt..und die sowieso nach 2 jahren zum alten eisen gehoert.

[quote]ich äußere mich zur Fx5200 deswegen immer negativ, weil ich sie in meinem Notebook hab und ich ne Fx5900XT gewohnt bin.

ist ja auch nen notebook ;) ausserdem waer mit nem bissle OC einiges mehr drin..da ja die GO's mit weniger takt laufen ist das auch nicht 1 zu 1 zu vergleichen...meine 5600go laeuft default nur auf 250/500 und bei mir auf 325/625


Aber im großen und ganzen ist es ja trotzdem für die Katz wenn die Karte DX9.0 in vollem Umfang beherrscht(!PS/VS 3.0 natürlich), die Effekte aber dann so langsam dargestellt werden können, dass ich auf DX8 Fallback zurückgreifen muss!! Kannst du mir sagen was dann DX9.0 Feature-Set bringt???


es bringt fuer den normaluser keine vorteile..ABER auch keine nachteile ;) und einige koennen diese feature sicher gebrauchen, mitunter besteht die welt nicht nur aus spielen ;)


Stell dir vor wo wir wären wenn das Gameplay immer besser geworden wäre die Graphik aber immer gleich geblieben wäre? Also man sollte ein gewisses Verhältnis zwischen Gameplay und Technik finden!!

leider ist es meistens so wie du bemerktest...im grossen und ganzen wird der speilspass an aktuellen spielen schlechter..das einzige was mir oft einen oho oder aha effekt abringen kann ist nur noch die grafik...traurig aber wahr...frueher war eben doch alles besser :)
genau deswegen speil ich noch viel auf meinem retro Amiga hehe

aths
2004-02-17, 04:54:12
Original geschrieben von DrumDub
richtig. das spiel/die anwendung schaltet diese ab. aber für den endanwender ist der effekt derselbe, auch wenn der versierte nutzer dies natürlich umgehen kann. Ja. Aber wo liegt der Schwarze Peter wirklich? Bei NV, die "zu schwache" DX9-Karten bauen? Oder bei den Spiele-Programmierern, die dreist auf DX8-Shader zurück gehen?

Bzw., gibt es hier überhaupt einen Schwarzen Peter zu verteilen? In dem Preissegment, in dem man die 5200 oder 5600 liegt, kann man nun mal nicht gleichzeitig tolle DX9-Performance und gute AA/AF-Modi erwarten. Letztlich ist es mir völlig schnuppe, ob ein Effekt mit DX8 oder DX9 erreicht wird, HL2 z. B. wird auf DX8-Karten auch tipp-topp aussehen.

Erst wurde ständig gelästert, kaum jemand setze auf DX8-Effekte. Das nervte mich auch, wozu hatte man denn die teure DX8-HW in der Kiste? Jetzt wird hier und da DX8 und DX9 verwendet, nun muss es offenbar uuunbedingt DX9 sein. Manche kriegen den Mund einfach nicht voll :)

Original geschrieben von Tigerchen
Ja. Auf der Packung stehts drauf und in der Realität werden die Shader mittels Treiber auf den den kleinen Karten einfach abgeschaltet. Ist ja auf den kleinen FX-Karten heute schon so.Nein. Der Treiber schaltet nichts ab.
Original geschrieben von Tigerchen
Wirklich schnelle 3.0 Shader gibts erst ab NV50 / R500.Das ist ja eine Bahn brechende Erkenntis :)

Nichts desto trotz ist es besser, ein gegebenes Feature zu haben, als es nicht zu haben. Beispiel FX 5200: Endlich die lang erwartete GF4 MX mit DX8, und sogar DirectX9. Was ist nun besser gewesen, die Einführung der GF4 MX, welche weiterhin auf die DX7-Schiene setzte, oder die Produktion der 5200, welche vergleichbare Leistung, aber sehr viel mehr Features hat? Aus gewissen Ecken hört man da ständig Gemecker, egal was Big N macht.

aths
2004-02-17, 05:00:02
Original geschrieben von Spake
tjoa wie oben schon steht frag ich mich ernsthaft ob die nächsten mid-range karten PS/VS 3.0 überhaupt besitzen werden
wäre ja nett dass erste mal dass neue dx features nett in die mid-range chips integriert werden (g4mx ;))"Nett" das erste mal? (-> nett (http://www.wissen.de/xt/default.do?MENUID=40,156,538&MENUNAME=InfoContainer&OCCURRENCEID=WD001GW00065324.WD001GW00065324.TM01-FullContent&WissenID=QDGSY9BUefODSP1cuO2rle0qD7NzIa1aFrNRnsF5efOCa1Mx2Lc2|-1659497858647263226/182718474/6/7063/7063/7003/7003/7063/-1|-7539736242171005495/182718476/6/7063/7063/7003/7003/7063/-1|1076990563078).)

NV wird wohl sofort eine komplette Familie auf den Markt bringen, bei ATI wird ein Mainstream-Ableger vielleicht wieder einmal etwas auf sich warten lassen.

Ruhm bringen die großen Karten, verkauft werden eher die kleinen. Entgegen manchen Behauptungen bringt es was, wenn die kleinen "Feature complete" sind. Siehe GF2 MX.

Oder, Gegenbeispiel, Ti 4600. Rohe Leistung, aber nur DX8. So lässt sich die Leistung eigentlich nur in Auflösung (bzw. AA und AF) umsetzen. Beim gegenteiligen Fall, eher schwache Leistung, aber neuste Features, kann man immer noch über die Auflösung skalieren.

aths
2004-02-17, 05:45:30
Original geschrieben von bans3i
Aber im großen und ganzen ist es ja trotzdem für die Katz wenn die Karte DX9.0 in vollem Umfang beherrscht(!PS/VS 3.0 natürlich), die Effekte aber dann so langsam dargestellt werden können, dass ich auf DX8 Fallback zurückgreifen muss!! Kannst du mir sagen was dann DX9.0 Feature-Set bringt???Dann bringt es nichts. Das ist klar.

Angenommen, ein Programm nutzt, wenn möglich, Vertex Shader 2.0, weil 1.1 vom Instruction Count her zu eingeschränkt ist. Würde nur VS_1_1 geboten, müsste die CPU entweder das komplette, oder zumindest einen Teil des Vertex Shadings übernehmen.

Beim Pixelshader hat man mit DX9-Compliance immerhin die Möglichkeit, entsprechende Programme prinzipiell laufen zu lassen. Dass die Leistung nicht sonderlich toll ist, sollte angesichts des Preises nicht Wunder nehmen. Aber hier scheidet ganz und gar aus, dass etwa die CPU das Shading übernimmt — PS_2_0_SW ist vieeel langsamer, als von wenn die GPU das machen kann, selbst wenn es nur ein NV34 ist. Der Hauptgrund dürfte natürlich sein, dass sich die meisten von "DX9" beeindrucken lassen; wenn man sieht, welche unsinnige Geilheit nach viel Graka-RAM bis heute an den Tag gelegt wird, ist es ökonomisch sicherlich sinnvoll, auch die kleinsten der neuen CPUs featuremäßig vollständig zu belassen.

Angenommen, es hätte eine Art GF3 MX gegeben, praktisch GF2 MX-Leistung mit DirectX8-Shadern. Leistung hin oder her — ich denke, mit einer "GF3 MX" würden wir heute deutlich mehr DX8-Unterstützung in den Spielen vorfinden.

DrumDub
2004-02-17, 11:02:05
Original geschrieben von aths
Ja. Aber wo liegt der Schwarze Peter wirklich? Bei NV, die "zu schwache" DX9-Karten bauen? Oder bei den Spiele-Programmierern, die dreist auf DX8-Shader zurück gehen?

Bzw., gibt es hier überhaupt einen Schwarzen Peter zu verteilen? In dem Preissegment, in dem man die 5200 oder 5600 liegt, kann man nun mal nicht gleichzeitig tolle DX9-Performance und gute AA/AF-Modi erwarten. Letztlich ist es mir völlig schnuppe, ob ein Effekt mit DX8 oder DX9 erreicht wird, HL2 z. B. wird auf DX8-Karten auch tipp-topp aussehen.

Erst wurde ständig gelästert, kaum jemand setze auf DX8-Effekte. Das nervte mich auch, wozu hatte man denn die teure DX8-HW in der Kiste? Jetzt wird hier und da DX8 und DX9 verwendet, nun muss es offenbar uuunbedingt DX9 sein. Manche kriegen den Mund einfach nicht voll :)


ich habe lediglich erläutert, dass in manchen spielen standardmäßug auf einer fx 5200 keine effekte angeboten werden, zu denen die karte hw-mäßig in der lage ist.

das dies eine designentscheidung des spieleentwicklers ist und der sich was dabei gedacht hat, dürfte klar sein. von schwarzem peter hab ich in diesem thread nie was gesagt. deshalb versteh ich nicht so ganz, warum du jetzt was von schwarzem peter erzählst... den hab ich zumindest niemandem zugeschoben.
(auch wenn meine aussagen da in der vergangenheit vielleicht anders waren. grundsätzlich bemühe ich mich seit einiger zeit eine objektive einstellung einznehmen, was die grakahersteller angeht.) ;)

Gast
2004-02-17, 12:29:26
Original geschrieben von bans3i
1.) Den Aufwand den man sich für Spezialeffekte macht, die nur 5% der User mit guten Frameraten spielen können, macht man um das Game gut zu vermarkten. Klar schauen die Entwickler darauf das sie das Game so designen das es auch auf den schwächeren/älteren Karten läuft, welche die meisten User haben. Wer kann sich schon ne 5950 oder ne 9800Xt kaufen? Ich ganz bestimmt nicht. Deshalb gibt es Fallbacks (zb Pixelshader wird mit Hilfe Multitexturing nachgemacht, da die Graka kein Pixelshading beherscht oder es zu langsam macht. Meistens sind dann Fallbacks aber qualitativ schlechter/langsamer als die pixelshadingversion des Effektes) Die Presse wird sicher kein großes Lob aussprechen wenn das Game graphisch nicht State-of-Art ist. Dann heißt es gleich wieder "Die Graphik ist eher schon etwas angestaubt..." Und was bringt den eben ein Featureset wenn nicht alles verwendet werden kann weil die Graka von Grund auf zu langsam ist?


Ich denke du siehst die Sache falsch. Der Entwickler hat bei dieser Entscheidung grundsätzlich erstmal gar nix zu sagen. Die Außnahmen habe ich in meinem vorherigen Post beschrieben. Für den Rest der Bande gilt eher, dass der Publisher das letzte Wort hat und der macht eine Marktuntersuchung und schaut sich den Markt an.
Am Ende will er wissen, wieviel DX9 Grakas sind im Markt. Die Performance ist dem Publisher erstmal völlig schnuppe.
Je mehr Low End DX9 Grakas im Markt umso besser.
Das die Grafik angestaubt ist kann die Presse nur behaupten, wenn es bessere Vergleichsmöglichkeiten gibt. Wenn es aber keine DX9 Ware breit im Markt gibt, wirds auch keine Vergleichsmöglichkeit geben in der Masse, weil die Publisher alle gleich denken.
DX9 breit im Markt vorhanden - ja oder nein.
Was anderes wollen die nicht wissen. Deswegen ist mir DX9 oder eben dann PS/VS3.0 auf der breiten Front total willkommen vollkommen egal wie unterirdisch die Performance ist. Bis das Spiel fertig ist, hat diese Hardware sowieso kaum noch wer oder aber kauft sich dann eben neue.

Tigerchen
2004-02-17, 14:40:13
Original geschrieben von aths
Ja. Aber wo liegt der Schwarze Peter wirklich? Bei NV, die "zu schwache" DX9-Karten bauen? Oder bei den Spiele-Programmierern, die dreist auf DX8-Shader zurück gehen?

Bzw., gibt es hier überhaupt einen Schwarzen Peter zu verteilen? In dem Preissegment, in dem man die 5200 oder 5600 liegt, kann man nun mal nicht gleichzeitig tolle DX9-Performance und gute AA/AF-Modi erwarten. Letztlich ist es mir völlig schnuppe, ob ein Effekt mit DX8 oder DX9 erreicht wird, HL2 z. B. wird auf DX8-Karten auch tipp-topp aussehen.

Erst wurde ständig gelästert, kaum jemand setze auf DX8-Effekte. Das nervte mich auch, wozu hatte man denn die teure DX8-HW in der Kiste? Jetzt wird hier und da DX8 und DX9 verwendet, nun muss es offenbar uuunbedingt DX9 sein. Manche kriegen den Mund einfach nicht voll :)


Den schwarzen Peter möchte ich mal den Marketing-Leuten zuschieben. Du schielst ja mehr auf die technische Seite. Da muß ich dir sogar zustimmen. Letztlich ist es egal wie der Effekt zustande kommt. Mich ärgert dieses reißerische Marketing trotzdem.

Odal
2004-02-17, 23:23:22
Original geschrieben von Tigerchen

Den schwarzen Peter möchte ich mal den Marketing-Leuten zuschieben. Du schielst ja mehr auf die technische Seite. Da muß ich dir sogar zustimmen. Letztlich ist es egal wie der Effekt zustande kommt. Mich ärgert dieses reißerische Marketing trotzdem.

warum marketing leuten? sie hat DX9 und das kann man dann doch auch anpreisen....
ich find es gut das die karten einer produktgeneration bei nvidia nun dieselben grafik features haben (alle FXen unterstuetzen DX9)
frueher hat sich jeder ueber die GF4MX aufgeregt weil diese kein DX8 unterstuetzt und dennoch GF4 heisst...nun machts NVidia besser und die lowcost karte unterstuetzt die aktuelle DX (DX9) version und alle maekeln wieder dran rum...
man leute entscheidet euch endlich was ihr wollt!!!!
ich find das zum kotzen weil den leuten kann mans wirklich nicht recht machen....
nun ist die Namensgebung FX5xxx eindeutig d.h. alle kommen mit DX9 zurecht und wieder nur gemecker.

Gast
2004-02-17, 23:29:43
Original geschrieben von Odal
warum marketing leuten? sie hat DX9 und das kann man dann doch auch anpreisen....
ich find es gut das die karten einer produktgeneration bei nvidia nun dieselben grafik features haben (alle FXen unterstuetzen DX9)
frueher hat sich jeder ueber die GF4MX aufgeregt weil diese kein DX8 unterstuetzt und dennoch GF4 heisst...nun machts NVidia besser und die lowcost karte unterstuetzt die aktuelle DX (DX9) version und alle maekeln wieder dran rum...
man leute entscheidet euch endlich was ihr wollt!!!!
ich find das zum kotzen weil den leuten kann mans wirklich nicht recht machen....
nun ist die Namensgebung FX5xxx eindeutig d.h. alle kommen mit DX9 zurecht und wieder nur gemecker.

das liegt einfach daran, dass die Karte von Nvidia kommt und nicht von ATI. Sonst würdest du andere Wortlaute hören. Das Problem hierbei ist eben nur, dass der Wettbewerb sich diesmal dort gar nicht absetzen kann. Die FX5200 ist zwar nicht sonderlich schnell aber blöder Weise ist sie auch ohne DX9 das tauglichere Produkt als dass was da ATI zb. anbietet (9200). Das DX9 ist halt lediglich ein Bonus. Deswegen ist es schwer gegen die FX5200 zu argumentieren. Mit einer besseren und trozdem technisch älteren Karte wäre das natürlich einfacher.

Ich finde die FX5200 einfach toll und zwar sowohl die 128 Bit als auch die 64 Bit Variante und wenn die FX5500 nun wirklich ein NV34 produziert in 0.13 ist, dann wirds noch besser. Dann fliegt die olle GF4MX wirklich bald aus dem Programm und der Markt kann mit DX9 dann komplett geflutet werden.

aths
2004-02-18, 05:08:51
Original geschrieben von Tigerchen

Den schwarzen Peter möchte ich mal den Marketing-Leuten zuschieben. Du schielst ja mehr auf die technische Seite. Da muß ich dir sogar zustimmen. Letztlich ist es egal wie der Effekt zustande kommt. Mich ärgert dieses reißerische Marketing trotzdem. Das ist bei ATI kaum weniger reißerisch. Auch bei Sapphire z. B. finden sich schlicht falsche Angaben, die Produkte betreffend (128-Bit-Rendering etc.)

In DirectX8 Pixelshadern ist die Radeon 9600 Takt für Takt nur halb so schnell, wie die Radeon 8500. Auch ein Rückschritt?

Was das NV-Marketing angeht, seit der FX-Serie gilt endlich wieder: Je größer die Zahl, desto schneller. Nach den Wirren um GF4 MX, Ti 4800 SE etc. scheint NV gelernt zu haben, und schafft mit der neuen Benamung Klarheit.

mapel110
2004-02-18, 07:30:19
Original geschrieben von aths
Benamung

Namensgebung :kicher:

Die 5200 bietet genug Speed um die dx9-Effekte zumindest mal bei 20 fps und 640x480 anzugucken (zumindest bei der ersten Generation von dx9-games).
Von daher ist es imo dann doch mehr als ein Bonus.

StefanV
2004-02-18, 07:48:33
Original geschrieben von aths
Was das NV-Marketing angeht, seit der FX-Serie gilt endlich wieder: Je größer die Zahl, desto schneller. Nach den Wirren um GF4 MX, Ti 4800 SE etc. scheint NV gelernt zu haben, und schafft mit der neuen Benamung Klarheit.

Weitestgehend, wenn man die XTs teilweise rauslässt (besonders die FX5600 XT)...

Ich hoffe mal, daß nV mit der nächsten Generation etwas sparsamer mit Transistoren ist, so daß sie mehr Leistung unterbringen können...

Odal
2004-02-18, 08:08:03
Original geschrieben von Stefan Payne
Weitestgehend, wenn man die XTs teilweise rauslässt (besonders die FX5600 XT)...

Ich hoffe mal, daß nV mit der nächsten Generation etwas sparsamer mit Transistoren ist, so daß sie mehr Leistung unterbringen können...

mhh? wo ist das problem...das xt bedeutet bei allen nvidia varienten abgespeckten chiptakt. da es auch 128 Bit Speicheranbingung versionen der 5600xt gibt seh ich da keinen fehler in der namensgebung.
man muss halt auf den memorybus achten..beim R9600 gibts auch 64 Bit speicherbus varianten..also wo is das problem?
das XT bedeutet einfach den niedrigeren chiptakt...das andere ist boardhersteller abhaengig

es wird jedenfalls nicht sowas betrieben das die pipelines halbiert werden um produktionsausschuss noch irgendwie zu verticken

aths
2004-02-18, 09:22:11
Original geschrieben von Stefan Payne
Ich hoffe mal, daß nV mit der nächsten Generation etwas sparsamer mit Transistoren ist, so daß sie mehr Leistung unterbringen können... Features fordern ihren Preis. ATI kann Transistoren nur sparen durch hoch, äh, "optimierte" Texturfilter und natürlich FP24.

Gast
2004-02-18, 13:34:15
Original geschrieben von aths
Angenommen, es hätte eine Art GF3 MX gegeben, praktisch GF2 MX-Leistung mit DirectX8-Shadern. Leistung hin oder her — ich denke, mit einer "GF3 MX" würden wir heute deutlich mehr DX8-Unterstützung in den Spielen vorfinden.

*hust*
und was war dann die nachgeschobene Ti200 ? die sollte eigentlich die "GF3MX" werden. Sie war schön günstig (ich hatte eine, will was heissen) und bringt bis heute noch Leistung in DX8 Spielen wie NFS:U (das kann ich mit FSAA auf 800x600 spielen :P )

aths
2004-02-18, 15:15:20
Original geschrieben von Gast
*hust*
und was war dann die nachgeschobene Ti200 ? die sollte eigentlich die "GF3MX" werden. Sie war schön günstig (ich hatte eine, will was heissen) und bringt bis heute noch Leistung in DX8 Spielen wie NFS:U (das kann ich mit FSAA auf 800x600 spielen :P ) Die Ti 200 kam viel zu spät, und war trotz allem (vor allem anfangs) viel zu teuer, um als MX durchzugehen (und auch viel zu schnell.)

Tigerchen
2004-02-18, 16:05:31
Original geschrieben von Gast
das liegt einfach daran, dass die Karte von Nvidia kommt und nicht von ATI. Sonst würdest du andere Wortlaute hören. Das Problem hierbei ist eben nur, dass der Wettbewerb sich diesmal dort gar nicht absetzen kann. Die FX5200 ist zwar nicht sonderlich schnell aber blöder Weise ist sie auch ohne DX9 das tauglichere Produkt als dass was da ATI zb. anbietet (9200). Das DX9 ist halt lediglich ein Bonus. Deswegen ist es schwer gegen die FX5200 zu argumentieren. Mit einer besseren und trozdem technisch älteren Karte wäre das natürlich einfacher.

Ich finde die FX5200 einfach toll und zwar sowohl die 128 Bit als auch die 64 Bit Variante und wenn die FX5500 nun wirklich ein NV34 produziert in 0.13 ist, dann wirds noch besser. Dann fliegt die olle GF4MX wirklich bald aus dem Programm und der Markt kann mit DX9 dann komplett geflutet werden.

Schreib nicht so einen Unfug. Jahrelang kam mir nur nVIDIA in die Kiste. Wenn ich sowas wie "Rage" gelesen hab dann hab ich gleich einen Riesenbogen drum gemacht. Kann mich auch nicht daran erinnern eine Ur-Radeon, Radeon 8500, 9000 oder 9200 jemals für "gut" befunden zu haben. Die haben alle Schwächen die mir persönlich eine Empfehlung unmöglich machen.

Wenn du die FX 5200 gut findest habe ich kein Problem damit. Ich seh das eben anders. Kann der FX5200 nichts abgewinnen.

Gast
2004-02-18, 18:49:10
Original geschrieben von aths
Die Ti 200 kam viel zu spät, und war trotz allem (vor allem anfangs) viel zu teuer, um als MX durchzugehen (und auch viel zu schnell.)

zu schnell war se nich, vorallem nich da die GF2 ja trotzdem weiterverkauft wurde und ned lang später die GF4MX kam, womit die Ti200 zwar ne Notlösung war allerdings ihren Job doch recht gut gemacht hat... sie hatte zwar für eine Low-Mainstream (eigenkreation ;D ) einen sehr hohen Preis, bot dafür auch angemessene Leistung und DX8 !

Spake
2004-02-19, 13:35:27
der unterschied zwischen einer ti4600 und einer ti 4200 war wirklich nur gering, besonders weil ich da richtig satt schotter gespart habe wenn ich mir das kleinere modell gekauft habe und danach übertaktet :D

aber nehmen wir an nv hat wirklich aus ihren fehlern gelernt und lässt sämtliche karten sahder 3.0 unterstützen stellt sichn mir immernoch die frage ob Ati dass auch machen wird
die 9200 sollte zwar langsam wirklich abgelöst werden aber rein theoretisch könnten sie es auch so machen:
RV250 wird abgelöst durch RV350derivat und ->low-cost
RV350 wird durch einen bessere version abgelöst ->mainstream

ich frag mich wirklich ernsthaft was Ati machen wird
immerhin soll der R420 keine sonderlich guten shader 3.0 haben und deshalb könnte ich mir vorstellen, dass sie dieses feature auch ihren anderen gpus vorenthalten ?!

aths
2004-02-20, 17:51:25
Original geschrieben von Spake
der unterschied zwischen einer ti4600 und einer ti 4200 war wirklich nur gering, besonders weil ich da richtig satt schotter gespart habe wenn ich mir das kleinere modell gekauft habe und danach übertaktet :DAuch die Ti 4600 ist übertaktbar.

Quasar
2004-02-20, 18:10:19
Original geschrieben von Stefan Payne
Weitestgehend, wenn man die XTs teilweise rauslässt (besonders die FX5600 XT)...


X und T sind Zahlen?

Wow, man lernt doch nie aus... :naughty:

Odal
2004-02-22, 06:11:02
Original geschrieben von aths
Auch die Ti 4600 ist übertaktbar.

ja allerdings ist nicht soviel mehr zuerwarten als beim uebertakten der Ti4200

und wenn man ne 4200er im layout einer 4400/4600 hat dann strebt der unterschied gegen null