PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Ende der X800


Seiten : 1 [2]

Gast
2007-09-05, 08:35:47
FPS sind FPS ;) Content kann man auf dem vergleichen was einem selbst zur Verfügung steht. Einen klaren Widerspruch sehe ich da nicht. Lieber bissl ämer mit 20fps als voll dabei mit 11fps.
Fps sollte man - und das wird ja sonst hier auch immer von der Lolman-Fraktion gefordert, bei möglichst gleichen Bedingungen vergleichen.

Also nicht 20-SM2-Fps über 11-SM3-Fps loben, sondern lieber erstmal schauen, wie schnell die alten Dinger denn sind, wenn sie auch nur SM2-Rendering darstellen müssen.

Mr. Lolman
2007-09-05, 08:47:56
Ich halte HDR ohne dynamischen Tonemapping (so wie bei Serious Sam) größtenteils für verzichtbar. Und FP16-HDR ist ohnehin ne Leistungsverschwendung. MDR tuts auch (auch auf SM2-Karten) und performt viel besser...

Fps sollte man - und das wird ja sonst hier auch immer von der Lolman-Fraktion gefordert, bei möglichst gleichen Bedingungen vergleichen.

Also nicht 20-SM2-Fps über 11-SM3-Fps loben, sondern lieber erstmal schauen, wie schnell die alten Dinger denn sind, wenn sie auch nur SM2-Rendering darstellen müssen.

Full Ack. Konsequenterweise muss man auch den NV40 mit dem Patch gegentesten.

Gast
2007-09-05, 08:56:01
Full Ack. Konsequenterweise muss man auch den NV40 mit dem Patch gegentesten.
So schaut's aus - wobei vermutlich die X850 XT PE besser abschneiden wird, schließlich hat sie ja eine deutlich höhere Füllrate. Und die Vorteile von SM3 nimmt man beiden ja weg.

Schade, dass es keine Möglichkeit gibt, die Effekte, nicht aber den Shaderpfad anzupassen. Da wird Irrational sich wohl was bei gedacht haben, kein SM2 zuzulassen.

Piffan
2007-09-05, 11:08:11
So schaut's aus - wobei vermutlich die X850 XT PE besser abschneiden wird, schließlich hat sie ja eine deutlich höhere Füllrate. Und die Vorteile von SM3 nimmt man beiden ja weg.

Schade, dass es keine Möglichkeit gibt, die Effekte, nicht aber den Shaderpfad anzupassen. Da wird Irrational sich wohl was bei gedacht haben, kein SM2 zuzulassen.

Was steht da im Handbuch so schon zur "Einstimmung": Dieses Spiel wurde in enger Zusammenarbeit mit NV entwickelt und läuft am besten auf einer NV 8xxxxx oder so ähnlich. Später kommt noch massive Werbung für Creatives XFI....

Mir ist schon klar, warum man Shader 2 mit Gewalt aussperrt. Damals bei SplinterCell hat wohl Ati nachgeholfen und nach Patch sah es auf einer X800 brilliant aus....

Vielleicht kommt noch was von der Fanseite, aber die "Offiziellen" werden da nix machen. Von daher wird es wohl auf der betagten Karte recht performant laufen, aber teils mit schmerzhaften Einbußen.....

Gast
2007-09-05, 11:49:23
Was steht da im Handbuch so schon zur "Einstimmung": Dieses Spiel wurde in enger Zusammenarbeit mit NV entwickelt und läuft am besten auf einer NV 8xxxxx oder so ähnlich. Später kommt noch massive Werbung für Creatives XFI....

Mir ist schon klar, warum man Shader 2 mit Gewalt aussperrt. Damals bei SplinterCell hat wohl Ati nachgeholfen und nach Patch sah es auf einer X800 brilliant aus....

Warum AMDs Devtech dann nicht auf einen SM2-Pfad gedrungen? Immerhin ist Bioshock einer der AA-Titel dieses Jahr.

Ach so, ja. Seit R5xx ist man ja auch dort der Meinung, dass SM2 nichts mehr taugt. Lächerlich, das immer an NV festmachen zu wollen.

Piffan
2007-09-05, 11:58:28
Warum AMDs Devtech dann nicht auf einen SM2-Pfad gedrungen? Immerhin ist Bioshock einer der AA-Titel dieses Jahr.

Ach so, ja. Seit R5xx ist man ja auch dort der Meinung, dass SM2 nichts mehr taugt. Lächerlich, das immer an NV festmachen zu wollen.

Das ist nicht lächerlich, da es ja Fakt ist. Ati/AMD schläft vielleicht auch bei der Unterstützung der Devs, vielleicht aber auch ist man müde, noch Mittel in die alte R420 zu stecken. Gibt ja mittlerweile die preisgünstige X1950, und vor allem muss man sich wohl intensiv um die neue Generation kümmern...

Die Devs von Crysis sind da fleißiger......

StefanV
2007-09-05, 11:59:58
Mir ist schon klar, warum man Shader 2 mit Gewalt aussperrt.
Ja, weil man eine SM3 Engine hat und die mal nicht so eben auf SM2 umstricken kann, aber das ist ja egal, Hersteller is ja böse...

Mr. Lolman
2007-09-05, 12:09:55
Ja, weil man eine SM3 Engine hat und die mal nicht so eben auf SM2 umstricken kann,

Natürlich kann man das. Es war zumindest technisch gesehen, ne reine Entwicklerentscheidung ob man SM2 verwendet/mit unterstützt.


BTW: AOHBioShockSM2bV4.zip
http://www.gamedev.no/projects/BioShockSM2Hack/BioShockSM2Hack.html

http://www.shadershock.tk/

Gast
2007-09-05, 12:37:10
Es war zumindest technisch gesehen, ne reine Entwicklerentscheidung ob man SM2 verwendet/mit unterstützt.
Ihr (nicht nur du) lasst eines bei solchen "böse, gekaufte Devs"-Diskussionen immer außen vor: Als Entwickler/Publisher hat man ein bißchen QA zu betreiben und im Idealfalle auch Support zu leisten.

Ein Fanprojekt muss dies nicht - da ist es also nicht dramatisch, wenn mal hier oder da eine Textur oder ein Beleuchtungseffekt fehlt.

Gast
2007-09-05, 12:40:35
Natürlich kann man das. Es war zumindest technisch gesehen, ne reine Entwicklerentscheidung ob man SM2 verwendet/mit unterstützt.


Nein, das ist vorallem eine finanzielle Entscheidung, da sich für SM3 wesentlich einfacher entwickeln lässt als für SM2. Warum sollte man also diesen Vorteil von SM3 nicht nutzen?

Piffan
2007-09-05, 13:01:04
Sicher ist es Mehraufwand, beide Renderpfade zu unterstützen. Es ist einfach eine Prognose: Gibt es noch genug Besitzer von leistungsstarker SM2- Hardware die sich dann auch noch das Spiel kaufen würden, dass es sich rechnet.
Und wenn dann noch ein paar Zuwendungen von Firmen kommen, fällt die Entscheidung noch mal so leicht.

"Böse" ist das sicher nicht, es sind autonome Entscheidungen der Firmen, die viel mit Marketing und Umsatzprognosen zu tun haben. Letztlich wollen die Spieleentwickler ja möglichst viele Einnahmen generieren und werden daher den Markt nicht aus dem Auge verlieren.

Edit: Bitte den Begriff "Zuwendung" nicht auf Geld beziehen. Zu den Zuwendungen gehört auch, dass NV die Entwickler tatkräftig unterstützt. Das sehe ich auch nicht als verwerfliches Tun an.

Crysis ist der Meinung, dass noch genug Spieler im Lande eine schnelle X800XT haben und dass es sich daher lohne, diesen Kreis noch zu bedienen. Vielleicht ist der Mehraufwand auch wirklich gering, wenn man von Vornherein so entwickelt. Gothic 3 als Pc- only- Game hat damit offensichtlich keine Probleme....weniger Details, aber das was man sieht ist fehlerfrei.

Gast
2007-09-05, 13:04:16
Sicher ist es Mehraufwand, beide Renderpfade zu unterstützen. Es ist einfach eine Prognose: Gibt es noch genug Besitzer von leistungsstarker SM2- Hardware die sich dann auch noch das Spiel kaufen würden, dass es sich rechnet.
Und wenn dann noch ein paar Zuwendungen von Firmen kommen, fällt die Entscheidung noch mal so leicht.

"Böse" ist das sicher nicht, es sind autonome Entscheidungen der Firmen, die viel mit Marketing und Umsatzprognosen zu tun haben. Letztlich wollen die Spieleentwickler ja möglichst viele Einnahmen generieren und werden daher den Markt nicht aus dem Auge verlieren.
Dann schau mal, wie groß der Markt für SM2-Hardware noch ist, mit der man das Spiel halbwegs vernünftig zocken kann: X850 XT/PE; X800 XT/PE?

Die Unterstützung der zugegebenermaßen auch nicht schnelleren GF6 kommt hingegen automatisch mit der SM3-Unterstützung.

Aufwand/Nutzen?

drillsarge@woanders
2007-09-05, 13:13:22
edu vergisst die breite basis an vorhandener hw und die ist meist so 3 jahre hinter dem high-end

Gast
2007-09-05, 13:13:58
edu vergisst die breite basis an vorhandener hw und die ist meist so 3 jahre hinter dem high-end
Meinst du mich oder Piffan?

drillsarge@woanders
2007-09-05, 13:15:27
Meinst du mich oder Piffan?
dich. ein fallback modus ist immer wünschenswert

mapel110
2007-09-05, 13:16:53
Tja, vielleicht hat sich die x800er Serie nicht die Marktdurchdringung, wie hier angenommen wird.
http://www.steampowered.com/status/survey.html
x800 3.4 %
8800 4.5 %
und das obwohl die x800 ja doch ein bisschen länger und vorallem mittlerweile günstiger zu haben ist als Gebrauchtkarte.

Gast
2007-09-05, 13:20:05
dich. ein fallback modus ist immer wünschenswert
Na, dazu habe ich doch oben bereits was geschrieben: Welche Karten sind denn drei Jahre alt? GF6800 und X800. Und nun schau dir die Top-Modelle aus diesen Serien an: Beide haben schon zu kämpfen, Bioshock ordentlich darzustellen. Welchen Sinn hätte es, nun noch einen separaten Pfad für SM2-Karten à la X600 oder gar Geforce FX einzubauen?

Wie gesagt: Die Zielgruppe wären höchstens Besitzer von X850 XT/PE; X800 XT/PE - und das sind aus zwei Gründen nicht so wahnsinnig viele: Erstens waren die Dinger damals recht teuer und zweitens sind deren Käufer eher High-End-Freaks, die mittlerweile größtenteils schon aufgerüstet haben. Die Masse kauft eher im Bereich von X800 Pro/XL bis hinunter zur X600. Und damit wird Bioshock erstmal ein SPF-Shock.

Zudem: Da primär ein Konsolenshooter, hat Bioshock den SM3 sehr ähnlichen Pfad der XBox360 mit in die Wiege gelegt bekommen.

Gast
2007-09-05, 13:24:16
Und hier sind sie
Da wo Licht ist, ist auch Schatten. Ganz gewaltige Schatten sogar!

[CENTER]http://img160.imageshack.us/img160/5335/bioshock200709031408374lh1.jpg
http://img258.imageshack.us/img258/6818/bioshock200709031415424pa6.jpg
http://img405.imageshack.us/img405/3474/bioshock200709031418154wk1.jpg
http://img258.imageshack.us/img258/7317/bioshock200709031438395sc4.jpg

Momentan ist die Schatten-, Rauch- & Feuerdarstellung nicht besonnders schön. Aber "gravierende" grafische Fehler hab ich nicht entdecht. Und spielbar ist das Spiel in jedem Fall. Zumal die Performance auch stimmt. Auf nach Rapture...

also wenn das nicht gravierend ist, dann weis ich auch nicht mehr weiter.

Gast
2007-09-05, 13:25:34
Also auf das HDR kann ich gut verzichten. Muss ich auf meiner NV40 auch, der packt das auch nicht. Ich hoffe, das sie die Farben noch hinkriegen...

ich glaube kaum dass HDRR daran schuld ist, vielmehr der zwang zu multipass bei den SM2-shadern (wobei multipass+HDR natürlich besser aussehen würde)

drillsarge@woanders
2007-09-05, 13:26:49
sicher. aber es geht (siehe hack). natürlich erwarte ich nicht, dass es auf alter hw gut performt. momentan denk ich ziehen die hw-anforderungen ziemlich an. vor kurzem konnte ich viele titel noch mit ner 9800 ziemlich gut zocken. die next-gen spiele sind da ;).

Gast
2007-09-05, 13:28:37
sicher. aber es geht (siehe hack).
Du siehst ja, wieviele Fehler es noch gibt. Die will kein Dev der Welt ungelöst im finalen Product haben - von Jowood/Piranha Bytes vielleicht mal abgesehen.

Gast
2007-09-05, 13:30:20
Full Ack. Konsequenterweise muss man auch den NV40 mit dem Patch gegentesten.

konsequenterweise sollte man den NV40 mit SM3 auf dem detailniveau des patches gegentesten und dem NV40 nicht auch noch seinen letzten vorteil nehmen. SM3 ist nämlich auf gleichem detailniveau schneller als SM2.

drillsarge@woanders
2007-09-05, 13:31:22
Du siehst ja, wieviele Fehler es noch gibt. Die will kein Dev der Welt ungelöst im finalen Product haben - von Jowood/Piranha Bytes vielleicht mal abgesehen.
stimmt schon. ist halt nen multiplattformtitel. bei nem reinen pctitel sähe es vielleicht etwas anders aus.

Gast
2007-09-05, 13:54:04
Dann schau mal, wie groß der Markt für SM2-Hardware noch ist, mit der man das Spiel halbwegs vernünftig zocken kann: X850 XT/PE; X800 XT/PE?


dummerweise verkaufen sich die ATI karten seit dem R4xx verhältnismäßig schlecht und performancemäßig wären sowieso höchstens die high-end-modelle schnell genug, deren marktdurchdringung nur ein bruchteil der ganzen R4xx-serie ist.

fallbacks sind natürlich wünschenswert, aber nicht wenn sie die entwicklungskosten in die höhe treiben.

drillsarge@woanders
2007-09-05, 15:46:27
dummerweise verkaufen sich die ATI karten seit dem R4xx verhältnismäßig schlecht und performancemäßig wären sowieso höchstens die high-end-modelle schnell genug, deren marktdurchdringung nur ein bruchteil der ganzen R4xx-serie ist.
naja, dies wage ich zu bezweifeln. zumal die x19xx karten als budget etc. ziemlich beliebt sind.

AnarchX
2007-09-05, 15:50:04
naja, dies wage ich zu bezweifeln. zumal die x19xx karten als budget etc. ziemlich beliebt sind.

Vielleicht unter denen, welche sich auskennen. Aber bei OEMs und dem Durchschnittsuser sind GeForce7 sehr beliebt, wie man auch in der Steamsurvey sieht:
http://www.steampowered.com/status/survey.html

Gast
2007-09-05, 16:04:43
naja, dies wage ich zu bezweifeln. zumal die x19xx karten als budget etc. ziemlich beliebt sind.


das sind allerdings schon SM3-karten, wofür dann noch SM2-unterstützung?

drillsarge@woanders
2007-09-05, 16:14:01
das sind allerdings schon SM3-karten, wofür dann noch SM2-unterstützung?
es ging darumdass sich ati/amd karten seit dem r4xx mäßig verkaufen

Sentionline
2007-09-05, 17:29:04
Full Ack. Konsequenterweise muss man auch den NV40 mit dem Patch gegentesten.
Work in Progress...

SM3 ist nämlich auf gleichem detailniveau schneller als SM2.
Apfel & Birnen gefällig? :|

Ja, weil man eine SM3 Engine hat und die mal nicht so eben auf SM2 umstricken kann...
Nein, das ist vorallem eine finanzielle Entscheidung, da sich für SM3 wesentlich einfacher entwickeln lässt als für SM2.
fallbacks sind natürlich wünschenswert, aber nicht wenn sie die entwicklungskosten in die höhe treiben.
Eben nicht. Eigendlich müsste der Spielehersteller, der die UE3 zur entwicklung seines SPiels nutzt, womöglich nur einpaar Zeilen im Shadercode ändern. Denn das Grafikgerüst von BioShock basiert auf der UE3, die Serienmäßig SM 2.x Part unterstüzt.
*hust*Entwicklungskosten bei einigen Zeilen Shadercode */hust*

also wenn das nicht gravierend ist, dann weis ich auch nicht mehr weiter.
Ich halte HDR ohne dynamischen Tonemapping (so wie bei Serious Sam) größtenteils für verzichtbar. Und FP16-HDR ist ohnehin ne Leistungsverschwendung. MDR tuts auch (auch auf SM2-Karten) und performt viel besser...
Ist eben ein Fanpatch. Villeicht traut sich mal ein Mitarbeiter von Irrational sich den Code mal anzuschauen. Das die R4xx HDR darstellen kann, und dabei auch gut performen kann, habe ich bei Dark Messiah gesehen. Ich weiss jetzt nicht, inwieweit man bei der UE3 den HDR Part und dessen genauigkeit beeinflussen kann. Wenn es ja ger nicht anders ginge, einfach abschalten.

Ich mach erstmal ein Benchmark NV40 vs. R481 mit dem Shader 2 Patch...Work in progress.

Gast
2007-09-05, 17:35:43
Eigendlich müsste der Spielehersteller, der die UE3 zur entwicklung seines SPiels nutzt, womöglich nur einpaar Zeilen im Shadercode ändern. Denn das Grafikgerüst von BioShock basiert auf der UE3, die Serienmäßig SM 2.x Part unterstüzt.
*hust*Entwicklungskosten bei einigen Zeilen Shadercode */hust*

[ ] Ich verstehe den Unterschied zwischen bsw. einem globalen Lichtshader und angepassten Shadern mit allen möglichen Kombinationen verschiedener Lichtquellen.

Coda
2007-09-05, 18:07:09
Das die R4xx HDR darstellen kann, und dabei auch gut performen kann, habe ich bei Dark Messiah gesehen.
Moment moment. Die Source-Engine rendert alles in Single-Pass und verwendet deshalb keinen FP16-Framebuffer für HDR, deshalb läuft das auch auf R4xx. Das darfst du nicht verallgemeinern.

Und FP16-HDR ist ohnehin ne Leistungsverschwendung. MDR tuts auch (auch auf SM2-Karten) und performt viel besser...
Ach Loli. Red nicht von Dingen von denen du nichts verstehst. Sonnenlicht ggü. blauem Himmel hat eine Dynamik von 250.000:1. Da reicht eigentlich nichtmal FP16.

Zudem redest du eh schon prinzipiellen Stuss. 8-Bit-Rendertargets reichen ganz sicher nicht für jegliche Arten von erweiterter Dynamik ohne Banding, also braucht man als nächstes 16-Bit. Und da ist FP16 auf heutigen GPUs das schnellste Format für diesen Zweck.

Gast
2007-09-05, 18:45:12
Ich halte HDR ohne dynamischen Tonemapping (so wie bei Serious Sam) größtenteils für verzichtbar. Und FP16-HDR ist ohnehin ne Leistungsverschwendung. MDR tuts auch (auch auf SM2-Karten) und performt viel besser...

Was ist für dich MDR und wo kommt es zur Anwendung? Streng nach aths: FP16-Rendering = MDR, "FP16-HDR" kommt überall zur Anwendung.

Ob man anstelle der FP16-Formate INT16-Formate nutzt (wie es die Source-Engine tut), spielt keine Rolle.

Coda
2007-09-05, 18:53:20
Ob man anstelle der FP16-Formate INT16-Formate nutzt (wie es die Source-Engine tut), spielt keine Rolle.
Tut sie nicht. Sie verwendet gar keine erweiterte Präzision im Rendertarget. Es wird alles Singlepass gerendert und das Tonemapping findet direkt am Ende jedes Shaders statt.

Die Lightmaps liegen allerdings als FP16 oder INT16 vor, das stimmt. Hat aber nichts mit der Problematik zu tun um die es hier geht.

VivaLaHarry
2007-09-05, 18:58:22
moin zusammen,

war jetzt länger nicht online und habe wohl ein Bisschen der Diskussion verpasst. Kann mir mal jemand erklären, weshalb die Screenshots vom BioShock FanPatch aussehen wie mit 16Bit Farbtiefe? Die Karte kann vllt. kein HDR (MDR) ... aber SOO sah das in den letzten 3 Jahren noch nie aus auf der Karte. Da müsste mit 32Bit-Farbtiefe doch Bisschen mehr drin sein, oder?

MfG,
VivaLaHarry

Coda
2007-09-05, 19:00:59
Wenn man erweiterte Dynamik haben will ist mit 32-Bit eben nicht "mehr drin".

Gast
2007-09-05, 19:01:44
Tut sie nicht. Sie verwendet gar keine erweiterte Präzision im Rendertarget. Es wird alles Singlepass gerendert und das Tonemapping findet direkt am Ende jedes Shaders statt.

Die Lightmaps liegen allerdings als FP16 oder INT16 vor, das stimmt. Hat aber nichts mit der Problematik zu tun um die es hier geht.
Ich meinte nicht nur die Source-Engine. Du kennst doch die HDR-Demo von humus oder überhaupt: ATi empfahl beim HDRR auf der X1000er Serie INT16-Formate für Texturen zu nutzen, da die X1000 die FP16-Formate nicht filtern kann. Einsparnis = 0.
Aber eine Behauptung, FP16-HDR wäre Resourcenverschwendung, ist IMO sinnlos.

Die eigentliche Problematik ist, dass du das, was du heute geschrieben hast, morgen schreiben wirst, weil es immernoch nicht angekommen ist.

Coda
2007-09-05, 19:04:46
Aber eine Behauptung, FP16-HDR wäre Resourcenverschwendung, ist IMO sinnlos.
Natürlich ist es sinnlos. Aber wenn's z.B. nach Loli gehen würde, würden wir heute noch Combiner statt Shader verwenden und gefälligst nur ein 8-Bit-Rendertarget. Alles andere ist doch Verschwendung an Transistoren.

Die eigentliche Problematik ist, dass du das, was du heute geschrieben hast, morgen schreiben wirst, weil es immernoch nicht angekommen ist.
Bei manchen wird's auch nie ankommen.

Sentionline
2007-09-05, 19:07:49
Sonnenlicht ggü. blauem Himmel hat eine Dynamik von 1.000.000:1. Da reicht eigentlich nichtmal FP16.
FP64 muss her?:| (Zumal in BioShock sehr viel von der Sonne zu sehen ist :rolleyes:) <---Spaß!

Ohne ins detail zu gehen, hab ich bisher kein Spiel oder eine Tec-Demo gesehen der mich im unterbewussten dazu animiert hat danach zu lechsen gedanken zu fassen: "HDR - Must have in a Game". Abgesehen davon, das dieses Future sowieso nix auf einer R4xx verloren hat.

Und Dark Messiah hab ich als beispiel genommen, das ja HDR (wenn auch rudimentär) einsetzt. Mehr als Blendeffekte sind das ja nicht.

Wenn HDR so extremst Rechenintensiv ist das es "immer" die Framerate um 50% knickt, hat es in Computerspielen sowieso nichts verloren. Denn "Framerate is Life", und wenn die Framerate in den Keller geht macht eigendlich kaum ein spiel spaß.

OT: In den kommenden Jahren wird ja Raytracing Praxistauglich. Dann wird die Grafikkarte ja eh nix in sachen Beleuchtung zu tun...Ob HDR jetzt per Raytracing berechnet werden kann, ist mir nicht bekannt.

Coda
2007-09-05, 19:11:03
FP64 muss her?:|
Theoretisch FP32. Aber 16-Bit reichen erstmal sehr gut aus, da kann man wirklich auch viel über Content tricksen.

Ohne ins detail zu gehen, hab ich bisher kein Spiel oder eine Tec-Demo gesehen der mich im unterbewussten dazu animiert hat danach zu lechsen gedanken zu fassen: "HDR - Must have in a Game". Abgesehen davon, das dieses Future sowieso nix auf einer R4xx verloren hat.
Kommt alles. Depth-Of-Field, Motionblur und Reflexionen sehen mit HDR deutlich geiler aus.

Und Dark Messiah hab ich als beispiel genommen, das ja HDR (wenn auch rudimentär) einsetzt. Mehr als Blendeffekte sind das ja nicht.
Das stimmt nicht, da ist auch Tonemapping vorhanden.

Wenn HDR so extremst Rechenintensiv ist das es "immer" die Framerate um 50% knickt
Ist es nicht.

OT: In den kommenden Jahren wird ja Raytracing Praxistauglich.
Ja, ja *schmunzel* ;)
Dazu hab ich schon genug gesagt.

Dann wird die Grafikkarte ja eh nix in sachen Beleuchtung zu tun...Ob HDR jetzt per Raytracing berechnet werden kann, ist mir nicht bekannt.
Natürlich.

Gast
2007-09-05, 19:12:21
Tja, vielleicht hat sich die x800er Serie nicht die Marktdurchdringung, wie hier angenommen wird.
http://www.steampowered.com/status/survey.html
x800 3.4 %
8800 4.5 %
und das obwohl die x800 ja doch ein bisschen länger und vorallem mittlerweile günstiger zu haben ist als Gebrauchtkarte.

In die Kategorie der SM 2.0 Karten gehören aber auch noch noch die 9500, 9600, 9700, 9800, NV30 + Abkömmlinge und eben die ganze X8X00 Reihe. X700 und X600 weiss ich jetzt nicht mal.
Schliesst man alle diese Karten bei der Spieleentwicklung aus, so verzichtet man (gemäss der Steamumfrage) auf gut 20% der potentiellen Käufer.

Dass auf Karten wie Geforce 3/4 Radeon 8500 keine Rücksicht mehr genommen wird, leuchtet ein. Aber die ganzen SM2 Teile aussen vor zu lassen, ist schon fast etwas arrogant.

mapel110
2007-09-05, 19:20:12
In die Kategorie der SM 2.0 Karten gehören aber auch noch noch die 9500, 9600, 9700, 9800, NV30 + Abkömmlinge und eben die ganze X8X00 Reihe. X700 und X600 weiss ich jetzt nicht mal.
Schliesst man alle diese Karten bei der Spieleentwicklung aus, so verzichtet man (gemäss der Steamumfrage) auf gut 20% der potentiellen Käufer.

Dass auf Karten wie Geforce 3/4 Radeon 8500 keine Rücksicht mehr genommen wird, leuchtet ein. Aber die ganzen SM2 Teile aussen vor zu lassen, ist schon fast etwas arrogant.
Tja, es geht eben nicht nur um SM2, sondern auch um Rohpower, und die ist bei den anderen SM2-Karten, die du genannt hast, nicht vorhanden in dem Maße wie es bei der X800er der Fall ist.

Entwickler beobachten nicht so sehr den Markt der SM2 oder SM3-Hardware. Sie achten eher auf die vorhandene Rohpower der Hardware auf dem Markt. Auch wenn aths und andere hier gerne das Gegenteil behaupten. Belegen lässt sich meine These dadurch, dass es schon einige Games gab, die der 5200 und 5600 SM2 vorenthalten haben und für die 5800 und 5900 aktiviert haben. Mohpa war da zum Beispiel solch ein Fall.

Sentionline
2007-09-05, 19:23:28
In die Kategorie der SM 2.0 Karten gehören aber auch noch noch die 9500, 9600, 9700, 9800, NV30 + Abkömmlinge und eben die ganze X8X00 Reihe. X700 und X600 weiss ich jetzt nicht mal.
Schliesst man alle diese Karten bei der Spieleentwicklung aus, so verzichtet man (gemäss der Steamumfrage) auf gut 20% der potentiellen Käufer.

Dass auf Karten wie Geforce 3/4 Radeon 8500 keine Rücksicht mehr genommen wird, leuchtet ein. Aber die ganzen SM2 Teile aussen vor zu lassen, ist schon fast etwas arrogant.
Ich glaube die ATi X12xx reihe und die meisten Notebook pendants auch.

Wie ich schonmal geschrieben habe, haben die Spielehersteller sehr lange die GeForce 4 unterstützt. Oblivion & Battlefield 2 sag ich nur. Damals haben sich die meisten GeForce 4 benutzer zusammengetan und dagegen protestiert, wenn die GeForce 4 beim launch eines "guten" Titels nicht unetrstützt wurde.

Die X8xx reihe lief ja "erst" im Jahre 2006 aus. Von einem Support von 2 Jahren kann man da gar nicht erst reden. Ich hab echt kein Bock dauernd die Karten aus dem Rechner fliegen zu lassen. Ich möchte neue Spiele spielen, wenn auch mit einbußen. Besonnders nervig sind die Fliegen hier, die mit Ihren aufgeblähten G8x Rechnern ihre komments hier geben, das ist noch Arroganter. Mein gott, hab jetzt kein Bock Geld für eine G8x hin zu ballern.

PS v2.x ist ja nun nicht soooo alt das man da von einer "rudimentären" Karte die für "Technologisch höchstentwickelte" spiele reden kann. Unmögliches verlangt keiner, das tun die Spielehersteller. Vor allem regt mich die ignoranz gegenüber Shader 2 Karten benutzern auf. Wenn die Engines dies nicht unterstützen (wie bei Colin Dirt), dann versteh ich das. Aber kein verständnis kommt von mir, wenn die Engines das noch zulassen.

Gast
2007-09-05, 19:44:30
Moment moment. Die Source-Engine rendert alles in Single-Pass und verwendet deshalb keinen FP16-Framebuffer für HDR, deshalb läuft das auch auf R4xx. Das darfst du nicht verallgemeinern.


und wie soll dann alpha-blending und vor allem das tonemapping funktionieren?

Gast
2007-09-05, 19:45:55
In die Kategorie der SM 2.0 Karten gehören aber auch noch noch die 9500, 9600, 9700, 9800, NV30 + Abkömmlinge und eben die ganze X8X00 Reihe. X700 und X600 weiss ich jetzt nicht mal.

nur sind diese sowieso zu langsam, die einzigen SM2-karten die zumindest mit reduzierten details das potential für halbwegs spielbare frameraten haben ist die X800-serie (und davon eigentlich auch nur jene karten ohne deaktivierte hardware-teile)

Gast
2007-09-05, 20:00:06
nur sind diese sowieso zu langsam, die einzigen SM2-karten die zumindest mit reduzierten details das potential für halbwegs spielbare frameraten haben ist die X800-serie (und davon eigentlich auch nur jene karten ohne deaktivierte hardware-teile)

Da hast Du grundsätzlich recht, allerdings begnügen sich viele Leute, die solche Hardware noch nutzen (die X800er klammere ich hier aus; ich mehe eher 9600 Nutzer), auch mit komplett abgeschalteten Details und 800*600. Ich finde, diese Entscheidung sollte man dem Kunden überlassen.

Aber in Zeiten, in denen sich Spiele primär via Grafik und Sound definieren, hat sowas offenbar keine Gültigkeit mehr. Das eigentlich langweilige & seelenlose Spiel muss quasi hinter top Grafik & Sound versteckt werden.

No.3
2007-09-05, 20:02:25
Eher wie 22bit Farbtiefe ;)

Wenn Entwickler meinen, dass das Spiel auf alter Hardware (Shader 2.0/2.0b) nicht so aussehen kann wie gedacht, ist es doch verständlich, sowas nicht zu berücksichtigen oder nicht nachträglich zu bringen.

nun, auch wenn heutige Karten mit 256 Bit Farbtiefe rendern würden, ich glaube z.B. UT Classic würde mir auf einer Voodoo 1,2,3 grafisch trotzdem besser gefallen ;)


Als ich mir Doom3 gekauft habe, hatte ich gerade auch eine GF4 rumliegen und war amüsiert darüber, daß es auch auf dieser Karte lief - aber es sah einfach nur gruseligstens aus.

na und, und wenn es gruselig aussieht, man kann es immerhin spielen. Dito z.B. mit Far Cry - auf der GF4 lief es halt, auf der X850 sah es dann halt richtig super aus, der Spielspass war aber beides mal da.

heute nun ist es doch analog dazu - scheiss drauf wenn ein modernes Spiel auf der X800 nicht super aussieht, hauptsache es läuft und wer weiss, vielleicht kauft man dann doch noch ne andere Karte auf der es dann richtig edel aussieht.

Es ist ja nicht so, dass sich momentan alle beschweren, dass man Bioshock oder was auch immer, nicht mehr auf einer GF4 spielen kann.


Als Entwickler/Publisher hat man ein bißchen QA zu betreiben und im Idealfalle auch Support zu leisten.

aja, und ausgerechnet beim Shader 2 scheiterts?

gibt genug Spiele, die nach dem Release erst mal 1000 Patches brauchten, bis sie endlich richtig liefen - wie war das mit QA ? ;)


Tja, vielleicht hat sich die x800er Serie nicht die Marktdurchdringung, wie hier angenommen wird.
http://www.steampowered.com/status/survey.html
x800 3.4 %
8800 4.5 %
und das obwohl die x800 ja doch ein bisschen länger und vorallem mittlerweile günstiger zu haben ist als Gebrauchtkarte.

ob diese Statistik wirklich soooo repräsentativ ist?

The_Invisible
2007-09-05, 20:06:26
ob diese Statistik wirklich soooo repräsentativ ist?

nein, sind eh nur über eine million einsendungen, lieber 10 leute auf der strasse befragen und daraus eine statistik generieren ;)

mfg

Gast
2007-09-05, 20:20:28
na und, und wenn es gruselig aussieht, man kann es immerhin spielen. Dito z.B. mit Far Cry - auf der GF4 lief es halt, auf der X850 sah es dann halt richtig super aus, der Spielspass war aber beides mal da.

du vergisst die verdammt schlechte presse, wenn ein spiel auf bestimmten karten scheußlich aussieht.

No.3
2007-09-05, 20:25:39
du vergisst die verdammt schlechte presse, wenn ein spiel auf bestimmten karten scheußlich aussieht.

könnte mich nicht daran erinnern, dass es Schelte gab, weil Far Cry auf einer GF4 nicht in highest Details läuft ;)

Gast
2007-09-05, 20:32:08
könnte mich nicht daran erinnern, dass es Schelte gab, weil Far Cry auf einer GF4 nicht in highest Details läuft ;)

nur gab es kein übles banding bei farcry, und so viele abstriche musste man mit eine GF4 gar nicht machen wenn man nicht so hohe frameraten braucht.

Gast
2007-09-05, 20:51:15
Wie ich schonmal geschrieben habe, haben die Spielehersteller sehr lange die GeForce 4 unterstützt. Oblivion & Battlefield 2 sag ich nur. Damals haben sich die meisten GeForce 4 benutzer zusammengetan und dagegen protestiert, wenn die GeForce 4 beim launch eines "guten" Titels nicht unetrstützt wurde.

Die X8xx reihe lief ja "erst" im Jahre 2006 aus. Von einem Support von 2 Jahren kann man da gar nicht erst reden. Ich hab echt kein Bock dauernd die Karten aus dem Rechner fliegen zu lassen. Ich möchte neue Spiele spielen, wenn auch mit einbußen. Besonnders nervig sind die Fliegen hier, die mit Ihren aufgeblähten G8x Rechnern ihre komments hier geben, das ist noch Arroganter. Mein gott, hab jetzt kein Bock Geld für eine G8x hin zu ballern.

PS v2.x ist ja nun nicht soooo alt das man da von einer "rudimentären" Karte die für "Technologisch höchstentwickelte" spiele reden kann. Unmögliches verlangt keiner, das tun die Spielehersteller. Vor allem regt mich die ignoranz gegenüber Shader 2 Karten benutzern auf. Wenn die Engines dies nicht unterstützen (wie bei Colin Dirt), dann versteh ich das. Aber kein verständnis kommt von mir, wenn die Engines das noch zulassen.
Oblivion hat die GF4 doch gar nicht unterstützt - nur mittels Fan-Patch. Oder meintest du das?

Was das Aufrüsten angeht: Naja, das ist eben das Dilemma. Viele Argumentieren ja, dass sie nur das bezahlen, was ihnen auch was bringt. Die müssen dann eben einmal öfter neu kaufen.

Und ja: PS2, besonders 2.0, ist heute geradezu archaisch. 96 PS-Instruktionen, davon auch noch eine feste Aufteilung in 64-ALU +32-TEX. Keine Dependant Reads in mehr als vier Stufen usw usf. Das war schon eine First-Gen-Implementierung, wie sie im Buche Steht. Nur eben schnell - sonst nichts.

C.D.B.
2007-09-05, 23:22:14
Tja, vielleicht hat sich die x800er Serie nicht die Marktdurchdringung, wie hier angenommen wird.
http://www.steampowered.com/status/survey.html
x800 3.4 %
8800 4.5 %
und das obwohl die x800 ja doch ein bisschen länger und vorallem mittlerweile günstiger zu haben ist als Gebrauchtkarte.

Da hast Du doch glatt die 0,52% X850-Karten unterschlagen. :|
Dann sind bei Steam ja noch 3,92% aller Gamer mit R4xx unterwegs. :O (:anonym:)

mapel110
2007-09-05, 23:37:40
Da hast Du doch glatt die 0,52% X850-Karten unterschlagen. :|
Dann sind bei Steam ja noch 3,92% aller Gamer mit R4xx unterwegs. :O (:anonym:)
Trotzdem wenig, wenn man bedenkt, wie lange und wie günstig es die Karte im Vergleich zu den drei G80-Varianten gibt.

Mr.Soapdown
2007-09-07, 11:04:29
Moin,

auch wenn´s vielleicht keinen wirklich interessiert. Ich zocke gerade stalker. Ging relativ gut, aber alles was das game optisch ausmacht, kann ich natürlich nicht genießen. Ich bin gerade beim maulwurf und der schickt mich in diesen schacht. Ab hier geht nix mehr..... die Karte ist "fertig" und muss in einen anderen PC wandern.

Mr. Lolman
2007-09-07, 11:16:07
Is auch nix mehr mit AIlow, AppAF + 1024x768?

rpm8200
2007-09-07, 12:14:44
Ich hatte zu Beginn von Stalker eine X800GTO @XL und kann die Aussage nicht bestätigen! Ich hab Stalker auf 1280x1024 durchgespielt. Ohne AA oder AF aber ging durchaus ohne fps-Einbrüche. Und eine XL ist ja nun nicht gerade das Topmodell der 800er Serie sondern eher so unteres Mittelfeld.

<EDIT>Unter 1024x768 sollte sogar etwas AA/AF drin sein, also wenn die KArte von Soapdown gerade im Schacht schlapp macht dann is der bug wohl wo anders zu suchen als an der Karte, indoors liefs bei mir immer runder als outdoors</EDIT>

Mit der 1950pro kann ich wieder AA und AF aktivieren und funzt auch.

The_Invisible
2007-09-07, 12:16:34
stalker funktioniert für gewöhnlich nicht mit AA mit dynamischer beleuchtung

mfg

Mr.Soapdown
2007-09-09, 16:40:37
Mein system ist ein 6600er@3,oGhz und ich zocke mit 1440x900. Die Schieberegler sind beide beim 2ten Einraster (irgendwie steht da nix) Patch hab ich 1.3 drauf. Muss nochmal schauen was alles genau von mir eingestellt ist.

Ich werde ab hier nicht weiter zocken bis ich eine andere Grafikkarte drin hab. Ein Bischen eyecandy möchte ich schon haben und dann mit einer neuen stärkeren Karte sofort nochmal alles durch zocken möchte ich nicht. Einige Überraschungen möchte ich mir aufsparen :)

Die von mir vorgenommenen Einstellungen mit der x800xt poste ich nachher.
(Falls "Dave" das liest, von dem ich die Karte habe..... immer noch alles tiptop hab Spass mit dem Teil).

Mr.Soapdown
2007-09-09, 17:38:49
Hab jetzt folgende Einstellungen im ATI TT:

AI - off (vorher off)
optimierungen ein (vorher aus)
textur pref (hq)
mipmap (hq)

AA und AF auf anwendungsgesteuert gestellt und beide aus (vorher AA 4x AF 4x im Treiber)

In Game:
Qualität mittel
statische beleuchtung
sichtweite 2/3
Objekt details 80%
Gras auf 1/3
textur details auf 75%

Wie gesagt an den Schiebereglern kann ich nix ablesen.

Läuft wieder wunderbar bei 1440x900

Gast
2007-09-11, 12:24:21
Hallo, es gibt jetzt einen Bioshock Tweaker der es erlaubt das Spiel auf SM2 Karten laufen zu lassen. Allerdings auch noch Beta.

Mr. Lolman
2007-09-11, 12:43:25
Hallo, es gibt jetzt einen Bioshock Tweaker der es erlaubt das Spiel auf SM2 Karten laufen zu lassen. Allerdings auch noch Beta.

Link?

Hab jetzt folgende Einstellungen im ATI TT:

AI - off (vorher off)
optimierungen ein (vorher aus)
textur pref (hq)
mipmap (hq)

Mit AIlow und dafür dynamische Beleuchtung ists auch zu langsam?

Gast
2007-09-11, 13:33:23
http://dl.gamecopyworld.com/?d=2007&f=BioShock_Tweaker!zip

Mr.Soapdown
2007-09-11, 20:06:05
Mit AIlow und dafür dynamische Beleuchtung ists auch zu langsam?

Hab ich noch nicht probiert. Mach ich mal morgen früh. Diese dynamische Beleuchtung haut aber richtig rein, hatte ich schon mal an. Das ist ein Sprung von gut spielbaren FPS bis in den FPS-Keller. Fraps zeigt nur noch rot.

mfg bis morgen...

Den Maulwurf hab ich schon mal gerettet.

Gast
2007-09-12, 00:04:18
@ Soapdown

Ist das das erste Mal, wo man in den Untergrund geht? Wenn ja: soweit hatte ich mich auch mal mit einer GF4 "vorgekämpft" (auch im übertragenen Sinne). Ab da ging nichts mehr, da es auf der GF4 kein "Licht" mehr gab.
Hatte da seinerzeit auch mal einen sehr schnell getrashten Thread zu eröffnet, in dem ich mich über die unnötigen Einschränkungen der Grakas beschwerte.
Ich kann jedoch beide Seiten gut verstehen: Einerseits war es sehr ärgerlich, dass Stalker auch mit einer GF4 etwa auf FarCry-Niveau (@GF4) "sehr gut" spielbar war, aber Grafikfehler alles zunichte machten (kurz: warum wurden Pistolen ordentlich dargestellt, AK-Modelle jedoch um 90° gedreht und verschoben -> Zielen unmöglich!).
Andererseits kann ein Spieleentwickler nicht alle Grakagens (=PS...) berücksichtigen, da dies die Entwicklungskosten sprengen würde, auch wenn es theoretisch möglich wäre.
Es liegt also am oft zu schlecht aufgeklärten Kunden zu entscheiden, welche GraKa er wählt. Dabei ist es mMn das wichtigste, immer ein vernünftiges Gleichgewicht zwischen Leistung und Features zu finden (P/L mal ausgenommen).
Wenn man dabei "geschlampt" hat, braucht man sich nicht zu wundern, wenn Wahl A (z.B. GF5200) zwar Features bietet, die aber mangels Rohleistung nicht wirklich einsetzbar sind und mit Wahl B (scheinbar hier der Fall) eine ordentliche Rechenleistung zur Verfügung steht, aber mangels Features der Bildschirm schwarz bleibt.

Mr.Soapdown
2007-09-12, 13:07:42
Hallo,

mir ist durch aus bewusst das ich in der "Entwicklung" zurückliege. Es ist bis auf diese echten eyecandys, die stalker ausmacht, gut spielbar. Ich habe hier im Forum erstmal für die nächsten 4-5 Monate eine 1900Xt geschossen, um dann auf den G92 zugehen.

Hab schon Bischen Spass inne Backen so oder so....

Die von mir angekündigten Einstellungen habe ich noch nicht getestet. Ich habe heute einen Fimmel bekommen und renn mit nen Strommessgerät durchs Haus, oh man - da geht noch was , gg.

Mr.Soapdown
2007-09-13, 09:53:11
So, habs mal probiert.

AI low und dynamische Beleutung.

Die Gegner sind alle schon erledigt. Wenn ich den Gang lang gehe, die kurze Treppe runter und dreh mich ein wenig, schwanken die fps zwischen 17 und 30 fps. Für mich nicht spieltbar. Wobei ich mich hier auch wieder sofort frage: Was die Kategorieen "min 15fps in jeder szene", "min 20 fps in jeder szene" über haupt sollen?

Ich bin sicher jemand der in solchen Spielen mal mehr Qualitätseinstellungen vornimmt, um so ein Spiel genießen zu können. Aber mal ehrlich: Sind 15 fps spielbar? NEIN Also 25 fps sollten es schon sein, wobei ich hier dropdowns auf 25 meine.

Ich habe bei STALKER besonders festgestellt, daß man bestimmte scalierungen/Auflösungen je nach HW meiden und bzw. nutzen sollte. Fällt hier besonders auf mM.

N0Thing
2007-09-13, 13:28:27
Hallo, es gibt jetzt einen Bioshock Tweaker der es erlaubt das Spiel auf SM2 Karten laufen zu lassen. Allerdings auch noch Beta.

Link?


http://www.shadershock.tk/
http://www.gamedev.no/projects/BioShockSM2Hack/BioShockSM2Hack.html
http://www.paolofranchini.com/shshock/viewtopic.php?f=1&t=53

Roland
2007-10-02, 08:37:03
Hallo zusammen,

könnte mir jemand sagen, welches der beste/stabilste Catalyst-Treiber für eine X800 XL unter Windows XP ist?

Besten Dank

Roland

_DrillSarge]I[
2007-10-02, 09:25:35
pcie? -> der neuste (7.9)
agp? -> 7.7

Roland
2007-10-02, 09:36:16
Hallo,

das habe ich doch glatt vergessen zu erwähnen.
Die Karte steckt in einem PCI-Express Steckplatz.

Gruß

Roland

C.D.B.
2007-10-02, 17:06:35
I[;5894468']pcie? -> der neuste (7.9)
agp? -> 7.7

Bis R481 ist das AGP-Interface im Chip integriert -> kein Brigdechip!

Daher kann man auch mit AGP beruhigt zu den neuesten Treibern greifen. ;)

_DrillSarge]I[
2007-10-02, 17:49:50
Bis R481 ist das AGP-Interface im Chip integriert -> kein Brigdechip!

Daher kann man auch mit AGP beruhigt zu den neuesten Treibern greifen. ;)
ob das prob am bridgechipliegt?

Gast
2007-10-02, 18:25:33
I[;5896260']ob das prob am bridgechipliegt?

Kaum, dann wäre das nicht so urplötzlich aufgetaucht. Die haben etwas am Treiber/CCC so verändert, dass es irgendwo hakt. Wobei der Fix-Treiber auf meiner AGP X1950pro keine Probleme macht.

Sandratte
2007-10-20, 14:38:43
schade das isch den Fred erst jetzt ( wop ich auch das BIOSHOCK Prob. hab) lese !!!
hab mit der ATI X850XT keinen Mauszeiger und es Fehlten Texturen!!!
bei der 68er ist es das Flugzeug ;)
der Patch ließ mich gar nicht ins Game (kam mit ner Fehlermeldung wieder zum Desct,) der 4-10 installierte sich nicht mal richtig !! TRAURIG ATI !!

Ghost Recon funtzt mit der ATI doch das nächste Game "Sponsored NV" Lost Planet will auch ned recht!! auch nicht mit der 6800er die ich nun zwischenzeitlich mal verbaut habe....

wird Zeit für neue HW :)