PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

ShadowXX
2005-01-19, 20:43:48
Würde man SM3 über den F-Buffer realisieren, wüsste ich keinen Grund warum man sich auf "nur" 512 Slots beschränkt.

ATI hat nunmal die Angwohnheit sich nur auf das nötigste zu beschränken...man müsste dazu mal wissen, warum nV nun gerade 4096 slots anbietet (und was es Sie "kostet").

Ich schätze mal, das für sowas extra Buffer/Register/"weiss der Teufel" mit integriert werden müssen...je mehr, desto "teurer" wird das ganze....

Vielleicht ist es auch ein Speedproblem.....

Vielleicht auch ein Logikproblem (auf die komplexität der Schaltkreise bezogen, 512 Slots sind sicher einfacher zu Verwalten als 4096)....speziell, da eben niemand weiss, wie ATI da SM3.0 auf dem r520 realisieren wird.

Vielleicht hat auch AiL recht und durch die geringere Anzahl an Slots wird das Branching schneller....

Bis ATI den Chip vorstellt und irgendjemand diesen Analysiert tappen wir sowieso im Dunkeln....wobei ich am meisten auf Transistorensparen tippe.

Hauwech
2005-01-19, 20:47:01
Würde man SM3 über den F-Buffer realisieren, wüsste ich keinen Grund warum man sich auf "nur" 512 Slots beschränkt.

Ich wüsste keinen Grund warum ATI mehr als das Minimum bieten sollte. Seit 2002 bieten sie ja praktisch auch nicht mehr als Minimum.

reunion
2005-01-19, 21:28:05
Ich wüsste keinen Grund warum ATI mehr als das Minimum bieten sollte. Seit 2002 bieten sie ja praktisch auch nicht mehr als Minimum.

Es geht darum das es mittel F-Buffer ein leichtes sein müsste die anzahl der Slots hochzuschrauben. Somit spricht diese Tatsache eher gegen eine realisierung mittels F-Buffer.

Hauwech
2005-01-19, 21:53:41
Es geht darum das es mittel F-Buffer ein leichtes sein müsste die anzahl der Slots hochzuschrauben. Somit spricht diese Tatsache eher gegen eine realisierung mittels F-Buffer.

Du stellst eine Vermutung im ersten Satz an und stellst es im nächsten Satz als Tatsache hin? Das musst du mir mal erklären.

Ailuros
2005-01-20, 04:29:54
Ich wüsste keinen Grund warum ATI mehr als das Minimum bieten sollte. Seit 2002 bieten sie ja praktisch auch nicht mehr als Minimum.

Oxymoron. ATI bietet anscheinend 2x so hoch das minimum von instruction slots mit VS3.0 (wenn die Treiberdaten stimmen sollten, sind's >1000 VS3.0 instruction slots).

Uebrigens:

Anzahl der instruction slots sind AFAIK ein ganz anderes Bier als die Anzahl der Anweisungen die eine GPU theoretisch ausfuehren kann.

NV40:

MaxVShaderInstructionsExecuted: 65535
MaxPShaderInstructionsExecuted: 65535
MaxVertexShader30InstructionSlots: 544
MaxPixelShader30InstructionSlots: 4096

Vielleicht hat auch AiL recht und durch die geringere Anzahl an Slots wird das Branching schneller....

Nein an das dachte ich eigentlich nicht. Eher an ein rein theoretisches (ist ja sowieso alles nur Theorie fuer die Lebzeiten dieser Karten ausser fuer die Entwickler dort draussen) verrueckt langes Shaderprogramm. Mit sagen wir mal >1000 Anweisungen, frage ich mich ob es einen Unterschied macht ob man jetzt 512 oder >4k slots hat. Gleiches gilt umgekehrt fuer den Vertex Shader.

Fragenswert ist uebrigens auch warum ATI so viel Last auf den VS Bereich generell legt....

ShadowXX
2005-01-20, 07:37:28
Nein an das dachte ich eigentlich nicht. Eher an ein rein theoretisches (ist ja sowieso alles nur Theorie fuer die Lebzeiten dieser Karten ausser fuer die Entwickler dort draussen) verrueckt langes Shaderprogramm. Mit sagen wir mal >1000 Anweisungen, frage ich mich ob es einen Unterschied macht ob man jetzt 512 oder >4k slots hat. Gleiches gilt umgekehrt fuer den Vertex Shader.


Upppsss....da hatte ich dich wohl falsch verstanden.


Fragenswert ist uebrigens auch warum ATI so viel Last auf den VS Bereich generell legt....

Vielleicht sind Sie Fans von Futuremark Benches ;)

mapel110
2005-01-20, 07:46:05
Fragenswert ist uebrigens auch warum ATI so viel Last auf den VS Bereich generell legt....

Vielleicht ists ja garnicht viel. Also mir fehlt das das Hintergrundwissen, um diese Zahlen einzuschätzen, inwiefern sie überhaupt wichtig für Features und Speed sind.

ShadowXX
2005-01-20, 08:47:09
Vielleicht ists ja garnicht viel. Also mir fehlt das das Hintergrundwissen, um diese Zahlen einzuschätzen, inwiefern sie überhaupt wichtig für Features und Speed sind.

Nunja....selbst heutzutage sind die VS schon völlig unterbeschäftigt (aussnahme 3DMurkse, im speziellen der 05).

Und wenn man sich die Aussagen von Epic anguckt, werden SIe auch in Zukunft nicht viel stärker benutzt werden....

Im Prinzip braucht man diesesen extremem Vertex-Power momentan höchstens für Profi-Karten (also FireGL).

Ailuros
2005-01-20, 14:07:24
Nunja....selbst heutzutage sind die VS schon völlig unterbeschäftigt (aussnahme 3DMurkse, im speziellen der 05).

Und wenn man sich die Aussagen von Epic anguckt, werden SIe auch in Zukunft nicht viel stärker benutzt werden....

Im Prinzip braucht man diesesen extremem Vertex-Power momentan höchstens für Profi-Karten (also FireGL).

Unterbeschaeftigt (in relativem Sinn) sind die heutigen VS-Einheiten auf jeden Fall nicht; sie sind eben ueberbeschaeftigt IMHO in Applikationen wie 3dmark05.

Mit dem was Epic momentan in UE3 anstellt, werden wohl selbst 6 VS@400/520MHz nicht gerade der Hammer sein (Sweeney's Aussage kann leicht irrefuehren). Wird wohl aber auch egal sein, da wir in 2006 wohl schon WGF2.0 kompliante chips (ob vereinte Einheiten bei beiden IHVs steht noch in den Sternen) sehen werden und natuerlich auch dual-core CPUs.

TheCounter
2005-01-25, 12:28:22
Laut theinquirer will ATi den R520 im Mai vorstellen:

http://www.theinquirer.net/?article=20896

deekey777
2005-02-15, 21:52:48
ATI R520 Details, birds....birds....birds (http://www.neowin.net/forum/index.php?showtopic=284495&st=0)
Nur Blah-Blah???

24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core
134.4 Billion Shader Operations per Second (at 700MHz)
256-bit 512MB 1.8GHz GDDR3 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
300-350 Million Transistors
90nm Manufacturing
Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Launch: Q2 2005
Performance: Over 3x Radeon X800 XT !!! (for single R520)
16x stochastic FSAA
FP32 blending, texturing
Programmable Primitive Processor/Tesselator



Und noch was... (http://www.beyond3d.com/forum/viewtopic.php?t=20412)

TheCounter
2005-02-15, 22:22:32
256-bit 512MB 1.8GHz GDDR3 Memory
Performance: Over 3x Radeon X800 XT !!! (for single R520)
16x stochastic FSAA

Interessant... aber 900MHz GDDR3 Speicher? Ist das nicht ein bisschen sehr optimistisch?

3 mal schneller als eine X800XT. Was natürlich nur für Einzel-/Extremfälle gilt ;)

16x stochastic FSAA, klingt ja schonmal nicht schlecht...

q@h
2005-02-15, 22:36:03
guckt mal auf die früheren Seiten dieses Freds - die "Specs" kommen mir verdächtig bekannt vor... ;)

Coda
2005-02-15, 22:41:36
Performance: Over 3x Radeon X800 XT !!! (for single R520) Das ist anhand den Specs schon reichlich übertrieben. Die Füllrate ist gradmal doppelt so hoch und der Speicher ca. ~1,6x so schnell (falls es 900Mhz GDDR3 bis dahin überhaupt gibt - ich bezweifle es)

32 Texture UnitsMhm bei 24 Pipelines? Da sind wohl schon die 8 Vertex TMUs eingerechnet.

Also so unglaubwürdig sind die Specs nicht.

tombman
2005-02-15, 22:42:34
BLA.... kann sich jeder ausgedacht haben

-error-
2005-02-15, 22:59:43
Ich habe was gehört von 16 Superpipelines, also 32 wären es dann.

Wird man zur Cebit mehr Informationen haben?

16x stochastic FSAA

Was ist das denn Feines? :smile:

StefanV
2005-02-15, 22:59:56
Das ist anhand den Specs schon reichlich übertrieben. Die Füllrate ist gradmal doppelt so hoch und der Speicher ca. ~1,6x so schnell (falls es 900Mhz GDDR3 bis dahin überhaupt gibt - ich bezweifle es)

Vergleich mal GF2U mit der FX5800 auf GF2U Taktrate ;)
(meinetwegen auch 9500).
(der Härtefall wäre GF2 MX vs Kyro II).

Coda
2005-02-15, 23:05:40
Ich weiß nicht auf was du hinauswillst, aber 520Mhz*16 ist ungefähr halb soviel wie 700Mhz*24

Ohne Shader wird es darauf hinauslaufen. Und die Shaderperformance wird sich sicher auch nicht verdoppeln.

-error-
2005-02-15, 23:12:56
Also ich denke auch, dass die R520 doppelt so schnell wie die R480 ist, was wieder ein gewaltiger Schritt wäre, dann könnte man ja jedes Spiel flüssig auf 1600x1280 spielen, 512MB soll es auch geben, da steht schon fest :) Aber wie teuer wird die Karte dann?
Also ich gehe mal von 600€ aus, aufgrund des teuren schlecht verfügbaren Speichers.


16x stochastic FSAA, was ist das nun? Wenn es das ist was ich denke, werde ich mir zu 100% ne ATI kaufen, natürlich nicht das Topmodell ;)

StefanV
2005-02-15, 23:24:11
Ich weiß nicht auf was du hinauswillst, aber 520Mhz*16 ist ungefähr halb soviel wie 700Mhz*24

Ohne Shader wird es darauf hinauslaufen. Und die Shaderperformance wird sich sicher auch nicht verdoppeln.
ATi könnte ja z.B. ihre alten Designs entsorgen und auf TBDR oder ähnliche, sparsame Techniken setzen, dann wär das durchaus im Bereich des Möglichen.

StefanV
2005-02-15, 23:25:12
16x stochastic FSAA, was ist das nun? Wenn es das ist was ich denke, werde ich mir zu 100% ne ATI kaufen, natürlich nicht das Topmodell ;)
Im Prinzip ists nichts anderes als 'aufgemotztes Temporal AA'.

Also ein mehr oder minder Zufälliges Muster, das sich von Frame zu Frame ändert.

Xmas
2005-02-15, 23:28:56
Ich würde auf diese "Details" nicht allzu viel geben, obwohl ein paar Punkte mit Sicherheit stimmen - aber die wusste man auch schon vorher.

-error-
2005-02-15, 23:34:05
Im Prinzip ists nichts anderes als 'aufgemotztes Temporal AA'.

Also ein mehr oder minder Zufälliges Muster, das sich von Frame zu Frame ändert.

Hmm, bei der Leistung braucht man so Schnack auch nicht, ich dachte es wäre ein stark verbessertes Filtern :(

StefanV
2005-02-15, 23:38:59
Ich würde auf diese "Details" nicht allzu viel geben, obwohl ein paar Punkte mit Sicherheit stimmen - aber die wusste man auch schon vorher.
Die größte Frage ist doch, ob das hier ein ATi Design ist oder ob es nicht eventuell ein 'aufgemotzter' Serie 3 ist :)

StefanV
2005-02-15, 23:40:28
Hmm, bei der Leistung braucht man so Schnack auch nicht, ich dachte es wäre ein stark verbessertes Filtern :(
Stark verbessert ists ja, 6x < 16x :)

Bin mal gespannt, wie schnell/lahm dieses Anti Aliasing ist :)

Die Frage ist natürlich, ists ein SGI Renderer oder ein TBDR :)

Xmas
2005-02-15, 23:40:44
Die größte Frage ist doch, ob das hier ein ATi Design ist oder ob es nicht eventuell ein 'aufgemotzter' Serie 3 ist :)
:confused:

StefanV
2005-02-15, 23:56:48
:confused:
Uups, irgendwie muss ich was durcheinander gebracht haben :|

Serie 3 war ja eigentlich der Kyro, Serie 4 wurde eingestampft, ergo kanns nur Serie 5 sein, was ich eigentlich meinen könnte...

-error-
2005-02-15, 23:57:38
Stark verbessert ists ja, 6x < 16x :)

Bin mal gespannt, wie schnell/lahm dieses Anti Aliasing ist :)

Die Frage ist natürlich, ists ein SGI Renderer oder ein TBDR :)

Ach ups, ich habs mit dem der Anisotropischen Filterung verwechselt und klar, bei 16xAA macht dann TAA auch wieder Sinn, bei 6x hingegen nicht, jedenfalls nicht bei diesen Leistungsreserven (meiner Meinung nach).

Aber weiß man schon was über die unterstützten Verfahren (Verbesserungen) was die Anisotropische Filterung betrifft?

Xmas
2005-02-16, 00:05:43
Uups, irgendwie muss ich was durcheinander gebracht haben :|

Serie 3 war ja eigentlich der Kyro, Serie 4 wurde eingestampft, ergo kanns nur Serie 5 sein, was ich eigentlich meinen könnte...
Jetzt musst du mir nur noch erklären wo da der Zusammenhang zum R520 ist...

StefanV
2005-02-16, 00:10:33
Aber weiß man schon was über die unterstützten Verfahren (Verbesserungen) was die Anisotropische Filterung betrifft?
Nein.

Aber von 'better than R300' kann man ausgehen, in wie fern verbessert und was gemacht wurde, werden wir sehen, wenn das Teil aufm Markt ist...

Die Frage ist auch, ob ATi Tri TMUs verbaut oder noch an Bi TMUs festhält...

Coda
2005-02-16, 00:15:01
Stark verbessert ists ja, 6x < 16xWeil die Zahlen ja auch schon immer sehr aussagekräftig sind :rolleyes:
(siehe 16xOGSSAA gegen 6xRGMSAA)

TruPlaya_UB
2005-02-16, 00:24:52
Können wir schon wieder so früh einen solchen technologischen schritt (in sachewn speed) erwarten ??
Wohl kaum

PS: VIelleicht läufts auf ein 16x2 Design raus, welches sich geschickt nutzen lässt wie ein 32 Design, sprich anders als beim GF5800

StefanV
2005-02-16, 00:38:05
Weil die Zahlen ja auch schon immer sehr aussagekräftig sind :rolleyes:
(siehe 16xOGSSAA gegen 6xRGMSAA)
Och, ATi hat schon ein RG Muster, die werden kaum auf ein OG Muster (wie MGA) zurückgehen :)

-error-
2005-02-16, 00:50:32
Können wir schon wieder so früh einen solchen technologischen schritt (in sachewn speed) erwarten ??
Wohl kaum

PS: VIelleicht läufts auf ein 16x2 Design raus, welches sich geschickt nutzen lässt wie ein 32 Design, sprich anders als beim GF5800

Doppelte Performance ist doch was ;)

Und wieviel ATI auß PS 2.0 rausholt ist schon beachtlich, bin gespannt, wie die Karte mit PS 3.0 abgeht :)

Ailuros
2005-02-16, 02:58:20
ATI R520 Details, birds....birds....birds (http://www.neowin.net/forum/index.php?showtopic=284495&st=0)
Nur Blah-Blah???

Quark.

24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core

Ich kann mir zwar nicht vorstellen wozu man heutzutage 32 TMUs mit 6 quads gebrauchen koennte, aber das ganze nette Paket auch noch bei 700MHz? ROFL :D

256-bit 512MB 1.8GHz GDDR3 Memory

Nein. :help:

300-350 Million Transistors
90nm Manufacturing

Das in Kombination zum obrigen ist ja wohl der Hammer *kicher*

Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Launch: Q2 2005

Ja.

Performance: Over 3x Radeon X800 XT !!! (for single R520)

Gleich 3x mal nein. Erwartet keine massive Leistungssteigerung um Enttaeuschungen zu entgehen.

16x stochastic FSAA

Netter Witz.

FP32 blending, texturing

Ja und 64bpp HDR + MSAA moeglich.

Programmable Primitive Processor/Tesselator

Ein PPP enthaelt von sich auch Tesselations-Funktionen afaik. Und nein und nochmal nein. Geometry Shader auf R600/H2 2006.

Was soll denn dieses merkwuerdige Monster ueberhaupt kosten in Theorie?

Nein.

Aber von 'better than R300' kann man ausgehen, in wie fern verbessert und was gemacht wurde, werden wir sehen, wenn das Teil aufm Markt ist...

Die Frage ist auch, ob ATi Tri TMUs verbaut oder noch an Bi TMUs festhält...

Bei tri-TMUs braucht man keine Winkel-abhaengigkeit was automatisch die AF Qualitaet erhoehen wuerde.

Errrr.....nein.

Ausser den paar Stellen wo NV40 mit SM3.0 kraenkelt, wuerde ich nur eine Leistungssteigerung analog der hoeheren Taktrate erwarten (~650MHz IMHO) fuer shader-lastige Faelle und AF Leistung, ansonsten im Durchschnitt analog der nicht allzu hoeheren Bandbreite. Bis NV/ATI GDDR3 loswerden, werden die high end Produkte dieses Jahres ziemlich Bandbreiten-limitiert sein.

Keine Sorge sobald der Consolen-Krieg offiziell losgeht, wird sich wohl zeigen was fuer ein langweiliges Jahr fuer den PC 2005 sein wird.

Ailuros
2005-02-16, 03:02:19
Och, ATi hat schon ein RG Muster, die werden kaum auf ein OG Muster (wie MGA) zurückgehen :)

Sparsed grid bitte und dazu noch programmierbar. Beim NV40 ist es nur einfaches RG da:

a) es nicht programmierbar ist
b) man die sample-Positionen nur um einen gewissen Winkel gedreht hat.

Ailuros
2005-02-16, 03:08:48
Uups, irgendwie muss ich was durcheinander gebracht haben :|

Serie 3 war ja eigentlich der Kyro, Serie 4 wurde eingestampft, ergo kanns nur Serie 5 sein, was ich eigentlich meinen könnte...

Alle bisher entwickelten Designs auch R600 sind AFAIK IMRs.

Demirug
2005-02-16, 07:18:51
Ailuros, FP32 blending und texturing? Ist das nicht etwas zu viel des guten? Nicht mal 3dLabs ist auf diesen Zug aufgesprungen und auch wenn sie bei Spielen extrem langsam sind nehme ich sie in letzter Zeit gerne als Indikator was Features angeht.

FP16 blending wird der R520 wohl auf jeden Fall haben da sich die Entwickler gerne weigern das umständiliche Ping Pong Verfahren zu implementieren. Was das texturing angeht habe ich schon wieder wieder Zweifel das ist recht einfach mit den Pixelshadern zu emulieren und selbst wenn ein Spiel es nicht implementiert wird sich das nicht in einem Totalverlust sondern einfach nur durch schlechtere Filterqualität zeigen.

q@h
2005-02-16, 09:31:50
Nein.

Aber von 'better than R300' kann man ausgehen, in wie fern verbessert und was gemacht wurde, werden wir sehen, wenn das Teil aufm Markt ist...

Wie kommst' darauf?

Exxtreme@Work
2005-02-16, 12:42:18
Gleich 3x mal nein. Erwartet keine massive Leistungssteigerung um Enttaeuschungen zu entgehen.

Naja, ATi hat den Speed eigentlich schon immer mindestens verdoppelt wenn man Sachen wie AA + AF hinzuschaltet. Und viel Zeit hatte ATi ja, das Teil zu entwickeln. Der R4xx ist im Endeffekt ja nichts anderes wie ein 4-fach ausgelegter RV360. Ich glaube nicht, daß da viele Entwicklerresourcen gebraucht wurden.

Coda
2005-02-16, 12:43:44
Ich kann mir zwar nicht vorstellen wozu man heutzutage 32 TMUs mit 6 quads gebrauchen koennte, aber das ganze nette Paket auch noch bei 700MHz? ROFL Wie gesagt, falls das stimmt denke ich mal das 8 davon Vertex TMUs sind.

Ailuros
2005-02-16, 13:32:32
Ailuros, FP32 blending und texturing? Ist das nicht etwas zu viel des guten? Nicht mal 3dLabs ist auf diesen Zug aufgesprungen und auch wenn sie bei Spielen extrem langsam sind nehme ich sie in letzter Zeit gerne als Indikator was Features angeht.

FP16 blending wird der R520 wohl auf jeden Fall haben da sich die Entwickler gerne weigern das umständiliche Ping Pong Verfahren zu implementieren. Was das texturing angeht habe ich schon wieder wieder Zweifel das ist recht einfach mit den Pixelshadern zu emulieren und selbst wenn ein Spiel es nicht implementiert wird sich das nicht in einem Totalverlust sondern einfach nur durch schlechtere Filterqualität zeigen.


Huch peinlich....32 hab ich glatt uebersehen. 64bpp oder FP16 natuerlich.

Coda
2005-02-16, 13:38:01
Och, ATi hat schon ein RG Muster, die werden kaum auf ein OG Muster (wie MGA) zurückgehenWas ich damit sagen wollte ist, dass die Zahl an sich rein gar nix ausdrückt.
Es kann genausogut sein, dass sie einfach Temporal 8x benützen und das als 16x vermarkten.

Ailuros
2005-02-16, 13:44:48
Naja, ATi hat den Speed eigentlich schon immer mindestens verdoppelt wenn man Sachen wie AA + AF hinzuschaltet. Und viel Zeit hatte ATi ja, das Teil zu entwickeln. Der R4xx ist im Endeffekt ja nichts anderes wie ein 4-fach ausgelegter RV360. Ich glaube nicht, daß da viele Entwicklerresourcen gebraucht wurden.

a) Ich bezweifle ernsthaft dass R500/520 ueber mehr als 2xMSAA samples pro Takt faehig sind, obwohl 4x fuer mich eigentlich wuenschenswert waeren.

b) Ja aber bei R3xx waren es 2 quads und bei R4xx 4 quads.

Ich sehe auf R500 aber nur 16x 1bi. Zufall?

Wie gesagt, falls das stimmt denke ich mal das 8 davon Vertex TMUs sind.

Mein begrenztes Wissen und Schnueffelnase sagen mir persoenlich dass sehr hohe Taktraten (=/>500-550MHz) mit 6 quads (selbst wenn 2 leicht "kastriert" sind) selbst auf 90nm zu viel des Guten sind. Moeglich schon aber mit enormem Stromverbrauch, extremer Seltenheit und einen Preis den keiner so leicht bezahlen wuerde. 350M auf 90nm mit 700MHz? Also bitte.

8 VS Einheiten womoeglich, 16x bi und Taktraten =/>650MHz und ein paar Aenderungen in der internen Speicherverwandlung und das Ganze mit SM3.0.

Fuer mich steht immer noch die Frage offen ob das "bessere" branching sich auf die moeglichen 512 PS30 instruction slots ziehlt. Falls ich mir hier nicht in den Fuss schiesse, hat ATI naturlich wieder Transistoren gespart (kann man nur positiv ansehen falls die Leistung stimmt), was mir persoenlich sagt dass R520 ziemlich klein vergleichsmaessig sein koennte und stromsparend wie alle anderen vorigen Designs auch und nicht ein Monster dass Strom bis zum geht nicht mehr verbruzelt.

Melc
2005-02-16, 13:47:37
bei pcgames ist heute folgendes nachzulesen

Im Forum von Xtremesystems wird intensiv über den kommenden Ati R520-Grafikchip spekuliert und es sind bereits erste Spezifikationen aufgetaucht. Die dort zitierten Daten für den neuen Grafikchip weisen allerdings keinerlei Quellenangaben auf und sind deswegen mit Vorsicht zu genießen. Zweifelhaft sind vor allem die Taktraten, da diese erst kurzfristig und nach der Ausbeute festgelegt werden - und nicht schon Monate vor dem geplanten Launch.

- 24 Rendering-Pipelines
- 32 Texture Units
- 96 Arithmetic Logic Units (ALU)
- 192 Shader Operations per Cycle

- 700MHz GPU-Takt
- 300-350 Million Transistoren
- Herstellungsprozess: 90nm
- 134,4 Billion Shader-Operationen pro Sekunde (bei GPU-Takt von 700MHz)
- 256-bit, 512MByte, 900 MHz DDR, GDDR3 Grafikspeicher
- Speicherbandbreite 57,6 GByte pro Sekunde (bei einem Speichertakt von 900 MHz )

- Shader Model 3.0
- ATI Hypermemory
- ATI Multi Rendering Technology (SLI)
- Launch: 2. Quartal 2005
- Geschätzte Performance: 3x Radeon X800 XT (für eine einzelne R520)
(Uwe Steglich)

Ailuros
2005-02-16, 13:47:48
Was ich damit sagen wollte ist, dass die Zahl an sich rein gar nix ausdrückt.
Es kann genausogut sein, dass sie einfach Temporal 8x benützen und das als 16x vermarkten.

Falls das sogenannte temporal-AA etwas HW-Unterstuetzung im backend abbekommen hat, dann kann es durchaus sein dass die Methode endlich mal interessant wird....

Ailuros
2005-02-16, 13:56:19
Wie gesagt, falls das stimmt denke ich mal das 8 davon Vertex TMUs sind.

Ich bezweifle dass wir so bald dedizierte Vertex TMUs sehen werden, wenn ueberhaupt. Die wuerden momentan nur bloed rumhocken genauso wie der PPP weiter oben. ATI ist bei mir eher der IHV der mit Transistoren am sparsamsten umgeht.

OT: falls meine Spekulationen stimmen sollten, hat womoeglich NV ein bisschen an "redundancy" entfernt und ist beim sogenannten "NV47" auf 16 ROPs steckengeblieben, obwohl die Anzahl der quads moeglicherweise erhoeht wurde. Da ich aber hier langweilige Taktraten erwarte, wird wohl ATI den theoretischen maximalen Fuellraten-Vorsprung bei 16*650 wohl behalten.

Beide IHVs konzentrieren sich momentan mit voller Pulle auf die ersten WGF2.0 chips fuer naechstes Jahr.

Coda
2005-02-16, 14:03:25
Ich bezweifle dass wir so bald dedizierte Vertex TMUs sehen werden, wenn ueberhaupt.Mhm? Auf ATi bezogen jetzt? nVidia macht das ja schon im NV40.

Falls das sogenannte temporal-AA etwas HW-Unterstuetzung im backend abbekommen hat, dann kann es durchaus sein dass die Methode endlich mal interessant wird....Ja, aber dann ist es immer noch "16x" AA

aths
2005-02-16, 14:16:52
Sparsed grid bitte und dazu noch programmierbar. Beim NV40 ist es nur einfaches RG da:

a) es nicht programmierbar ist
b) man die sample-Positionen nur um einen gewissen Winkel gedreht hat.Das NV40-AA ist eigentlich "programmierbar", d. h., die Subpixel-Positionen können auf einem 8x8-Grid festgelegt werden.

Um von 4x OG auf 4x RG zu kommen, reicht "nur drehen" nicht aus.

aths
2005-02-16, 14:18:50
Ich habe was gehört von 16 Superpipelines, also 32 wären es dann.

Wird man zur Cebit mehr Informationen haben?Wieso sollten 16 "Superpipes" 32 Pipes entsprechen?

Während und nach der CeBit wird es sicherlich noch mehr Gerüchte um den Chip geben, wobei imo nicht gesagt ist, dass man wirklich mehr über den Chip weiß.

aths
2005-02-16, 14:21:27
Es kann genausogut sein, dass sie einfach Temporal 8x benützen und das als 16x vermarkten.Sollte das so sein, würde es von mir einen bösen Artikel geben. Erst sich mit den Texturfiltern loben, die besser seien als bei der Konkurrenz, dann 3Dc eine Komprimierungrate von 4:1 andichten, ... ich würde es ATI allerdings jetzt trotzdem nicht zutrauen, 8x 2xTAA als 16x zu vermarkten.

Auf gleichem Wege könnte man auch plötzlich aus 16x AF 32x AF machen. Aber nicht mit mir :)

Exxtreme@W
2005-02-16, 14:38:43
a) Ich bezweifle ernsthaft dass R500/520 ueber mehr als 2xMSAA samples pro Takt faehig sind, obwohl 4x fuer mich eigentlich wuenschenswert waeren.

Das wird wohl von der verfügbaren Bandbreite abhängen. Wenn die Bandbreite für 4 MSAA-Samples nicht reicht dann macht es keinen Sinn das auch einzubauen.

b) Ja aber bei R3xx waren es 2 quads und bei R4xx 4 quads.

Bitte nicht die R3xx-Serie mit der RV3xx-Serie verwechseln. Der RV350/360 hat nur einen Quad.

Mein begrenztes Wissen und Schnueffelnase sagen mir persoenlich dass sehr hohe Taktraten (=/>500-550MHz) mit 6 quads (selbst wenn 2 leicht "kastriert" sind) selbst auf 90nm zu viel des Guten sind. Moeglich schon aber mit enormem Stromverbrauch, extremer Seltenheit und einen Preis den keiner so leicht bezahlen wuerde. 350M auf 90nm mit 700MHz? Also bitte.

Naja, ich kann mich noch ganz genau erinnern, daß viele Leute es für völlig unmöglich hielten, daß es einen Chip geben kann, der mehr 300 MHz macht mit 107 Mio. Transistoren @ 0.15µm. Wie hoch ging der R360 dann im Endeffekt? :D

Gut, auf irgendwelche Taktfrequenzen will ich mich nicht festlegen. Bloß jetzt zu sagen, daß etwas nicht möglich ist weil zu teuer, das kann ins Auge gehen.

robbi@work
2005-02-16, 14:50:31
es macht IMO keinen Sinn, mehr Z Werte pro Takt schreiben/lesen zu können (ermöglicht mehr AA-Samples pro Takt).
Damit 4xMSAA pro Takt einen Vorteil bringen sollte, müsste der Pixel in einem Takt fertig sein (sprich 1x Textur maximal bilinear gefiltert).
MT ist seit Jahren standard, tri auch und AF nutzt auch fast jeder und seit einiger Zeit kommen noch Shader hinzu. Ergo: völlig unsinnige Forderung. (sorry etw hart ausgedrückt)

Ailuros
2005-02-16, 15:22:54
Bitte nicht die R3xx-Serie mit der RV3xx-Serie verwechseln. Der RV350/360 hat nur einen Quad.

R520 hat vorruebergehend gar nichts fuer dieses Jahr weder mit mainstream oder budget zu tun afaik. Ergo einen mainstream Abschlag davon erwarte ich erst um einiges spaeter.

Naja, ich kann mich noch ganz genau erinnern, daß viele Leute es für völlig unmöglich hielten, daß es einen Chip geben kann, der mehr 300 MHz macht mit 107 Mio. Transistoren @ 0.15µm. Wie hoch ging der R360 dann im Endeffekt? :D

Es wurde ja aber auch heftig da gespart wo es nur so ging. Es geht hier nicht mehr um SM2.0 sondern SM3.0. 350M reichen fuer das was hier oben illustriert wird nicht aus, ueberhaupt wenn es um einen noch momentan nutzlosen PPP ginge und dazu noch mit 700MHz. Vereint man oben die Einheiten, sieht das mir um einiges naeher nach R600 aus. Alles IMHO.

Gut, auf irgendwelche Taktfrequenzen will ich mich nicht festlegen. Bloß jetzt zu sagen, daß etwas nicht möglich ist weil zu teuer, das kann ins Auge gehen.

Lange wird's ja nicht mehr dauern.

***edit: uebertriebene Erwartungen gibt es stets vor jedem Release und jedem IHV. Dass R480 als Beispiel nur ein hoeherer Verfuegbarkeits-Refresh war wollte ja vor der Vorstellung auch keiner einsehen. Die erste und wichtigste Frage ist wieviel in einen gewissen Herstellungsprozess reinpasst und wie hoch man in dem Fall die Frequenz ansetzen kann. 90nm mit 350M und 700MHz will ich erstmal sehen, bevor ich es glaube.

******editNr.2:

R480 = 8640MPixel/sec, 37.7 GB/sec
(hypothetisches Monstrum) "R520" = 22400MPixel/sec, 57.6 GB/sec :|

Ailuros
2005-02-16, 15:31:39
es macht IMO keinen Sinn, mehr Z Werte pro Takt schreiben/lesen zu können (ermöglicht mehr AA-Samples pro Takt).
Damit 4xMSAA pro Takt einen Vorteil bringen sollte, müsste der Pixel in einem Takt fertig sein (sprich 1x Textur maximal bilinear gefiltert).
MT ist seit Jahren standard, tri auch und AF nutzt auch fast jeder und seit einiger Zeit kommen noch Shader hinzu. Ergo: völlig unsinnige Forderung. (sorry etw hart ausgedrückt)

Entweder finden dann IHVs eine Methode den Leistungs-verbrauch der sample-loops zu minimalisieren (mit irgend einer Art dynamischen Logik) oder wir bleiben fuer einige Zeit bei den heutigen "sample-densities" stecken, bis exotischere Algorithmen in der weiteren Zukunft zum Vorschein kommen.

robbitop@work
2005-02-16, 16:57:15
Entweder finden dann IHVs eine Methode den Leistungs-verbrauch der sample-loops zu minimalisieren (mit irgend einer Art dynamischen Logik) oder wir bleiben fuer einige Zeit bei den heutigen "sample-densities" stecken, bis exotischere Algorithmen in der weiteren Zukunft zum Vorschein kommen.
ich wüsste nicht, dass die ROP-Loops in der Praxis als Bottleneck wirken würden. Und die Berechnungsdauer pro Pixel wird sogar noch mehr steigen (lange Shader)..das kann in eine dreistellige Taktzahl steigen.
Somit wird dieser aspekt immer unwichtiger.

TomatoJoe
2005-02-16, 19:17:00
sry will nicht nerven, hab den thread auch nicht wirklich verfolgt aber wie siehts eigentlich aus, wir haben doch anfang 05 :D

mapel110
2005-02-16, 19:21:18
sry will nicht nerven, hab den thread auch nicht wirklich verfolgt aber wie siehts eigentlich aus, wir haben doch anfang 05 :D

Derzeit deutet wohl alles auf Mai hin(Vorstellung, nicht Lieferbarkeit). :)

q@h
2005-02-16, 20:26:08
Naja, ich kann mich noch ganz genau erinnern, daß viele Leute es für völlig unmöglich hielten, daß es einen Chip geben kann, der mehr 300 MHz macht mit 107 Mio. Transistoren @ 0.15µm. Wie hoch ging der R360 dann im Endeffekt? :D

Damals ging es für ATi auch um alles oder nichts. Dazu gab es ja die executive order von CEO Orton "baut mir den Chip, egal zu welchem Preis".

Ich denke, in der momentanen markt- und wirtschaftlichen Lage hat ATi dies nicht (mehr) nötig.

crusader4
2005-02-16, 21:05:39
Damals ging es für ATi auch um alles oder nichts. Dazu gab es ja die executive order von CEO Orton "baut mir den Chip, egal zu welchem Preis". Ich denke, in der momentanen markt- und wirtschaftlichen Lage hat ATi dies nicht (mehr) nötig.
Zu Ortons Anordnung bzgl. R300 fällt mir nur ein: "Build me a chip, worthy the power of ATI" :biggrin:

Also ich als Laie denke mir, das es sich keine Firma im Graka-Markt leisten kann, sich auszuruhen. Gerade ATI liegt technologisch zur Zeit hinter NVidia zurück, die müssen also was bringen mit der nächsten Generation. Momentan können sie noch punkten weil ihre Karten ungefähr gleich schnell sind wie die Konkurrenz, aber in dieser Branche ist man m.M.n sehr schnell wieder hinten dran wenn man nicht aufpaßt und nicht immer am Ball bleibt. Das könnte zum Beispiel passieren falls SM3-Anwendungen mit visuellen Effekten bald gehäuft auf den Markt drängen. Dann heißt es bei ATI: Nicht 100% darstellbar. Und das kann schnell nach hinten los gehen. So schnell bekommt man neue Karten dann nicht in den Markt wie die Kunden zur Konkurrenz greifen.

Grüße, Crusader

ironMonkey
2005-02-16, 23:34:17
Damals ging es für ATi auch um alles oder nichts. Dazu gab es ja die executive order von CEO Orton "baut mir den Chip, egal zu welchem Preis".

Ich denke, in der momentanen markt- und wirtschaftlichen Lage hat ATi dies nicht (mehr) nötig.



Wer mit Abstand erste sein will muss immer Klassen bester sein(zumindest bei der Balkenlännge ;( ) , von daher gehts für ATI nach wie vor um alles oder nichts, genau wie bei NV, zumal man gerade bei NV mit der FX 5800 gesehen hat wie schnell sich das Blatt wenden kann.

aths
2005-02-17, 00:13:51
Zu Ortons Anordnung bzgl. R300 fällt mir nur ein: "Build me a chip, worthy the power of ATI" :biggrin:

Also ich als Laie denke mir, das es sich keine Firma im Graka-Markt leisten kann, sich auszuruhen. Gerade ATI liegt technologisch zur Zeit hinter NVidia zurück, die müssen also was bringen mit der nächsten Generation. Momentan können sie noch punkten weil ihre Karten ungefähr gleich schnell sind wie die Konkurrenz, aber in dieser Branche ist man m.M.n sehr schnell wieder hinten dran wenn man nicht aufpaßt und nicht immer am Ball bleibt. Das könnte zum Beispiel passieren falls SM3-Anwendungen mit visuellen Effekten bald gehäuft auf den Markt drängen. Dann heißt es bei ATI: Nicht 100% darstellbar. Und das kann schnell nach hinten los gehen. So schnell bekommt man neue Karten dann nicht in den Markt wie die Kunden zur Konkurrenz greifen.Was SM 3 angeht: Falls ATI beim NV40 von SM3 überrascht geworden wäre, hätten sie ein Problem, denn ein wirklich neuer Chip ist in weniger als 18 Monaten kaum in den Verkauf zu bringen. Allerdings weiß ATI mindestens so lange bescheid, wie es die SM3-Definition in DX9 gibt – also schon recht lange.

Ailuros
2005-02-17, 00:36:18
ich wüsste nicht, dass die ROP-Loops in der Praxis als Bottleneck wirken würden. Und die Berechnungsdauer pro Pixel wird sogar noch mehr steigen (lange Shader)..das kann in eine dreistellige Taktzahl steigen.
Somit wird dieser aspekt immer unwichtiger.

Bei 2 oder 3 loops wohl nicht. Oder stellst Du Dir vor dass man unendliche loops ohne Leistungs-probleme vornehmen koennte? Angenommen ich will 8x sparsed grid mit heutiger 4xMSAA Leistung auf einem chip; irgend eine bessere Idee als die beiden vorerwaehnten?

aths
2005-02-17, 03:02:27
Bei 2 oder 3 loops wohl nicht. Oder stellst Du Dir vor dass man unendliche loops ohne Leistungs-probleme vornehmen koennte? Angenommen ich will 8x sparsed grid mit heutiger 4xMSAA Leistung auf einem chip; irgend eine bessere Idee als die beiden vorerwaehnten?8x AA ist schon ein harter Brocken, siehe auch den irren Speicher-Verbrauch. Muss die ROP-Logik dafür 4 Takte loopen, ist das angesichts bilinearer TMUs aber kein Beinbruch.

Ailuros
2005-02-17, 04:12:51
8x AA ist schon ein harter Brocken, siehe auch den irren Speicher-Verbrauch. Muss die ROP-Logik dafür 4 Takte loopen, ist das angesichts bilinearer TMUs aber kein Beinbruch.

Bei zukuenftigen 512MB high end boards ist wohl die Groesse des Framebuffers kein Gedanke.

***edit: der 128MB Framebuffer war auch nicht optimal fuer 6x sparsed auf dem R300 fuer hohe Aufloesungen.

Ein Beinbruch ist es sicher nicht, solange man nicht stenciling mit MSAA kombiniert.

aths
2005-02-17, 04:19:05
Bei zukuenftigen 512MB high end boards ist wohl die Groesse des Framebuffers kein Gedanke.

***edit: der 128MB Framebuffer war auch nicht optimal fuer 6x sparsed auf dem R300 fuer hohe Aufloesungen.

Ein Beinbruch ist es sicher nicht, solange man nicht stenciling mit MSAA kombiniert.Auch 256-MB-Boards sollten für 8x AA noch ausreichen. Wieso willst du bei 8x auf Stencil Rendering verzichten? Mit aktiviertem AA können schon R420 und NV40 pro Takt 32 Z/Stencil-Tests ausführen. 2x Z/Stencil pro Pipe sollten auch für 8x AA ausreichen.

Ailuros
2005-02-17, 04:30:38
Auch 256-MB-Boards sollten für 8x AA noch ausreichen. Wieso willst du bei 8x auf Stencil Rendering verzichten? Mit aktiviertem AA können schon R420 und NV40 pro Takt 32 Z/Stencil-Tests ausführen. 2x Z/Stencil pro Pipe sollten auch für 8x AA ausreichen.

Schoen. Dann schau Dir mal den Leistungs-einbruch der R420 mit aktiviertem 6xAA und dynamischen Schatten an:

http://www.beyond3d.com/reviews/sapphire/x800pro/index.php?p=12

http://www.beyond3d.com/reviews/ati/r423/index.php?p=12

robbitop
2005-02-17, 08:27:46
@aths
NV40 kann mit aktivem AA nur 16 Stencilops/Takt durchführen.

Exxtreme
2005-02-17, 09:56:50
Gerade ATI liegt technologisch zur Zeit hinter NVidia zurück, die müssen also was bringen mit der nächsten Generation.
ATi liegt eigentlich nur bei Shadern technologisch spürbar zurück. Bei Dingen wie MSAA liegen sie wiederum vorne. Jetzt muss man abwägen was einem wichtiger ist. Ein Feature wie AA von dem praktisch alle Spiele profitieren oder Shader, die z.Zt. nicht mal ein Spiel richtig ausnutzt.

Demirug
2005-02-17, 10:21:30
ATi liegt eigentlich nur bei Shadern technologisch spürbar zurück. Bei Dingen wie MSAA liegen sie wiederum vorne. Jetzt muss man abwägen was einem wichtiger ist. Ein Feature wie AA von dem praktisch alle Spiele profitieren oder Shader, die z.Zt. nicht mal ein Spiel richtig ausnutzt.

Neben den Shadern fehlt es aber auch an FP16 Texturefilter und was richtig weh tut an den FP16 Blending Einheiten.

Wenn nun natürlich jetzt noch mehr auf den gleichen Trichter wie die Entwickler von Splinter Cell kommen wird auch das mit den Shadern schmerzhaft.

TheCounter
2005-02-17, 10:28:06
Wenn nun natürlich jetzt noch mehr auf den gleichen Trichter wie die Entwickler von Splinter Cell kommen wird auch das mit den Shadern schmerzhaft.

Für mich ist das unverschämtes SM3.0 Pushing, was absolut nicht nötig ist. Das wär doch das gleiche als wenn man Farcry nur mit SM1.1 oder SM3.0 betreiben könnte (Wobei hier der Unterschied extrem groß wäre und daraus ein rießen Marketingvorteil entstehen würde)...

Entweder die Entwickler bei Ubisoft sind wirklich so fauel oder aber NVIDIA hatte da ein Wörtchen mitzureden um ATi auszustechen.

robbitop
2005-02-17, 10:39:18
nennt sich auch Fortschritt. ATI bietet derzeit keinen SM3 Chip, selbst schuld.

TheCounter
2005-02-17, 10:41:48
nennt sich auch Fortschritt. ATI bietet derzeit keinen SM3 Chip, selbst schuld.

Fortschritt ist ein Grund etwas älteres einfach auszulassen und dafür noch etwas viel älteres zu nehmen um die Grafik vlt. extra schön auf GF6800 Karten aussehen zu lassen?

Das ist für mich kein Fortschritt sondern ein Rückschritt.

Bibolator
2005-02-17, 10:59:39
Fortschritt ist ein Grund etwas älteres einfach auszulassen und dafür noch etwas viel älteres zu nehmen um die Grafik vlt. extra schön auf GF6800 Karten aussehen zu lassen?

Das ist für mich kein Fortschritt sondern ein Rückschritt.

Wenn ein Publisher meint, das sein Programm so sein muss, dass es zwar auf vielen Karten läuft aber nicht auf jeder mit allen Features, dann wird er sich was dabei gedacht haben und eventuell auch schlechtere Verkaufzahlen in Kauf nehmen.

Demirug
2005-02-17, 11:08:33
Für mich ist das unverschämtes SM3.0 Pushing, was absolut nicht nötig ist. Das wär doch das gleiche als wenn man Farcry nur mit SM1.1 oder SM3.0 betreiben könnte (Wobei hier der Unterschied extrem groß wäre und daraus ein rießen Marketingvorteil entstehen würde)...

Zum Glück gab es noch keine SM3 Hardware als bei Farcry der Eyecandy programmiert sonst hätte das so enden können.

Es ist normal das man sich nach dem Minimum um den Eyecandy kümmert und dafür nimmt man die beste Technologie die man bekommt. Man weiss ja nie sicher was die Toptechnologie ist wenn man fertig ist.

Die Lücke zwischen den Minimum und Eyecandy füllt man dann nach Bedarf und Buget. Bei Splinter Cell als Konsolenportierung ist das mit dem Buget so eine Sache.

Entweder die Entwickler bei Ubisoft sind wirklich so fauel oder aber NVIDIA hatte da ein Wörtchen mitzureden um ATi auszustechen.

Faul? Vielleicht. Auf jeden Fall war SM3 kostengünstiger.

robbitop
2005-02-17, 11:39:08
tja warum wird nirgendwo eine Zwischenstufe zw SM2 und SM1.1 geboten? Warum muss R200 mit SM1.1 laufen? Das ist nunmal so. Zuviel Aufwand. Das kostet alles Geld. ATI hat IMO selbst Schuld, dass soetwas passiert, da man jahrelang nichts Neues gebracht hat. Ich freue mich sogar ein wenig darüber, da sowas nicht unbestraft gelassen werden sollte.
Fortschritt ist wichtig, auch wenn man ihn erst später nutzen kann.

alles IMO

Exxtreme
2005-02-17, 11:47:29
Naja, ich halte es nicht für unwahrscheinlich, daß da bei der Entscheidung SM2.0 nicht einzubauen, mit viel Geld nachgeholfen wurde.

Naja, Ubisoft wird schon sehen, was sie davon haben werden. :)

robbitop
2005-02-17, 11:49:18
wundern würde mich das ganze auch nicht. Es gibt überall nun solche Eskapaden. Dennoch finde ich es in diesem Falle gut.

StefanV
2005-02-17, 11:50:46
tja warum wird nirgendwo eine Zwischenstufe zw SM2 und SM1.1 geboten? Warum muss R200 mit SM1.1 laufen? Das ist nunmal so. Zuviel Aufwand. Das kostet alles Geld. ATI hat IMO selbst Schuld, dass soetwas passiert, da man jahrelang nichts Neues gebracht hat. Ich freue mich sogar ein wenig darüber, da sowas nicht unbestraft gelassen werden sollte.
Fortschritt ist wichtig, auch wenn man ihn erst später nutzen kann.

alles IMO
2.0/1.1 und 3.0/1.1 sind 2 paar Schuhe.

Aber schonmal an die armen FX User gedacht, die auch mit dem PS1.1 Pfad auskommen müssen, neben den DC und Intel Usern?? :)

Exxtreme
2005-02-17, 11:55:52
wundern würde mich das ganze auch nicht. Es gibt überall nun solche Eskapaden. Dennoch finde ich es in diesem Falle gut.
Naja, ob sowas gut ist, bezweifle ich. Denn nicht nur Radeon-Besitzer sind hier die Dummen sondern auch GFFX-Besitzer. Eine solche Entscheidung ist ehrlich gesagt recht unlogisch. Die Basis an SM2.0-HW dürfte immens sein.

robbitop
2005-02-17, 12:02:30
die FX User sollten sich kaum beklagen können. Die SM2 PS Leistung ist eh nicht das Wahre.
Dem Deltachrome hingegen ist es prinzipiell egal, ob FX oder FP.

Demirug
2005-02-17, 12:05:17
Exxtreme, die Entscheidung ist nicht unlogisch sondern im Gegenteil sogar höchst logisch aus einer kaufmanischen Sicht.

Eyecandy muss sein aber bei einer Portierung will man möglichst wenig Geld ausgeben. Mit SM3 war das ganze einfacher und damit billiger zu haben als mit SM2. Da zudem ein Großteil der Käufer sich mit solchen technischen Details wie Shadermodelen überhaupt nicht auskennt bekommt man aus diesem Bereich keine Schläge. Lediglich die Spielezeitschriften muss man das richtig verkaufen und dafür sorgen das sie mit NV40 Karten testen.

PS: Bitte nicht falsch verstehen. Aus technischer Sicht finde ich es bedauerlich was Ubi da macht aber ich kann es eben nachvollziehen.

TheCounter
2005-02-17, 12:09:28
Naja, ob sowas gut ist, bezweifle ich. Denn nicht nur Radeon-Besitzer sind hier die Dummen sondern auch GFFX-Besitzer. Eine solche Entscheidung ist ehrlich gesagt recht unlogisch. Die Basis an SM2.0-HW dürfte immens sein.

Auch die Besitzer von kleinen GeForce 6 Karten werden mitbestraft, ich bezweifle das es auf z. B. einer GF6600/GT mit dem SM3.0 Pfad noch flüssig in einer höheren Auflösung läuft.

Die wenigsten Leute (Zur Masse der Gamer gesehen) werden eine SM3.0 Karte besitzen die Leistungsfähig genug ist das ganze auch noch flüssig darzustellen. SM2.0 Karten dürften heutzutage Standard sein. Wieso soll man den Standard wegen einer neuen, noch schlecht verbreiteten Technologie einfach weglassen?

Is doch Schwachsinnig sowas. Die meisten der PC Gamer dürfen nun auf der Konsolengrafik sitzen bleiben während ein kleiner Teil volle Details (Mit niedrigen FPS) zu Gesicht bekommt... :|

Also ich weis nicht ob ich mir das Spiel noch holen soll, es ist zwar vom Gameplay her Top, aber irgendwie hab ich keine Lust solche Ausgrenzungen zu unterstützen.

PS.: Tja, das soll wohl dann TWIMTBP sein ;)

Exxtreme
2005-02-17, 12:10:16
Exxtreme, die Entscheidung ist nicht unlogisch sondern im Gegenteil sogar höchst logisch aus einer kaufmanischen Sicht.

Ich weiss. ;)

Aber wie gesagt, ob das im Endeffekt die richtige Entscheidung war, wird sich noch herausstellen. =)

Demirug
2005-02-17, 12:28:32
Aber wie gesagt, ob das im Endeffekt die richtige Entscheidung war, wird sich noch herausstellen. =)

Die Masse der Käufer wird durch solche Entscheidungen nicht in iherem Kaufverhalten beeinflusst weil sie den technischen Hintergrund gar nicht verstehen.

Demirug
2005-02-17, 12:33:21
Auch die Besitzer von kleinen GeForce 6 Karten werden mitbestraft, ich bezweifle das es auf z. B. einer GF6600/GT mit dem SM3.0 Pfad noch flüssig in einer höheren Auflösung läuft.

Ein SM2 Pfad mit den zusätzlichen Effekten wäre aber auch nicht schneller.

Die wenigsten Leute (Zur Masse der Gamer gesehen) werden eine SM3.0 Karte besitzen die Leistungsfähig genug ist das ganze auch noch flüssig darzustellen. SM2.0 Karten dürften heutzutage Standard sein. Wieso soll man den Standard wegen einer neuen, noch schlecht verbreiteten Technologie einfach weglassen?

Entwicklungskosten zu Eyecandy Verhältniss. Die Optik muss primär den Testern gefallen und die haben schon die richtige leistungsstarke Hardware.

Wenn SM2 Standard wäre gäbe es keinen SM1.1 Pfad. Die Hardwareausstatung des durchschnittlichen Spielers wird gerne überschätzt.

Is doch Schwachsinnig sowas. Die meisten der PC Gamer dürfen nun auf der Konsolengrafik sitzen bleiben während ein kleiner Teil volle Details (Mit niedrigen FPS) zu Gesicht bekommt... :|

.. und die Masse wird es nicht mal merken.

TheCounter
2005-02-17, 12:43:09
Ein SM2 Pfad mit den zusätzlichen Effekten wäre aber auch nicht schneller.

Auch wenn man auf HDR verzichtet?

Ich mein ja nur, ich hab mir grad ne X850XT gekauft und nun werde ich ausgesperrt von zusätzlich Effekten obwohl meine Karte extrem Leistungsfähig ist und das ganze auch darstellen könnte? Ich bin da schon nen ganzes Stück sauer...

ironMonkey
2005-02-17, 12:45:38
nennt sich auch Fortschritt. ATI bietet derzeit keinen SM3 Chip, selbst schuld.

Was würde es mir mit einer 9800Pro bringen wenn die X800XT ein SM3 Chip wäre???


Hard und Software bremst sich immer mehr gegenseitig aus, was genutz wird ist kaum vorhanden und was vorhanden ist wird nicht richtig genutz, das ganze nennt sich dann Fortschritt(ich bin froh das Fahrzeuge nicht mit solch einer hingabe gefertigt werden, sonst wäre ich wohl schon längst unter der Erde).

Beim PC Sektor kann man sich wirklich alles erlauben und sch.....als Gold verkaufen ;(

TruPlaya_UB
2005-02-17, 12:47:42
Auch wenn man auf HDR verzichtet?

Ich mein ja nur, ich hab mir grad ne X850XT gekauft und nun werde ich ausgesperrt von zusätzlich Effekten obwohl meine Karte extrem Leistungsfähig ist und das ganze auch darstellen könnte? Ich bin da schon nen ganzes Stück sauer...

Das wusstest du aber von anfang an....aber echt ich würde mich mal richtig richtig verarscht vorkommen wenn ich jetzt 450-550€ ausgegeben hätte und die nächste Karte ist schon am Horizont

Anti ATI Petition ?

mnbv
2005-02-17, 12:49:07
Auch wenn man auf HDR verzichtet?

Ist vom Shadermodell abhaengig.
Und so wie ich es mitbekommen habe, kann man doch jeden "Effekt" einzeln ein/abstellen.

Ich mein ja nur, ich hab mir grad ne X850XT gekauft und nun werde ich ausgesperrt von zusätzlich Effekten obwohl meine Karte extrem Leistungsfähig ist und das ganze auch darstellen könnte? Ich bin da schon nen ganzes Stück sauer...

Deine Karte ist schnell in dem, was es ausführen kann.
Aber sie kann nicht alles auszuführen.
Du wusstest, was deine Karte kann, als du sie gekauft hast. Du nahmst den Speed gegenüber dem Featureset. Finde dich jetzt auch damit.

LovesuckZ

Demirug
2005-02-17, 12:50:51
Auch wenn man auf HDR verzichtet?

Ich mein ja nur, ich hab mir grad ne X850XT gekauft und nun werde ich ausgesperrt von zusätzlich Effekten obwohl meine Karte extrem Leistungsfähig ist und das ganze auch darstellen könnte? Ich bin da schon nen ganzes Stück sauer...

Ja, natürlich. HDR kann man ja auch beim SM3 Pfad getrennt an und abschalten. Das ganze ist dank statischem Branching mit ein paar SM3 Übershadern leicht zu machen gewesen.

Das du sauer bist kann ich verstehen ich finde es aus technischer Sicht ja auch bedauerlich.

Exxtreme
2005-02-17, 12:55:42
Auch wenn man auf HDR verzichtet?

Ich mein ja nur, ich hab mir grad ne X850XT gekauft und nun werde ich ausgesperrt von zusätzlich Effekten obwohl meine Karte extrem Leistungsfähig ist und das ganze auch darstellen könnte? Ich bin da schon nen ganzes Stück sauer...
Mein Gott! Dann kauf das Game halt nicht. Damit zeigst du dem Hersteller, was du davon hälst. :) Die Hersteller lernen nur über den Geldbeutel. :)

TheCounter
2005-02-17, 13:02:02
Ist vom Shadermodell abhaengig.
Deine Karte ist schnell in dem, was es ausführen kann.
Aber sie kann nicht alles auszuführen.
Du wusstest, was deine Karte kann, als du sie gekauft hast. Du nahmst den Speed gegenüber dem Featureset. Finde dich jetzt auch damit.

LovesuckZ

Ich habe für eine DirectX 9.0 Grafikkarte gezahlt und nicht für eine DirectX 8.0/8.1. Klar weis ich was sie kann, sie kann SM2.0 und SM2.0b. Dann will ich das auch nutzen und nicht mit DX8 rumgurken weil SM2.0 einfach ausgelassen wird und gleich von SM1.1 auf SM3.0 gesprungen wird.

robbitop
2005-02-17, 13:03:46
Was würde es mir mit einer 9800Pro bringen wenn die X800XT ein SM3 Chip wäre???



Was bringt es einem NV3x Besitzer, dass NV4x SM3 hat?
Hätte, wenn und aber interessieren wenig.

mnbv
2005-02-17, 13:10:41
Ich habe für eine DirectX 9.0 Grafikkarte gezahlt und nicht für eine DirectX 8.0/8.1. Klar weis ich was sie kann, sie kann SM2.0 und SM2.0b. Dann will ich das auch nutzen und nicht mit DX8 rumgurken weil SM2.0 einfach ausgelassen wird und gleich von SM1.1 auf SM3.0 gesprungen wird.

Soll sich jetzt jeder NV3x/4x über jedes Spiel beschweren, welches die zusaetzlichen Features nicht ausnutzen (HL² zum Beispiel)?
Du hast eine Karte, die ein wenig als das Minimum unterstuetzt.
Wenn ein Entwickler nun keine Lust hat, seine hochkomplexen Shader runter zuskalieren, dann ist dies sein gutes Recht.
Das du dich benachteiligst fühlst, ist doch eher deine eigene Schuld, da du dich freiwillig für diese Karte einschieden und die dadurch enstehenden Vor- sowie Nachteile bewusst in Kauf genommen hast.

LovesuckZ

robbitop
2005-02-17, 13:15:12
Soll sich jetzt jeder NV3x/4x über jedes Spiel beschweren, welches die zusaetzlichen Features nicht ausnutzen (HL² zum Beispiel)?
Du hast eine Karte, die ein wenig als das Minimum unterstuetzt.
Wenn ein Entwickler nun keine Lust hat, seine hochkomplexen Shader runter zuskalieren, dann ist dies sein gutes Recht.
Das du dich benachteiligst fühlst, ist doch eher deine eigene Schuld, da du dich freiwillig für diese Karte einschieden und die dadurch enstehenden Vor- sowie Nachteile bewusst in Kauf genommen hast.

LovesuckZ

etwas überzogen IMO. Vieles ließe sich sicher gut und sehr ähnlich auch mit SM realisieren. Liegt sicher auch an TWIMBP.
In diesem Falle aber IMO ok als Strafe fürs Nichtstun bei ATI. Schlecht hingegen ist, dass der User leiden muss.

reunion
2005-02-17, 13:33:39
Was bringt es einem NV3x Besitzer, dass NV4x SM3 hat?
Hätte, wenn und aber interessieren wenig.

Ich finde es unglaublich das du soetwas verteidigen kannst. Nichtnur das dadurch alle ATi User ausgesperrt werden, was immerhin schonmal einen Marktanteil am Desktopmarkt von >50% entspricht, nein, man verhindert den genuss aller Details auch auf sämtlichen INTeL, S3 und XGI Karten. Selbst nV User mit Karten kleiner - gleich Geforce FX haben pech gehabt. Einzig Besitzter der extrem jungen Geforce 6 Serie können alle Details genießen. Ich möchte garnicht wissen wie klein die Verbreitung dieser Karten gemessen am Gesamtmarkt ist.

Für mich ist das eine rießen verarschung, man gaukelt Effekte vor die nur eine unbedeutende Minderheit zu gesicht bekommt. Ich hoffe die Tester sind so schlau dies in die Wertung miteinfließen zu lassen.

mnbv
2005-02-17, 13:38:30
Für mich ist das eine rießen verarschung, man gaukelt Effekte vor die nur eine unbedeutende Minderheit zu gesicht bekommt. Ich hoffen die Tester sind so schlau dies in die Wertung miteinfließen zu lassen.

Wäre laecherlich, da das Spiel nicht schlechter dadurch ist.
Oder wurde HL²abgewertet, weil über 50% der DX9 user (ja, FX User) nicht alle Effekte von HL² sehen konnten?
HL² hat es vorgemacht, dort war es aber für viele, ironischer Weise, kein Problem.
Lag wohl daran, dass sie nicht betroffen waren...

LovesuckZ

robbitop
2005-02-17, 13:43:11
@reunion

ich sehe durchaus beide Seiten der Medallie. Blöd ist, dass viele kein SM2 nutzen können.

Exxtreme
2005-02-17, 13:43:49
Wäre laecherlich, da das Spiel nicht schlechter dadurch ist.
Oder wurde HL²abgewertet, weil über 50% der DX9 user (ja, FX User) nicht alle Effekte von HL² sehen konnten?
HL² hat es vorgemacht, dort war es aber für viele, ironischer Weise, kein Problem.
Lag wohl daran, dass sie nicht betroffen waren...

LovesuckZ
Naja, bei HL2 kann man den DX9-Modus auch auf einer GFFX aktivieren mit einigen Tricks da der SM2.0-Pfad grundsätzlich vorhanden ist.

deekey777
2005-02-17, 13:50:26
Naja, bei HL2 kann man den DX9-Modus auch auf einer GFFX aktivieren mit einigen Tricks da der SM2.0-Pfad grundsätzlich vorhanden ist.


Und schneller als der Wind ist er auch.

Zumindest wird der R520 SC: Chaos Dings unter Verwendung des SM 3.0 Pfades darstellen können.

mnbv
2005-02-17, 13:54:52
Naja, bei HL2 kann man den DX9-Modus auch auf einer GFFX aktivieren mit einigen Tricks da der SM2.0-Pfad grundsätzlich vorhanden ist.

Rechtfertigt dies, dass man eine ganze Gruppe von Menschen vom machbaren ausschließt?

LovesuckZ

Demirug
2005-02-17, 13:55:52
Naja, bei HL2 kann man den DX9-Modus auch auf einer GFFX aktivieren mit einigen Tricks da der SM2.0-Pfad grundsätzlich vorhanden ist.

Das ist der Unterschied zwischen "zu langsam" und "zu wenig Features".

Exxtreme
2005-02-17, 14:00:31
Rechtfertigt dies, dass man eine ganze Gruppe von Menschen vom machbaren ausschließt?

LovesuckZ
Wie meinen?

IIRC kann man den DX9-Pfad aktivieren (Kommandozeilenparameter?) selbst wenn man eine GFFX hat.

Ailuros
2005-02-17, 14:02:41
Ich finde es unglaublich das du soetwas verteidigen kannst. Nichtnur das dadurch alle ATi User ausgesperrt werden, was immerhin schonmal einen Marktanteil am Desktopmarkt von >50% entspricht, nein, man verhindert den genuss aller Details auch auf sämtlichen INTeL, S3 und XGI Karten. Selbst nV User mit Karten kleiner - gleich Geforce FX haben pech gehabt. Einzig Besitzter der extrem jungen Geforce 6 Serie können alle Details genießen. Ich möchte garnicht wissen wie klein die Verbreitung dieser Karten gemessen am Gesamtmarkt ist.

Für mich ist das eine rießen verarschung, man gaukelt Effekte vor die nur eine unbedeutende Minderheit zu gesicht bekommt. Ich hoffen die Tester sind so schlau dies in die Wertung miteinfließen zu lassen.

Geht es hier ausschliesslich um FarCry's HDR? Wenn ja kann mir diese miese Implementierung gestohlen bleiben.

Um welchen "Genuss" geht es hier eigentlich? Geht es um andere noch nicht veroeffentlichte Spiele, dann warte ich erstmal auf diese. Aber ich will wetten dass diese auch nicht der Rede sein werden.

Von dem abgesehen so mancher Entwickler dort draussen sollte sich eher darauf konzentrieren seinen code anstaendig zu optimieren. Es gibt tonnenweise Spiele dort draussen wo heutige mainstream Karten mit einem high end AMD64 bis zu 1280*1024 immer noch CPU-limitiert sind.

Momentan werden hauptsaechlich FarCry, Doom3 und HL2 vermarktet. Ich hab alle drei schon seit einiger Zeit durchgespielt und ich wahr genauso (jeweils aus anderen Gruenden) viel enttaeuscht in allen drei Faellen, ueberhaupt nach all dem pre-release hype.

Ich frage mich nur mit was der naechste Schub der Grafikkarten vermarktet werden soll. Refreshes der vorerwaehnten Spiele? Errrr..... nein danke. Wie waere es mit einem Spiel dass mich regelrecht auf den Sessel fesselt und fuer das ich tatsaechlich ohne weiteres Bedenken zu einer Aufruestung greifen wuerde?

deekey777
2005-02-17, 14:04:03
Wie meinen?

IIRC kann man den DX9-Pfad aktivieren (Kommandozeilenparameter?) selbst wenn man eine GFFX hat.

Das ist aber so kompliziert, -dxlevel90 als Startparameter zu setzen.
Andererseits ist aktiviertes DX9 für die FX-Serie nicht gerade das Gelbe vom Ei.

ironMonkey
2005-02-17, 14:09:00
Das ist aber so kompliziert, -dxlevel90 als Startparameter zu setzen.
Andererseits ist aktiviertes DX9 für die FX-Serie nicht gerade das Gelbe vom Ei.


Das is ne neue Marktlücke, Firma aufmachen die sich zum Hauptteil mit dem tuning vom Renderpfad beschäftigt.

Exxtreme
2005-02-17, 14:09:31
Das ist aber so kompliziert, -dxlevel90 als Startparameter zu setzen.

Was ist daran kompliziert? Dazu brauche ich keine 15 Sekunden.

mnbv
2005-02-17, 14:11:42
Wie meinen?
IIRC kann man den DX9-Pfad aktivieren (Kommandozeilenparameter?) selbst wenn man eine GFFX hat.

Er ist nicht vollständig für die FX Karten.
So reicht es nicht nur, den Parameter zu setzen, man muss dem Programm auch vorgaukeln, dass die FX Karte keine FX Karte sei...
Die Entwickler von HL² machten den ersten Schritt, Ubisoft geht einen weiteren.
Wollten das nicht alle: Konkurenz.

LovesuckZ

deekey777
2005-02-17, 14:15:43
Was ist daran kompliziert? Dazu brauche ich keine 15 Sekunden.


War auch nicht ernst gemeint. ;) Ich dachte, das sieht man auch ohne den Smiley.

Das is ne neue Marktlücke, Firma aufmachen die sich zum Hauptteil mit dem tuning vom Renderpfad beschäftigt.

Freiwillige nach vorn! Da fängt man zuerst mit FarCry an, geht zu Doom 3 über, HL2 muß nicht optimiert werden (läuft perfekt auf meiner 9800Pro)...

deekey777
2005-02-17, 14:17:56
Er ist nicht vollständig für die FX Karten.
So reicht es nicht nur, den Parameter zu setzen, man muss dem Programm auch vorgaukeln, dass die FX Karte keine FX Karte sei...
Die Entwickler von HL² machten den ersten Schritt, Ubisoft geht einen weiteren.
Wollten das nicht alle: Konkurenz.

LovesuckZ

Meinst du jetzt den Konsolenbefehl matdxlevel90 oder -dxlevel90 als Launch Option?
(Kenne mich hier nicht aus.)

Demirug
2005-02-17, 14:30:59
Das is ne neue Marktlücke, Firma aufmachen die sich zum Hauptteil mit dem tuning vom Renderpfad beschäftigt.

Eine Marktlücke setzt vorraus das es auch ausreichend Leute gibt die bereit sind dafür zu bezahlen. Ich glaube irgendwie nicht das ein Radeon Besitzer nachdem er sich SC3 gekauft hat nochmal 5-10€ (als Beispiel) auf den Tisch legt um die SM3 Effekte zu bekommen.

Mcdave
2005-02-17, 15:13:01
Tja, es wurde schon gesagt, UBI's Rechnung wird aufgehen, weil weniger (Technik)interessierte User gar nicht mitkriegen, was da abgeht.
Wobei noch zu klären wäre, in welcher Form SC3 von SM3 (räusper) überhaupt profitiert.
Es ist ja auch denkbar, dass später via Patches (die beim PC sowieso wieder nötig sein werden) ein SM2 Support mitgeliefert wird, oder ein pfiffiger Modder sich die Sache zur Brust nimmt.

DrFreaK666
2005-02-17, 15:24:30
Vielleicht kann man in Zukuft mit dem 3D-Analyze was hinbiegen.
Und die Radeon 9x00 und GF Fx-Besitzer werden spätestens dann misstrauisch wenn sie Screenshots von Spiele-Mags mit ihrer Grafik vergleichen.
Ich denke kaum, dass Ubisoft darauf hinweisen wird, dass alle DX9-Chips unter NV40 nur DX8-Grafik bieten werden.
Könnte man dann eventuell das Geld zurückforden (also theoretisch)??

Greetz

ironMonkey
2005-02-17, 15:30:45
Eine Marktlücke setzt vorraus das es auch ausreichend Leute gibt die bereit sind dafür zu bezahlen. Ich glaube irgendwie nicht das ein Radeon Besitzer nachdem er sich SC3 gekauft hat nochmal 5-10€ (als Beispiel) auf den Tisch legt um die SM3 Effekte zu bekommen.


Neben der Geschwindigkeit für den Endkunden, wird ja auch der Balken beim nächsten Bench länger ;) , man müsste ja eh mit ATI und NV zusammen arbeiten, zum anderen könnte man eine Art Jahres/Monats abo machen inkl. gewissen extras.

Des weiteren werden wir wohl sicher noch einige Spiele sehen die nicht das gelbe vom Ei sind weil man ja den Termin einhalten muss.

Hauwech
2005-02-17, 15:39:36
Vielleicht kann man in Zukuft mit dem 3D-Analyze was hinbiegen.
Und die Radeon 9x00 und GF Fx-Besitzer werden spätestens dann misstrauisch wenn sie Screenshots von Spiele-Mags mit ihrer Grafik vergleichen.
Ich denke kaum, dass Ubisoft darauf hinweisen wird, dass alle DX9-Chips unter NV40 nur DX8-Grafik bieten werden.
Könnte man dann eventuell das Geld zurückforden (also theoretisch)??

Greetz

Es wird nur garantiert dass das Spiel läuft, nicht wie es läuft.

TheCounter
2005-02-17, 15:53:52
Soll sich jetzt jeder NV3x/4x über jedes Spiel beschweren, welches die zusaetzlichen Features nicht ausnutzen (HL² zum Beispiel)?

Mir gehts jetzt garnicht so sehr um die HW (Da ich ATi und NVIDIA mag) sondern darum das die Entwickler so einen, entschludigung, "scheiß" zusammenprogrammieren. Wieso nur auf eine HW optimieren und die andere außen vor lassen? Zum Glück ist das im Konsolenmarkt nicht so...

Wenigstens stimmt hier das Gameplay (Wobei man da nichtmehr viel falsch machen kann, siehe Teil 1 und Teil 2).

mnbv
2005-02-17, 15:57:58
Mir gehts jetzt garnicht so sehr um die HW (Da ich ATi und NVIDIA mag) sondern darum das die Entwickler so einen, entschludigung, "scheiß" zusammenprogrammieren. Wieso nur auf eine HW optimieren und die andere außen vor lassen?

Das ist das, was die Leute wollen, siehe HL².
Finde dich damit.

LovesuckZ

DrFreaK666
2005-02-17, 16:01:25
Das ist das, was die Leute wollen, siehe HL².
Finde dich damit.

LovesuckZ

Bei Hl² hat man aber die Möglichkeit mit allen DX9-Karten dieselbe Qualität zu erzielen.
Bei SS3 geht das netterweise nicht mehr.

mnnbv
2005-02-17, 16:05:16
Bei Hl² hat man aber die Möglichkeit mit allen DX9-Karten dieselbe Qualität zu erzielen.
Bei SS3 geht das netterweise nicht mehr.

Nur durch Programme von dritten.
Das ist keine Alternative und erst recht keine Rechtfertigung.

mnbv
2005-02-17, 16:05:34
Bei Hl² hat man aber die Möglichkeit mit allen DX9-Karten dieselbe Qualität zu erzielen.
Bei SS3 geht das netterweise nicht mehr.

Nur durch Programme von dritten.
Das ist keine Alternative und erst recht keine Rechtfertigung.

LovesuckZ

DrFreaK666
2005-02-17, 16:18:39
Bei SS3 ist das überhaupt nicht möglich.
Es gibt genügend Freaks hier im Forum, die auch an einer ini rumfummeln würden um mehr Details zu sehen, UbiSoft lässt das aber nicht zu

ironMonkey
2005-02-17, 16:30:19
Bei SS3 ist das überhaupt nicht möglich.
Es gibt genügend Frekas hier im Forum, die auch an einer ini rumfummeln würden um mehr Details zu sehen, UbiSoft lässt das aber nicht zu

Überleg doch mal wo Ubisoft derzeit steht, da kann man nicht einfach seinen Wünschen hinter her rennen, da muss man nehmen was kommt(an Geld). Trotzdem finde ich es schade, wie schon geschrieben als Kunde.

reunion
2005-02-17, 17:21:43
Das ist der Unterschied zwischen "zu langsam" und "zu wenig Features".

Wenn eine Karte "zu langsam" ist kann ich trozdem alle Details darstellen und gegebenenfalls durch verzicht auf andere Features (wie AA/AF, geringere Auflösung ect.) auch flüssig spielen.

Bei "zu wenig Features" hab ich zwar fünf Millionen fps kann aber trozdem nicht alle Details aktivieren. Hinzu kommt das es in Splinter Cell mit etwas mehr Aufwand sehrwohl möglich wäre alle Effekte darzustellen. Was dieses Argument absurd macht.

reunion
2005-02-17, 17:26:09
Geht es hier ausschliesslich um FarCry's HDR? Wenn ja kann mir diese miese Implementierung gestohlen bleiben.


Nein, es geht einzig und alleine um das neue Splinter Cell, welches ausschließlich eine Unterstützung für SM3.0 oder SM1.1 bietet und damit >90% aller User Details vorenthält.

Polak
2005-02-17, 17:34:31
Nein, es geht einzig und alleine um das neue Splinter Cell, welches ausschließlich eine Unterstützung für SM3.0 oder SM1.1 bietet und damit >90% aller User Details vorenthält.
Was ist denn das für ein Mist? :eek:
Drehen die jetzt ganz ab? DX8 ist doch veraltet, SM3-Hardware kommt vielleicht auf 5% des Marktes. :confused:
Oder hat Nvidia bei dieser Entscheidung ein bisschen nachgeholfen?
Das kann aber ganz schnell nach hinten losgehen. SC3 ist kein HL2.

Demirug
2005-02-17, 17:37:42
Wenn eine Karte "zu langsam" ist kann ich trozdem alle Details darstellen und gegebenenfalls durch verzicht auf andere Features (wie AA/AF, geringere Auflösung ect.) auch flüssig spielen.

Bei "zu wenig Features" hab ich zwar fünf Millionen fps kann aber trozdem nicht alle Details aktivieren. Hinzu kommt das es in Splinter Cell mit etwas mehr Aufwand sehrwohl möglich wäre alle Effekte darzustellen. Was dieses Argument absurd macht.

Warum ist das Argument absurd?

Du hast doch genau das bestätigt was ich aussagen wollte. Wenn einem Chip vorrausgesetzte Features fehlen kann er so schnell sein wie er will er wird die Effekte trotzdem nicht darstellen.

Ob nun die Forderung nach einer SM3 Karte für alle Effekte in SC3 gerechtfertigt ist steht auf einem anderen Blatt. Als Spieler hat man jedoch wenig oder gar keinen Einfluss darauf was ein Entwickler für notwenig hält. Man kann sich lediglich entscheiden was man kauft und was nicht. Das betrift sowohl die Hardware wie auch die Software.

LovesuckZ
2005-02-17, 17:40:30
Hinzu kommt das es in Splinter Cell mit etwas mehr Aufwand sehrwohl möglich wäre alle Effekte darzustellen. Was dieses Argument absurd macht.

Wie?
Und solange du es nicht erklaeren kannst, steht das Argument, da man Argumente nicht durch Hypothesen entkraeftigen kann ;) .

Polak
2005-02-17, 17:41:35
Wie?
Und solange du es nicht erklaeren kannst, steht das Argument, da man Argumente nicht durch Hypothesen entkraeftigen kann ;) .
Welchen Effekt kann man denn nicht mit SM2 darstellen?

reunion
2005-02-17, 17:46:52
Wie?
Und solange du es nicht erklaeren kannst, steht das Argument, da man Argumente nicht durch Hypothesen entkraeftigen kann ;) .

Mir fehlt das nötige Wissen um diese Frage zu beantworten, aber AFAIK lässt sich jeder SM3.0 Effekt mit etwas Mehraufwand auch mit SM2.0 darstellen.

Coda
2005-02-17, 17:50:53
Nein, nicht mit Single Pass. Und alles andere wäre aufwändig ohne Ende.

Mr. Lolman
2005-02-17, 17:56:33
Und alles andere wäre aufwändig ohne Ende.

Aber geh...

reunion
2005-02-17, 17:59:59
Nein, nicht mit Single Pass. Und alles andere wäre aufwändig ohne Ende.

Ich wage zu bezweifeln das es im SC3 SM3.0 Modus einen Shader gibt welcher mehr als 512 Anweisungen enthält.

Polak
2005-02-17, 18:01:18
Mir fehlt das nötige Wissen um diese Frage zu beantworten, aber AFAIK lässt sich jeder SM3.0 Effekt mit etwas Mehraufwand auch mit SM2.0 darstellen.
Jeder mit Sicherheit nicht. ;)
Transluszenz ist ein Effekt, der nur mit SM3 performant machbar ist. Sonst kenne ich aber auch keinen Effekt, der sich nicht mit SM2 vernünftig darstellen lässt, mit ein bisschen Mehraufwand natürlich.

reunion
2005-02-17, 18:04:15
Warum ist das Argument absurd?

Du hast doch genau das bestätigt was ich aussagen wollte. Wenn einem Chip vorrausgesetzte Features fehlen kann er so schnell sein wie er will er wird die Effekte trotzdem nicht darstellen.


Ja, nur stellt sich die Frage ob dieses Feature wirklich so wichtig ist das man unbedingt eine SM3.0 Karte benötigt oder ob es sich dabei um wirtschaftliche Interessen handelt.


Ob nun die Forderung nach einer SM3 Karte für alle Effekte in SC3 gerechtfertigt ist steht auf einem anderen Blatt. Als Spieler hat man jedoch wenig oder gar keinen Einfluss darauf was ein Entwickler für notwenig hält. Man kann sich lediglich entscheiden was man kauft und was nicht. Das betrift sowohl die Hardware wie auch die Software.

ACK

Demirug
2005-02-17, 18:05:07
Ich wage zu bezweifeln das es im SC3 SM3.0 Modus einen Shader gibt welcher mehr als 512 Anweisungen enthält.

Das bezweifelst du zu recht. Aber SM2 hat nur 96 Anweisungsslots (64A+32T). Erst SM2.A und SM2.B gehen bis 512.

Das 2.0/2.X Limit das überschritten wird sind aber auch nicht die Anweisungen sondern die Eingangsregister.

Demirug
2005-02-17, 18:08:01
Ja, nur stellt sich die Frage ob dieses Feature wirklich so wichtig ist das man unbedingt eine SM3.0 Karte benötigt oder ob es sich dabei um wirtschaftliche Interessen handelt.

Es sind immer wirtschaftliche Interesse dahinter.

Was soll man aber zum Beispiel machen wenn das Buget nur für eine SM3 implementierung reicht? Nur SM3 einbauen oder doch besser gar nichts zusätzliches?

DrFreaK666
2005-02-17, 18:12:04
Es sind immer wirtschaftliche Interesse dahinter.

Was soll man aber zum Beispiel machen wenn das Buget nur für eine SM3 implementierung reicht? Nur SM3 einbauen oder doch besser gar nichts zusätzliches?

Man hätte SM2 einbauen können damit ein größerer Teil der Kundschaft zufrieden ist -> mehr zufriedene Kunden -> wahrscheinlich höhere Einnahmen

Demirug
2005-02-17, 18:16:32
Man hätte SM2 einbauen können damit ein größerer Teil der Kundschaft zufrieden ist -> mehr zufriedene Kunden -> wahrscheinlich höhere Einnahmen

Du hast mein Beispiel scheinbar nicht ganz verstanden.

SM1.1 ist vorhanden weil man es von der XBox portieren konnte. Der Rest des Bugets reicht für SM3 Eyecandy aber nicht für den gleichen Eyecandy mit SM2. Oder um es mal mit etwas mehr Leben zu fülen. 1 zusätzlicher Effekt mit SM2 oder 4 mit SM3. Was macht man nun?

reunion
2005-02-17, 18:16:36
Es sind immer wirtschaftliche Interesse dahinter.

Was soll man aber zum Beispiel machen wenn das Buget nur für eine SM3 implementierung reicht? Nur SM3 einbauen oder doch besser gar nichts zusätzliches?

Man sollte überlegen ob man sich bei der geringen Verbreitung von SM3.0 Hardware nicht eher schadet als nützt.

seahawk
2005-02-17, 18:24:47
Nö, weil es die Masse nicht bemerkt.

Polak
2005-02-17, 18:24:51
1 zusätzlicher Effekt mit SM2 oder 4 mit SM3. Was macht man nun?
SM2, weil davon mehr Leute profitieren.

Demirug
2005-02-17, 18:30:19
SM2, weil davon mehr Leute profitieren.

Sowas ist dem Publischer und damit auch dem Entwickler doch völlig egal. Wenn man verkaufen will braucht und gute Testergebnisse in den einschlägigen Magazinen. Einen Tester kann man mit 4 zusätzlichen Effekten mehr beineindrucken als nur mit einem.

seahawk
2005-02-17, 18:34:40
Was ist wenn SC:3 überhaupt nur wenige Sahder nutzt und diese alle mit 1.1 zu realisieren sind. Also hat man sich entschieden noch einige (evtl. überflüssige) SM3.0 Spielerein beizumischen.

Polak
2005-02-17, 18:36:52
Sowas ist dem Publischer und damit auch dem Entwickler doch völlig egal. Wenn man verkaufen will braucht und gute Testergebnisse in den einschlägigen Magazinen. Einen Tester kann man mit 4 zusätzlichen Effekten mehr beineindrucken als nur mit einem.
Wenn die Spieletester das nicht bemängeln werden, hast du Recht. Kommt noch drauf an, wie gross der Unterschied zwischen 1.1 und 3.0 ist.

aths
2005-02-17, 18:51:41
Man sollte überlegen ob man sich bei der geringen Verbreitung von SM3.0 Hardware nicht eher schadet als nützt.Wem schadet es denn?

aths
2005-02-17, 18:57:31
Mir fehlt das nötige Wissen um diese Frage zu beantworten, aber AFAIK lässt sich jeder SM3.0 Effekt mit etwas Mehraufwand auch mit SM2.0 darstellen.Das möchte ATI im Moment gerne glauben machen, stimmt aber nicht. Wenn ATI auch SM3-HW hat, werden sie das Gegenteil von ihren heutigen Behauptungen behaupten.

deekey777
2005-02-17, 19:01:16
...

SM1.1 ist vorhanden weil man es von der XBox portieren konnte. Der Rest des Bugets reicht für SM3 Eyecandy aber nicht für den gleichen Eyecandy mit SM2. Oder um es mal mit etwas mehr Leben zu fülen. 1 zusätzlicher Effekt mit SM2 oder 4 mit SM3. Was macht man nun?

Ein zusätzlicher Effekt mit SM2 und 4 mit SM3.
Mir wäre lieber, wenn sich das Spiel an die vorhandene HW anpaßt, sprich mit einer GF4/8500 gibt es DX8, mit einer 9800pro oder FX gibt es schon etwas mehr, mit einer NV40 gibt's noch mehr. Keiner sollte aber erwarten, dass eine 9800Pro immer die gleiche Qualität liefert wie eine Geforce 6800Ultra.
Dass aber mit SM2.0 gleiche Spielereien zu bekommen sind wie mit SM3.0 ist für mich aber kein Argument gegen den SM3.0 Pfad.


Aber man sollte sich in einem Thread, in dem es über den R520 geht, über SC:Chaos Theory nicht aufregen.

Demirug
2005-02-17, 19:13:46
Ein zusätzlicher Effekt mit SM2 und 4 mit SM3.
Mir wäre lieber, wenn sich das Spiel an die vorhandene HW anpaßt, sprich mit einer GF4/8500 gibt es DX8, mit einer 9800pro oder FX gibt es schon etwas mehr, mit einer NV40 gibt's noch mehr. Keiner sollte aber erwarten, dass eine 9800Pro immer die gleiche Qualität liefert wie eine Geforce 6800Ultra.
Dass aber mit SM2.0 gleiche Spielereien zu bekommen sind wie mit SM3.0 ist für mich aber kein Argument gegen den SM3.0 Pfad.


Aber man sollte sich in einem Thread, in dem es über den R520 geht, über SC:Chaos Theory nicht aufregen.

deekey aus technischer Sicht hätte ich gerne alle 4 Effekte auch für SM2 gesehen. Aber ich auch verstehen wenn sich ein Entwickler aus Kostengründe dazu entschliesst nur SM3 Eyecandy einzubauen.

DrFreaK666
2005-02-17, 19:14:10
Naja, eigentlich könnte mir die Sache mit SC3 sowieso egal sein, da ich mit den Games nicht viel anfangen kann. :biggrin:

Den R520 wird es nur noch für PCIe geben, oder?

q@h
2005-02-17, 19:45:16
Das 2.0/2.X Limit das überschritten wird sind aber auch nicht die Anweisungen sondern die Eingangsregister.

Dann wäre aber nicht "ATi" ausgeschlossen, sondern die "low-end Lamer" mit "veralteten Karten" - moralisch gesehen für viele sicherlich ein Unterschied.

xL|Sonic
2005-02-17, 19:58:30
deekey aus technischer Sicht hätte ich gerne alle 4 Effekte auch für SM2 gesehen. Aber ich auch verstehen wenn sich ein Entwickler aus Kostengründe dazu entschliesst nur SM3 Eyecandy einzubauen.

Kostengründe, wenn man dadurch Käuferschichten ausschließt und potentielle Kunden damit riskiert sind Kostengründe für dich?
Gerade wenn es um die Kosten geht versuche ich doch ein Produkt zu entwickeln, was möglichst viel Gewinn abwirft und das erreicht man mit Sicherheit nicht so.
Bin mal gespannt, ob die Konsolenversionen besser aussehen als die PC "Versionen" ohne NV4X

q@h
2005-02-17, 19:59:24
Das möchte ATI im Moment gerne glauben machen, stimmt aber nicht. Wenn ATI auch SM3-HW hat, werden sie das Gegenteil von ihren heutigen Behauptungen behaupten.
Aber selbstredend. nVidia würde dasselbe tun, ebenso selbstredend.
http://img192.exs.cx/img192/8982/unbenannt21kn.th.jpg (http://img192.exs.cx/my.php?loc=img192&image=unbenannt21kn.jpg)

Demirug
2005-02-17, 20:03:14
Kostengründe, wenn man dadurch Käuferschichten ausschließt und potentielle Kunden damit riskiert sind Kostengründe für dich?
Gerade wenn es um die Kosten geht versuche ich doch ein Produkt zu entwickeln, was möglichst viel Gewinn abwirft und das erreicht man mit Sicherheit nicht so.
Bin mal gespannt, ob die Konsolenversionen besser aussehen als die PC "Versionen" ohne NV4X

Redest du von den paar Freaks (nicht abwertent gemeint) die es sich nun aus Protest nicht kaufen? Der Verlust ist geringer als die Entwicklungskosten für einen zusätzlichen SM2 Pfad.

xL|Sonic
2005-02-17, 20:10:55
@demirug
Das mag ich irgendwie nicht glauben, dass gerade auf dem PC Sektor man es sich leisten kann so mit den Verkaufszahlen zu spielen. Traditionsgemäß verkaufen sich PC Spiele unter aller Sau und mich wundert es oft, dass die Firmen überhaupt so noch gewinne machen können und wenn man dann eine Käuferschicht ausschließt, die in Zeitschriften und auch im Internet liest, dass die gezeigten Bilder etc. nur auf dem NV4X laufen (+ die Leute, die es vielleicht durch unwissen wieder zurückgeben), obwohl es zu 99% auch auf ihrer hardware machbar wäre...ich weiß nicht ob das so intelligent ist.

mapel110
2005-02-17, 20:17:13
Traditionsgemäß verkaufen sich PC Spiele unter aller Sau
Wie kommst du denn zu solch einer Aussage?

Demirug
2005-02-17, 20:17:55
xL|Sonic, ja auf dem PC-Sektor sind die Verkäufe nicht sonderlich gut. Daher wird bei Portierungen auch gespart wo es nur geht.

Was nun die Käuferschicht angeht so überschätzt du die Anzahl die sich vorher dermassen informieren. Die Masse geht durch spontankäufe angeregt durch entsprechende Werbung über den Ladentisch. Zudem ist bei dem durchschnittlichen Level der Spieletests zu bezweifeln ob dort überhaupt erwähnt wird das es mit Radeonkarten anders aussieht.

xL|Sonic
2005-02-17, 20:22:44
Wie kommst du denn zu solch einer Aussage?

Vergleich halt mal die Verkauszahlen.
Nehmen wir doch einfach mal so einen Most Wanted Titel wie HL2 und vergleichen den mit einem ebenfalls Most Wanted Titel auf der Konsole aus dem selben Genre Halo 2 (merke, es handelt sich hier um eine mehr oder weniger erfolgreiche Spielekonsole) und was sieht man da, Halo 2 hat sich fast doppelt so oft verkauft, obwohl der Online Zug auf den Konsolen erst so richtig ins Rollen kommt und HL Mods sich ja extrem hoher Beliebtheit erfreuen.
Mafia z.B. hat sich aufm PC glaube ich nur ca. 150000 verkauft und ist auch ein Topspiel.

xL|Sonic
2005-02-17, 20:24:04
xL|Sonic, ja auf dem PC-Sektor sind die Verkäufe nicht sonderlich gut. Daher wird bei Portierungen auch gespart wo es nur geht.

Was nun die Käuferschicht angeht so überschätzt du die Anzahl die sich vorher dermassen informieren. Die Masse geht durch spontankäufe angeregt durch entsprechende Werbung über den Ladentisch. Zudem ist bei dem durchschnittlichen Level der Spieletests zu bezweifeln ob dort überhaupt erwähnt wird das es mit Radeonkarten anders aussieht.

Spart man da aber nicht mehr, wenn man möglichst Massenkompatibel entwickelt und nicht wieder auf irgendwelche Spezialisierungen eingeht?

Mr. Lolman
2005-02-17, 20:26:54
Redest du von den paar Freaks (nicht abwertent gemeint) die es sich nun aus Protest nicht kaufen? Der Verlust ist geringer als die Entwicklungskosten für einen zusätzlichen SM2 Pfad.

Wasn das fürn Argument?

Da hätte man sich den SM3 Pfad auch gleich sparen können. Wegen den paar Freaks die das Spiel nur der Grafik wegen kaufen?

Schad das Ati Karten beschnittten werden. So gibts schon wieder kein Spiel wo man SM3 gegen SM2b setzen kann, und dabei noch eine gültige Aussage zur Performacne ableiten kann. Denn momentan wirkt SM3 nur wie ein Marketinggag dem mittels einseitiger Programmierung zu imo unverdientem Glanz verholfen wird...

q@h
2005-02-17, 20:32:48
Spart man da aber nicht mehr, wenn man möglichst Massenkompatibel entwickelt und nicht wieder auf irgendwelche Spezialisierungen eingeht?
Ja, aber man riskiert dann Abwertungen der Game-Mags wegen nicht mehr zeitgemäßer Grafik (obwohl mir da ein gutgemachtes 1.1-Game zehnmal lieber ist, als ein schlechtes 2.x-Game). Und mit Wertungen in den unteren 70ern wirbt sich's schlecht.

Coda
2005-02-17, 20:34:17
Weniger Programmieraufwand != Schlechte Programmierung

SM 3.0 ist nicht nur eine Sache von Performance sondern von einfacherer Programmierung. Splinter Cell 3 ist das beste Beispiel.

Und wenn in einem Spielemagazin die schönen SM 3.0 Screenshots abgedruckt sind und die dumme Masse es kauft kann dem Entwickler es sowas von egal sein dass sich ein paar X800 Besitzer aufregen.

aths
2005-02-17, 20:38:37
Denn momentan wirkt SM3 nur wie ein Marketinggag dem mittels einseitiger Programmierung zu imo unverdientem Glanz verholfen wird...So wirkt es auf ATI-Fans.

Wasn das fürn Argument?

Da hätte man sich den SM3 Pfad auch gleich sparen können. Wegen den paar Freaks die das Spiel nur der Grafik wegen kaufen?Immerhin, das sind mehr Leute als gar keine.

Schad das Ati Karten beschnittten werden. So gibts schon wieder kein Spiel wo man SM3 gegen SM2b setzen kann, und dabei noch eine gültige Aussage zur Performacne ableiten kann.Was willst du da "gegensetzen"? SM3 wird auf dem NV40 sinnvollerweise nur dann genutzt, wenn es (bei gleichem Grafik-Effekt) schneller ist, als mit 2_A oder 2_0. Schon mit 2_A kann man auf dem NV40 effizienter programmieren als mit 2_B auf dem NV40. Wenn die Radeon mit 2_B (oder gar 2_0) trotzdem gewinnt, liegt das nicht daran, dass das SM3 scheiße wäre, oder nur "langsam" auf dem NV40 implementiert worden sei.

Ist ein Shader texturfüllratenlimitiert, oder nutzt z. B. die hohe MUL-Power des NV40 nicht aus, hat der R420 gute Chancen aufgrund der Taktrate schneller zu sein.

mapel110
2005-02-17, 20:40:38
Vergleich halt mal die Verkauszahlen.
Nehmen wir doch einfach mal so einen Most Wanted Titel wie HL2 und vergleichen den mit einem ebenfalls Most Wanted Titel auf der Konsole aus dem selben Genre Halo 2 (merke, es handelt sich hier um eine mehr oder weniger erfolgreiche Spielekonsole) und was sieht man da, Halo 2 hat sich fast doppelt so oft verkauft, obwohl der Online Zug auf den Konsolen erst so richtig ins Rollen kommt und HL Mods sich ja extrem hoher Beliebtheit erfreuen.
Mafia z.B. hat sich aufm PC glaube ich nur ca. 150000 verkauft und ist auch ein Topspiel.

Konsolen sind ja auch was ganz anderes. Hab ich mir schon gedacht, dass du deswegen sagst "traditionsgemäß unter aller Sau", was eindeutig übertrieben ist.
Sicher sind Konsolen lukrativer, aber wenn es sich nicht lohnen würde, PC-Spiele herzustellen, würde es wohl auch keiner mehr machen.

Mafia hat sich im deutschsprachigen Raum allein mehr als 100.000mal verkauft. Das Spiel ist aber lokalisiert in 5 oder 6 Sprachen erschienen.
Na jedenfalls ist eine Fortsetzung angekündigt und kann somit nicht wirklich unrentabel gewesen sein. :)

Und um mal zum Topic zu kommen ...

by Mr Lolman:
"Denn momentan wirkt SM3 nur wie ein Marketinggag dem mittels einseitiger Programmierung zu imo unverdientem Glanz verholfen wird..."

Warum denn einseitig? in ein paar Monaten ists das nicht mehr auf wundersame Weise. ;)

P.s. Die Leute, die sich von den SM3-Effekten beeindrucken lassen sind sicherlich in der Anzahl wesentlich grösser, als diejenigen, die sich über die Einschränkung bei der Nutzung aufregen (zumal wie gesagt die Einschränkung in ein paar Monaten für ATI-User ja wie von "Geisterhand" wegfällt). :)

Demirug
2005-02-17, 20:46:46
Wasn das fürn Argument?

Da hätte man sich den SM3 Pfad auch gleich sparen können. Wegen den paar Freaks die das Spiel nur der Grafik wegen kaufen?

Schad das Ati Karten beschnittten werden. So gibts schon wieder kein Spiel wo man SM3 gegen SM2b setzen kann, und dabei noch eine gültige Aussage zur Performacne ableiten kann. Denn momentan wirkt SM3 nur wie ein Marketinggag dem mittels einseitiger Programmierung zu imo unverdientem Glanz verholfen wird...

Der SM3 Pfad ist für die Spieletester damit die viele Punkt auf die Grafik geben und damit auch viele Punkt aus das Spiel. Sowas druckt man dann mit auf die Werbung. Eyecandy muss aus diesem Grund sein. Aber er soll auch günstig zu entwickeln sein.

aths
2005-02-17, 21:01:21
Schoen. Dann schau Dir mal den Leistungs-einbruch der R420 mit aktiviertem 6xAA und dynamischen Schatten an:

http://www.beyond3d.com/reviews/sapphire/x800pro/index.php?p=12

http://www.beyond3d.com/reviews/ati/r423/index.php?p=12Der 3DMark – ich bitte dich :)

@aths
NV40 kann mit aktivem AA nur 16 Stencilops/Takt durchführen.Wieso das?

Black-Scorpion
2005-02-17, 21:25:15
Ist wirklich lustig.
Bei HL² haben sich alle aufgeregt das die FX Karten kein SM2 bekommen.
Jetzt auf einmal ist es ganz normal.

Man kann nur hoffen das die Spieletester auch genau hinsehen und nicht darauf reinfallen.

Hoffentlich fällt UbiSoft damit richtig auf die Schnauze.

Quasar
2005-02-17, 21:35:31
Ist wirklich lustig.
Bei HL² haben sich alle aufgeregt das die FX Karten kein SM2 bekommen.
Jetzt auf einmal ist es ganz normal.


Nein, wirklich lustig wird's erst, wenn man mal guckt, wer sich jetzt am lautesten beschwert. Ironischerweise diejenigen, die es mehr oder minder begrüßten, daß die FXen kein SM2 abbekamen. ;)

Black-Scorpion
2005-02-17, 21:35:33
Der SM3 Pfad ist für die Spieletester damit die viele Punkt auf die Grafik geben und damit auch viele Punkt aus das Spiel. Sowas druckt man dann mit auf die Werbung. Eyecandy muss aus diesem Grund sein. Aber er soll auch günstig zu entwickeln sein.
Man baut ein Auto und weil es günstig sein soll nimmt man einen 10Jahre alten Motor.
Der frißt zwar 25 Liter/100km aber das ist ja nicht so schlimm.
Dafür bekommt es eine 1a Lackierung.

In der Bewertung steht dann zwar das die Kiste Mißt ist, aber es bekommt eine 1 wegen der Lackierung.

Demirug
2005-02-17, 21:41:18
Ist wirklich lustig.
Bei HL² haben sich alle aufgeregt das die FX Karten kein SM2 bekommen.
Jetzt auf einmal ist es ganz normal.

Die Situation ist IMHO nicht ganz vergleichbar.

Bei HL2 wurden Chip die technisch in der Lage sind den Shaderpfad zu benutzten ausgespert.

Bei SC3 wurde ein Shaderpfad programmiert den kaum eine Karte aus technischen Gründe nutzen kann.

Beides nicht sonderlich schön. Die SC3 Geschichte kann ich aber immerhin noch logisch nachvollziehen. Das bei HL2 halte ich einfach für mutwillig.

Ich würde es genauso für mutwillig halten wenn die Shader bei SC3 einfach nur als SM3 erzeugt worden wären um des Effectes willen. Die meisten davon lassen sich so aber nicht als SM2.X Shader compilieren.

Demirug
2005-02-17, 21:46:31
Man baut ein Auto und weil es günstig sein soll nimmt man einen 10Jahre alten Motor.
Der frißt zwar 25 Liter/100km aber das ist ja nicht so schlimm.
Dafür bekommt es eine 1a Lackierung.

In der Bewertung steht dann zwar das die Kiste Mißt ist, aber es bekommt eine 1 wegen der Lackierung.

Ja richtig. Bei Autotests fliest die Lackierung allerdings kaum bis überhaupt nicht in das Gesamtergebniss ein.

Bei Spielen bekommt man aber ohne sehr gute Optik kein Spitzengesamtergebniss. Ist leider so.

mapel110
2005-02-17, 21:49:21
Die Situation ist IMHO nicht ganz vergleichbar.

Bei HL2 wurden Chip die technisch in der Lage sind den Shaderpfad zu benutzten ausgespert.

Bei SC3 wurde ein Shaderpfad programmiert den kaum eine Karte aus technischen Gründe nutzen kann.

Beides nicht sonderlich schön. Die SC3 Geschichte kann ich aber immerhin noch logisch nachvollziehen. Das bei HL2 halte ich einfach für mutwillig.

Ich würde es genauso für mutwillig halten wenn die Shader bei SC3 einfach nur als SM3 erzeugt worden wären um des Effectes willen. Die meisten davon lassen sich so aber nicht als SM2.X Shader compilieren.

Ja, sehe ich genauso. Zumal ATI ja bei SM3 nicht wirklich außen vor ist, sondern mit dem R520 wohl auch alles darstellen wird können in dem Game. Die Möglichkeit lässt Valve Nvidia bei HL2 nur bedingt bzw es erfordert zutun des Users.

Bibolator
2005-02-17, 21:52:23
Wasn das fürn Argument?

Da hätte man sich den SM3 Pfad auch gleich sparen können. Wegen den paar Freaks die das Spiel nur der Grafik wegen kaufen?

Schad das Ati Karten beschnittten werden. So gibts schon wieder kein Spiel wo man SM3 gegen SM2b setzen kann, und dabei noch eine gültige Aussage zur Performacne ableiten kann. Denn momentan wirkt SM3 nur wie ein Marketinggag dem mittels einseitiger Programmierung zu imo unverdientem Glanz verholfen wird...

Ich bezweifle mal ganz stark, dass SM3 bis jetzt richtig ausgenutzt wurde. Die FarCry Version kann man ja wohl eher als Spaghetti-Programmierung mit eher schlechter Performance bezeichnen. Sowas dann augenscheinlich als Maßstab zu nehmen und dann über schlechte SM3 Performance zu reden ist ja wohl auch nicht so das Wahre. Performance hängt ja auch nicht nur von Shadern ab. Füllrate, Bandbreite, diverse "Treiberoptimierungen" und bestimmt noch einige andere Sachen machen eine Vergleichbarkeit bestimmt auch nicht einfacher....

Black-Scorpion
2005-02-17, 21:52:46
Nein, wirklich lustig wird's erst, wenn man mal guckt, wer sich jetzt am lautesten beschwert. Ironischerweise diejenigen, die es mehr oder minder begrüßten, daß die FXen kein SM2 abbekamen. ;)
Nur regt sich jetzt keiner auf das es hier mit den FXen genauso läuft.
Vorallem sollte man auch bedenken was passiert wenn das Spiel soviel Leistung braucht das vielleicht auch die normale 6600 so einbricht das es keinen Spaß mehr macht.

Ob es den Leuten dann auch noch egal ist?

Bibolator
2005-02-17, 21:56:04
Nur regt sich jetzt keiner auf das es hier mit den FXen genauso läuft.
Vorallem sollte man auch bedenken was passiert wenn das Spiel soviel Leistung braucht das vielleicht auch die normale 6600 so einbricht das es keinen Spaß mehr macht.

Ob es den Leuten dann auch noch egal ist?

Stell die Auflösung runter, dann läuft es auch wieder flüssig.

Quasar
2005-02-17, 22:00:32
Nur regt sich jetzt keiner auf das es hier mit den FXen genauso läuft.
Vorallem sollte man auch bedenken was passiert wenn das Spiel soviel Leistung braucht das vielleicht auch die normale 6600 so einbricht das es keinen Spaß mehr macht.

Ob es den Leuten dann auch noch egal ist?

Die FXen sind doch sowieso "unterirdisch", "einfach nur shit" und "ein Griff ins Klo" - von denen erwartet man ja gar nichts anderes (wenn man den Erstellern obiger Zitate glaubt.
Allerdings bin ich nicht sicher, ob die FXen in einem Game wirklich gut mit SM2 beraten wären, wenn selbst eine 6600GT im SM3-Pfad, wie du in den Raum stellst, möglicherweise stark einbricht.

Das gute an SM3 ist, daß vermutlich nur sehr wenig Multipass laufen muss und entsprechend Bandbreite und ROPs geschont werden - die Schwächen der 6600.

DrFreaK666
2005-02-17, 22:03:15
Also, wieso finden es soviele gut, dass kein SM2-Pfad dabei ist?

deekey777
2005-02-17, 22:19:20
Also, wieso finden es soviele gut, dass kein SM2-Pfad dabei ist?


Weil es nur schade, aber nicht schlimm ist.

Quasar
2005-02-17, 22:35:52
Also, wieso finden es soviele gut, dass kein SM2-Pfad dabei ist?
Gut finde ich es nicht, sondern es ist mir schlicht egal.

Exxtreme
2005-02-17, 22:44:02
Mein Gott, ist doch jetzt wurscht wegen dem Spiel. Es findet sich sicherlich jemand, der einen Wrapper schreibt, der das Zeug von SM3 nach SM2 konvertiert. Bei Dawn hat das ähnlich funktioniert.

DrFreaK666
2005-02-17, 22:47:27
Es wird Zeit, dass jemand ein DOS-Glide Spiel veröffentlicht.
Damit kann man auch werben :biggrin:

Quasar
2005-02-17, 23:00:44
Mein Gott, ist doch jetzt wurscht wegen dem Spiel. Es findet sich sicherlich jemand, der einen Wrapper schreibt, der das Zeug von SM3 nach SM2 konvertiert. Bei Dawn hat das ähnlich funktioniert.
Meinst du, daß es hier so einfach sein wird?

DrFreaK666
2005-02-17, 23:14:24
Meinst du, daß es hier so einfach sein wird?

Eben, nicht mal für Dusk gabs nen Wrapper.
Geschweige denn für nalu...

Demirug
2005-02-17, 23:23:48
Mein Gott, ist doch jetzt wurscht wegen dem Spiel. Es findet sich sicherlich jemand, der einen Wrapper schreibt, der das Zeug von SM3 nach SM2 konvertiert. Bei Dawn hat das ähnlich funktioniert.

Dawn? Das ist doch nur NV3X Level und wegen der Schwachen FP Leistung durfte sich da nVidia auch nicht so weit aus dem Fenster lehnen. Das einzige was da wiederstand geleistet hat war das eben eine nVidia Extension benutzt wurde.

Einfach konvertieren lässt sich das nicht da Shader mit um die 200 Anweisungen und dummerweise mehr als 8 Texturekoordinaten verwendet werden.

Wenn es ein 5 Minuten Job wäre hätte ich es schon am letzten Wochende erledigt.

tb
2005-02-18, 00:24:34
Ja richtig. Bei Autotests fliest die Lackierung allerdings kaum bis überhaupt nicht in das Gesamtergebniss ein.

Bei Spielen bekommt man aber ohne sehr gute Optik kein Spitzengesamtergebniss. Ist leider so.

Das wäre mit Heinrich Lenhardt (http://www.lenhardt.net/) nicht passiert ;)

Kennt den noch jemand?

Thomas (leider etwas zeitlos in den letzten Wochen, wegens meiner Diplomarbeit...)

mapel110
2005-02-18, 00:29:36
Das wäre mit Heinrich Lenhardt (http://www.lenhardt.net/) nicht passiert ;)

Kennt den noch jemand?

Thomas (leider etwas zeitlos in den letzten Wochen, wegens meiner Diplomarbeit...)

Ja, kenne den noch aus PC-Player-Zeiten. Der war immer der coolste in den Videos. :)

seahawk
2005-02-18, 08:20:08
Mal abwarten ob das Geschrei auch noch so groß ist, wenn ATI SM3.0 taugliche Hardware auf den Markt bringt.

Würden sich die gleichen Leute beschweren, wenn ein Spiel 3dc nutzen würde und sonst unkomprimierte Texturen ?? Mit den entsprechenden Ergebnissen für Speed und BQ ??

Demirug
2005-02-18, 08:29:15
Mal abwarten ob das Geschrei auch noch so groß ist, wenn ATI SM3.0 taugliche Hardware auf den Markt bringt.

Vielleicht bei denen die sich gerade noch eine X8xx gekauft haben und nicht schon wieder Geld für was neues haben.

Würden sich die gleichen Leute beschweren, wenn ein Spiel 3dc nutzen würde und sonst unkomprimierte Texturen ?? Mit den entsprechenden Ergebnissen für Speed und BQ ??

Die Leute die in beiden Fällen betroffen wären wahrscheinlich schon. Man beschwert sich ja in der Regel nur wenn man glaubt (ob nun berechtigt oder nicht) einen persönlichen Nachteil zu haben.

Die Frage dabei wäre allerdings ob man nur mit 3dc höher aufgelöste Texturen bekommt und wenn die Karte es nicht unterstützt sich mit einer Stufe kleineren zufrienden geben muss. Ansonsten verhindert ein fehlendes Feature ja keine Optik sonder höchstens Speed. 3dc ist aber ein schlechtes Beispiel weil der Treiber es für den NV4X ja emuliert.

DrFreaK666
2005-02-18, 09:24:33
Mal abwarten ob das Geschrei auch noch so groß ist, wenn ATI SM3.0 taugliche Hardware auf den Markt bringt.
...??

Glaubst du den GF FX-Leuten ist es egal, dass sie sich mit DX8-Grafik zufrieden geben müssen?

mnbv
2005-02-18, 09:38:26
Glaubst du den GF FX-Leuten ist es egal, dass sie sich mit DX8-Grafik zufrieden geben müssen?

Ironischer Weiße werde ihnen dies aber immer nahe gelegt.
Meisten von ATi Usern.
Nun, jetzt sieht diese Gruppe, was sie angerichtet haben.
Ironie des Schicksals.
Und ich lache über die Vergangenheit!

LovesuckZ

Jagdpanther
2005-02-18, 09:57:27
Mal abwarten ob das Geschrei auch noch so groß ist, wenn ATI SM3.0 taugliche Hardware auf den Markt bringt.

Würden sich die gleichen Leute beschweren, wenn ein Spiel 3dc nutzen würde und sonst unkomprimierte Texturen ?? Mit den entsprechenden Ergebnissen für Speed und BQ ??

Bis Ati ne PS3.0 Karte lieferfähig auf den Markt bringt ist Ende des Jahres (frühestens).

Glaubst du irgendjemand der PS3.0 benutzen will hat bis dahin noch keine geforce?

Und die anderen juckts eh net.

StefanV
2005-02-18, 10:31:00
Glaubst du den GF FX-Leuten ist es egal, dass sie sich mit DX8-Grafik zufrieden geben müssen?
Tja, das Problem ist, das die FX für "DX9" einfach viel zu lahm sind, da wird gar 'ne 5900 von 'ner x300/9600 geschlagen X-D

Siehe auch hier (http://www.digit-life.com/articles2/digest3d/0105/itogi-video-hl2-wxp-1280-agp.html)

Daher ist das rumgehäule der 'FX User' einfach nur nonsens, da sie eh mit dem DX8.1 Pfad spielen werden, freiwillig...

Valve hat das in diesem Fall nur aus dem Grunde gemacht, damit jeder FX User das Game 'out of the Box', ohne viel fummelarbeiten spielen kann, im DX8.1 Mode...

Was glaubst, wie viele FX User es da draußen gibt, die rumheulen würden, wenn das neue, vollkrasse Zock, auf ihrer Megatollen Dschiforce Effix als DIA Show laufen würde?!

robbitop
2005-02-18, 10:33:33
zu solchen Posts fällt mir nur ein Wort ein: Engstirnigkeit.

Mr. Lolman
2005-02-18, 10:39:41
Ironischer Weiße werde ihnen dies aber immer nahe gelegt.
Meisten von ATi Usern.
Nun, jetzt sieht diese Gruppe, was sie angerichtet haben.
Ironie des Schicksals.
Und ich lache über die Vergangenheit!

LovesuckZ

Du machst es dir auch einfach. Bei HL² gab man den FXen DX8, weil der Dx9Pfad bei denen so lahm war, dass die Topmodelle tw. sogar von lahmen 64bit Krücken des Konkurrenten versägt wurden.

Ich denke mit passender SM2 Programmierung ist ATi immernoch schneller als NV40 mit SM3. Bei FC deutet sichs an (aber eigentlich ja nur deswegen, weil die Pros, die SM3 Programmierung nicht passend finden), und Painkiller BooH führt das ganze weiter...

Das einzige Argument was gelten lassen würde, wär der Programmieraufwand. Schad, so ein Contentdesigner muss ja wirklich im Stress stehen. Bei HL² sieht man, dass sich die jahrelange Basteilei gelohnt hat. Das Spiel sieht gut aus, läuft verdammt schnell und hat eigentlich ziemlich geringe Polygonzahlen für die gebotene Optik. Es hat nichtmal jede Textur ne Bumpmap. Aber es sieht gut aus, auch trotzdessen das viele Häuser und Bäume 'billige' Bitmaps sind...


Splintercell 3 ist so vollgeknallt mit neuester Technik, dass 1280 schonnicht mehr flüssig ist, auf ner 6800 Ultra. Man könnte jetzt fps/Optik Rechnungen anstellen, und Splintercell würde weit unter Riddick (auch sehr lahm für die gebotene Optik) rangieren. Warum ist das so? Schlechte SM3 Implementation? Lahme SM3 HW?

BTW: Warum sieht auf meiner NV40 bei Standardtreibereinstellungen 4xAF tw. besser aus als 16xAF? Man sieht gut, wenn man in der SC3 Demo durch die besagte Höhle geht, und dann im Gang mit den Weinfässern links u rechts den Boden betrachtet. Unscharf sind beide. Aber bei 16xAF gibts noch schönes Banding, und leicht flimmrigere Grafik.

Wohl auch ein Verdienst der ATi Freunde, oder?

Imo macht es ihr euch wirklcih zu leicht, denn 1. sah der HL² Dx8 Pfad nicht so viel schlechter aus als Dx9, und 2. war bei meiner Ati die Grafik bisher immer entweder scharf oder unscharf. (je nach AF Modus und WA). Mit NVidia seh ich bei der SC3 Demo, wie wunderbar die gleiche Fläche bis zu einem gewissen Punkt sehr scharf ist, dann gibts n Mipband und dahinter ist plötzlich alles unscharf. Wenn man schon von ATi abkupfert dann bitte ordentlich...

Achja ich kann auf HQ gehen und die OPtimierungen ausschalten. Dann wirds leicht besser, aber deutlich mehr als 20% langsamer. 1280 ist dann unspielbar. Irgendwie fuckts mich an, dass das Spiel zwar die neuesten Techniken verwendet, aber so lahm läuft, dass die GraKa die ich mir vor kurzem um 400€ gekauft hab, wie Altmetall wirkt.


/edit: Hat sich bei der SC3 Demo jemand die HW Schatten schon mal genauer angesehen? Bringt fps, aber immer bei bestimmten Punkte werden die total geschredderrt, und bleiben solange kaputt, bei man sie reaktiviert, oder auf denDesktop wechselt. Was ist denn da kaputt? (Die Fehler schaun auch genauso aus, wie im 3dmark05-GT2 die Schatten bisweilen flimmern)

Demirug
2005-02-18, 10:52:49
Stefan, das Problem bei HL2 ist IMHO nicht das automatisch der DX8 Pfad für die FXen vorselektiert wird. Das Problem sehe ich eher darin das man sich den DX9 Pfad erst umständlich freischalten muss und dieser dann nicht mal einen hauch von Optimierung für die FXen enthält. Aber das hatten wir ja inzwischen schon so oft das dazu jeder seine Meinung haben dürfte.

Bei SC3 wird zumindestens auf meiner 6800GT auch automatisch nur der SM1.1 Pfad aktiviert. Wenn ich mehr will muss ich es auch aktivieren. Der Unterschied ist aber das es in dem entsprechenden Dialog einfach geht.

Ailuros
2005-02-18, 10:56:19
Bei HL² sieht man, dass sich die jahrelange Basteilei gelohnt hat. Das Spiel sieht gut aus, läuft verdammt schnell und hat eigentlich ziemlich geringe Polygonzahlen für die gebotene Optik. Es hat nichtmal jede Textur ne Bumpmap. Aber es sieht gut aus, auch trotzdessen das viele Häuser und Bäume 'billige' Bitmaps sind...

Subjektive Meinung. Mich hat das Resultat weder was IQ, noch gameplay betrifft aus den Socken gerissen. Schlecht ist es nicht, aber etwas besonderes um Himmels Willen (stets IMHO) nun auch wieder nicht.

Ich hab das Ding bis zur Mitte durchgespielt in einem Schub damals, suchte aber danach nach trockenen Socken hehehe :D

Was nun SC3 betrifft, wenn Entwickler spinnen dann spinnen sie halt.

Ich persoenlich erwarte eher was CroTeam genau angerichtet hat diesmal; wann die endlich veroeffentlichen keine Ahnung. Mehr als dieselbe sinnlose Ballerei wie frueher erwarte ich zwar nicht, aber ich kann auf anstaendige Leistung mit sehenswerter Grafik hoffen.

BTW: Warum sieht auf meiner NV40 bei Standardtreibereinstellungen 4xAF tw. besser aus als 16xAF? Man sieht gut, wenn man in der SC3 Demo durch die besagte Höhle geht, und dann im Gang mit den Weinfässern links u rechts den Boden betrachtet. Unscharf sind beide. Aber bei 16xAF gibts noch schönes Banding, und leicht flimmrigere Grafik.

Hmmmmm mit was fuer Einstellungen fuer "anisotropic mip filter optimisation" und "negative LOD bias"?

dildo4u
2005-02-18, 10:56:34
/edit: Hat sich bei der SC3 Demo jemand die HW Schatten schon mal genauer angesehen? Bringt fps, aber immer bei bestimmten Punkte werden die total geschredderrt, und bleiben solange kaputt, bei man sie reaktiviert, oder auf denDesktop wechselt. Was ist denn da kaputt? (Die Fehler schaun auch genauso aus, wie im 3dmark05-GT2 die Schatten bisweilen flimmern)
Änliches konnte ich auch beobachten hab jetzt mal vom 71.20 auf den 67.66 gewechselt ist bis jetzt nicht mher aufgetreten.Und ich kann dir nicht ganz zustimmen alles geht sicher nicht wegen der shader länge demurig hats ja schon erklärt aber zumindest ist hier das HDR schon an den Content angepasst im gegensatz zu Farcry vieleicht tut sich ja auch noch was bis zur Vollversion und vieleicht ist bis dahin auch ein brauchbarer schneller 70er treiber draussen.Ich finde es mutig von Ubisoft ist mir persönlich sympatischer als das EA hauptsache billig fürn pc entwicklen und schlechte konsolen umsetzungen bringen.

Quasar
2005-02-18, 10:58:54
Schad, so ein Contentdesigner muss ja wirklich im Stress stehen.
Ein Contentdesigner designed allerdings eher Content (wie der Name nahelegt) und eher selten Programmcode.

/edit: Hat sich bei der SC3 Demo jemand die HW Schatten schon mal genauer angesehen? Bringt fps, aber immer bei bestimmten Punkte werden die total geschredderrt, und bleiben solange kaputt, bei man sie reaktiviert, oder auf denDesktop wechselt. Was ist denn da kaputt? (Die Fehler schaun auch genauso aus, wie im 3dmark05-GT2 die Schatten bisweilen flimmern)

Habe ich nicht gesehen - an welchen "Punkten" tritt das denn so auf?

BTW: Warum sieht auf meiner NV40 bei Standardtreibereinstellungen 4xAF tw. besser aus als 16xAF? Man sieht gut, wenn man in der SC3 Demo durch die besagte Höhle geht, und dann im Gang mit den Weinfässern links u rechts den Boden betrachtet. Unscharf sind beide. Aber bei 16xAF gibts noch schönes Banding, und leicht flimmrigere Grafik.
AF in der Applikation ausgewählt? Dann könnte, obacht: "könnte", es auch eine Entscheidung der Entwickler sein, daß irgendwann (oder gar immer) bestimmte Stellen nur bilinear-anisotrop gefiltert werden.
Sowas sollte sich durch externes AF umgehen lassen.

Falls nicht: Sicher, daß da nicht automatisch ein SC:CT-Profil anspringt? ;)

StefanV
2005-02-18, 10:59:43
Ich persoenlich erwarte eher was CroTeam genau angerichtet hat diesmal; wann die endlich veroeffentlichen keine Ahnung. Mehr als dieselbe sinnlose Ballerei wie frueher erwarte ich zwar nicht, aber ich kann auf anstaendige Leistung mit sehenswerter Grafik hoffen.

Hm, warum musste ich bei HL2, als ich an einigen Wänden stand, nur an SeSam(2. Versuch) denken?! ;)

Hm, vermutlich weil die Gemäuer bei SeSam nicht schlechter ausschauten...

StefanV
2005-02-18, 11:01:32
Stefan, das Problem bei HL2 ist IMHO nicht das automatisch der DX8 Pfad für die FXen vorselektiert wird. Das Problem sehe ich eher darin das man sich den DX9 Pfad erst umständlich freischalten muss und dieser dann nicht mal einen hauch von Optimierung für die FXen enthält. Aber das hatten wir ja inzwischen schon so oft das dazu jeder seine Meinung haben dürfte.


Hier haben wir mal einen tollen Teufelskreis :devil:

Der Anfang und das Ende dieses Kreises ist aber eindeutig:

Die nV3x Serie ist einfach zu lahm, für Float Point shader.
(zwischen drin: die 'High End' nV3x sind momentan nicht mehr der Rede wert, von der Verbreitung, liegen unter 5%, die 5800 + 5900 Serie).

Demirug
2005-02-18, 11:02:12
Mr. Lolman, die Shader bei SC3 sind Teil der Engine und nicht des Contents. Der Content bestimmt nur welche Optionen für jede Fläche genutzt werden.

Das mit dem FPS/Optik Verhältniss wird so weitergehen den wir sind jetzt in Bereichen bei denen jede kleine Verbesserung teuer erkauft werden muss. Bei SC3 kommt hinzu das es sich ja primär um einen Konsolentitel handelt der nicht für die im Verhältniss dazu "wahnsinnigen" Auflösungen beim PC entworfen wurde.

Ob ATI mit SM2 schneller wäre als nV mit SM3 wäre sicherlich ein interesantes Experiment. Ein teures leider auch. Bei den tausenden von Shadern die dazu notwendig wären.

Ailuros
2005-02-18, 11:02:48
Änliches konnte ich auch beobachten hab jetzt mal vom 71.20 auf den 67.66 gewechselt ist bis jetzt nicht mher aufgetreten.Und ich kann dir nicht ganz zustimmen alles geht sicher nicht wegen der shader länge demurig hats ja schon erklärt aber zumindest ist hier das HDR schon an den Content angepasst im gegensatz zu Farcry vieleicht tut sich ja auch noch was bis zur Vollversion und vieleicht ist bis dahin auch ein brauchbarer schneller 70er treiber draussen.Ich finde es mutig von Ubisoft ist mir persönlich sympatischer als das EA hauptsache billig fürn pc entwicklen und schlechte konsolen umsetzungen bringen.

Ach das demo hat HDR? HDR bringt so einiges aliasing mit sich in FarCry.

OT: ich empfehle auch 71.81 im Gegensatz zu 71.20. Auf ersten Blick wirst Du keinen besonderen Unterschied sehen, ausser Du konzentrierst Dich auf minimale Frameraten in Stress-situationen. Seit 71.20 gibt es die "Klammer" fuer den negativen LOD bias und man sollte hier auch die Finger von der aniso mip filter Optimierung lassen, sonst verdauen sich die beiden settings nicht gut (ergo AF mip filter = off und negative LOD = clamp). Ich benutze nur "clamp" in allen Situationen.

dildo4u
2005-02-18, 11:05:38
Ach das demo hat HDR? HDR bringt so einiges aliasing mit sich in FarCry.

Eben so in SC3 aber in 1280 ist es ertragbar AA funzt mit PS3.0 nicht oder gibt noch eine anderen grund als echtes HDR das AA nicht funzt?Weil AA selber ja sogar im Game angeboten wird.

Ailuros
2005-02-18, 11:06:23
Hm, warum musste ich bei HL2, als ich an einigen Wänden stand, nur an SeSam(2. Versuch) denken?! ;)

Hm, vermutlich weil die Gemäuer bei SeSam nicht schlechter ausschauten...

Serious Sam engine 1 hat wohl nicht viel mit der kommenden Serious Sam engine 2 zu tun. Auf jeden Fall benutzt SS hoeher aufgeloeste Texturen als HL2; zu nahe an eine Wand darf man im zweiten Fall sowieso nicht ruecken.

Demirug
2005-02-18, 11:07:25
Eben so in SC3 aber in 1280 ist es ertragbar AA funzt mit PS3.0 nicht oder gibt noch eine anderen grund als echtes HDR das AA nicht funzt?Weil AA selber ja sogar im Game angeboten wird.

Es ist echtes HDR. Habe ich schon überprüft.

Ailuros
2005-02-18, 11:07:26
Eben so in SC3 aber in 1280 ist es ertragbar AA funzt mit PS3.0 nicht oder gibt noch eine anderen grund als echtes HDR das AA nicht funzt?Weil AA selber ja sogar im Game angeboten wird.

HDR + MSAA = nicht moeglich auf NV40 (HW-Limitierung) afaik.

dildo4u
2005-02-18, 11:12:26
HDR + MSAA = nicht moeglich auf NV40 (HW-Limitierung) afaik.
Wird der R520 MSAA+HDR anbieten können oder wird das dann erst eine Generation später kommen?Für die X-Box2 will man doch sicher PS3.0 mit AA anbieten können für die PAL auflösung könnte der Chip für die Box technisch weiter sein als der R520?

Demirug
2005-02-18, 11:15:43
Wird der R520 MSAA+HDR anbieten können oder wird das dann erst eine Generation später kommen?

Denkbar das es eingebaut wurde weil ATI sowieso neue ROPs braucht um FP-Blending zu realisieren.

Für die X-Box2 will man doch sicher PS3.0 mit AA anbieten können könnte der Chip für die Box technisch weiter sein als der R520?

Der R500 ist technisch sehr wahrscheinlich weiter als der R520.

Ailuros
2005-02-18, 11:19:58
ROFL ich koennte mir im Fall von SC3 aber leicht vorstellen dass R520 mit float HDR + MSAA zumindest genauso mies laeuft wie heutige Karten (nur HDR).

Demirug,

Ist das aliasing auf Texturen mit float HDR normal? Wenn ja will ich so langsam nicht mehr viel von dem Zeug hoeren.....

Demirug
2005-02-18, 11:33:01
Demirug,

Ist das aliasing auf Texturen mit float HDR normal? Wenn ja will ich so langsam nicht mehr viel von dem Zeug hoeren.....

Zwingend ist das nicht. Kann aber primär an zwei Stellen zustande kommen.

1. Wenn HDR Texturen in ein nicht HDR Format gepackt werden und durch den Pixelshader expandiert werden.

2. Wenn beim Tonemapping einzelne Bereiche zu stark skaliert werden.

Ailuros
2005-02-18, 11:38:58
Zwingend ist das nicht. Kann aber primär an zwei Stellen zustande kommen.

1. Wenn HDR Texturen in ein nicht HDR Format gepackt werden und durch den Pixelshader expandiert werden.

2. Wenn beim Tonemapping einzelne Bereiche zu stark skaliert werden.

Klingt ziemlich versprechend wenn ich daran denke wie leicht so mancher Entwickler hier wieder verprasseln koennte; ich bekomm tolle Beleuchtung in dem Fall, aber furchtbares Gruseln (stellenweise) auf Texturen (es wird ja auch noch ziemlich extrem "betont" durch die intensivere Beleuchtung)....*seufz*

Mr. Lolman
2005-02-18, 12:00:11
Hmmmmm mit was fuer Einstellungen fuer "anisotropic mip filter optimisation" und "negative LOD bias"?

Anistrope Mip-Filter Optimierung ist aus, LOD Clamp war nicht aktiv. Anscheinend war das LOD Clamp dafür verantwortlich, denn jetzt, mit aktivem, ists imo besser...


AF in der Applikation ausgewählt? Dann könnte, obacht: "könnte", es auch eine Entscheidung der Entwickler sein, daß irgendwann (oder gar immer) bestimmte Stellen nur bilinear-anisotrop gefiltert werden.
Sowas sollte sich durch externes AF umgehen lassen.


Umgekehrt. Externes 16xAF bringt zumindest mit dem 71.20 und dem 71.81 gerade mal die Qualität von 2xAF im Spiel, wobei 2xAF immernoch ein bisschen schärfer ist...

16xCP AF, (71.81, default, LOD Clamp)
http://img23.exs.cx/img23/2918/splintercell16xcpaf2pu.th.jpg (http://img23.exs.cx/my.php?loc=img23&image=splintercell16xcpaf2pu.jpg)

2xApp AF, (71.81, default, LOD Clamp)
http://img23.exs.cx/img23/3560/splintercell2xappaf7mm.th.jpg (http://img23.exs.cx/my.php?loc=img23&image=splintercell2xappaf7mm.jpg)

4xApp AF, (71.81, default, LOD Clamp)
http://img23.exs.cx/img23/7263/splintercell4xappaf6ov.th.jpg (http://img23.exs.cx/my.php?loc=img23&image=splintercell4xappaf6ov.jpg)

(nein ich hab die Screenshots nicht vertauscht ;))

Ich könnte auch das Savegame zur verfügung stellen, wenn mir jemand den Pfad verratet, wo die hingewspeichert werden...

OT: ich empfehle auch 71.81 im Gegensatz zu 71.20.

Der 71.81 hat auch die Schattenprobleme...

Mr. Lolman
2005-02-18, 12:02:35
Klingt ziemlich versprechend wenn ich daran denke wie leicht so mancher Entwickler hier wieder verprasseln koennte; ich bekomm tolle Beleuchtung in dem Fall, aber furchtbares Gruseln (stellenweise) auf Texturen (es wird ja auch noch ziemlich extrem "betont" durch die intensivere Beleuchtung)....*seufz*

Ich hätt gern ne Möglichkeit die Intensität des Specularlightings zu regeln. Fast alle Mauerwerke wirken, als wären sie von irgendsonem nass-kaltem Schleim überzogen. (Bei den Felsen in der Höhle siehts geil aus)

Demirug
2005-02-18, 12:14:31
Ich hätt gern ne Möglichkeit die Intensität des Specularlightings zu regeln. Fast alle Mauerwerke wirken, als wären sie von irgendsonem nass-kaltem Schleim überzogen. (Bei den Felsen in der Höhle siehts geil aus)

Morgen ist Samstag. ;)

Mr. Lolman
2005-02-18, 12:25:25
Hm, warum musste ich bei HL2, als ich an einigen Wänden stand, nur an SeSam(2. Versuch) denken?! ;)

Hm, vermutlich weil die Gemäuer bei SeSam nicht schlechter ausschauten...

Dabei lebt HL² haupsächlich von den Texturen. Hätten die ähnlich fähige Texturdesigner gehabt wie Ion Storm für Deus Ex 2, wär HL² optisch wohl ein griff ins Klo gewesen...

Morgen ist Samstag. ;)

:ujump2:

Ailuros
2005-02-18, 14:56:36
Anistrope Mip-Filter Optimierung ist aus, LOD Clamp war nicht aktiv. Anscheinend war das LOD Clamp dafür verantwortlich, denn jetzt, mit aktivem, ists imo besser...

Kann man HDR im demo abschalten? (nein ich hab das Ding nicht). Versuch es mal, wenn moeglich (irgendein ini oder cfg file vielleicht?).


Umgekehrt. Externes 16xAF bringt zumindest mit dem 71.20 und dem 71.81 gerade mal die Qualität von 2xAF im Spiel, wobei 2xAF immernoch ein bisschen schärfer ist...

Ist ja nur ein pre-release demo (ie es darf auch leicht "buggy" sein). Oder siehst Du generell aehnliche Neben-effekte in anderen Spielen?

Der 71.81 hat auch die Schattenprobleme...

Im SC3 demo oder sonst wo?

Ailuros
2005-02-18, 15:07:08
Entweder brauch ich ne Brille, oder ich sehe zwischen den drei shots nur minimale Unterschiede in LOD nach dem ersten Fass links (schraeg auf dem Boden). Mehr als 2xAF duerfte keines der Shots eigentlich haben. Demi?

Mr. Lolman
2005-02-18, 15:21:04
Kann man HDR im demo abschalten? (nein ich hab das Ding nicht). Versuch es mal, wenn moeglich (irgendein ini oder cfg file vielleicht?).


Mal sehen. Wenns geht, ists sofort deaktiviert. Weil HDR ist bei der Demo wirklich nicht überzeugend. (Da hab ich mit ein wenig Spielerei bei FC deutlich bessere Ergebnisse erzielt)


Ist ja nur ein pre-release demo (ie es darf auch leicht "buggy" sein). Oder siehst Du generell aehnliche Neben-effekte in anderen Spielen?

Imo ist nicht das Spiel buggy, sondern der Treiber. Der kennt SC3 Demo halt noch nicht, deswegen bekommt auch nur die TS0 volles AF. Ist aber egal, da man AF im Spiel eh auch auswählen kann, und da alles passt...


Im SC3 demo oder sonst wo?

Jepp, und beim 3dmark halt. Nur sieht mans beim Murks kaum, aber schau dir ruhig mal den GT2 etwas genauer an...

Entweder brauch ich ne Brille, oder ich sehe zwischen den drei shots nur minimale Unterschiede in LOD nach dem ersten Fass links (schraeg auf dem Boden). Mehr als 2xAF duerfte keines der Shots eigentlich haben. Demi?

Demi kann dir auch nicht weiterhelfen, wenn du ne Sehschwäche hast ;)
Betracht mal den Boden direkt vor dem einem Fass, was quer herumliegt...

Jesus
2005-02-18, 18:56:46
gibts dieselben/ähnliche Effekte eigentlich auch auf der xbox/ps2 ? Wenn ja ist wohl klar wieso siehs mit SM3 only gemacht haben - Faulheit :)

Demirug
2005-02-18, 19:19:29
gibts dieselben/ähnliche Effekte eigentlich auch auf der xbox/ps2 ? Wenn ja ist wohl klar wieso siehs mit SM3 only gemacht haben - Faulheit :)

Der SM1.1 Pfad kommt von der XBox. Der SM3 Pfad wurde für den PC neu geschrieben.

Klar war das Faulheit die Frage ist eben nur durch was sie motiviert wurde.

TheCounter
2005-02-18, 19:58:15
gibts dieselben/ähnliche Effekte eigentlich auch auf der xbox/ps2?

Ich hab die X-Box Demo von SC3 hier, außer der Auflösung seh ich eigentlich nicht wirklich einen Unterschied zur PC-Version, auch von den Texturen her nicht.

PS: Sollten wir das nicht in den SC3 Thread @ Spieleforum verlegen?

TheCounter
2005-02-18, 20:05:56
Mal sehen. Wenns geht, ists sofort deaktiviert. Weil HDR ist bei der Demo wirklich nicht überzeugend. (Da hab ich mit ein wenig Spielerei bei FC deutlich bessere Ergebnisse erzielt)

Öffne mal die SplinterCell3.ini (E:\Tom Clancy's Splinter Cell 3 - Chaos Theory\System) mit nem Texteditor und such folgendes:

HDR=1
ParallaxMapping=1
HQSoftShadows=1
ToneMapping=1

Stell da mal HDR mal auf 0, evlt. gehts (Das andere kannste auch deaktivieren oder mal gucken was es für einen Unterschied bewirkt, oder du lässt es einfach ;)).

ShadowXX
2005-02-18, 21:20:01
Öffne mal die SplinterCell3.ini (E:\Tom Clancy's Splinter Cell 3 - Chaos Theory\System) mit nem Texteditor und such folgendes:

HDR=1
ParallaxMapping=1
HQSoftShadows=1
ToneMapping=1

Stell da mal HDR mal auf 0, evlt. gehts (Das andere kannste auch deaktivieren oder mal gucken was es für einen Unterschied bewirkt, oder du lässt es einfach ;)).

Das ganze kann man auch bequem In-Game machen...da gibts Schalter zum ein und Ausschalten der einzelnen "Effekte".

Jesus
2005-02-18, 21:43:12
irgendwie erinnert mich das ganze an die FarCry NV Präsentation wo man SM1.1 gegen SM3.0 verglichen hat um zu zeigen wie toll das doch ist ;) (und SM1.1 als 2.0 verkauft hat ...)

TheCounter
2005-02-18, 22:30:41
Das ganze kann man auch bequem In-Game machen...da gibts Schalter zum ein und Ausschalten der einzelnen "Effekte".

Bei mir gibts das nicht da ich nur SM1.1 wählen kann, wusste ich also nicht :)

Coda
2005-02-18, 22:46:52
Uhm woher habt ihr eigentlich ne Demo von dem Spiel? Hab ich was verpasst?

Demirug
2005-02-18, 22:51:04
Uhm woher habt ihr eigentlich ne Demo von dem Spiel? Hab ich was verpasst?

Scheinbar. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=205336

Wir sollte wie TheCounter schon vorgeschlagen hat auch besser dort weitermachen.

Wenn Bedarf besteht kann ich auch die Shader rausziehen die dafür verantwortlich sind das man SM3 braucht.

Ailuros
2005-02-19, 01:00:25
Imo ist nicht das Spiel buggy, sondern der Treiber. Der kennt SC3 Demo halt noch nicht, deswegen bekommt auch nur die TS0 volles AF. Ist aber egal, da man AF im Spiel eh auch auswählen kann, und da alles passt...

Na das 8. Wunder ist es nun auch wieder nicht. Die Leistung ist im besten Fall mies. Pre-release demos haben in der Mehrheit der Faelle einige Macken die bei der Veroeffentlichung des Spiels dann beseitigt sind. Natuerlich ist der Treiber auch buggy; zeig mir einen perfekten Treiber und ich zeig Dir dann gerne einen ehrlichen Politiker *grins*.

Jepp, und beim 3dmark halt. Nur sieht mans beim Murks kaum, aber schau dir ruhig mal den GT2 etwas genauer an...

Falls Du 3dmark05 meinen solltest ich hab das Ding nicht.

Demi kann dir auch nicht weiterhelfen, wenn du ne Sehschwäche hast ;)
Betracht mal den Boden direkt vor dem einem Fass, was quer herumliegt...

Der Unterschied schien mir zu klein, deshalb fragte ich auch. Koenntest Du vielleicht einen 8x oder 16xAF (in game) shot von der gleichen Stelle posten (oder unterstuetzt das demo nur 4xAF)? Danke im voraus.

Coda
2005-02-19, 22:55:37
http://www.xbitlabs.com/news/memory/display/20050218041035.html

Je nach wirklichem Releasetermin sind die 900Mhz Speicher wohl doch nicht so unrealistisch :)

Demirug
2005-02-19, 23:00:50
http://www.xbitlabs.com/news/memory/display/20050218041035.html

Je nach wirklichem Releasetermin sind die 900Mhz Speicher wohl doch nicht so unrealistisch :)

Samsung war mir in letzter Zeit immer gerne etwas zu optimistisch.

Mr. Lolman
2005-02-19, 23:22:13
Der Unterschied schien mir zu klein, deshalb fragte ich auch. Koenntest Du vielleicht einen 8x oder 16xAF (in game) shot von der gleichen Stelle posten (oder unterstuetzt das demo nur 4xAF)? Danke im voraus.

16xAF: http://img59.exs.cx/img59/862/splintercell16xappaf5jf.th.jpg (http://img59.exs.cx/my.php?loc=img59&image=splintercell16xappaf5jf.jpg)

Ailuros
2005-02-20, 02:46:00
Danke. Funktioniert eigentlich MSAA wenn man HDR abschaltet?

ShadowXX
2005-02-20, 10:02:09
Danke. Funktioniert eigentlich MSAA wenn man HDR abschaltet?

Ja, funktioniert.

Habs gerade mal ausprobiert....man kann dann übrigens auf meiner 6800Ultra wieder ohne Probleme mit 1280x1024 und 4xMSAA / 8xAF (HighQuality) daddeln.

Q nur mit aktiviertem aktivierten BriFilter (AF Optis aus) bringt nochmal bis zu 5 FPS....man sieht es hier aber meiner Meinung nach ganz gut, wenn der BriFilter an ist.

Das HDR und Tonemappping sind die extremen Performancekiller, nicht das SM3.0.

-Strayed
2005-02-20, 10:30:29
http://www.xbitlabs.com/news/memory/display/20050218041035.html

Je nach wirklichem Releasetermin sind die 900Mhz Speicher wohl doch nicht so unrealistisch :)
Nur leider kann man DDR3 nicht auf Grafikkarten verbauen :(

Mr. Lolman
2005-02-20, 10:36:23
Das HDR und Tonemappping sind die extremen Performancekiller, nicht das SM3.0.

Wobei das Tonemapping kaum Performance braucht und nur HDR so bös einbricht. Blöderweise sieht das HDR ja ganz gut aus, auch wenn die Dynamik mit aktivierten Tonemapping unglaubwürdig ist. (und nicht das HDR ansich)

ShadowXX
2005-02-20, 10:38:03
Nur leider kann man DDR3 nicht auf Grafikkarten verbauen :(

Klar könnte man das, wenn die die Grafikchiphersteller den Ram-Controller dementsprechend anpassen/auslegen....

(Und da es dann ja sowieso für eine neue Gen wäre, wäre es sogar noch einProblem weniger, wenn man den RamController von vornherein so designed hätte).

ShadowXX
2005-02-20, 10:41:54
Wobei das Tonemapping kaum Performance braucht und nur HDR so bös einbricht. Blöderweise sieht das HDR ja ganz gut aus, auch wenn die Dynamik mit aktivierten Tonemapping unglaubwürdig ist. (und nicht das HDR ansich)

Das Tonemapping ist ja beim nv40 auch in HW.....und das HDR bricht einfach durch das fp16 Texturfiltering und den 64bit Framebuffer ein....da würde eine Takterhöhung des Chips wohl richtig was bringen.

Alleine der 64Bit Framebuffer dürfte schon 50% Performanceverlust bedeuten.....

aths
2005-02-20, 11:05:28
Das Tonemapping ist ja beim nv40 auch in HW.....und das HDR bricht einfach durch das fp16 Texturfiltering und den 64bit Framebuffer ein....da würde eine Takterhöhung des Chips wohl richtig was bringen.
Eine dedizierte Tonemapping-Unit war im NV40 vorgesehen. Da das Teil dann aber nicht so funktionierte, wie gedacht, ist das Ding jetzt offiziell nicht mehr drin.

Demirug
2005-02-20, 11:10:47
Eine dedizierte Tonemapping-Unit war im NV40 vorgesehen. Da das Teil dann aber nicht so funktionierte, wie gedacht, ist das Ding jetzt offiziell nicht mehr drin.

Ohne API Unterstüzung wäre es sowieso belangloss. Mit DirectX muss man das Tonemapping in jedem Fall über einen Pixelshader realisieren. Zudem brauchen wir nicht wirklich noch eine Fixed Function Unit Mehr.

Das ganze würde nur Sinn machen wenn man echte FP16 Framebuffer hätte und das Tonemapping beim Scanout miterledigt wird.

Demirug
2005-02-20, 11:14:05
Das Tonemapping ist ja beim nv40 auch in HW.....und das HDR bricht einfach durch das fp16 Texturfiltering und den 64bit Framebuffer ein....da würde eine Takterhöhung des Chips wohl richtig was bringen.

Alleine der 64Bit Framebuffer dürfte schon 50% Performanceverlust bedeuten.....

Die Texturen sind primär immer noch FX8 koddiert bzw DXT komprimiert. Das FP16 Filtern wird also nur für Downfilter Aufgaben in Verbindung mit den FP16 Buffer genutzt.

Der Verlust kommt also im wesentlichen vom FP16 Blending und der höheren Anforderung and Bandbreite und Speicher.

Coda
2005-02-20, 11:35:35
Nur leider kann man DDR3 nicht auf Grafikkarten verbauen Samsung meint da GDDR3. "Normaler", nicht aufgelöteter Speicher kann man niemals mit >1Ghz betreiben.

ShadowXX
2005-02-20, 11:58:32
Die Texturen sind primär immer noch FX8 koddiert bzw DXT komprimiert. Das FP16 Filtern wird also nur für Downfilter Aufgaben in Verbindung mit den FP16 Buffer genutzt.

Der Verlust kommt also im wesentlichen vom FP16 Blending und der höheren Anforderung and Bandbreite und Speicher.

Danke für die Richtigstellung......hätte nicht gedacht, das allein fp16 Blending schon soviel kostet.

Coda
2005-02-20, 12:02:01
Mhm nein, das ist wirklich was anderes mit dem DDR3. Das sind auch nur "effektiv" 1066Mhz, also 533Mhz real. Scheiß Taktverdopplung immer.

hätte nicht gedacht, das allein fp16 Blending schon soviel kostet.Das Blending an sich ist wohl nicht teurer. Aber es braucht verdammt viel Bandbreite.

Demirug
2005-02-20, 12:03:07
Danke für die Richtigstellung......hätte nicht gedacht, das allein fp16 Blending schon soviel kostet.

Man darf dabei auch nicht vergessen das mit HDR Rendering auch immer noch eine Reihe von Filtern verbunden sind die auf das finale Blild angewendet werden. Ich habe mir das Filter Setup von SC jetzt noch nicht angesehen aber ein paar Stufen wird er sicherlich haben.

ShadowXX
2005-02-20, 12:39:30
Man darf dabei auch nicht vergessen das mit HDR Rendering auch immer noch eine Reihe von Filtern verbunden sind die auf das finale Blild angewendet werden. Ich habe mir das Filter Setup von SC jetzt noch nicht angesehen aber ein paar Stufen wird er sicherlich haben.

Auf Auflösungsunterschiede reagiert es jedenfalls gewaltig...1024x768 mit allen SM3.0 + HDR ist super spielbar und wirklich mehr als flüssig genug für SC3.
Auf 1280x1024 ists an der Grenze.

Werd mal mit Fraps rübergehen....

ShadowXX
2005-02-20, 12:58:52
Waohhh....fast 50% verlust bei den FPS nur durch 1024 vs. 1280.

http://www.guardians-realm.net/splintercell3_1024_SM3andHDR.jpg

1024x768, SM3.0 inc. HDR

http://www.guardians-realm.net/splintercell3_1280_SM3andHDR.jpg

1280x1024, SM3.0 inc. HDR

Coda
2005-02-20, 13:09:41
Ja, da geht schlicht und einfach die Bandbreite aus.

Jesus
2005-02-20, 13:22:04
Damit bezeichne ich die NV40 Serie jetzt mal ganz frech als Griff ins Klo. Eine High End Karte für 500€ die nichtmal die ersten Spiele welche die gebotenen Möglichkeiten nutzen zu ihren "Lebzeiten" flüssig bzw. spielbar darstellen kann hat es eigentlich noch noch nicht wirklich gegeben, nichtmal beim nv3x, da kamen die PS2.0 Games auch erst wesentlich später raus.

Oder kommt in absehbarer Zeit noch was raus was SM3.0 "richtig" benutzt (falls es hier nur wieder "Schlamperei" der Programmierer war, was es ja bei allen anderen SM3 Games bisher auch gewesen sein soll... )?

Ich war ja eigentlich am überlegen mir kurzfristig doch noch ne GT zu holen, weils von ATI im Moment (auf AGP) nichts vergleichbares gibt und der r520 doch noch auf sich warten lasssen wird. Allerdings scheint es jetzt auf jeden Fall besser zu sein zu warten.

Coda
2005-02-20, 13:28:54
Jesus STFU. Nur mit SM 3.0 läuft es sehr flüssig und Bandbreitenlimitierung hat nix mit der Architektur zu tun.

Nochmal zum mitschreiben: Schällt man HDR aus, läuft es mit SM 3.0 nicht schlechter als mit SM 1.1.

q@h
2005-02-20, 13:30:53
Waohhh....fast 50% verlust bei den FPS nur durch 1024 vs. 1280.

Was wunder. (1024x768)/(1280x1024)=0,6.
19/37 ~= 0,51.