Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Warum ist die 9600 GT so schnell?
Warum ist die 9600 GT so schnell?
Sie hat hat dem Blatt Papier eigentlich nur die Hälfte der Leistung einer 8800 GT
Und gerade bei hohen Auflösungen mit AA und AF nähert sie sich stärker der 8800er.
Also warum ist sie 20% langsamer hat aber 50% weniger Transistoren und 75% weniger Shader Einheiten?
TobiWahnKenobi
2008-03-22, 11:45:14
weil die anderen karten mit der holzhammer-methode "leistung" erzwingen.. die 9600 scheint echt optimiert zu sein..
(..)
mfg
tobi
Der gute Eindruck wird größtenteils durch die Tatsache ausgelöst, dass die 8800er-Karten mit alten ForceWares der 169er-Generation getestet werden, die 9600 GT aber mit 174-ern (eben weil diese dafür offiziell freigegeben sind). Mit dem selben Treiber schaut das Bild schon anders aus. Abgesehen davon ist es Wurstsalat, ob man nun wenige Einheiten mit viel Takt befeuert oder eine "breite" Architektur langsamer taktet.
MfG,
Raff
Die 9600GT ist so schnell, weil das Gesamtkonzept ausgewogen ist, den G92 8800ern fehlt es an Speicherbandbreite, um sich da erheblich absetzen zu können.
Ich dachte nur vielleicht gibst da noch was ?
Irgend was wovon wir nicht wissen?
Der gute Eindruck wird größtenteils durch die Tatsache ausgelöst, dass die 8800er-Karten mit alten ForceWares der 169er-Generation getestet werden, die 9600 GT aber mit 174-ern (eben weil diese dafür offiziell freigegeben sind). Mit dem selben Treiber schaut das Bild schon anders aus. Abgesehen davon ist es Wurstsalat, ob man nun wenige Einheiten mit viel Takt befeuert oder eine "breite" Architektur langsamer taktet.
MfG,
Raff
Hier wurde doch offensichtlich mit 174 getestet:
http://www.hardtecs4u.com/reviews/2008/msi_geforce_9600_gt/index10.php
Da sehe ich jetzt aber keinen Unterschied.
Hier wurde doch offensichtlich mit 174 getestet:
http://www.hardtecs4u.com/reviews/2008/msi_geforce_9600_gt/index10.php
Da sehe ich jetzt aber keinen Unterschied.
Beispiele: http://www.hardtecs4u.com/reviews/2008/msi_geforce_9600_gt/index16.php
http://www.hardtecs4u.com/reviews/2008/msi_geforce_9600_gt/index35.php
Ohhhh 1 frame meint ihr nicht am Thema vorbei zu sein?
Ist doch eindeutig das die 9600 GT vor allem mit AA und AF eigentlich laut Papier weniger Leistung haben müsste ! Und nicht nur 10 oder 20 % sonder eigentlich mehr wie 50%.
Und das ist meine frage !
Meine frage hat sich darauf hin bezogen ob es von Nvidia so gesteuert ist oder ob es noch eine Einheit im Chip gibt von dem wir nichts wissen.
Botcruscher
2008-03-22, 12:26:33
Die 88er hängt zu sehr am Speicher. Es dürfte auch nur eine Frage der Zeit sein bis die 96er einbricht. Ob mann es zu Lebzeiten noch merkt ist eben die Frage.
Die jetzigen Preise deuten eh auf Ausverkauf...
Ohhhh 1 frame meint ihr nicht am Thema vorbei zu sein?
In den Beispielen bringt der neue Treiber 10-20%, das sit doch nicht übel?!
Die 8800GT läuft aus und die 9800GT wird beim GPU-Takt mit der 9600GT gleichziehen und etwas höher getakteten Speicher mitbringen. Unterm Strich hat man dann eine Karte, die in aller Regel 20-30% schneller sein wird (gelegentlich mehr, aber geschenkt), das passt doch zum Mehrpreis.
Ja also meinst du der Chip ist komplett anders konstruiert?
Optimierter?
In den Beispielen bringt der neue Treiber 10-20%, das sit doch nicht übel?!
Die 8800GT läuft aus und die 9800GT wird beim GPU-Takt mit der 9600GT gleichziehen und etwas höher getakteten Speicher mitbringen. Unterm Strich hat man dann eine Karte, die in aller Regel 20-30% schneller sein wird (gelegentlich mehr, aber geschenkt), das passt doch zum Mehrpreis.
Ist schon klar aber darum geht es mir nicht!
Mir ist Preis und der Rest egal.
Ließ einfach noch mal warum ich das Thema gestartet habe.
Ist schon klar aber darum geht es mir nicht!
Mir ist Preis und der Rest egal.
Ließ einfach noch mal warum ich das Thema gestartet habe.
Guter Punkt, sorry für meinen OT-Ausflug.
ROPs hat sie ja gleich viel und höher getaktet als eine 8800GT, warum allerdings die fehlenden TMUs und Shader Einheiten so wenig aufs Gesamtergebnis durchschlagen, würde mich auch interessieren. Ist G92 wirklich so unausgewogen oder einfach nur verbuggt?
Spasstiger
2008-03-22, 12:57:21
Ist G92 wirklich so unausgewogen oder einfach nur verbuggt?
Ich würde auf unausgewogen tippen. Der G80 liefert bei Qualisettings teilweise ja deutlich mehr fps trotz niedrigerer Shader- und TMU-Leistung. Die größere Bandbreite und die bessere Pixelfüllrate/ROP-Leistung reißen es da raus.
Man rechne sich einfach mal das Verhältniss von Shader- und TMU-Leistung zu Speicherbandbreite und ROP-Leistung bei einer GeForce 8800 GT, einer 8800 GTS 640 MiB und einer 9600 GT durch. Die drei Karten sind bei bestimmten Settings nahezu gleichschnell.
Btw. das Argument, 512 MiB seien bei einer 8800 GT zu wenig, kann man anhand von Benchmarks bisher nicht nachvollziehen. Die 8800 GT 1024 MiB bricht bei Qualisettings fast genauso ein wie die 8800 GT 512 MiB.
deekey777
2008-03-22, 13:10:45
http://forum.beyond3d.com/showthread.php?t=47361
:)
Btw. das Argument, 512 MiB seien bei einer 8800 GT zu wenig, kann man anhand von Benchmarks bisher nicht nachvollziehen. Die 8800 GT 1024 MiB bricht bei Qualisettings fast genauso ein wie die 8800 GT 512 MiB.
Bleibt wie immer die Frage nach dem Spielealltag, mir wäre da ein 3DCenter-Artikel mit Savegamemessungen und erfahrener subjektiver Beurteilung lieber als ein paar Timedemos.
Egal, erstaunlich ist trotzdem, dass wohl nur die ROPs und die Speicherbandbreite limitieren und G92 seine TMU- und Shaderpower nur so wenig ausspielen kann. Bleibt natürlich das Argument der Zukunftsfähigkeit in kommenden Spielen, aber das ist immer ein wenig mau und wer weiß ob dann wirklich nur die geforderte Shaderleistung steigt.
TobiWahnKenobi
2008-03-22, 13:16:44
auf zukünftiges zu schielen hat bei grakas (oder PC-hardware allgemein) noch nie sinn gemacht.. das zeug, das man schon gekauft hat und das man "heute" nutzt muss laufen..
und das tut es, wie ich mal wieder anmerken möchte.. die kleine karte ist echt eine überraschung !!!
(..)
mfg
tobi
dargo
2008-03-22, 13:17:55
Warum ist die 9600 GT so schnell?
Sie hat hat dem Blatt Papier eigentlich nur die Hälfte der Leistung einer 8800 GT
Und gerade bei hohen Auflösungen mit AA und AF nähert sie sich stärker der 8800er.
Also warum ist sie 20% langsamer hat aber 50% weniger Transistoren und 75% weniger Shader Einheiten?
Falsch. Mit Leistung meinst du wohl die aritmetische Leistung. Mit 50% hätte die G9600GT 254 GFLOPs haben müssen. Sie hat aber 312 GFLOPs. Und hier sieht man sehr schön, dass heutige Spiele noch nicht von viel aritmetischen Leistung profitieren. Naja, zumindest weit von 1:1. Bei der G8800GT kommt noch das "Problem" der Speicherbandbreite hinzu. Das Verhältnis zwischen Speicherbandbreite und Rohleistung ist einfach bei der G9600GT besser. Deswegen kommt sie auch so nah unter Verwendung von AA an die G8800GT ran.
Bleibt wie immer die Frage nach dem Spielealltag, mir wäre da ein 3DCenter-Artikel mit Savegamemessungen und erfahrener subjektiver Beurteilung lieber als ein paar Timedemos.
Savegamemessungen bei Grafikkarten machen keinen Sinn. Unter Umständen kommt man da sehr oft in Bereiche wo noch die CPU limitieren kann. Mit Timedemos verringert man CPU-Limits enorm.
auf zukünftiges zu schielen hat bei grakas (oder PC-hardware allgemein) noch nie sinn gemacht.. das zeug, das man schon gekauft hat und das man "heute" nutzt muss laufen..
Wer könnte da widersprechen :)
Da ich allerdings schonmal von unzähligen neuen :love: 3DCenter-Artikeln :love: träume, wäre eine abschließende Qualitätsüberprüfung des Texturfilters von G94 auch eine tolle Sache, mit seinen "mickrigen" 32 TMUs gibt der sich ja in keinem Szenario eine Blöße. Offensichtliche Veränderungen gibt es wohl nicht, jedenfalls konnte ich noch keine Klagen hören.
Spasstiger
2008-03-22, 13:28:49
Bleibt wie immer die Frage nach dem Spielealltag, mir wäre da ein 3DCenter-Artikel mit Savegamemessungen und erfahrener subjektiver Beurteilung lieber als ein paar Timedemos.
Es gibt sicherlich die Extremfälle, wo eine 8800 GT 512 MiB auf 5 fps einbricht und eine 8800 GT 1024 MiB noch 15 fps halten kann. Aber das sind dann keine relevanten Frameratenbereiche mehr, zumindest nicht bei Single-GPU.
Jedenfalls halte ich sowohl den G94 als auch den G80 für deutlich ausgewogener als den G92. Der G92 musste halt auf billig getrimmt werden und dazu hat man sich leider für eine Beschneidung des Speicherinterfaces und der ROPs entschieden.
albigi
2008-03-22, 13:40:54
Ich denke mal, dass die höhere Chipleistung der 8800gt bei zunehmender Auflösung
einfach stärker verpufft als bei der 9600gt.
Die 8800gt braucht halt ne viel höhere Speicherbandbreite um ihre Rechenleistung in der Praxis
umsetzen zu können.
War doch früher bei dem Vergleich 7900gs zu 7900gt(beide gleiche Speicherbandbreite) auch so ähnlich.
Die 7900gs kam mit zunehmender Auflösung immer näher an die 7900gt heran.
[QUOTE=dargo;6373352]Falsch. Mit Leistung meinst du wohl die aritmetische Leistung. Mit 50% hätte die G9600GT 254 GFLOPs haben müssen. Sie hat aber 312 GFLOPs. Und hier sieht man sehr schön, dass heutige Spiele noch nicht von viel aritmetischen Leistung profitieren. Naja, zumindest weit von 1:1. Bei der G8800GT kommt noch das "Problem" der Speicherbandbreite hinzu. Das Verhältnis zwischen Speicherbandbreite und Rohleistung ist einfach bei der G9600GT besser. Deswegen kommt sie auch so nah unter Verwendung von AA an die G8800GT ran.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/2/#abschnitt_technische_daten
312 GFLOP/s 9600GT vs 508 GFLOPs 8800GT das sind 60 % !!!!
Gelegenlich denke ich die Grafik-Hersteller wissen nicht so recht was sie tuen oder sie sind noch am lernen oder die Spiele Grafik ändert sich ständig.
deekey777
2008-03-22, 13:54:46
http://forum.beyond3d.com/showthread.php?t=47361
:)
Hat sich jemand den Thread angeschaut? Nein?
Ok.
The shader arch is similar; a G94 with 128 SPs already exists, and it's called the G92. The point is that the other parts of the chip or board are the bottleneck for the majority of a given frame's time. In theory, if you scaled EVERYTHING 2x, you'd get very very near 2x the performance, but that's not what was done here. ROPs/bandwidth are ~identical, input assembly/triangle setup are ~identical, etc. - heck, in these activities the 9600GT has the advantage because it's clocked higher! I think clocks is what PsychoZA was refering to there. If there were efficiency gains, they were minor or constrained to very specific cases.
Warum ist die 9600 GT so schnell?
Sie hat hat dem Blatt Papier eigentlich nur die Hälfte der Leistung einer 8800 GT
Und gerade bei hohen Auflösungen mit AA und AF nähert sie sich stärker der 8800er.
Also warum ist sie 20% langsamer hat aber 50% weniger Transistoren und 75% weniger Shader Einheiten?Sie hat nur 43% weniger Shader-Einheiten als die 8800 GT, nicht 75%.
Die 9600 GT zeigt, dass 8800 GS, GT und GTS-512 an der Speicherbandbreite und dem ROP/Z-Durchsatz hängen.
Die 9600 GT zeigt, dass 8800 GS, GT und GTS-512 an der Speicherbandbreite und dem ROP/Z-Durchsatz hängen.
Betonung wohl auf "und", die Tests der simulierten 9800GTX zeigen ja, dass aufgebohte Speicherbandbreite allein dem G92 auch nicht zu großen Sprüngen verhilft.
Captain Future
2008-03-22, 14:00:37
Die 9600 GT zeigt, dass 8800 GS, GT und GTS-512 an der Speicherbandbreite und dem ROP/Z-Durchsatz hängen.
Wohl kaum an den ROPs. Oder wo limitiert der Durchsatz einzelner Pixel bzw. von 16*8 Zs pro Takt? Da ist eher die Speicherbandbreite der Feind.
Sie hat nur 43% weniger Shader-Einheiten als die 8800 GT, nicht 75%.
Die 9600 GT zeigt, dass 8800 GS, GT und GTS-512 an der Speicherbandbreite und dem ROP/Z-Durchsatz hängen.
hmmmm wir beide haben unrecht es sind 60&
http://www.arndt-bruenner.de/mathe/scripts/Prozentrechner.htm
112 Einheiten davon 57% macht ~64 Einheiten.
Oder zählst du die ROPs und co. mit?
Da ich allerdings schonmal von unzähligen neuen :love: 3DCenter-Artikeln :love: träume, wäre eine abschließende Qualitätsüberprüfung des Texturfilters von G94 auch eine tolle Sache, mit seinen "mickrigen" 32 TMUs gibt der sich ja in keinem Szenario eine Blöße.
das sind allerdings immer noch doppelt so viel wie das topmodell der konkurrenz hat ;)
dargo
2008-03-22, 14:13:54
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/2/#abschnitt_technische_daten
312 GFLOP/s 9600GT vs 508 GFLOPs 8800GT das sind 60 % !!!!
Und was war jetzt an meinem Beitrag falsch? :)
Ich habe doch gesagt, dass es keine 50% sind.
Hat sich jemand den Thread angeschaut? Nein?
Ok.
Es gibt sicherlich auch Einige wie mich die kaum englisch beherrschen. Und nein, google als Übersetzer finde ich ätzend. :)
Sie hat nur 43% weniger Shader-Einheiten als die 8800 GT, nicht 75%.
Genau, und da die G9600GT etwas höher getaktet ist sind es im Endeffekt nur noch ~39% weniger arithmetische Leistung. :)
Ich sehe schon es geht am Thema vorbei.
Gelegenlich denke ich die Grafik-Hersteller wissen nicht so recht was sie tuen oder sie sind noch am lernen oder die Spiele Grafik ändert sich ständig.
Man hätte die 9600GT schon zur einführung des G80 bringen sollen und für 600€ verkaufen können. Man bedenke das eine 2900XT langsamer ist bei 4fachem Stromverbrauch. Gut der Verbrauch währe höher gewesen.
Kommt mir vor wie kleiner Kinder.....Ich WILL!!! aber.......Anstatt mal drüber nach zu denken was wirklich wichtig ist. Viel zu kurz lebig ist der Markt weil die Entwickler so kurzsichtig sind. Die sollten sich mal ein Beispiel am CPU Markt nehmen, oder am Militär da gibts auch nicht jede Woche nen neuen Kampfjet.
Noch schlimmer sieht man das ja bei 3870X2 und 9800X2, ein Armutszeugniss. Ich hoffe nur Intel meint es ernst mit dem GPU Markt.
hmmmm wir beide haben unrecht es sind 60&
http://www.arndt-bruenner.de/mathe/scripts/Prozentrechner.htm
112 Einheiten davon 57% macht ~64 Einheiten.
Oder zählst du die ROPs und co. mit?Wenn 57% übrig bleiben, sind es 43% weniger.
Wenn 57% übrig bleiben, sind es 43% weniger.
OK mein Fehler.
Wenn mann jetzt noch um rechnet das die 9600 9% höher getaktet ist.
Ist nur noch 34 % weniger Hardware als bei einer 8800 GT.
dargo
2008-03-22, 19:49:23
Wenn mann jetzt noch um rechnet das die 9600 9% höher getaktet ist.
Ist nur noch 34 % weniger Hardware als bei einer 8800 GT.
Sorry für die Pingeligkeit aber du kannst nicht einfach Prozentwerte addieren oder subtrahieren. Es geht ganz einfach. Nehme einfach die 312 GFLOPs der G9600GT und 508 GFLOPs der G8800GT. Und schon ist die erstere 38,58% langsamer. :)
auf zukünftiges zu schielen hat bei grakas (oder PC-hardware allgemein) noch nie sinn gemacht.. das zeug, das man schon gekauft hat und das man "heute" nutzt muss laufen..
Quatsch.
Das beste Beispiel war die FX.
Mit einer Radeon 9800er konntest du noch SM2-Spiele lange nach dem erscheinen dieser GPU recht ordentlich spielen, wo eine vergleichbare (Preis) FX schon unspielbare Frameraten lieferte.
Bei dem G70 war es zwar nicht mehr so tragisch, aber ein R580 ist bei aktuellen Spielen einem G70 teilweise dramatisch ueberlegen.
Auf laengeren Zeitraum bezogen waren die ATI/AMD Karten die bessere Investition.
und das tut es, wie ich mal wieder anmerken möchte.. die kleine karte ist echt eine überraschung !!!
Wenn da bloss nicht wieder der V-RAM-Bug die tolle Karte kuenstlich ausbremst...
MfG
Sorry für die Pingeligkeit aber du kannst nicht einfach Prozentwerte addieren oder subtrahieren. Es geht ganz einfach. Nehme einfach die 312 GFLOPs der G9600GT und 508 GFLOPs der G8800GT. Und schon ist die erstere 38,58% langsamer. :)
oder die 8800GT ist 62,82% schneller, klingt besser finde ich ;):)
dargo
2008-03-22, 20:29:12
oder die 8800GT ist 62,82% schneller, klingt besser finde ich ;):)
Obs besser klingt oder nicht, es ändert nichts an den realen Zahlen. :)
TobiWahnKenobi
2008-03-22, 20:56:42
Quatsch.
Das beste Beispiel war die FX.
Mit einer Radeon 9800er konntest du noch SM2-Spiele lange nach dem erscheinen dieser GPU recht ordentlich spielen, wo eine vergleichbare (Preis) FX schon unspielbare Frameraten lieferte.
Bei dem G70 war es zwar nicht mehr so tragisch, aber ein R580 ist bei aktuellen Spielen einem G70 teilweise dramatisch ueberlegen.
Auf laengeren Zeitraum bezogen waren die ATI/AMD Karten die bessere Investition.
Wenn da bloss nicht wieder der V-RAM-Bug die tolle Karte kuenstlich ausbremst...
MfG
lieber nicht im 3DC registrierter user,
ich verstehe nicht was dein, mit "quatsch" eingeleitetes gerede geschreibe mit meiner aussage, die ganz sicher kein quatsch ist, zu tun hat.
btw,
davon ab, weder die 59xx FX, noch die 9800pro waren 100-130 euro karten..
(..)
mfg
tobi
knallebumm
2008-03-22, 21:00:32
Bei Anno1701 ist der Abstand etwas größer als bei den anderen Spielen. Vielleicht gibt das einen kleinen Hinweis. Ich hab davon keine Ahnung.
Mit AA+AF schmilzt der Unterschied wieder ein wenig. Da limitieren die 256bit möglicherweise wieder.
lieber nicht im 3DC registrierter user,
ich verstehe nicht was dein, mit "quatsch" eingeleitetes gerede geschreibe mit meiner aussage, die ganz sicher kein quatsch ist, zu tun hat.
(..)
mfg
tobi
Dann nochmal deinen und meinen Beitrag lesen und verstehen.
PS ich bin registriert, schreibe, aber seeeehr selten hier, und nun?
Werde ich jetzt gesteinigt?
LOL
Gruss MikBach
TobiWahnKenobi
2008-03-22, 21:27:38
@mikbach
und? wollen wir den thread jetzt mit OT-gebrabbel zuspammen.. worum zum geier gehts????
was meinst du, ist daran quatsch? klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6373350&postcount=17)
man könnte meinem post vielleicht noch hinzufügen, dass das besonders im preissegment der 9600GT zählt (~130 euro).
(..)
mfg
tobi
MikBach
2008-03-22, 21:33:10
@mikbach
und? wollen wir den thread jetzt mit OT-gebrabbel zuspammen.. worum zum geier gehts????
was meinst du, ist daran quatsch? klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6373350&postcount=17)
(..)
mfg
tobi
Ich habe nur deine Aussage widerlegt, das ist alles.
Natuerlich muss man auf die Zukunftssicherheit hinweisen, sonst waere es ja kein 3D-Technik-Forum.
Aber genug des OT
Gruss
Solange "Grün-Graka" kein DX10.1 und 55nm unterstützt, kommt das mir nicht ins Haus.
MikBach
2008-03-22, 21:53:05
Solange "Grün-Graka" kein DX10.1 und 55nm unterstützt, kommt das mir nicht ins Haus.
Und?
Dann erklaer mal, was 55nm bringen soll. Bei einem Die-Shrink hat selbst Intel mal ins Klo gegriffen.
Generelle Aussagen sind nicht moeglich.
Bei Dx10.1 koennte es schon anders aussehen.
Was mich nur verwundert, ist, dass die Leute, die bei der 6800er SM3 propagiert haben, nun auf einmal ganz still sind, was den Fortschritt angeht.
Seltsam das...
@Topic
Wo ist die denn schnell??? :rolleyes:
MikBach
2008-03-22, 21:59:03
@Topic
Wo ist die denn schnell??? :rolleyes:
Die 9600Gt ist schnell.
Kommt drauf an was man spielt.
Bei Rennspielen wuerde ich grundsaetlich von ener NV abraten, sonst aber recht brauchbar under beim AF einer ATI teilwiese ueberlegen, wobei dies nur die wenigsten sehen koennen.
Gruss
dargo
2008-03-22, 21:59:12
@Gast
In Games.
MikBach
2008-03-22, 22:05:04
@Gast
In Games.
Wenn de V-Ram-Bug nicht zuschlaegt...:D
Was mich nur verwundert, ist, dass die Leute, die bei der 6800er SM3 propagiert haben, nun auf einmal ganz still sind, was den Fortschritt angeht.
Seltsam das...
Der Schritt von SM2 auf SM3 war ja auch größer. 10.1 bringt selbst für Programmierer wenig wodrauf sie sich freuen. Zumindest bei mir ist es so, dass mich das Rumspielen mit der Tesselation Unit mehr interessieren würde als die Features von 10.1.
MikBach
2008-03-22, 22:21:06
Der Schritt von SM2 auf SM3 war ja auch größer. 10.1 bringt selbst für Programmierer wenig wodrauf sie sich freuen. Zumindest bei mir ist es so, dass mich das Rumspielen mit der Tesselation Unit mehr interessieren würde als die Features von 10.1.
Deswegen hat man ja auch das ganze Treibermodell ueber den Haufen geworfen, ja nee, ist klar.
!0.1 bietet klare Vorteile. Informiere dich mal.
LovesuckZ
2008-03-22, 22:36:33
Na, dann zeige dochmal, dass Dx10.1 genauso fortschrittlich ist wie SM2.0 -> SM3.0.
Na, dann zeige dochmal, dass Dx10.1 genauso fortschrittlich ist wie SM2.0 -> SM3.0.
suche es dir selbst aus, ich bin nicht deine Putzfrau...
Soweit ich weiß ist das AA dann komplett frei programmierbar.
Das ermöglicht gleichbleibende Qualitätseinstellungen auf allen Karten.
Ist für mich zumindest ein klarer Vorteil
LovesuckZ
2008-03-22, 22:43:53
Also weißt du es nicht. Wenn also der prediger nichtmal weiß, was er sagt, wie soll dann der ungläubige überzeugt? :confused:
SM2 -> SM3 ist jetzt wohl auch nicht der Knaller gewesen.
Erst mit dem Ende von DX9.0 gab es Spiele die auf SM2.0-HW nicht liefen (UT3-Engine in Rainbow-Six) und selbst da gibbet Workarounds.
Der Unterschied SM2.0 -> SM3.0 in Spielen ist nur im direkten Vergleich sichtbar.
Du bist....nein du bist....nein du bist........
Also einer von euch beiden muss jetzt mal was mit inhalt schreiben weil sonst habt beide keine Ahnung.
LovesuckZ
2008-03-22, 22:50:09
Du bist....nein du bist....nein du bist........
Also einer von euch beiden muss jetzt mal was mit inhalt schreiben weil sonst habt beide keine Ahnung.
Äh? Er soll seine nette These argumentativ darlegen, warum Leute, die das SM3.0 forcierten, jetzt genauso handeln sollten.
Easy, wenn man diskutieren will.
SM2 -> SM3 ist jetzt wohl auch nicht der Knaller gewesen.
Erst mit dem Ende von DX9.0 gab es Spiele die auf SM2.0-HW nicht liefen (UT3-Engine in Rainbow-Six) und selbst da gibbet Workarounds.
Der Unterschied SM2.0 -> SM3.0 in Spielen ist nur im direkten Vergleich sichtbar.
Richtig, denn ohne SM3.0 Hardware hätte dieses "Effekt" bestimmt schon wesentlich früher eingetroffen. ;D
Man, man, man. Du bist immer wieder ein lustiges Kerlchen MikBach
=Floi=
2008-03-23, 04:57:00
es zählt auch nicht nur das optische, sondern auch das wie es zustande kam und vor allem hier bringen die neuen apis vorteile. Wenn es nach dir ginge hätten wir noch immer DX7 und glide.
Wie "gut" wäre heute eine X800XT PE (@600/600), wenn sie SM 3.0 hätte... (ich will mir das gehype um so eine ati karte garnicht vorstellen...)
akuji13
2008-03-23, 06:36:47
Was mich nur verwundert, ist, dass die Leute, die bei der 6800er SM3 propagiert haben, nun auf einmal ganz still sind, was den Fortschritt angeht.
Ich habe mir eine 6800GT geholt, als ich damit FC+HDR nutzen konnte.
Aber bislang sehe ich von Direct3D 10.1 garnix.
:wink:
Was mich nur verwundert, ist, dass die Leute, die bei der 6800er SM3 propagiert haben, nun auf einmal ganz still sind, was den Fortschritt angeht.
Seltsam das...
wieso? der sprung von SM2 auf SM3 war riesig (vor allem von SM2.0, SM2a war SM3 schon relativ nahe), vergleichbar mit dem von SM1.3 auf SM2.
nur weil es keine neue DX-version gab muss der sprung nicht klein sein.
die verbesserungen von DX10.1 gegenüber DX10 kannst du dagegen an einer hand abzählen.
Botcruscher
2008-03-23, 12:00:07
Ich habe mir eine 6800GT geholt, als ich damit FC+HDR nutzen konnte.
Aber bislang sehe ich von Direct3D 10.1 garnix.
:wink:
Solange NV keine Hardware hat wirst du das auch nicht. SM3 hat sich auch erst durchgesetzt als ATi nachgezogen hat.
Bei DX 10 kommt noch dazu das es dank Vista noch eine ziemliche Totgeburt ist. Es wird also noch einige Zeit dauern.
Spasstiger
2008-03-23, 12:15:15
SM3 hat sich auch erst durchgesetzt als ATi nachgezogen hat.
Splinter Cell 3 kam ohne Rücksicht auf Verluste mit SM3 als einzigem DX9-Pfad auf den Markt als ATI noch keine entsprechende Hardware bot. Und bekanntermaßen hat sich ATI ja selbst drangehockt und SM2-Support reingefrickelt.
LovesuckZ
2008-03-23, 12:17:00
Nein, es hatte einen Fallback auf DX8(PS1.1).
Also ich finde vor allem die Lichteffekte sehr beeindruckend.
Inderektes Licht gab es bis dato nur als vorgerenderte Lightmap und hier ist es endlich dynamisch.
dargo
2008-03-23, 13:35:51
Splinter Cell 3 kam ohne Rücksicht auf Verluste mit SM3 als einzigem DX9-Pfad auf den Markt als ATI noch keine entsprechende Hardware bot.
Das war aber den Konsolen zu verdanken. :)
MikBach
2008-03-23, 14:07:23
Ich habe mir eine 6800GT geholt, als ich damit FC+HDR nutzen konnte.
Aber bislang sehe ich von Direct3D 10.1 garnix.
:wink:
naja, FC mit HDR kam auch nicht direkt bei der Einfuehrung von SM2 ;)
Ausserdem ging mit der 6800er (auch G7x) AA nicht, damit hast du optische Nachteile.
Ich habe FC erst mit einem R5x0 richtig geniessen koennen, da AAA moeglich war.
Auf AF/AA will und kann ich nicht verzichten. Ich hatte auch eine 6800GT drin, die ich spaeter gegen eine X800XT ausgetauscht habe.
Und diese war in einigen (von mir gespielten) Spielen (auch viele Rennspiele) doch teilweise deutlich schneller und die BQ war bei der ATI auch besser.
Ich kaufe mir nicht wegen einem Spiel eine Graka.
Was ich aber noch anmerken wollte. Jeder muss das Einsatzgebiet fuer sich selbst wissen und danach entscheiden..
Es gibt einfach nicht DIE Graka, die jeden gluecklich machen wuerde.
Wir sind aber mittlerweile ziemlich OT, wobei diese Diskussion auch interessant ist :)
edit: BTW Schoene Feiertage an Alle
MikBach
2008-03-23, 14:14:06
Nein, es hatte einen Fallback auf DX8(PS1.1).
Korrekt, wobei die Moeglichkeiten von SM2 nicht ausgenutzt wurden.
LovesuckZ
2008-03-23, 14:18:38
Welche Fähigkeiten wurden denn nicht ausgenutzt?
MikBach
2008-03-23, 14:36:23
Welche Fähigkeiten wurden denn nicht ausgenutzt?
:confused::rolleyes:
Siehe den Hack von ATI...
LovesuckZ
2008-03-23, 14:44:40
Erkläre doch bitte, was dieser Hack macht.
MikBach
2008-03-23, 14:50:15
Erkläre doch bitte, was dieser Hack macht.
Sag mal, was verstehst du eigentlich nicht?
SM2 wurde vom Spiel GAR nicht unterstuetzt.
Das hat sich erst mit dem ATI Hack geaendert.
Liegt wohl schon eine Weile zurueck, was?
:rolleyes:
LovesuckZ
2008-03-23, 14:57:10
Richtig, und jetzt erkläre uns doch bitte, welche Fähigkeiten des SM2.0 - für das selbe Ergebnis - hätten genutzt werden sollen.
deekey777
2008-03-23, 15:05:23
Richtig, und jetzt erkläre uns doch bitte, welche Fähigkeiten des SM2.0 - für das selbe Ergebnis - hätten genutzt werden sollen.
Geht das wieder los? Wenn du eine Erklärung willst, schmeiß die SuFu an, dann findest du einen Thread von tigerchen (so gar in diesem Forum).
MikBach
2008-03-23, 15:13:42
Richtig, und jetzt erkläre uns doch bitte, welche Fähigkeiten des SM2.0 - für das selbe Ergebnis - hätten genutzt werden sollen.
Stell dich doch nicht dumm. Du weisst es doch ganz genau.
Vielleicht klingelt es beim Wort "Beleuchtung"?
Nene, das man von dir solche Fragen gestellt bekommt, ist echt peinlich fuer dich.
Können wir diese beschissene Splinter-Cell-Diskussion bitte nicht mehr auftauen
Fakten sind:
Es war mit SM2a weitaus schwerer das Beleuchtungs-System zu implementieren was sie mit SM3 implementiert hatten, weil es kein statisches branching gab.
Es gab keine FP16-Rendertargets, deshalb war das HDR-Rendering nicht so einfach machbar
Das Argument dass man auch alles auf nem 25Ghz Zilog Z80 mit Softwarerendering machen könnte zieht nicht. Die Entwickler haben auch nur ein begrenztes Budget. Mehr braucht man dazu nicht mehr sagen.
Das Problem von der X8xx war gar nicht so sehr dass sie kein SM3 hatte sondern, dass sie nochmal ein absolut minimales SM2 gebracht haben. SM2 konnte man mit Caps fast auf SM3-Niveau anbieten. Statisches Branching wäre meines Erachtens nach nicht so sehr das Problem gewesen. Der Chip war halt eine Schnellgeburt, weil das ursprüngliche R400-Design nicht gefruchtet hat.
Direct3D 10.1 bringt schon ein paar Sachen die man gerne haben wollte. Wenn NVIDIA mit dem Herbst-Lineup nicht nachzieht werd ich da ganz sicher auch nicht glücklich drüber sein.
MikBach
2008-03-23, 15:56:07
Können wir diese beschissene Splinter-Cell-Diskussion bitte nicht mehr auftauen
Fakten sind:
Es war mit SM2a weitaus schwerer das Beleuchtungs-System zu implementieren was sie mit SM3 implementiert hatten, weil es kein statisches branching gab.
Es gab keine FP16-Rendertargets, deshalb war das HDR-Rendering nicht so einfach machbar
Das Argument dass man auch alles auf nem 25Ghz Zilog Z80 mit Softwarerendering machen könnte zieht nicht. Die Entwickler haben auch nur ein begrenztes Budget.
Siehe meinen Beitrag, Coda.
Ich habe nur geschrieben, dass die Moeglichkeiten von SM2 nich ausgeschoepft wurden, that's all.
Und komm mir nicht mit "quasi" Softwarerendering. :P
Doch komm ich dir. Der Aufwand war in diesem Fall beachtlich. Das Ding ohne SM2 rauszuhauen war marktwirtschaftlich völlig nachvollziehbar - Es war in der Tat einiges mehr an Softwareaufwand nötig.
MikBach
2008-03-23, 16:06:41
Doch komm ich dir. Der Aufwand war in diesem Fall beachtlich. Das Ding ohne SM2 rauszuhauen war marktwirtschaftlich völlig nachvollziehbar - Es war in der Tat einiges mehr an Softwareaufwand nötig.
Das zweifle ich ja gar nicht an, nur waeren wir nicht so weit, wenn einige Spielehersteller nicht das Maximum aus der Hardware heraushollen wuerden.
FarCry sieht fuer mich auch mit nur SM2 besser aus als SC mit SM3.
Wird auch von der meisten Fachpresse so gesehen, und nun?
Das zweifle ich ja gar nicht an, nur waeren wir nicht so weit, wenn einige Spielehersteller nicht das Maximum aus der Hardware heraushollen wuerden.
Das tut hier nichts zur Sache und ist nur Polemik.
FarCry sieht fuer mich auch mit nur SM2 besser aus als SC mit SM3.
Wird auch von der meisten Fachpresse so gesehen, und nun?
Und nun zeigt sich mal wieder, dass du keine Ahnung von der Technik hast und absolut lernresistent bist.
Far Cry sieht mit HDR vielleicht subjektiv schlechter aus als ohne. SM3 macht von der Optik her überhaupt keinen Unterschied und HDR hat auch nichts mit SM3 zu tun.
Wie oft haben wir dir das eigentlich erzählt? 10 Mio. mal?
MikBach
2008-03-23, 16:15:32
Das tut hier nichts zur Sache und ist nur Polemik.
Und nun zeigt sich mal wieder, dass du keine Ahnung von der Technik hast und absolut lernresistent bist.
Far Cry sieht mit HDR vielleicht subjektiv schlechter aus als ohne. SM3 macht von der Optik her überhaupt keinen Unterschied und HDR hat auch nichts mit SM3 zu tun.
Wie oft haben wir dir das eigentlich erzählt? 10 Mio. mal?
Wo habe ich was von HDRR im Zusammenhang mit SM3 geschrieben?
Die Sache mit SC ist klar, die Entwickler waren einfach zu faul oder zu unfaehig, so dass ATI nachhelfen musste.
Wo habe ich was von HDRR im Zusammenhang mit SM3 geschrieben?
Hast du, weil sich die Optik von Far Cry mit Patch im SM3-Pfad nicht von der im SM2-Pfad unterscheidet solange man nicht HDRR anschält. Das hast du bis heute nicht kapiert.
MikBach
2008-03-23, 16:29:34
Hast du, weil sich die Optik von Far Cry mit Patch im SM3-Pfad nicht von der im SM2-Pfad unterscheidet solange man nicht HDRR anschält. Das hast du bis heute nicht kapiert.
Ich habs schon kapiert, du anscheinend nicht, dass es von den Entwicklern abhaengt, was hinten rauskommt.
Ich habe nur gesagt, dass FC mit SM2 besser aussieht als SC mit SM3.
Was gibt es daran nicht zu verstehen?
Ich habs schon kapiert
Nein hast du nicht.
Ich habe nur gesagt, dass FC mit SM2 besser aussieht als SC mit SM3.
NEIN. Es sieht EXAKT GLEICH AUS. Es läuft nur schneller mit SM3.
deekey777
2008-03-23, 16:35:31
Mit PS2.X und mit PS3.0 ist in Far Cry zumindest theoretisch bessere Beleuchtung möglich.
Dass Far Crys HDRR nichts mit SM3 zu tun hat, habe ich schon irgendwo geschrieben: FC weigerte sich oft mit meiner X1950GT zu starten. Über DXTweaker war es möglich eine X800 vorzutäuschen, was als Nebenfolge hatte, dass auf auf den "SM2.X-Pfad" ausgewichen werden musste; das HDRR ging aber trotzdem. Da das HDRR in FC Scheiße aussieht und total unpassend ist, kann es locker ausgeschaltet bleiben.
MikBach
2008-03-23, 16:37:35
Nein hast du nicht.
NEIN. Es sieht EXAKT GLEICH AUS. Es läuft nur schneller mit SM3.
Wir reden aneinander vorbei.
Ich sage ja nicht, dass FC mit SM3 besser aussieht als mit SM2.
Ich sage nur, dass FC mit SM2 besser aussieht als SC mit SM3.
Das haben die Entwickler (Engine) zu verantworten.
LovesuckZ
2008-03-23, 16:40:31
Es geht nicht um Schönheit, sondern um den Entwicklungsaufwand. Farcry war ein SM2.0 Spiel mit Addons. SC:CT war eine Xbox1 Portierung, in der man für zukünftige Entwicklung spielerisch experimentiert hatte.
Es stand nie zur Debatte bei SC:CT einen SM2.0 Pfad einzubauen. Das hätte vorallen für die zukünftigen Engines und Spiele keinen Sinn gemacht, da SM2.0 eben zu Ende ging.
Und man kann vieles mit dem SM2.0 erreichen, es ist eben nur a) aufwendiger und b)langsamer zu schaffen.
Wir reden aneinander vorbei.
Ich sage ja nicht, dass FC mit SM3 besser aussieht als mit SM2.
Ich sage nur, dass FC mit SM2 besser aussieht als SC mit SM3.
Das haben die Entwickler (Engine) zu verantworten.
Da zieh ich auch nicht mit weil das größtenteils Artwork ist. Da begeben wir uns auf eine Metaebene auf der ich grundsätzlich nicht diskutier.
Technisch ist die Engine von Splinter Cell der von Far Cry nämlich definitiv überlegen in In-Door-Situationen.
MikBach
2008-03-23, 16:44:46
Es geht nicht um Schönheit, sondern um den Entwicklungsaufwand. Farcry war ein SM2.0 Spiel mit Addons. SC:CT war eine Xbox1 Portierung, in der man für zukünftige Entwicklung spielerisch experimentiert hatte.
Du nimmst besser an der Diskussion garnicht Teil, weil du bewiesen hast, dass du nicht die blanke Ahnung hast, worueber hier diskutiert wird.
MikBach
2008-03-23, 16:47:36
Technisch ist die Engine von Splinter Cell der von Far Cry nämlich definitiv überlegen in In-Door-Situationen.
Was soll das Coda?
Eine Engine besteht nicht nur aus Indoor-Szenen.
Die FC-Engine ist der SC-Engine insgesamt um Lichtjahre vorraus.
Eine Engine besteht nicht nur aus Indoor-Szenen.
Das kommt auf den Anwendungszweck an.
Die FC-Engine ist der SC-Engine insgesamt um Lichtjahre vorraus.
Das kommt auf die Sichtweise an. Die SC-Engine ist in Teilen fortschrittlicher, die FC-Engine in anderen. So pauschalisieren lässt sich das nicht.
Ich verwette sonst was drauf, dass du dich einfach vom Artwork täuschen lässt was das angeht. Das ist nicht zielführend.
deekey777
2008-03-23, 16:56:51
Die Stärke der Cryengine ist das Rendern der großen Landschaften ("Megatexture"). Wo aber die Cryengine ihre Probleme hatte, waren die Echtzeit-Schatten a la Doom 3, was Kai gezeigt hat. Das Etwas an "Polybumps" war nicht so herausragend.
Die Cryengine verwendet ganz normales Splatting und keine Megatexture. Ist auch in Crysis noch so.
MikBach
2008-03-23, 17:08:54
Das kommt auf den Anwendungszweck an.
Die Engine von FC is wohl viel flexibler, als die von SC, damit besser.
Sonst noch Argumente?
Das kommt auf die Sichtweise an. Die SC-Engine ist in Teilen fortschrittlicher, die FC-Engine in anderen. So pauschalisieren lässt sich das nicht.
Klar, sieht man doch, welche Engine flexibler ist...
Oder Tomaten auf den Augen?
Ich verwette sonst was drauf, dass du dich einfach vom Artwork täuschen lässt was das angeht. Das ist nicht zielführend.
Artwork gehoert auch zum Spieldesign, aber auch sonst die die Engine von FC der von SC deutlich ueberlegen.
Captain Future
2008-03-23, 17:15:23
Die Engine von FC is wohl viel flexibler, als die von SC, damit besser.
Sonst noch Argumente?
Huch? Mit der gleichen Logik könnte man ja sagen, CPUs sind besser als GPUs und das würdest du doch sicherlich differenzierter betrachten.
MikBach
2008-03-23, 17:17:48
Huch? Mit der gleichen Logik könnte man ja sagen, CPUs sind besser als GPUs und das würdest du doch sicherlich differenzierter betrachten.
Anderes Thema...
...
MikBach. Du hast weder den technischen Hintergrund noch das Verständnis um mit mir darüber diskutieren zu können welche Engine technisch besser ist. Du kannst doch noch nichtmal Shader-Model und HDR-Rendering auseinanderhalten geschweige denn erkennen womit du es damit es da überhaupt zu tun hast.
Du bringst hier bloß Gelaber ohne Hintergrund, nicht ich. Wie genau beurteilst du die "Flexibilität" einer Engine? Am Toolset? An den unterstützen APIs? Am Code-Design?
Oder einfach nur an dem was dir besser gefallen muss, damit du hier ohne Argumente argumentieren kannst?
MikBach
2008-03-23, 17:30:28
MikBach. Du hast weder den technischen Hintergrund noch das Verständnis um mit mir darüber diskutieren zu können welche Engine technisch besser ist.
Du bringst hier bloß Gelaber ohne Hintergrund, nicht ich.
Na dann leg mal los, sehen wir wohin es sich entwickelt.
Auf meine Statements weichst du aus...
Captain Future
2008-03-23, 17:30:48
Anderes Thema...
Analog anwendbar.
Na dann leg mal los, sehen wir wohin es sich entwickelt.
Ich hab's dir doch schon gesagt. Das Schatten- und Materialsystem der Splinter-Cell-Engine ist deutlich überlegen, genauso das Toolset auf Basis der Unreal Engine. Zudem wurde das HDR-Rendering auch deutlich besser integriert.
Man braucht nicht in jeder Engine riesige Außenlevel. Crysis ist Indoor der Unreal Engine 3 auch ganz unterlegen von der Performance.
Auf meine Statements weichst du aus...
Ich weich gar nichts aus, du bringst außer Polemik nur keinen Inhalt auf den es sich zu antworten lohne würde.
[QUOTE=Coda;6376282]
Man braucht nicht in jeder Engine riesige Außenlevel. Crysis ist Indoor der Unreal Engine 3 auch ganz unterlegen von der Performance.
QUOTE]
Warum eigentlich????Bei gleichem Aufwand sollte doch die Leistung identisch sein. Die UE3 wie sie in UT3 zu Tage kommt reist mich nicht wirklich vom Sessel, zudem ist die Last an die CPU mal wie immer ernorm hoch, keine Ahnung warum aber ich glaube das liegt eher an der Aufteilung wie die Engine die Last verteilt, bzw. welche Textur wie zugewisen wird.
Warum eigentlich????Bei gleichem Aufwand sollte doch die Leistung identisch sein.
Crysis verwendet einen Forward-Renderer und hat sehr beschissenes Culling. Die UE ist ein halber deferred shader.
Die UE3 wie sie in UT3 zu Tage kommt reist mich nicht wirklich vom Sessel, zudem ist die Last an die CPU mal wie immer ernorm hoch, keine Ahnung warum aber ich glaube das liegt eher an der Aufteilung wie die Engine die Last verteilt, bzw. welche Textur wie zugewisen wird.
Die UE verursacht die CPU-Last vor allem mit ihrem UnrealScript-Zeug nicht mit dem Rendering.
Lawmachine79
2008-03-23, 18:21:37
Btw. das Argument, 512 MiB seien bei einer 8800 GT zu wenig, kann man anhand von Benchmarks bisher nicht nachvollziehen. Die 8800 GT 1024 MiB bricht bei Qualisettings fast genauso ein wie die 8800 GT 512 MiB.
"Qualisettings" ist sehr allgemein gehalten - sie brechen explizit bei 8xMSAA ein.
Spasstiger
2008-03-23, 18:39:04
"Qualisettings" ist sehr allgemein gehalten - sie brechen explizit bei 8xMSAA ein.
Das tut jeder G8x und G9x, auch wen 768 MiB oder 1024 MiB VRAM zur Verfügung stehen.
akuji13
2008-03-23, 18:43:29
naja, FC mit HDR kam auch nicht direkt bei der Einfuehrung von SM2 ;)
Ich hab die 6800GT auch erst geholt, als es nutzbar war.
Ausserdem ging mit der 6800er (auch G7x) AA nicht, damit hast du optische Nachteile.
Ich habe FC erst mit einem R5x0 richtig geniessen koennen, da AAA moeglich war.
Wegen AAA habe ich dann wieder auf ATI zurückgewechselt. :biggrin:
Und Oblivion hat ja dank Chuck auch ganz gut davon profitiert.
Ich kaufe mir nicht wegen einem Spiel eine Graka.
Ich auch nicht, FC war eine Ausnahme.
So wie Age of Empires III in Sachen (DC)CPU.
Da waren mir die Vorteile den Aufwand wert, zumal es finanziell nur sehr wenig war.
Es gibt einfach nicht DIE Graka, die jeden gluecklich machen wuerde.
Deshalb habe ich jetzt eine 2900 Pro@800/900 und eine 8800 GT.
:smile:
Lawmachine79
2008-03-23, 18:49:11
Das tut jeder G8x und G9x, auch wen 768 MiB oder 1024 MiB VRAM zur Verfügung stehen.
Eben, genau das wollte ich ja damit sagen, daß der Einbruch mit 8xMSAA unabhängig vom VRAM passiert.
Spasstiger
2008-03-23, 18:56:09
Eben, genau das wollte ich ja damit sagen, daß der Einbruch mit 8xMSAA unabhängig vom VRAM passiert.
Ok, dann hab ich dich falsch verstanden.
Ich wollte weiter oben eigentlich nur sagen, dass der oft nur geringe Frameratenvorteil der 8800 GT gegenüber der 9600 GT nicht an der Speichermenge liegt. Die 8800 GT 1024 MiB kann sich von der 8800 GT 512 MiB nur dann deutlich absetzen, wenn die Frameraten eh schon sehr niedrig liegen. Es gibt sicherlich auch Ausnahmen, z.B. diese komische DX10-Demo mit den Schiffen, aber das sind wohl keine guten Indizien dafür, dass die 8800 GT sich von der 9600 GT wegen einem zu kleinen Grafikspeicher nicht richtig absetzen kann.
Ein Vergleich zwischen einer 8800 GT 1024 MiB und einer 9600 GT 512 MiB bei spielbaren Settings würde wohl keinen deutlich größeren Abstand aufzeigen als er zwischen der 9600 GT und der 8800 GT 512 MiB besteht.
Lawmachine79
2008-03-23, 19:03:01
aber das sind wohl keine guten Indizien dafür, dass die 8800 GT sich von der 9600 GT wegen einem zu kleinen Grafikspeicher nicht richtig absetzen kann.
Ich glaube nicht, daß die MENGE ein Problem ist, aber die Bandbreite.
96GT und 88GT haben nur zwei Gemeinsamkeiten: ähnliche Bandbreite und ROP-Anzahl. Bei ALLEN ANDEREN Parametern ist die 88GT auf dem Papier DEUTLICH stärker.
Folgerung:
Entweder ROPs oder Bandbreite limitieren die 88GT. Die ROPs kann man ausschließen, die "querschnittliche" Wirkung wäre nicht groß genug.
Theroretisch müsste eine 88GT vom Speicher-OC mehr profitieren als vom GPU-OC.
Spasstiger
2008-03-23, 19:05:20
Ich glaube nicht, daß die MENGE ein Problem ist, aber die Bandbreite.
96GT und 88GT haben nur zwei Gemeinsamkeiten: ähnliche Bandbreite und ROP-Anzahl. Bei ALLEN ANDEREN Parametern ist die 88GT auf dem Papier DEUTLICH stärker.
Genauso sehe ich das auch. Aber es tauchten halt Posting auf, wo die Speichermenge als Grund für Performancelimitierungen genannt wurde. Dass der G92 auch andere limitierende Komponenten hat, wird gerne unterschlagen, vor allem die Sache mit den ROPs.
Btw. im Computerbase-Performancerating ist die 9600 GT in 1600x1200 mit 8xAA um 3% schneller als die 8800 GT. Möglicherweise liegt es an unterschiedlichen Treibern, aber es könnte auch durchaus an der höheren ROP-Leistung der 9600 GT liegen (650 MHz vs. 600 MHz). /EDIT: Die 8800 GT und die 9600 GT wurden mit den gleichen Treibern getestet, dann kann es ja nur an der ROP-Leistung liegen. Der Speichertakt ist gleich.
AnarchX
2008-03-23, 19:19:17
Wie DK777 schon am Anfang hinweist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6373336&postcount=15
... G92 hat zwar doppelt soviele TMU-ALU-Cluster wie G94, aber diese hängen auch nur an einer wohl gleichen Verwaltungslogik, welche bei G94 nunmal sogar noch höher taktet.
Ein wohl auch nicht so unwichtiger Fakt, weswegen eben selbst eine übermächtige 8800 Ultra sich nicht soweit von der 9600 GT absetzen kann, wie es laut dem Unterschied auf dem Papier sein müsste.
Lawmachine79
2008-03-23, 19:19:44
Genauso sehe ich das auch. Aber es tauchten halt Posting auf, wo die Speichermenge als Grund für Performancelimitierungen genannt wurde. Dass der G92 auch andere limitierende Komponenten hat, wird gerne unterschlagen, vor allem die Sache mit den ROPs.
Btw. im Computerbase-Performancerating ist die 9600 GT in 1600x1200 mit 8xAA um 3% schneller als die 8800 GT. Möglicherweise liegt es an unterschiedlichen Treibern, aber es könnte auch durchaus an der höheren ROP-Leistung der 9600 GT liegen (650 MHz vs. 600 MHz). /EDIT: Die 8800 GT und die 9600 GT wurden mit den gleichen Treibern getestet, dann kann es ja nur an der ROP-Leistung liegen. Der Speichertakt ist gleich.
Naja, 3% Unterschied auf höhere ROP-Leistung zurückzuführen ist mutig. Und den G8x/G9x darf man einfach nicht an 8xMSAA denken, irgendwas ist da einfach "im Eimer".
AnarchX
2008-03-23, 19:24:31
Naja, 3% Unterschied auf höhere ROP-Leistung zurückzuführen ist mutig. Und den G8x/G9x darf man einfach nicht an 8xMSAA denken, irgendwas ist da einfach "im Eimer".
Da eben etwas im Eimer ist und bei 8xMSAA meist die Z-Fill limitiert, die von 4x sich etwa fünftelt, liegt nunmal die 9600GT durch ihre höhere Z-Leistung hier vor der 88GT bzw. gleich auf mit der 88GTS512.;)
Lawmachine79
2008-03-23, 19:32:56
Da eben etwas im Eimer ist und bei 8xMSAA meist die Z-Fill limitiert, die von 4x sich etwa fünftelt, liegt nunmal die 9600GT durch ihre höhere Z-Leistung hier vor der 88GT bzw. gleich auf mit der 88GTS512.;)
Ok, ich lasse mich da überzeugen...habe mich nur gewundert, daß der Unterschied dann nicht größer ausfällt...aber 50Mhz sind ja auch nicht die Welt und 1:1 wird es kaum skalieren.
Liszca
2008-03-24, 02:19:36
es zählt auch nicht nur das optische, sondern auch das wie es zustande kam und vor allem hier bringen die neuen apis vorteile. Wenn es nach dir ginge hätten wir noch immer DX7 und glide.
Wie "gut" wäre heute eine X800XT PE (@600/600), wenn sie SM 3.0 hätte... (ich will mir das gehype um so eine ati karte garnicht vorstellen...)
Glide ist der HEILIGE GRAL bei pc spielen immer dran denken!!!
Angiesan
2008-03-24, 12:22:53
so, habe da mich das auch interessiert mal ein wenig mit meiner 8800GT experimentiert.
Wenn es an den Rops liegen würde so müßte eine Übertaktung der GPU
ja eine Leistungssteigerung gerade unter FSAA ergeben.
Also ein kleiner Bench mit Crysis.
System: Core 2 D 6750 4GB DDR2 / 800, 8800GT/512, Treiber 174.70, Vista x86
Erste Einstellung
1920x1600 Alles max kein FSAA kein AF
8800GT@691/1728/999
Crysis GPU Test
1. 96,22 sec. 20,79 FPS
2. 86,77 sec. 23,05 FPS
3. 86,61 sec. 23,09 FPS
8800GT@756/1728/999
1. 93,63 sec. 21,36 FPS
2. 84,18 sec. 23,76 FPS
3. 83,59 sec. 23,93 FPS
Zweite Einstellung
1024x768 Alles max 8XFSAA kein AF
Crysis Gpu Test
8800GT@691/1728/999
1. 84,58 (96,33) sec. 23,65 (20,76) FPS
2. 82,19 (96,65) sec. 24,33 (20,69) FPS
8800GT@756/1728/999
1. 83,50 sec. 23,95 FPS
2. 81,06 sec. 24,67 FPS
Ich finde die Werte mit 8x FSAA liegen im Bereich der Messtoleranzen.
Ja was soll mann da noch sagen? ich bin auf jeden Fall nicht schlauer wie vorher doch das Si ? oder die Speichermenge ?
Oder kann einer unserer Gurus da mehr rauslesen?
Ich kann den Test auch mt noch höherem Chiptakt fahren, knapp 800 gibt meine GT her.
Grüße
Aufgrun der Anregung durch den Gast habe ich den Test mit 8XFSAA
nochmal durchgeführt.
Da mein Speicher aber am Ende ist und 999 zu 1040 nicht sehr aussagefähig sein kann,
habe ich den Speicher mal auf den standard Takt von 900 gesetzt.
Das Ergebnis habe ich in die Aufstellung eingefügt.
Werte in Klammer =900MHz Speichertakt wie man sehr gut sehen kann, ist die 8800Gt sehr durch die Speicherbandbreite limitiert.
Zumindest in Crysis und unter eh nicht spielbaren Einstellungen.Da die Speicherbandbreite der 9600GT identisch ist, könnte man zu dem Fazit kommen,
dass der G92 auf dem heute angewndeten und verbauten
PCB doch stark eingeschränkt ist.Eine Erhöhung des Speichertaktes wird unter den von mir verwendeten Einstellungen praktisch 1:1 in FPS umgesetzt. Ich habe das 2 mal
überprüft, weil ich das auch nicht glauben wollte. Aber es ist sogar prozentual eine höhere Steigerung der FPS wie die Anhebung des Speichertaktes eigentlich hergeben sollte
eingetreten. 11% Erhöhung des Speichertaktes resultieren in etwas 13% mehr FPS wie geht das denn ???
Mr. Lolman
2008-03-24, 12:32:36
Glide ist der HEILIGE GRAL bei pc spielen immer dran denken!!!
Wenn man sich dabei auf den CPU-Overhead und die HW-nähe der Api bezieht stimmt das auch. ;)
teste doch nochmal nur indem du den speichertakt erhöhst
Lawmachine79
2008-03-24, 15:52:54
teste doch nochmal nur indem du den speichertakt erhöhst
Mein Reden. Wenn nämlich die Vermutung stimmt, daß die Bandbreite limitiert, sollte DAS nämlich einen Leistungszuwachs bringen.
Captain Future
2008-03-24, 15:59:08
Crysis ist aber für sowas kein geeigneter Bencmark
dargo
2008-03-24, 15:59:08
Mein Reden. Wenn nämlich die Vermutung stimmt, daß die Bandbreite limitiert, sollte DAS nämlich einen Leistungszuwachs bringen.
Nochmal, die Bandbreite eines G92 (lassen wir jetzt die kommende G9800GTX mal weg) limitiert zwar auch, aber nicht in so einem hohen Maße, dass alleine durch ein erhebliches Erhöhen der Bandbreite sich ein G92 um den gleichen Faktor vom G80 behaupten kann um welchen die arithmetische Leistung höher ist. Die Speicherbandbreite des G92 ist ziemlich gut ausgewogen.
Simon
2008-03-24, 15:59:49
Crysis ist aber für sowas kein geeigneter Bencmark
Was denn dann?
Lawmachine79
2008-03-24, 16:03:02
Nochmal, die Bandbreite eines G92 (lassen wir jetzt die kommende G9800GTX mal weg) limitiert zwar auch, aber nicht in so einem hohen Maße, dass alleine durch ein erhebliches Erhöhen der Bandbreite sich ein G92 um den gleichen Faktor vom G80 behaupten kann um welchen die arithmetische Leistung höher ist. Die Speicherbandbreite des G92 ist ziemlich gut ausgewogen.
Wie will man messen ob sie ausgewogen ist? Warum ist die Bandbreite vom G80 höher? Die Verbreiterung des Interface macht das PCB doch sauteuer, das wird NVidia beim G80 nicht aus Spaß gemacht haben.
LovesuckZ
2008-03-24, 16:07:13
G80 war High-End. Da konnte man es machen, da es über den Preis wieder reinngeholt wird.
G92 ist kein High-End. Man kann den Chip bei geringer Spannung höher takten und gleichzeitig billiger fertigen.
Captain Future
2008-03-24, 16:13:27
Was denn dann?
Eine optimiertere Engine. UE3?
dargo
2008-03-24, 16:31:24
Wie will man messen ob sie ausgewogen ist?
Wenn ich eine Skalierung bei der Bandbreite von 1:0,4-0,5 habe dann ist das für mich ausgewogen. Oder wie würdest du dann nennen? :)
Eine optimiertere Engine. UE3?
:confused:
Jetzt wüsste ich aber gerne wie du darauf kommst UE3 wäre mehr optimiert als Crysis bzw. die CryEngine2?
Eine optimiertere Engine. UE3?
Crysis ist optimiert. Abnehmender Ertrag. Für das mehr an Optik braucht Crysis halt deutlich mehr Rechenleistung.
Spasstiger
2008-03-24, 17:01:59
Mit der UE3 haben aber bisher weit mehr Entwickler Erfahrungen gesammelt als mit der Cryengine 2. Kann also schon sein, dass in der UE3 noch ein wenig mehr Optimierungsarbeit steckt. Allerdings umgeht man viele Performanceproblemchen in der UE3 aber auch, indem man faked. Dynamische Schatten sind in UE3-Games z.B. nur spärlich verteilt, meist sind es statische Schatten, die von wechselnden Beleuchtungsverhältnissen unbeeindruckt bleiben.
G80 war High-End. Da konnte man es machen, da es über den Preis wieder reinngeholt wird.
G92 ist kein High-End. Man kann den Chip bei geringer Spannung höher takten und gleichzeitig billiger fertigen.
Das ist jetzt aber mal das mit Abstand schlimmste was hier im THread steht.
Der G80 war in dem Sinne schon das schnellste von Nvidia, aber trotz all dem zeigt der G94 das es auch viel billiger hätte sein können diese Leistung zu erzielen, gerade das 384bit Interface hätte man sich sparen können( mehr gewinn). ATI hat dann den Bock mit 512bit aber so richtig abgeschossen. Der G92 wie auch der G94 verdrängen die eigenen Produkte. Wenn Nvidia diesen zyklus wieder bei behält werden sie vor 2009 wieder Marktanteile verlieren.
Spasstiger
2008-03-24, 17:10:51
ATI hat dann den Bock mit 512bit aber so richtig abgeschossen.
Die damit gesammelten Erfahrungen sind immer nützlich. Bis spätestens 2009 dürften alle High-End-Karten ein 512-Bit-SI haben.
LovesuckZ
2008-03-24, 17:16:04
Das ist jetzt aber mal das mit Abstand schlimmste was hier im THread steht.
Blub.
Der G80 war in dem Sinne schon das schnellste von Nvidia, aber trotz all dem zeigt der G94 das es auch viel billiger hätte sein können diese Leistung zu erzielen, gerade das 384bit Interface hätte man sich sparen können( mehr gewinn)
Das 384bit Speicherinterface hat den Vorteil der größeren Speichermenge. So konnte man 768mb als Standard einführen. Dazu profitiert das G80 Design klar von der höhreren Speicherbandbreite.
Und woher sollte man wissen, dass AMD keinen Konkurrenten zur GTX bringen würde?
Blub.
Das 384bit Speicherinterface hat den Vorteil der größeren Speichermenge. So konnte man 768mb als Standard einführen. Dazu profitiert das G80 Design klar von der höhreren Speicherbandbreite.
Und woher sollte man wissen, dass AMD keinen Konkurrenten zur GTX bringen würde?
Speicher den ich nicht zu mülle brauch ich nicht zu installieren, also nochmal einen Punkt an dem man sparen kann und auch zukünftige Designs was von hätten. Natürlich hast du aber recht das eine 8800GTX jede 8800GTS platt macht mit min 356842156548% Vorsprung.
Und das wegen AMD: Dann hätte man immer noch ein 384bit SI einführen können, was ja aber wie schon gesehen eigentlich kaum was bringt.
Achso, wegen dem blub.......
Spasstiger
2008-03-24, 17:29:25
Der G80 war genau richtig und ist bis heute sehr ausgewogen. Er bricht bei hohen Auflösungen mit AA nicht drastisch ein und gibt sich gleichzeitig auch in niedrigeren Auflösungen nicht die Blöße (wie es z.B. beim R600 der Fall ist).
dargo
2008-03-24, 17:29:25
Speicher den ich nicht zu mülle brauch ich nicht zu installieren, also nochmal einen Punkt an dem man sparen kann und auch zukünftige Designs was von hätten.
Wenn du nicht fähig bist deinen Speicher vollzustopfen dann kann der IHV nichts dafür. Schon mal mehr als 4xMSAA versucht? :D
Der G80 war genau richtig und ist bis heute sehr ausgewogen. Er bricht bei hohen Auflösungen mit AA nicht drastisch ein und gibt sich gleichzeitig auch in niedrigeren Auflösungen nicht die Blöße (wie es z.B. beim R600 der Fall ist).
Der G80 ist schön und gut, aber das hätte man auch billiger machen können und das ist genau der Punkt auf den ich raus möchte.
@Dargo, sicher habe ich das, doch der Speicher war nicht voll, im gegenzug hat aber das Bild geruckelt.......und wirklich schick ist MSAA auch nicht da gabs schon besseres.
Captain Future
2008-03-24, 17:42:34
Crysis ist optimiert. Abnehmender Ertrag. Für das mehr an Optik braucht Crysis halt deutlich mehr Rechenleistung.
Wie kommt's dann, dass durch Treiberanpassungen noch soviel mehr Leistung herauszuholen ist? Compiler nach 1,5jahren+ nicht ausgereift? Nein! Fauxpasses in Crysis ausbügeln.
Und btw:
Crysis verwendet einen Forward-Renderer und hat sehr beschissenes Culling.
;)
dargo
2008-03-24, 17:56:30
Wie kommt's dann, dass durch Treiberanpassungen noch soviel mehr Leistung herauszuholen ist? Compiler nach 1,5jahren+ nicht ausgereift? Nein! Fauxpasses in Crysis ausbügeln.
Wie kommts, dass Bioshock mit späteren Treibern >10% zugelegt hat? Tolle UE3. ;)
_DrillSarge]I[
2008-03-24, 18:05:25
Die damit gesammelten Erfahrungen sind immer nützlich. Bis spätestens 2009 dürften alle High-End-Karten ein 512-Bit-SI haben.
zudem ist die 2900xt (trotz niedrigerem chiptakt), dank 512bit si meist (merklich) schneller als die 3870er
AnarchX
2008-03-24, 18:13:53
Die damit gesammelten Erfahrungen sind immer nützlich. Bis spätestens 2009 dürften alle High-End-Karten ein 512-Bit-SI haben.
GDDR5 verpasst?:|
Captain Future
2008-03-24, 18:14:43
Wie kommts, dass Bioshock mit späteren Treibern >10% zugelegt hat? Tolle UE3. ;)
Komisch, dass das nur Bioshock betraf.
Die Crysis kann mal wirklich wieder nur Außenareala mit Heightmap-terrain darstellen. Toll eben für diesen Zweck, jedoch indoor wird es gruselig für Mapper und Engine, wirklich toll komplexes ist da nicht drin. In dieser Hinsicht ist die UE3-Engine als die universellere besser optimiert, da sie alles auf ähnlich hohem niveau darstellen kann.
Spasstiger
2008-03-24, 18:25:13
GDDR5 verpasst?:|
Wenn man in absehbarer Zeit die Shaderleistung bei Single-GPU-Karten vervierfachen will, muss man auch die Bandbreite entsprechend erhöhen. Ob dafür doppelt so schneller Speicher an einem 256-Bit-SI reicht? ATI hat auf jeden Fall ein 512-Bit-SI und das entsprechende PCB-Layout in der Hinterhand.
Lawmachine79
2008-03-24, 18:26:02
Der G80 war genau richtig und ist bis heute sehr ausgewogen. Er bricht bei hohen Auflösungen mit AA nicht drastisch ein und gibt sich gleichzeitig auch in niedrigeren Auflösungen nicht die Blöße (wie es z.B. beim R600 der Fall ist).
Das muss man nochmal unterstreichen. Die 88GTX kam im Oktober 2006 raus! Das ist 1 1/2 Jahre her! Sie ist NOCH IMMER eine der leistungsfähigsten Single Core Lösungen. Da gibt es nichts dran zu rütteln. Klar hat man die Leute belächelt, die vor 18 Monaten 600€ für eine Grafikkarte ausgegeben haben. Die Leute aber, die sie belächelt haben, haben in 18 Monaten 3 Karten für 200€ gekauft. NOCH NIE vorher war eine Karte 18 Monate lang absolute Spitze. Und auch bei der 88GTS muss JETZT, genaugenommen seit Crysis, erst angefangen werden, an der Eyecandy-Schraube zu drehen.
dargo
2008-03-24, 18:27:38
Die Crysis kann mal wirklich wieder nur Außenareala mit Heightmap-terrain darstellen. Toll eben für diesen Zweck, jedoch indoor wird es gruselig für Mapper und Engine, wirklich toll komplexes ist da nicht drin.
Du kennst aber schon die indoor Szenen aus dem Flugzeugträger, oder?
In dieser Hinsicht ist die UE3-Engine als die universellere besser optimiert, da sie alles auf ähnlich hohem niveau darstellen kann.
Auf ähnlich tiefen Niveau würde hier eher zutreffen. Wobei ich mich gerade frage was an den Außenlevels bei der UE3 komplex bzw. schön sein soll? :|
Captain Future
2008-03-24, 18:28:51
Du kennst aber schon die indoor Szenen aus dem Flugzeugträger, oder?
Wie ist denn da so die Performance auf höchsten Details in 1680x1050? Auch so um 300 Fps wie bei UT3 in engen Räumen? ;)
dargo
2008-03-24, 18:29:21
Wenn man in absehbarer Zeit die Shaderleistung bei Single-GPU-Karten vervierfachen will, muss man auch die Bandbreite entsprechend erhöhen. Ob dafür doppelt so schneller Speicher an einem 256-Bit-SI reicht? ATI hat auf jeden Fall ein 512-Bit-SI und das entsprechende PCB-Layout in der Hinterhand.
Schau dir mal die Bandbreite beim G7x und G80 an. ;)
Captain Future
2008-03-24, 18:29:36
Wobei ich mir gerade frage was an den Außenlevels bei der UE3 komplex bzw. schön sein soll? :|
Nichts, weil das eine der Schwächen von Deferred Shadern ist. Da brauchst du hohe Einstiegskosten, viele Polys und mehrere Lichtquellen, damit das lohnt.
dargo
2008-03-24, 18:32:31
Wie ist denn da so die Performance auf höchsten Details in 1680x1050? Auch so um 300 Fps wie bei UT3 in engen Räumen? ;)
Jetzt wirds aber wirklich lächerlich. Nimm doch die Engine von Half-Life 1, dann hast du 1000fps indoor. :usweet:
PS: die Performance indoor auf dem Flugzeugträger ist einiges besser als sonst in Außenlevels.
AnarchX
2008-03-24, 18:34:41
Schau dir mal die Bandbreite beim G7x und G80 an. ;)
... oder auch G71 vs G92: ~2.5fache Leistung bei nichtmal 20% mehr Bandbreite.
Würde man nun die Shaderleistung vervierfachen gegenüber G80, wären doch "konservative" 384-Bit@~1.8GHz oder auch 320-Bit@~2GHz wohl locker ausreichend als Bandbreitensprung. Selbst im Performance-Bereich, wo sich momentan 256-Bit etabliert hat, könnte ich mir bei NV einen Rückschritt auf 192-Bit 2009 vorstellen.
Wenn man in absehbarer Zeit die Shaderleistung bei Single-GPU-Karten vervierfachen will, muss man auch die Bandbreite entsprechend erhöhen. Ob dafür doppelt so schneller Speicher an einem 256-Bit-SI reicht? ATI hat auf jeden Fall ein 512-Bit-SI und das entsprechende PCB-Layout in der Hinterhand.
Man kann auch mal wieder den Speichercont. effizienter machen, damit das ganze entlastet wird. Früher oder später werden wie eh bei 512/1024bit landen und höher, aber bis dahin vergehen schon noch so 2 Jährchen udn die leistung von den derzeitigen Karten verlangt kein 512bit SI, dadurch gewinnen zware die Karten etwas an Boden, aber in hinsicht auf die kosten ist das nicht wirklich tragbar.
dargo
2008-03-24, 20:41:14
Komisch, dass das nur Bioshock betraf.
Wenn ich mich recht erinnere galt dies auch für Medal of Honor: Airborne. Im Prinzip müsste eine gewisse Mehrleistung bei allen UE3 Titeln dann vorhanden sein.
deekey777
2008-03-24, 21:10:12
Crysis ist optimiert. Abnehmender Ertrag. Für das mehr an Optik braucht Crysis halt deutlich mehr Rechenleistung.
Wie wäre eigentlich die Crysis-Performance, wenn das Spiel auf Vista und insbesondere auf D3D10 hinentwickelt worden wäre?
Liszca
2008-03-24, 21:27:36
Man kann auch mal wieder den Speichercont. effizienter machen, damit das ganze entlastet wird. Früher oder später werden wie eh bei 512/1024bit landen und höher, aber bis dahin vergehen schon noch so 2 Jährchen udn die leistung von den derzeitigen Karten verlangt kein 512bit SI, dadurch gewinnen zware die Karten etwas an Boden, aber in hinsicht auf die kosten ist das nicht wirklich tragbar.
ob es 1024bit überhaupt so schnell geben wird bezweifel ich stark!
1. Gab es dazu von amd mal ein statement dazu dass es mit immer kleineren strukturen schwieriger wird die ganzen lötstellen dafür unterbringen.
2. selbst 512bit helfen nicht wenn es an anderen stellen im chip mangelt.
und wenn es dann soweit ist dass wir 512bit haben werden langen diese noch länger als die 256bit zuvor, das kann auch jeder anhand der rechnung takt x busbreite für sich selbst erkennen, da der takt ja schließlich weiterhin steigen wird.
....
ich persönlich hoffe ja dass es endlich soweit ist dass die entwicklung der gpus stagniert, glauben tu ich das aber selbst nicht.
Wie kommt's dann, dass durch Treiberanpassungen noch soviel mehr Leistung herauszuholen ist?
Ein Treiber lässt sich immer auf einen bestimmten Workload optimieren, vor allem bei so komplexen Systemen wie der Crysis-Engine. Dem Treiber ist es z.B. möglich so Dinge wie Bandbreitenzuordnung usw. auf der GPU zu regeln.
Compiler nach 1,5jahren+ nicht ausgereift? Nein! Fauxpasses in Crysis ausbügeln.
Ich glaub's irgendwie nicht. Crysis ist praktisch immer GPU limitiert und das laut PerfHUD auch fast immer in den Shadern. Und die Shader sehen jetzt nicht danach aus als wären sie so beschissen geschrieben.
Indoor ist natürlich ein anderes Thema. Das ist wirklich kein Spezialgebiet der Crysis-Engine und auch überhaupt nicht optimal gelöst. Das überseh ich bei dem Spiel immer wenn ich von der Technik rede ;) Die Leute von Crytek haben selber gesagt, dass für die Indoor-Parts wohl ein deferred shader besser geeignet gewesen wäre.
Outdoor machen sie Culling am Terrain was wohl schon ziemlich optimal ist wenn man Nutzen/CPU-Last auf die Waage legt vor allem weil sie auch einen Z-First-Pass machen.
Aber vielleicht hast du auch recht und das Ding ist wirklich grandios beschissen programmiert. Aber irgendwie ist das nicht mein Eindruck. Es wirkt eher noch etwas unrund an manchen Stellen vor allem in der Version 1.0.
Wie wäre eigentlich die Crysis-Performance, wenn das Spiel auf Vista und insbesondere auf D3D10 hinentwickelt worden wäre?
Das gibt meine Kristallkugel nicht her :)
deekey777
2008-03-24, 22:13:12
...
Ich glaub's irgendwie nicht. Crysis ist praktisch immer GPU limitiert und das laut PerfHUD auch fast immer in den Shadern. Und die Shader sehen jetzt nicht danach aus als wären sie so beschissen geschrieben.
...
Was sagt PerfHUD genau (Timedemo oder echtes Spielen)? Dass die Grafikkarte kaum auf die CPU wartet?
Mein Rechner ist alles andere als eine Performance-Bombe: X2 3600+ (S939), X1950GT 512 (mittels Overdrive 3D-Takt von 550/650 MHz) und nur ein GB RAM.
Die Ergebnisse der GPU-Timedemo waren (Einstellungen, die vom Spiel empfohlen werden, also alles auf "Mittel"):
% Hardware Utilization Percent time GPU is busy
% Vertex Wait for Pixel Percent time vertex processing is waiting for pixel processing to
finish (can indicate slow pixel shaders)
% Pixel Wait for Vertex Percent time pixel processing is waiting for vertex processing to
finish
Pre-clip Primitives Primitive count before clipping
Post-clip Primitives Primitive count after clipping
% Blended Pixels Percent of total pixels drawn with blending enabled
ALU to Texture Instruction
Ratio
Ratio between pixel shader ALU and texture instructions (not
available on Radeon X1300 to X1950 or on OpenGL)
% Pixels Passed Z-test Percent of pixels which passed the Z-test
Overdraw Total number of pixels drawn divided by the Overdraw counter
resolution.* This counter can also be representative of the number
of render targets in use.
Das Overdraw-Ergebnis ist zu ignorieren.
1280x768 (so wie ich spiele):
http://img225.imageshack.us/img225/3857/clipboard01hp1.th.png (http://img225.imageshack.us/my.php?image=clipboard01hp1.png)
Hier mit 800x600:
http://img225.imageshack.us/img225/7580/800600vz7.th.png (http://img225.imageshack.us/my.php?image=800600vz7.png)
Und jetzt echtes Spielen, etwa von der Bruchlandung bis zur Mitte des Levels:
http://img148.imageshack.us/img148/3284/echt1280x768qg1.th.png (http://img148.imageshack.us/my.php?image=echt1280x768qg1.png)
(Overdraw stimmt diesmal.)
Das gibt meine Kristallkugel nicht her :)
Traue dich. :biggrin:
Ich weiß die PerfHUD-Ergebnisse grad nicht mehr auswendig, dafür muss ich immer den Monitoring-Treiber installieren und die App patchen *hust*
Engines wie Crysis brauchen kein komplexes HSR (ich weiß nicht genau wie man es bei Grafik-Engines beschreiben soll). Es ist auf jedenfall einfacher nen Haufen Bäume auf bestimmter entfernung auszublenden und durch performantere low-poly-models zu ersetzen als dieses HSR mit komplexen Raumstrukturen durchzuführen.
Das sah man auch bei Crysis, die Details waren Indoor voll für den Eimer, weil sie viel zu schnell den Polycount hochgetrieben hätten.
Komplexe innenareale werden so leicht zur Herausforderung.
Dewegen hat ID ja auch das BSP-Format, dass irgendwie mi vis-leafs und Baumstruktur bla bla bla, unsichtbare Bereiche ausblendet.
Mr. Lolman
2008-03-25, 13:24:29
Das sah man auch bei Crysis, die Details waren Indoor voll für den Eimer, weil sie viel zu schnell den Polycount hochgetrieben hätten.
Komplexe innenareale werden so leicht zur Herausforderung.
Gerade Indoor sieht man gut anhand der fps, dass da doch fleissig HSR betrieben wird.
Nein, es wurde konsequent an Polygonen gespart.
Weil es stellen und Winkel geben könnte wo die Engine plötzlich fast die ganze Map berechnet und da sinkt dann die Framerate ins bodenlose.
zB. schaust du aus der rechten oberen Ecke im Raum oben rechts quer durch
die Map in den Raum unten Links so das deine Kamera rein teohretisch die ganzen Räume dazwischen erfasst, muss die Graka den ganzen Müll mitberechnen (auch wenn er hinter tausend wänden verdeckt ist). An dieser Stelle wird das Spiel dann grottig lahm, deshalb müssen die Mapper an dieser Stelle genau darauf achten wieviel und wo sie Räume und detailierten Kramm hinpacken. Engines die darauf ausgelegt sind schneiden solchen Kramm von vornerein weg.
Dewegen hat ID ja auch das BSP-Format, dass irgendwie mi vis-leafs und Baumstruktur bla bla bla, unsichtbare Bereiche ausblendet.
Das gab's zuletzt in Quake 3. Seit Doom verwenden sie Portale.
Simon
2008-03-25, 14:15:00
Das gab's zuletzt in Quake 3. Seit Doom verwenden sie Portale.
Nicht erst seit Doom3 verwenden sie Portale, auch Quake3 kannte das schon. Ob id in Q3 allerdings Portale und den BSP für HSR genutzt hat, da bin ich mir nicht mehr sicher. Der BSP wurde jedoch hauptsächlich für Traces (Collision Detection) und so verwendet...
Quake 3 verwendetet noch primär das vorberechnete PVS. Die Portale waren optional. Ist eigentlich aber auch egal. Auf jeden Fall kommt mir das Culling in Crysis indoor nicht sehr gut vor.
HD-Ronny
2008-03-26, 12:19:17
Kann ein 9600GT SLI Crysis bei 1920x1200 mit min. 2AA flüssig darstellen ?
Bin am überlegen auf einen einen 24" TFT upzugräiden.
dargo
2008-03-26, 12:25:41
Kann ein 9600GT SLI Crysis bei 1920x1200 mit min. 2AA flüssig darstellen ?
Nein, zumindest nicht wenn alles auf High steht.
HD-Ronny
2008-03-26, 12:35:26
Danke. Dann muss ich wohl eher ne 2te GTS dafür einkalkulieren :(
Kann ein 9600GT SLI Crysis bei 1920x1200 mit min. 2AA flüssig darstellen ?
sicher nicht, AA ist bei crysis besonders böse was die performance angeht, bereits 2x kostet massiv. dafür ist allerdings der einbruch von 2x auf 4x recht gering.
mike49
2008-03-26, 14:13:34
Danke. Dann muss ich wohl eher ne 2te GTS dafür einkalkulieren :(
Die wird dir auch nicht richtig viel helfen da bei der Auflösung + AA der GTS der Speicher ausgeht.
Für Crysis in der Auflösung kann man eigentlich nur auf GT200 warten, alles andere macht derzeit wenig Sinn.
HD-Ronny
2008-03-26, 14:50:20
Tatsächlich? Bei 1680x1050 komm ich mit einer GTS gut hin, na dann warte ich mit dem neuen Monitor halt noch was. Dachte das 1920x1200 im SLI machbar wären mit dem Speicher und SI im SLI.
mike49
2008-03-26, 15:00:51
Tatsächlich? Bei 1680x1050 komm ich mit einer GTS gut hin, na dann warte ich mit dem neuen Monitor halt noch was. Dachte das 1920x1200 im SLI machbar wären mit dem Speicher und SI im SLI.
Der Speicher verdoppelt sich ja leider nicht mit SLI.
1.920 + AA ist in Crysis einfach zu viel für 512MB:
Spasstiger
2008-03-26, 15:18:30
Die wird dir auch nicht richtig viel helfen da bei der Auflösung + AA der GTS der Speicher ausgeht.
Für Crysis in der Auflösung kann man eigentlich nur auf GT200 warten, alles andere macht derzeit wenig Sinn.
Triple-SLI mit drei 8800 GTX oder Ultra wäre noch akkzeptabel, sofern man mit den Mikrorucklern leben kann:
http://www.pcgameshardware.de/screenshots/original/2008/03/790i_Benchmark_03_Crysis_03.jpg
mike49
2008-03-26, 15:22:37
Triple-SLI mit drei 8800 GTX oder Ultra wäre noch akkzeptabel, sofern man mit den Mikrorucklern leben kann:
http://www.pcgameshardware.de/screenshots/original/2008/03/790i_Benchmark_03_Crysis_03.jpg
Jep, aber das ist
a) eine andere preisliche Liga (Board, NT +3x GTX/Ultra -> 1000€)
b) wurde da auch 'nur' in 1.680 gebencht
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.