PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 9800GTX+ mit GDDR5 /512Bit SI? - theoretische Überlegung


Armaq
2009-01-25, 12:00:38
Wie würde eine 9800GTX+ mit einem breiteren Interface (512Bit), oder GDDR5 performen? Die Shader sind ja richtig hoch getaktet und auch ansonsten mangelt es der Grafikkarte ja nicht an Leistung.

Daher meine hypothetische Frage, würde sie signifikant besser abschneiden?

Gast
2009-01-25, 12:03:58
Wenn du den Speicher noch verdoppelst, wärst du hautnah an einer GTX 260.

The_Invisible
2009-01-25, 12:25:21
die 9800gtx+ 1gib von nem verwandten geht richtig gut, auch in höheren auflösungen mit AA, leider wird ja nur immer die 512mib version getestet. beachten sollte man auch das die 1gib variante gerade beim speicher niedriger getaktet ist als die 512er (1100 vs 950).

mit 512bit speicherinterface wäre die 260 wirklich gefährdet.

mfg

dargo
2009-01-25, 12:42:53
Wie würde eine 9800GTX+ mit einem breiteren Interface (512Bit), oder GDDR5 performen? Die Shader sind ja richtig hoch getaktet und auch ansonsten mangelt es der Grafikkarte ja nicht an Leistung.

Daher meine hypothetische Frage, würde sie signifikant besser abschneiden?
Warum testest du es nicht selbst? Du hast doch eine G9800GTX+.

Armaq
2009-01-25, 12:51:33
Weil ich zZ. keine Zeit habe. :) Ich habe eben nur darüber nachgedacht, weil ich gerade einen stumpfsinnigen Marketingreport schreibe.

Ansonsten erkläre ich mich in den Semesterferien bereit die 9800 ein wenig zu ärgern.

Edit: Ausserdem mangelt es mir an CPU Power. :)

LovesuckZ
2009-01-25, 12:52:39
Die Karte wäre ungefähr so schnell wie eine GTX280. Es würde sich ja dabei um eine doppelte 9600gt handeln und die erreicht ca. 50% der Leistung einer GT280.

Armaq
2009-01-25, 12:54:53
Die Karte wäre ungefähr so schnell wie eine GTX280. Es würde sich ja dabei um eine doppelte 9600gt handeln und die erreicht ca. 50% der Leistung einer GT280.
Da fragt man sich glatt, warum man eine GT200 braucht, wenn der G92 es auch tut. Vor allem wäre es ein wesentlicher Schritt Richtung Kostenmanagement.

Schlammsau
2009-01-25, 12:55:43
Die Karte wäre ungefähr so schnell wie eine GTX280. Es würde sich ja dabei um eine doppelte 9600gt handeln und die erreicht ca. 50% der Leistung einer GT280.

Quatsch!
So schnell wie eine GT280 und dabei noch kleiner? als ein RV770.
Sorry aber.....nö! ;D
nVidia hätte nach deiner Annahme, dann locker einen G92b mit 512MB SI releasen können, und hätte damit ATi dem Erdboden gleich gemacht.

dargo
2009-01-25, 12:55:46
Ansonsten erkläre ich mich in den Semesterferien bereit die 9800 ein wenig zu ärgern.
Wie möchtest du dann testen? Ich will nur sicherstellen, dass wir die gleiche Vorgehensweise meinen. :wink:

Armaq
2009-01-25, 13:06:01
Ich schraube an Takt bzw. Speicher und schaue mir die Entwicklung an. Wo bewegt sich wieviel bei viel AA?!

dargo
2009-01-25, 13:15:30
Ich schraube an Takt bzw. Speicher und schaue mir die Entwicklung an. Wo bewegt sich wieviel bei viel AA?!
Damit kommst du aber nicht sehr weit. Ich habe mir das anders vorgestellt. GPU-/Shader-/ und Speichertakt 50% runter, sprich 369/918/550Mhz (das wird genau so sicherlich nicht passen, da man den Taktgeber beachten muss). So ähnlich sollte es aber gehen. Danach den Speicher wieder um 50% rauf, sprich 369/918/825Mhz. So weißt du wie die Karte mit standard Taktraten bei der GPU und 105,6GB/s Speicherbandbreite skalieren würde. Dann nochmal 369/918/1100Mhz. Das würde einer Speicherbandbreite von 140,8GB/s entsprechen.

PS: eine starke Senkung der GPU-Taktraten ist notwendig damit dein Vram nicht limitiert. Schließlich profitiert die Graka vor allem beim Einsatz von AA gut von mehr Speicherbandbreite. Dh., mit halbierter Rohleistung könntest du in 1280x800 und AA testen. Ich denke mal in dieser Umgebung dürften 512MB nicht zu wenig sein.

Armaq
2009-01-25, 13:27:25
Ja, die Senkung der GPU hatte ich vor. Ansonsten kann man es ja nicht darstellen.

LovesuckZ
2009-01-25, 14:00:40
Quatsch!
So schnell wie eine GT280 und dabei noch kleiner? als ein RV770.
Sorry aber.....nö! ;D
nVidia hätte nach deiner Annahme, dann locker einen G92b mit 512MB SI releasen können, und hätte damit ATi dem Erdboden gleich gemacht.

Echt schlimm - keine Ahnung, aber doch mitreden. :rolleyes:
G92 mit 512bit Speicherinterface (8 ROP Partitionen) wäre ein doppelter G94. Und dieser erreicht im Schnitt 50% der Leistung einer GTX280.
Und wie schnell wäre nun ein doppelter G94? Kleiner Tipp: An erster Stelle steht immer eine 2. :P

r@h
2009-01-25, 14:03:31
Wenn du den Speicher noch verdoppelst, wärst du hautnah an einer GTX 260.
"hautnah"?
Das einzige, was eine 9800GT+1GB von der GTX260 trennt, ist das Speicherinterface!

die 9800gtx+ 1gib von nem verwandten geht richtig gut, auch in höheren auflösungen mit AA,
Bei mir war sie dank des gülligen Speichers sogar meist langsamer, als die gute alte 8800GT mit 512MB.

Da fragt man sich glatt, warum man eine GT200 braucht, wenn der G92 es auch tut. Vor allem wäre es ein wesentlicher Schritt Richtung Kostenmanagement.
Das frage ich mich auch auch die ganze Zeit... Antwort: breiteres Speicherinterface!
Und Palit bringt gerade eine "custom GTX260/216" heraus... mit eigenem Kühler.
http://www.guru3d.com/news/palit-launches-custom-gtx260-sonic-216sp/
Vielleicht ist das ja mal endlich das erlösende Produkt?

Diese lärmenden GTX2x0 mit Standard-Kühlungen kannst Du mir getrost kalt ans Bein binden.
Am krassesten fand' ich die GTX285: noch wärmer, noch lauter!
(und was ich generell von diesem GX2-Grütz halte, sage ich jetzt lieber nicht ;-)

Razor

Schlammsau
2009-01-25, 14:05:47
Blub

Gut, und warum hat es nVidia dann nicht gemacht? Damit wären sie ATi haushoch überlegen gewesen!
Aber nein nVidia, wählt den teuren, unrentablen (GT200) Weg, und damit einen riesen Schlag ins Gesicht zu bekommen.
Du hast immer Theorien. :rolleyes:

AnarchX
2009-01-25, 14:12:44
Echt schlimm - keine Ahnung, aber doch mitreden. :rolleyes:
G92 mit 512bit Speicherinterface (8 ROP Partitionen) wäre ein doppelter G94. Und dieser erreicht im Schnitt 50% der Leistung einer GTX280.
Und wie schnell wäre nun ein doppelter G94? Kleiner Tipp: An erster Stelle steht immer eine 2. :P
Die Überlegung funktioniert so nicht, bei G94 hat das Setup des Chips deutlich weniger Arbeit mit den 4 Cluster als bei G92 mit 8 und kann deshalb offenbar effizienter arbeiten.
Wenn schon müsste man eine Taktdomain für das Setup einführen und diese mit 1.3GHz takten.
Dann wären die Chance doppelte G94-Leistung zu bekommen in der Tat besser.

Wobei mittlerweile die Tendenz eher für G200 spricht und er sich deutlicher als die 100% von G94 abhebt die du vorschlägst:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/vorschau_nvidia_geforce_gtx_285/10/#abschnitt_performancerating


Aber nein nVidia, wählt den teuren, unrentablen (GT200) Weg, und damit einen riesen Schlag ins Gesicht zu bekommen.

CUDA/Tesla, da hätte ein G92@512-Bit keine wirkliche Chance gehabt. Zumal ein DP-ALU-Chip unabdingbar war.

Ronny G.
2009-01-25, 14:19:44
in wie fern profitiert ein Grafikkarte von steigenden Shadertakt, die G92 gehen da nicht selten mit guter Kühlung und Vmod über 2Ghz, meine 8800GTS G92 machte ja 2106Mhz Shadertakt mit. Die GT200 Modelle haben ja alle samt wesentlich weniger Shadertakt, bringt nun Shadertakt bei ner GT200 mindest genauso viel wie beim G92, bzw. in welchen Bereichen?

Armaq
2009-01-25, 14:29:20
Wir reden ja hier von Straßenperformance und HD48 holt die sich über GDDR5. Warum sollte das nicht bei einem G92 funktionieren?

Tesla/CUDA scheint übrigens ein spezielles Thema zu sein und dafür hat NV definitiv Opfer gebracht.

Ronny G.
2009-01-25, 14:35:59
Wir reden ja hier von Straßenperformance und HD48 holt die sich über GDDR5. Warum sollte das nicht bei einem G92 funktionieren?

Tesla/CUDA scheint übrigens ein spezielles Thema zu sein und dafür hat NV definitiv Opfer gebracht.

ja, der hohe Shadertakt bzw. dessen Potential wurden schließlich ja auch angesprochen.....

es wurde schon oft bewießen das der GDDR5 nicht sooo viel heraus holt im vergleich zum GDDR3, es sind laut CB so 10%.
Der GDDR3 hat wesentlich schärfer Timings als der GDDR5, verglichen wurde das am paradebespiel HD4850 vs. HD4870. Ich hatte mal einst beide Karten Parallel und um im CF am laufen.

auszug aus nem Posting von mir im Hardwareluxx
"edit:
habe jetzt selber mal ein paar vergleiche gemacht, meine HD4870(810/950) gegen HD4850(810/1180)
Der erste Wert ist immer die HD4870

3dmark Vantage P9284/P8614
Untopic Techdemo 44,0fps/39,8fps
3dmark06 16233/15080
3dmark05 26358/25411
3dmark03 50945/48245
Crysis Warhead 1280x1024 Enthusiast AMbush 39,43/35,85"

edit:
besser wäre es gewesen den Standarttaktspeichertakt einzustellen, dort gin es aber primär darum das man mitner guten HD4850 bereits sehr nache an ne HD4870 ran kommen kann.

dargo
2009-01-25, 14:42:16
in wie fern profitiert ein Grafikkarte von steigenden Shadertakt, die G92 gehen da nicht selten mit guter Kühlung und Vmod über 2Ghz, meine 8800GTS G92 machte ja 2106Mhz Shadertakt mit. Die GT200 Modelle haben ja alle samt wesentlich weniger Shadertakt, bringt nun Shadertakt bei ner GT200 mindest genauso viel wie beim G92, bzw. in welchen Bereichen?
Nicht der Shader-Takt ist wichtig sondern die arithmetische Leistung. Beim Speicher ist der Takt in erster Linie auch völlig uninteressant, was zählt ist die Speicherbandbreite.

The_Invisible
2009-01-25, 14:59:30
Bei mir war sie dank des gülligen Speichers sogar meist langsamer, als die gute alte 8800GT mit 512MB.


kann gar nicht sein da sie mindestens den gleichen speichertakt haben. ich hoffe du hast nicht oc gegen non-oc verglichen.

mfg

Spasstiger
2009-01-25, 15:04:37
es wurde schon oft bewießen das der GDDR5 nicht sooo viel heraus holt im vergleich zum GDDR3, es sind laut CB so 10%.
Die um 81% höhere Speicherbandbreite gegenüber der HD 4850 bringt der HD 4870 bei gleichem Chiptakt (625 MHz) generell nur knapp über 10% Leistungsvorteil, das ergibt auch mein Skript. Der Computerbase-Wert und mein simulierter Wert liegen nur um 2 Prozentpunkte auseinander (Computerbase: 10,6%, mein Skript: 12,4%). D.h. auch mit GDDR3-Speicher @ 1,8 GHz wäre nicht mehr drin gewesen.
Dass der GDDR5 bei Computerbase so schlecht aussieht, liegt daran, dass die Timings beim Runtertakten auf GDDR3-Bandbreite nicht verschärft wurden.
GDDR5-Speicher @ 2 Gbps mit den Timings, die man normalerweise für 3,6 Gbps fährt, ist natürlich langsamer als GDDR3-Speicher @ 2 Gbps mit seinen normalen Timings.

Die GeForce 9800 GTX+ würde laut meinem Skript enorm von einer Verdoppelung der Anzahl von ROP-SI-Partitonen profitieren, vor allem mit 1 GiB VRAM. Bei einer VRAM-Last von 700 MiB ergibt sich folgendes Bild:

http://img1.abload.de/img/9800gtxfa9s.png

Hinweise: Die 1-GiB-Varianten der 9800 GTX+ habe ich mit 1000 MHz Speichertakt statt 1100 MHz Speichertakt angesetzt. Das entspricht dann zumindest der Maximalspezifikation des Speicher, der auf den aktuellen 9800-GTX+-Karten mit 1 GiB VRAM verbaut wird (1,0 ns).

Zusammengefasst für die 512-MiB-Versionen:
9800 GTX+ 512 MiB, 256 Bit SI, 16 ROPs = 100%
9800 GTX+ 512 MiB, 512 Bit SI, 16 ROPs = 112% <- Diese Karte versucht Armaq, zu simulieren.
9800 GTX+ 512 MiB, 512 Bit SI, 32 ROPs = 125%

Und für die 1024-MiB-Versionen:
9800 GTX+ 1024 MiB, 256 Bit SI, 16 ROPs = 100%
9800 GTX+ 1024 MiB, 512 Bit SI, 16 ROPs = 125%
9800 GTX+ 1024 MiB, 512 Bit SI, 32 ROPs = 134%

Quatsch!
So schnell wie eine GT280 und dabei noch kleiner? als ein RV770.
Ein G92b mit 8 ROP-SI-Partitionen wäre größer als ein RV770 und das PCB dafür wäre so aufwändig wie bei einer GTX 285. Die Kosten für so eine Karte wären also immer noch höher als für eine Radeon HD 4870. Außerdem wird NV mit dem GT212 wieder einiges an Schadensbegrenzung betreiben. Ähnlich groß wie ein G92b und auch vom PCB her kein wirklich größerer Aufwand (256 Bit SI, vereinfachtes Routing dank GDDR5, allerdings höhere Frequenzen).

Das Problem des GT200 in 65 nm war, dass NVidia nicht die erhofften Taktfrequenzen erreichte. Wenn man das Speicherinterface verbreitert, ist es imo schon naheliegend, auch den TMU-ALU-Teil zu vergrößern. Letztendlich ist der Speichertakt gleich geblieben, Chip- und Shadertakt musste man aber deutlich senken. D.h. die Speicherbandbreite verdoppelte sich, die Rechenleistung stieg dagegen kaum. Somit war die Leistungssteigerung nicht analog zum Anstieg des Flächenbedarfs und zum Anstieg der PCB-Komplexität. Ich glaube, der Plan von NV für den GT200 war ursprünglich: 55 nm und 2 GHz Shadertakt.

AnarchX
2009-01-25, 15:18:44
@Spasstiger:
Simuliere doch mal bitte eine 9800 GTX+ mit 512-Bit und am besten 1024MiB (0.83ns) @ 1.1GHz bzw. eine 9800 GTX+ 256-Bit mit dem 900MHz GDDR5 der HD 4870.

Die Werte wären doch durchaus interessant.

edit:

9800 GTX+ 512 MiB, 512 Bit SI, 16 ROPs = 112% <- Diese Karte versucht Armaq, zu simulieren.

Wenn dann ziehen 512-Bit bei G92 schon 32 ROPs nach sich.

Aber diese Werte würden wohl auch einer 256-Bit GTX+ mit 1.1GHz GDDR5 entsprechen, wenn man nun noch auf den wahrscheinlicheren 900MHz GDDR5 herungergeht, ist da in der Tat nicht viel Performance erreichbar, jedenfalls nicht wenn nur 512MiB verbaut werden würden.

Coda
2009-01-25, 15:32:49
Wir reden ja hier von Straßenperformance und HD48 holt die sich über GDDR5. Warum sollte das nicht bei einem G92 funktionieren?.
Die RV770 holt ihre Leistung vor allem auch durch die hohe ALU-Leistung. Das würde bei G92 nicht so einfach funktionieren.

Raff
2009-01-25, 15:34:47
Die RV770 holt ihre Leistung vor allem auch durch die hohe ALU-Leistung. Das würde bei G92 nicht so einfach funktionieren.

Etwas mehr Spannung und eine 9800 GTX+ sieht 2.400 MHz Shadertakt – und hat damit grob mehr FLÖPPER als eine GTX 260-216.

MfG,
Raff

AnarchX
2009-01-25, 15:39:08
Etwas mehr Spannung und eine 9800 GTX+ sieht 2.400 MHz Shadertakt

Was aber wohl kaum alltagstauglich, geschweige denn auslieferbar gewesen wäre.

Bei der 260-216SP dürfte mit zukünftig größere Verbreitung des B3-Steppings wohl die 1.5GHz für Werks-OC fallen. Wofür G92 schon 2.56GHz benötigen würde, noch nicht eingerechnet das G200 sein "Missing-MUL" besser nutzen kann.

Spasstiger
2009-01-25, 15:48:11
Wofür G92 schon 2.56GHz benötigen würde, noch nicht eingerechnet das G200 sein "Missing-MUL" besser nutzen kann.
Ja, im Detail hat der GT200 schon ein paar Verbesserungen, die über eine reine Verbreiterung hinaus gehen.
Dazu gehören auch das Powermanagement, die dedizierten Double-Precision-Einheiten, Verbesserungen im Scheduler sowie kleinere Verbesserungen bei den ROPs.

Raff
2009-01-25, 15:51:25
Ihr "theoretisiert" hier schon wieder rum (ok, die Überschrift legitimiert dazu ;)). Das muss sich praktisch erstmal relevant bemerkbar machen. Fakt ist jedoch, dass eine übertaktete 9800 GTX mit 1.024 MiB VRAM gefährlich nahe an eine GTX 260 kommt, wenn kein AA zum Einsatz kommt.

MfG,
Raff

Armaq
2009-01-25, 15:53:24
Nette Tabelle Spasstiger.
Die 9800GTX+ kann dann auch mit 1024MB gebaut werden, es ging mir nur um die generelle Frage. Es nicht nämlich nicht wirklich ersichtlich, warum man eine GTX260 bringt, wenn man eine G92 auf ähnliches Niveau heben kann. Es muss dafür noch weitere Erwägungsgründe geben.

Spasstiger
2009-01-25, 15:54:09
Fakt ist jedoch, dass eine übertaktete 9800 GTX mit 1.024 MiB VRAM gefährlich nahe an eine GTX 260 kommt, wenn kein AA zum Einsatz kommt.
Und mit 8 ROP-SI-Partitionen wäre man knapp an der GTX 280 dran. ;)

Nette Tabelle Spasstiger.
Die 9800GTX+ kann dann auch 1024MB gebaut werden, es ging mir nur um die generelle Frage. Es nicht nämlich nicht wirklich ersichtlich, warum man eine GTX260 bringt, wenn man eine G92 auf ähnliches Niveau heben kann. Es muss dafür noch weitere Erwägungsgründe geben.
Wie gesagt, NV plante wahrscheinlich deutlich höhere Chip- und Shadertaktraten. Auch die 65-nm-Fertigung war vermutlich nur eine Notlösung. Außerdem wollte man Double-Precision-Recheneinheiten anbieten.
Alles in allem war NV sicherlich nicht glücklich mit dem GT200 und im Nachhinein wäre vielleicht ein aufgemotzter G92 doch die bessere Wahl gewesen. Im Nachhinein ist man halt immer schlauer. ;)

Mit dem GT212 geht NV ja all die Probleme des GT200 an: Diesize, Rechenleistung, PCB-Komplexität. Verbesserungen in diesen drei Bereichen werden zu einer wesentlich besseren Konkurrenzfähigkeit führen.

P.S.: Ein G92b mit 512-Bit-SI und 32 ROPs wäre ungefähr 330 mm² groß. Demgegenüber steht ein GT200b mit 470 mm², der momentan in Form der GTX 285 rund 20-25% schneller ist als der fiktive G92b mit 512-Bit-SI. D.h. in Punkto Chipfläche vs. Rechenleistung her wäre der gepimpte G92b um 16% überlegen. Auf PCB-Seite würde man nix mit dem gepimpten G92b sparen. Alles in allem wäre die Ersparnis mit dem gepimpten G92b also gar nicht so groß und man könnte gewisse Vorteile auch nicht anbieten, z.B. das verbesserte Powermanagement (idle-Verbrauch!) und die Double-Precision-Recheneinheiten.
Der GT212 wird ca. 290 mm² groß sein und immerhin 60% (oder mehr) schneller als ein G92b mit 512-Bit-SI. Die PCB-Komplexität für den GT212 wird auch geringer sein als für einen G92b mit 512-Bit-SI.

r@h
2009-01-25, 19:48:26
kann gar nicht sein da sie mindestens den gleichen speichertakt haben. ich hoffe du hast nicht oc gegen non-oc verglichen.
Ich habe sogar beides verglichen...
Meine 8800GT hat OCte 1GHz aqm Speicher, die 9800GTX+ default nur 900MHz.
Aber OCt brachte die 9800GTX+ nicht wirklich mehr (als die 8800GT@700MHz)...
...und das obwohl die Rohleistung der GPU ggü. der OCten 8800GT hätte 20% mehr sein müssen.

Der G92 'stirbt' am Speicherinterface.

Mehr Takt und auch mehr Shader samt mehr Speicher bringen rein gar nichts, wenn der Speichertakt und auch die Breite des Speicherbusses identisch bleiben. Bei entsprechend hoher Auflösung natürlich... bei mir 1920x1200 'dank' 24" MVA.

Etwas mehr Spannung und eine 9800 GTX+ sieht 2.400 MHz Shadertakt – und hat damit grob mehr FLÖPPER als eine GTX 260-216.
Thats it!
Hätte der G92 nun ein 512Bit Speicherinterface, dann "tschau G200"!

Razor

pest
2009-01-25, 20:01:17
Aber OCt brachte die 9800GTX+ nicht wirklich mehr (als die 8800GT@700MHz)

ne 9800GTX+ hat default schon 738Mhz Coretakt, und ne 9800GTX+ mit 900Mhz Speicher? was war das für ein Ding :|
selbst wenn ich meine 8800GT mit hochgezüchteten vollen G92ern vergleiche hinkt sie bei gleichem Takt, immer ca. 10-15% hinterher, auf die Rechenpower bezogen.

Das der G92 mit GDDR5 oder 512-Bit neue Sphären erklimmen würde, ist ja nix Neues, oder?

Armaq
2009-01-25, 21:07:38
Das ist ja die Frage. Spasstiger hat dafür mal echte Anhaltspunkte gegeben. Fraglich ob es wirklich "so einfach" ist.

r@h
2009-01-25, 21:14:02
ne 9800GTX+ hat default schon 738Mhz Coretakt, und ne 9800GTX+ mit 900Mhz Speicher? was war das für ein Ding :|
selbst wenn ich meine 8800GT mit hochgezüchteten vollen G92ern vergleiche hinkt sie bei gleichem Takt, immer ca. 10-15% hinterher, auf die Rechenpower bezogen.
Kann sie gar nicht... schließlich ist sie ja ein G92.
Aber klar... 128 statt 112 Shader und 748MHz statt 600MHz Takt.

Meine 8800GT taktet aber (und das ist im Bios fest eingestellt) mit 700MHz, ergo:
748x128 vs. 700x112 = +22%

Aber diese +22% wurden faktisch NIRGENDWO erreicht, weil bei 1920x1200 (und AA) eigentlich immer der Speicher (bzw. dessen Anbindung) limitiert. Nimmt man den Speicher als limitierenden Faktor raus, sollten die +22% erreicht werden können... viel schlimmer noch: die zusätzlichen 100% Speicher (defakto 1GB vs. 512MB) brachten quasi nix.

Um Deine eingängige Frage zu beantworten: ALLE 9800GTX+ mit 1GB Speicher haben im Auslieferungszustand 900MHz, nicht 1100MHz, wie eigentlich überalll angegeben. Ist ja auch nicht verwunderlich, da ja 'billiger' 1ns Speicher verbaut wird (mit 1000MHz spezifiziert), nicht 0,8ns Speicher, der dann bis zu 1250MHz spezifiziert wäre.

Das der G92 mit GDDR5 oder 512-Bit neue Sphären erklimmen würde, ist ja nix Neues, oder?
Es sollte vielleicht nur nochmal für diejenigen in Erinnerung gerufen werden, die der Meinung sind, dass der GT200 tatsächlich 'mehr' ist, als ein G92... (was in unwichtigen Teilaspekten sogar bedingt der Fall ist).

Ich persönlich würde mir sofort eine GTX260/216 kaufen, wenn diese flüsterleise gekühlt wird, bzw. werden kann... so, wie es eben derzeit bei meiner 8800GT der Fall ist. Aber keinesfalls würde ich mir einen kochenden Dröhnemann in den Rechner holen, wie derzeit ALLE GTX'en eingestuft werden müssen... und glaube mir, ich hatte sie alle schon mal im Rechner.

Evtl. wird ja die neue GTX260/216 von Palit was.

Das ist ja die Frage. Spasstiger hat dafür mal echte Anhaltspunkte gegeben. Fraglich ob es wirklich "so einfach" ist.
Dem ist sogar definitiv so!
Allerdings könnten sie dann Ihre 'tollen' GTX'en einstampfen... was wirtschaftlicher Unfug wäre.

Bin mal gespannt, ob es nicht doch noch 'echte' G92 mit breitem SI geben wird.
Genau genommen sind die GT200 ja nix anderes... ;)

Razor

Spasstiger
2009-01-25, 21:16:36
Bin mal gespannt, ob es nicht doch noch 'echte' G92 mit breitem SI geben wird.
Nein, denn der GT212 kommt in einem halben Jahr. Und der GT212 ist einem G92 @ 512-Bit-SI in allen Punkten überlegen.
Leistung, Flächenbedarf, PCB-Kosten.

pest
2009-01-25, 21:18:58
Aber klar... 128 statt 112 Shader und 748MHz statt 600MHz Takt.


738Mhz

und zusätzlich fehlen der noch 8 TMUs


Meine 8800GT taktet aber (und das ist im Bios fest eingestellt) mit 700MHz, ergo:
748x128 vs. 700x112 = +22%


das kann man nicht linear hochrechnen


Um Deine eingängige Frage zu beantworten: ALLE 9800GTX+ mit 1GB Speicher haben im Auslieferungszustand 900MHz, nicht 1100MHz, wie eigentlich überalll angegeben.


1000Mhz

AnarchX
2009-01-25, 21:23:33
Nein, denn der GT212 kommt in einem halben Jahr. Und der GT212 ist einem G92 @ 512-Bit-SI in allen Punkten überlegen.
Leistung, Flächenbedarf, PCB-Kosten.
Zumal ein G92@512-Bit imo vollig indiskutabel zu jeder Zeit gewesen wäre.

Ein großes G92-Mysterium neben den simulierten 2.4GHz SD, die sich NV noch Anfang 2007 erhoffte, als ihnen noch nicht bewusst war wie schlecht 65nm laufen würde, sind ja auch noch Gerüchte über den Einkauf von 1.5GHz GDDR4 und deren Verbleib.:D

Armaq
2009-01-25, 21:35:31
Trotzdessen ist der G92 eigentlich der Winnerchip in 2008, wenn man Nvidia betrachtet. Sein Potential konnte er nur nicht zeigen, weil er ansonsten die eigene Entwicklung zerstampft hätte. Schade.

reunion
2009-01-25, 21:40:04
Trotzdessen ist der G92 eigentlich der Winnerchip in 2008, wenn man Nvidia betrachtet. Sein Potential konnte er nur nicht zeigen, weil er ansonsten die eigene Entwicklung zerstampft hätte. Schade.

Was ich bezweifeln mag. Gerade GT200 zeigt, dass die Architektur nicht sonderlich von höherer Bandbreite profitiert. Dargo hatte sogar mal Tests gemacht, welche zeigten, dass G92 kaum an der Bandbreite hing. Höchstens die ROP-Anzahl ist zu gering.

dargo
2009-01-25, 21:48:16
Dargo hatte sogar mal Tests gemacht, welche zeigten, dass G92 kaum an der Bandbreite hing. Höchstens die ROP-Anzahl ist vielleicht etwas gering.
Bitte nicht falsch verstehen. Ich sagte nur, dass ein G92 was die Speicherbandbreite angeht ausgeglichen war. Das soll nicht heißen, dass mehr Speicherbandbreite dem G92 nichts mehr bringt. Das Verhältnis lag bei ungefähr 1:0,5.
Die Tests wurden übrigens mit einer G8800GTS durchgeführt. Das gleiche kann aber Armaq mit seiner G9800GTX+ testen.

y33H@
2009-01-25, 21:48:50
Die ROPs alleine sind es nicht, die Bandbreite auch. Eine Ultra herrscht oft genug und die GTX+ sieht nur die Rücklichter. Gut, in vielen Fällen geht der auch der Speicher aus, das ist mit das größte Problem.

cYa

TheDUDE
2009-01-25, 21:50:00
Ich denke, daß NV den G92b weiterverwendet hätte und dann gleich den G(T)300 gebracht hätte, wenn es so einfach wäre. Auch daß NV das "Problem" mit den Taktraten beim G200 nicht erkannt haben soll glaube ich kaum.-NV wird das vorher ausgiebig getestet haben. Der G200 ist v.a. wegen seiner "optimierung" für wissenschaftliche Berechnungen/CUDA so riesig/komplex. Aber natl. hat er auch ettliche kleinere und größere Verbesserungen gegenüber dem G92 erfahren. Das der G92 ein Top-Produkt ist, sieht man ja daran, daß er sich noch sehr gut am Markt hält und von NV weiterverwendet wird.Von der Rechenleistung kann er aber ganz bestimmt nicht mit einem G200 mithalten.Sprüche wie "Ciao G200 wenn G92 ein 512Bit SI hätte" sind Blödsinn!

pest
2009-01-25, 21:54:25
dass G92 kaum an der Bandbreite hing.

das stimmt so nicht

reunion
2009-01-25, 21:57:03
Bitte nicht falsch verstehen. Ich sagte nur, dass ein G92 was die Speicherbandbreite angeht ausgeglichen war. Das soll nicht heißen, dass mehr Speicherbandbreite dem G92 nichts mehr bringt. Das Verhältnis lag bei ungefähr 1:0,5.
Die Tests wurden übrigens mit einer G8800GTS durchgeführt. Das gleiche kann aber Armaq mit seiner G9800GTX+ testen.

Das höhere Bandbreite immer noch was bringt sollte klar sein. Von Bandbreitenlimitierung kann bei einem Skalierungsverhältnis von 2:1 aber kaum die Rede sein. Höherer Chiptakt bringt immer noch deutlich mehr.

pest
2009-01-25, 22:03:01
Höherer Chiptakt bringt immer noch deutlich mehr.

warum so vereinfachend :rolleyes:
es kommt erstens auf die Anwendung an und Zweitens auf den bereits bestehenden Chiptakt. Es ist auch nicht das Skalierungsverhältnis allein zu betrachten, sondern alle Skalierungsverhältnisse zueinander. Und da hat sich zumindest bei meinen Tests eher eine Bandbreitenlimitierung gezeigt.

aths
2009-01-25, 22:05:48
die 9800gtx+ 1gib von nem verwandten geht richtig gut, auch in höheren auflösungen mit AA, leider wird ja nur immer die 512mib version getestet. beachten sollte man auch das die 1gib variante gerade beim speicher niedriger getaktet ist als die 512er (1100 vs 950).

mit 512bit speicherinterface wäre die 260 wirklich gefährdet.

mfgEs gibt auch Versionen mit 1000 MHz RAM, und Versionen mit 900 MHz RAM. Die 9800 GTX leidet nicht an zu knapper Bandbreite. Mit einem 512-Bit-SI wäre die nicht an der GTX 260 dran, da die 260 mehr Rechenpower hat.

Die ROPs alleine sind es nicht, die Bandbreite auch. Eine Ultra herrscht oft genug und die GTX+ sieht nur die Rücklichter. Gut, in vielen Fällen geht der auch der Speicher aus, das ist mit das größte Problem.Die Ultra regelt nur bei 8xQ und 16xQ AA oder in Auflösungen wo der GTX-512 der Speicher ausgeht. Sonst ist die 9800 GTX+ dank Textur- und Shaderleistung vorne. Das gilt zumindest bei akutellen Spielen.

dargo
2009-01-25, 22:13:55
Das höhere Bandbreite immer noch was bringt sollte klar sein. Von Bandbreitenlimitierung kann bei einem Skalierungsverhältnis von 2:1 aber kaum die Rede sein. Höherer Chiptakt bringt immer noch deutlich mehr.
Verdammt, ich komme mit den Zahlen schon ganz durcheinander. :ugly:
Habe die PN noch gefunden:

391/972/583 (GPU/SHADER/RAM)

1280x1024 1AA/16AF

TimeDemo Run 1 Finished.
Play Time: 81.96s, Average FPS: 24.40
Min FPS: 18.79 at frame 1961, Max FPS: 29.56 at frame 993
Average Tri/Sec: 24291032, Tri/Frame: 995460
Recorded/Played Tris ratio: 0.92


1280x1024 4AA/16AF (VRAM Usage 470MB)

!TimeDemo Run 1 Finished.
Play Time: 111.65s, Average FPS: 17.91
Min FPS: 13.26 at frame 141, Max FPS: 22.06 at frame 993
Average Tri/Sec: 18415902, Tri/Frame: 1028109
Recorded/Played Tris ratio: 0.89


391/972/879 (GPU/SHADER/RAM)

1280x1024 1AA/16AF

!TimeDemo Run 1 Finished.
Play Time: 74.74s, Average FPS: 26.76
Min FPS: 17.42 at frame 143, Max FPS: 33.19 at frame 86
Average Tri/Sec: 26635488, Tri/Frame: 995375
Recorded/Played Tris ratio: 0.92

1280x1024 4AA/16AF

!TimeDemo Run 1 Finished.
Play Time: 97.28s, Average FPS: 20.56
Min FPS: 15.39 at frame 139, Max FPS: 25.07 at frame 1007
Average Tri/Sec: 21146548, Tri/Frame: 1028582
Recorded/Played Tris ratio: 0.89
Das Verhältnis liegt sogar deutlich unter 1:0,5. Die 1:0,5 bezogen sich auf den Shader- und GPU-Takt. Sprich, erhöht man den GPU-Takt alleine um 50% steigen die Frames um ca. 25%. Das gleiche passiert wenn man nur den Shader-Takt erhöht. Es ging um Crysis.

pest
2009-01-25, 22:16:41
der Test sagt nix aus

dargo
2009-01-25, 22:22:12
der Test sagt nix aus
Dein inhaltsloser Kommentar ebenso.

pest
2009-01-25, 22:23:46
Dein inhaltsloser Kommentar ebenso.

Es ist auch nicht das Skalierungsverhältnis allein zu betrachten, sondern alle Skalierungsverhältnisse zueinander.

weiterhin ist es ziemlich sinnlos mit 400Mhz GPU zu benchen da dann immer überproportional über den GPU-Takt skaliert

man müsste bei default anfangen und dann hochtakten, damit sich die Architektur nicht selbst ein Bein stellt

dargo
2009-01-25, 22:28:05
Alle Taktraten sind prozentual gleich reduziert worden.

Armaq
2009-01-25, 22:30:22
Übertakten ist nicht drin. 2000 Mhz Shader ist das Limit. Ich komme da sofort an einen Wall.

pest
2009-01-25, 22:30:47
Alle Taktraten sind prozentual gleich reduziert worden.

darum gehts doch garnicht. oder willst du mir jetzt weiß machen ein G92 skaliert von 300 auf 600Mhz genauso wie von 600 auf 1200?

genauso wie du mein zitat völlig außer acht gelassen hast.

Coda
2009-01-25, 22:32:08
darum gehts doch garnicht. oder willst du mir jetzt weiß machen ein G92 skaliert von 300 auf 600Mhz genauso wie von 600 auf 1200?
Natürlich ist das so. Wenn man sämtliche Taktraten inkl. Speicher linear hochdreht ohne die Timings zu ändern, dann steigt auch die Leistung linear.

Armaq
2009-01-25, 22:33:13
darum gehts doch garnicht. oder willst du mir jetzt weiß machen ein G92 skaliert von 300 auf 600Mhz genauso wie von 600 auf 1200?

genauso wie du mein zitat völlig außer acht gelassen hast.
Wie sonst? Also du machst deinem Namen Ehre ...

dargo
2009-01-25, 22:33:34
darum gehts doch garnicht. oder willst du mir jetzt weiß machen ein G92 skaliert von 300 auf 600Mhz genauso wie von 600 auf 1200?

Natürlich, was denn sonst?

Diese Bereiche sind alle von der Taktrate abhängig:
- Pixelfüllrate
- Texelfüllrate
- Speicherbandbreite
- arithmetische Leistung

Was skaliert nicht mit dem Takt 1:1 mit? Dass sämtliche Timings immer gleich bleiben sollten dürfte selbstverständlich sein.

pest
2009-01-25, 22:54:54
Natürlich ist das so. Wenn man sämtliche Taktraten inkl. Speicher linear hochdreht ohne die Timings zu ändern, dann steigt auch die Leistung linear.

das ist aber nur so, wenn das Skalierungsverhältnis eines Taktbereiches konstant über den gesammten Bereich ist, was ich stark bezweifle
Deine Annahme würde ja bedeuten das ein Chip perfekt ausgeglichen ist.

Ich finde gerade leider den Link nicht, wo 20% mehr Takt in 25% mehr Leistung resultierten...

Also du machst deinem Namen Ehre ...

ich tue wenigstens nur so dumm

Coda
2009-01-25, 22:56:02
das ist aber nur so, wenn das Skalierungsverhältnis eines Taktbereiches konstant über den gesammten Bereich ist, was ich stark bezweifle
Deine Annahme würde ja bedeuten das ein Chip perfekt ausgeglichen ist.
Es ändert sich nichts an den Verhältnissen. Die ganze Grafikkarte taktet nur schneller ohne dass jemals etwas anders schalten würde. Es wird nur entsprechend schneller fertig.

Ich finde gerade leider den Link nicht, wo 20% mehr Takt in 25% mehr Leistung resultierten...
Das geht nicht, außer man hat irgendwelche komischen Feedbacks vom restlichen System. Ein System kann nicht überproportional skalieren.

dargo
2009-01-25, 23:04:53
Das geht nicht, außer man hat irgendwelche komischen Feedbacks vom restlichen System. Ein System kann nicht überproportional skalieren.
Bei Grafikkarten fällt mir jetzt auch nichts ein warum es zu einer Skalierung >1:1 kommen sollte (wobei sich das mit PhysX ändern dürfte), bei CPUs ist das allerdings möglich. :)

Coda
2009-01-25, 23:07:57
Auch bei CPUs ist das nicht möglich.

dargo
2009-01-25, 23:13:06
Auch bei CPUs ist das nicht möglich.
Doch, habe es auch oft feststellen dürfen. :)
Madkiller hat das ziemlich gut erklärt. Das Zauberwort heißt hier "Grundlast":
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6975672&postcount=83

Deswegen auch mein Hinweis zu PhysX. Diese müsste auch immer die selbe Grundlast erzeugen.

Coda
2009-01-25, 23:14:45
Ja, okay. Dann ist das System für den Benchmark aber nicht mehr isoliert. Das hab ich natürlich nicht berücksichtigt.

Es ging mir nur darum, dass eine synchrone Schaltung niemals überproportional zum Takt skalieren kann. Das ist einfach unmöglich.

pest
2009-01-25, 23:28:49
Es ändert sich nichts an den Verhältnissen. Die ganze Grafikkarte taktet nur schneller ohne dass jemals etwas anders schalten würde. Es wird nur entsprechend schneller fertig.


wie erklärst du dir dann das?

Crysis GPU-Bench, 8800GT
300/750/450: 19,685 fps
600/1500/900: 37,965 fps +100% (Ratefaktor 0.928)
690/1725/1035: 40,725 fps +15% (Ratefaktor 0.485)



Ein System kann nicht überproportional skalieren.

kommt auf das System an.

Coda
2009-01-25, 23:32:10
Crysis GPU-Bench, 8800GT
300/750/450: 19,685 fps
600/1500/900: 37,965 fps +100% (Ratefaktor 0.928)
690/1725/1035: 40,725 fps +15% (Ratefaktor 0.485)
Was skaliert da überproportional?

Das es irgendwann ein CPU-Limit gibt ist mir schon klar, darum ging's hier aber nicht.

kommt auf das System an.
Nein tut es nicht.

reunion
2009-01-25, 23:32:29
wie erklärst du dir dann das?

Crysis GPU-Bench, 8800GT
300/750/450: 19,685 fps
600/1500/900: 37,965 fps +100% (Ratefaktor 0.928)
690/1725/1035: 40,725 fps +15% (Ratefaktor 0.485)


Messungenauigkeit?
Das skaliert ja gar nicht überproportional.


kommt auf das System an.

Ne, wie denn? Eine Schaltung skaliert linear mit dem Takt wenn sonst nichts limitiert, mehr ist nicht machbar.

pest
2009-01-25, 23:44:55
Was skaliert da überproportional?


da soll garnichts überproportional skalieren.


Das es irgendwann ein CPU-Limit gibt ist mir schon klar, darum ging's hier aber nicht.


ich kann den Bench gerne nochmal mit 4Ghz und den gleichen GPU-Takten machen, jetzt kann ich nur hoffen, das die Ratefaktoren ähnlich sind :D


Nein tut es nicht.

ich versuche mir gerade was auszudenken, mit voneinander abhängigen teilsystemen....denke noch :wink:

Coda
2009-01-25, 23:53:59
da soll garnichts überproportional skalieren.
Was soll das dann zeigen?

pest
2009-01-25, 23:57:44
Was soll das dann zeigen?

der letzte Wert sollte um die ~43fps sein, wenn die Skalierungsfaktoren gleich bleiben.

dargo
2009-01-25, 23:58:42
der letzte Wert sollte um die ~42fps sein, wenn die Skalierungsfaktoren gleich bleiben.
Da limitiert einfach schon deine CPU. :)

Coda
2009-01-25, 23:59:15
Ich habe gesagt, dass ein geschlossenes System linear skaliert mit dem Takt. Wenn du mir so kommen willst musst du auch die CPU, den RAM, den PCIe und sämtliche anderen Takte im System um die gleiche Weise anheben.

pest
2009-01-26, 00:01:31
Ich habe gesagt, dass ein geschlossenes System linear skaliert mit dem Takt.

gemeint :wink:

Spasstiger
2009-01-26, 00:08:17
ich versuche mir gerade was auszudenken, mit voneinander abhängigen teilsystemen....denke noch :wink:
Da brauchst du dir nix ausdenken. Wenn du alle beteiligten Teilsysteme im gleichen Maße höher taktest und wenn die generierte Last nicht limitiert wird (z.B. Frameratenlimit), dann hast du eine 1:1-Skalierung.

Doch, habe es auch oft feststellen dürfen. :)
Madkiller hat das ziemlich gut erklärt. Das Zauberwort heißt hier "Grundlast":
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6975672&postcount=83
Da hat man halt zwei verschiedene Arten von Lasten. Eine Last, die auf ein bestimmtes Maß pro Zeiteinheit limitiert ist (z.B. 30 Objektpositionen pro Sekunde) und eine unlimitierte Last (z.B. das Rendering, wenn kein VSync und kein Framelimiter an ist).

Es gibt auch Versionen mit 1000 MHz RAM, und Versionen mit 900 MHz RAM. Die 9800 GTX leidet nicht an zu knapper Bandbreite. Mit einem 512-Bit-SI wäre die nicht an der GTX 260 dran, da die 260 mehr Rechenpower hat.
Das Plus an Rechenpower der GTX 260 ist wohl vernachlässigbar oder kann der GT200 das zusätzliche MUL um soviel effizienter nutzen?
Die Peak-Rechenleistung der 9800 GTX+ beträgt 705 GFlops, die GTX 260 kommt auf 715 GFlops (Double-Precision bleibt außen vor, ist fürs Rendering irrelevant). Ich betrachte so einen minimalen Unterschied als Quasi-Gleichstand.
Bei der Texelfüllrate ist die 9800 GTX+ deutlich überlegen (47,2 GTexel/s vs. 36,8 GTexel/s) und mit 8 ROP-SI-Partitionen wäre die 9800 GTX+ auch bei der Pixel-/z-/AA-Füllrate und der Speicherbandbreite deutlich überlegen (23,6 GPixel/s und 128 GB/s vs. 16,1 GPixel/s und 112 GB/s). Selbst bei der Speichermenge hätte die 9800 GTX+ 512 Bit die Nase vorn, wenn man 1 GiB VRAM verbaut.
Ich sehe da keinen plausiblen Grund, warum die 9800 GTX+ auch mit 1 GiB VRAM und 512 Bit SI weiterhin hinter der GTX 260 liegen sollte. Meine Abschätzung ergibt einen Vorteil von 16% einer 9800 GTX+ mit 1 GiB VRAM @ 1000 MHz gegenüber einer GTX 260.

pest
2009-01-26, 00:18:44
Da limitiert einfach schon deine CPU. :)

das scheint in diesem Fall wirklich so zu sein.

und wenn die generierte Last nicht limitiert wird (z.B. Frameratenlimit), dann hast du eine 1:1-Skalierung.


Genau an sowas habe ich gedacht. So eine Situation kann doch auch in einer GPU auftreten, mit PhysX Komponenten z.B.

Spasstiger
2009-01-26, 00:30:54
Genau an sowas habe ich gedacht. So eine Situation kann doch auch in einer GPU auftreten, mit PhysX Komponenten z.B.
Aber du kannst doch nicht behaupten, dass eine GPU nicht von höheren Taktraten profitiert, nur weil du von einer limitierten Last ausgehst. Das ist irgendwie unwissenschaftlich.

pest
2009-01-26, 00:37:07
Aber du kannst doch nicht behaupten, dass eine GPU nicht von höheren Taktraten profitiert, nur weil du von einer limitierten Last ausgehst. Das ist irgendwie unwissenschaftlich.

nur weil ich keinen absolutheitsanspruch erhebe bin ich unwissenschaftlich?
ich habe nur versucht eine situation zu konstruieren wo die allgemeine annahme nicht mehr zutrifft. immer und nie sind worte denen ich gerne aus dem weg gehe ;)

Sonyfreak
2009-01-26, 00:41:20
Das Plus an Rechenpower der GTX 260 ist wohl vernachlässigbar oder kann der GT200 das zusätzliche MUL um soviel effizienter nutzen?Jede einzelne ALU kann auf dem G80 pro Takt ein MADD (Multiplikation sowie Addition) sowie ein MUL (Multiplikation) berechnen. Das hat sich auf dem GT200 nicht geändert, jedoch konnte man die Auslastung massiv steigern. Während das MADD auf dem G80 komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Die MUL-Leistung für das General Shading beträgt auf dem G80 geringe 15 Prozent, was sich nur in seltenen Fällen bemerkbar macht.
Der GT200 kann dagegen das MUL in etwa zu 93 Prozent bis 94 Prozent für General Shading benutzen, weswegen man die theoretischen GFLOPs-Angaben zwischen den beiden Architekturen nur bedingt miteinander vergleichen kann. Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/3/#abschnitt_technik_im_detail_part_1)

Keine Ahnung was das bei normalen Anwendungen heißt, aber diese und die ganzen anderen Verbesserungen im Design müssten schon merkbare Auswirkungen im Vergleich zum G92 haben denke ich mal.

mfg.

Sonyfreak

Coda
2009-01-26, 01:01:08
nur weil ich keinen absolutheitsanspruch erhebe bin ich unwissenschaftlich?
ich habe nur versucht eine situation zu konstruieren wo die allgemeine annahme nicht mehr zutrifft. immer und nie sind worte denen ich gerne aus dem weg gehe ;)
Die allgemeine Annahme ist sicher nicht, dass es kein CPU-Limit gibt.

Der_Korken
2009-01-26, 01:25:01
Jede einzelne ALU kann auf dem G80 pro Takt ein MADD (Multiplikation sowie Addition) sowie ein MUL (Multiplikation) berechnen. Das hat sich auf dem GT200 nicht geändert, jedoch konnte man die Auslastung massiv steigern. Während das MADD auf dem G80 komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Die MUL-Leistung für das General Shading beträgt auf dem G80 geringe 15 Prozent, was sich nur in seltenen Fällen bemerkbar macht.
Der GT200 kann dagegen das MUL in etwa zu 93 Prozent bis 94 Prozent für General Shading benutzen, weswegen man die theoretischen GFLOPs-Angaben zwischen den beiden Architekturen nur bedingt miteinander vergleichen kann. Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/3/#abschnitt_technik_im_detail_part_1)

Keine Ahnung was das bei normalen Anwendungen heißt, aber diese und die ganzen anderen Verbesserungen im Design müssten schon merkbare Auswirkungen im Vergleich zum G92 haben denke ich mal.

mfg.

Sonyfreak

Ich würde vermuten, dass das zusätzliche MUL eher wenig bringt. Es wird ja gesagt, dass das MUL eigentlich für andere Aufgaben zuständig ist und wenn man dem G80 schon so viel MUL-Leistung mitgegeben hat, dann wird sie wohl auch benötigt.

@512bit-SI: Wäre es in der Praxis denn machbar einem G92 512bit-SI zu geben? Der Die wäre doch viel zu klein dafür. Und für GDDR5@256bit hätte man den Speichercontroller nochmal stark überarbeiten müssen. Trotzdem erstaunlich, was man theoretisch noch aus dem alten G92 (G80) hätte rausholen können und umso erschreckender, wie wenig aus dem GT200 rausgeholt wurde bei knapp doppeltem Transistor-Budget.

deekey777
2009-01-26, 01:31:11
Jede einzelne ALU kann auf dem G80 pro Takt ein MADD (Multiplikation sowie Addition) sowie ein MUL (Multiplikation) berechnen. Das hat sich auf dem GT200 nicht geändert, jedoch konnte man die Auslastung massiv steigern. Während das MADD auf dem G80 komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Die MUL-Leistung für das General Shading beträgt auf dem G80 geringe 15 Prozent, was sich nur in seltenen Fällen bemerkbar macht.
Der GT200 kann dagegen das MUL in etwa zu 93 Prozent bis 94 Prozent für General Shading benutzen, weswegen man die theoretischen GFLOPs-Angaben zwischen den beiden Architekturen nur bedingt miteinander vergleichen kann. Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/3/#abschnitt_technik_im_detail_part_1)



Keine Ahnung was das bei normalen Anwendungen heißt, aber diese und die ganzen anderen Verbesserungen im Design müssten schon merkbare Auswirkungen im Vergleich zum G92 haben denke ich mal.

mfg.

Sonyfreak

http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F050%2FG005004%2F20080627060%2F&sl=ja&tl=en&hl=en&ie=UTF-8

Armaq
2009-01-26, 09:28:11
Ich würde vermuten, dass das zusätzliche MUL eher wenig bringt. Es wird ja gesagt, dass das MUL eigentlich für andere Aufgaben zuständig ist und wenn man dem G80 schon so viel MUL-Leistung mitgegeben hat, dann wird sie wohl auch benötigt.

@512bit-SI: Wäre es in der Praxis denn machbar einem G92 512bit-SI zu geben? Der Die wäre doch viel zu klein dafür. Und für GDDR5@256bit hätte man den Speichercontroller nochmal stark überarbeiten müssen. Trotzdem erstaunlich, was man theoretisch noch aus dem alten G92 (G80) hätte rausholen können und umso erschreckender, wie wenig aus dem GT200 rausgeholt wurde bei knapp doppeltem Transistor-Budget.
Meine Rede. Der G92 ist da irgendwie "besser" aufgestellt.
Weitergehend muss man sich die Frage stellen, worin NV die vielen Transistoren investiert hat. Ihre Überlegungen nachzuvollziehen wäre wirklich interessant, da Spasstiger ja hinreichend belegen konnte, dass ein aufgemotzter G92 ausreichte.

GPU-Computing muss von NV an irgendeiner Stelle als stark förderungswürdig befunden worden sein.

Edit: Aths, hattest du nicht auch eine 98+? Ausserdem verfügst du soweit ich mich erinnere über eine signifikant bessere CPU.

syronth
2009-01-26, 22:17:08
Das Plus an Rechenpower der GTX 260 ist wohl vernachlässigbar oder kann der GT200 das zusätzliche MUL um soviel effizienter nutzen?

Kann das einer mal näher erklären, vor allem den ersten Teil? Ich meine, sind hier die knapp 100 Shader, die der G200 immerhin mehr hat, nahezu nutzlos? Wird deren Leistung bereits von der höheren Taktfrequenz eines G92 nivelliert? Bei der 280 GTX sind es beinahe doppelt soviele, wobei mir schon klar ist, daß die Anzahl Shader ein eher "abstrakter" Wert sind.
Verweis auf einen anderen Thread würde mir schon langen, man möge mir verzeihen, dass ich mehr so ein Gelegenheitsmitleser bin und daher nicht voll im Bild.

Spasstiger
2009-01-26, 23:10:33
Ich meine, sind hier die knapp 100 Shader, die der G200 immerhin mehr hat, nahezu nutzlos? Wird deren Leistung bereits von der höheren Taktfrequenz eines G92 nivelliert?
Vergleiche halt mal.
GTX 260 = 192 Shadereinheiten (organisiert als 8 Cluster zur je 24 SPs) und 1242 MHz Shadertakt
9800 GTX+ = 128 Shadereinheiten (organisiert als 8 Cluster zur je 16 SPs) und 1836 MHz Shadertakt

Die GTX 280 mit ihren 240 Shadereinheiten hat natürlich eine deutlich höhere Shaderleistung als die 9800 GTX+ zu bieten und die GTX 285 legt da durch den höheren Shadertakt nochmal was drauf.

Übrigens: Wenn NV statt dem GT200 einen G92 mit 512-Bit-Speicherinterface gebracht hätte, hätte sich jeder gefragt, warum man nicht auch mehr Recheneinheiten verbaut hat, wo man doch eh schon auf teure PCB-Designs angewiesen ist. Man hätte dann ja nicht gewusst, dass eine breitere Architektur sich nicht mehr annähernd so gut takten lässt. Und man kann auch während der Entwicklung nur schwer abschätzen, welche Taktraten letzendlich tatsächlich möglich sind, weil die Fertigung ja auch kontinuierlich Verbesserungen erfährt. Prototypen laufen meistens mit deutlich niedrigeren Taktraten als das Endprodukt.

Coda
2009-01-26, 23:42:30
Ich vermute, dass die DP-ALUs die Taktung einschränken. Bei G200 lief wohl bei der Entwicklung einiges nicht so rund.

Haben wohl nach der Dominanz alles ein wenig zu locker genommen.

Spasstiger
2009-01-27, 00:19:40
Hier nochmal alle wichtigen Varianten im Überblick:

Grafikkarte | 9800 GTX+ | 9800 GTX+ | 9800 GTX+ 512 Bit | 9800 GTX+ GDDR5 | 8800 Ultra | GTX 260 | GTX 260-216 | GTX 280 | GTX 285 | GTX 290 (GT212)
| | | (fiktiv) | (fiktiv) | | | | | | (Spekulation)
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Speicher | 512 MiB GDDR3 | 1024 MiB GDDR3 | 1024 MiB GDDR3 | 1024 MiB GDDR5 | 768 MiB GDDR3 | 896 MiB GDDR3 | 896 MiB GDDR3 | 1024 MiB GDDR3 | 1024 MiB GDDR3 | 1024 MiB GDDR5
Datenrate | 2,2 Gbps | 2,0 Gbps | 2,0 Gbps | 3,6 Gbps | 2,16 Gbps | 1,998 Gbps | 1,998 Gbps | 2,214 Gbps | 2,484 Gbps | 5 Gbps
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Speicherbandbreite | 70,4 GB/s | 64,0 GB/s | 128,0 GB/s | 115,2 GB/s | 103,7 GB/s | 111,9 GB/s | 111,9 GB/s | 141,7 GB/s | 159,0 GB/s | 160 GB/s
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
arithmetische Leistung | 705 GFlops | 705 GFlops | 705 GFlops | 705 GFlops | 581 GFlops | 715 GFlops | 805 GFlops | 933 GFlops | 1063 GFlops | 1866 GFlops
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Texelfüllrate | 47,2 GTexel/s | 47,2 GTexel/s | 47,2 GTexel/s | 47,2 GTexel/s | 39,2 GTexel/s | 36,9 GTexel/s | 41,5 GTexel/s | 48,2 GTexel/s | 51,8 GTexel/s | 68,3 GTexel/s
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Pixelfüllrate | 11,8 GPixel/s | 11,8 GPixel/s | 23,6 GPixel/s | 11,8 GPixel/s | 14,7 GPixel/s | 16,1 GPixel/s | 16,1 GPixel/s | 19,3 GPixel/s | 20,7 GPixel/s | 22,8 GPixel/s
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Leistungsindex | 100% | 114% | 152% | 133% | 115% | 132% | 141% | 168% | 187% | 247%
(geschätzt) | | | | | | | | | |

/EDIT: 8800 Ultra und "GTX 290" hinzugefügt.

Ich vermute, dass die DP-ALUs die Taktung einschränken.
So etwas habe ich auch beim Cell-Prozessor gehört. Ein Komilitone, der sich mit einem Entwickler bei IBM unterhalten hat, meinte, dass Double-Precision-Einheiten für die SPEs des Cell entwickelt wurden, man sie aber zugunsten der Taktrate wegließ. Anscheinend hätte sich der kritische Pfad mit den DP-Einheiten deutlich vergrößert.

Armaq
2009-01-27, 00:36:35
Danke dafür Spasstiger.

Fraglich nur, ob man auch weiterhin den Pfad von bigger is better fährt. Laut diesem einen hier verlinkten, übrigens hoch interessanten Interview schätzt ATI das ja wohl so ein.

r@h
2009-01-27, 07:00:15
Die Bandbreite ergibt sich aus Takt und Speicherinterface.
Hoher Takt und schmales SI ist absolut identisch zu niedrigem Takt und breitem SI...

Insofern kann GDDR5 schon eine Menge ggü. GDDR3 bringen... wenn er denn nur hoch genug getaktet ist.

Aber klar, der doppelte Takt ist idR schwerer zu erreichen, als die doppelte breite eines SI, auch wenn letzteres wohl einen sehr hohen (und damit teutern) Integrationsaufwand bedeutet. Dass auch Latenzen mit hinein spielen, ist klar, aber alles was ich darüber gelesen und am eigenen Leib darüber erfahren habe, spricht eindeutig GEGEN einen sehr hohen Einfluß.

Letztlich ist also der Takt entscheidend, bzw. analog die breite des SI - nicht, bzw. kaum die Latenzen.

Razor

r@h
2009-01-27, 07:04:56
Hier nochmal alle wichtigen Varianten im Überblick:
/EDIT: 8800 Ultra und "GTX 290" hinzugefügt.
Wie kommst Du bloß darauf, dass eine 9800GTX+ mit 1GB ggü einer 9800GTX+ mit 512MB einen "Leistungsindex" von 114% (+14%) besitzt? Defakto ist des 1GB Teil 'dank' des lahmen Speichers sogar langsamer, als meine OC'te 8800GT (mit 512MB!)... obwohl die GPU der 9800GTX+ hoffnungslos besser sein dürfte.

Sorry, aber diese "Liste" kannst Du total vergessen, da sie offenbar nicht auf Fakten basiert.

Razor

r@h
2009-01-27, 07:20:00
Sorry for den "Triple-Post"...
Aber mit ist gerade noch etwas in Sinn gekommt...

"Tribut an Tesla" ist hier das "Zauberwort", wie hier ja schon gesagt wurde...
...und in diesem Zusammenhang aus dem Marketing die "Produktabgrenzung".

Es darf halt nicht sein, dass "alte" Produkte schneller sind, als "neue" Produkte. So hat man ganz simpel die Workstation-Entwicklung (Tesla via GT200) über die Consumer-Markt finanzieren wollen... was ja nicht wirklich gut geklappt hat. In welche Leistungregionen der G80 hätte vordringen können, wenn nicht dieser uminöse "Speicherbug" dazwischen gefunkt hätte, hat man ja gesehen. Deswegen musste der G92 entsprechend "kastriert" werden und trotzdem ist er zu nVidias "CashCow" geworden (Mainstream-Markt). Die Leistungsbilanz der GT200 ist allerdings erschreckend schlecht, da ganz offensichtlich eine extreme Kühlung der Tribut war, ein solches Chipmonster in den Griff zu bekommen.

Aber solange keine wirklich vergleichbaren Produkte den Markt erreichen ist das alles nur graue Theorie. Mich würde wirklich mal die "Leistungsfähigkeit" der GT200 interessieren, wenn diese ebenfalls auf ein 256Bit SI reduziert würden... ich denke, dass dann vielen ein Licht aufgehen würde.

Razor

AnarchX
2009-01-27, 08:02:36
Wie kommst Du bloß darauf, dass eine 9800GTX+ mit 1GB ggü einer 9800GTX+ mit 512MB einen "Leistungsindex" von 114% (+14%) besitzt? Defakto ist des 1GB Teil 'dank' des lahmen Speichers sogar langsamer, als meine OC'te 8800GT (mit 512MB!)... obwohl die GPU der 9800GTX+ hoffnungslos besser sein dürfte.

Sorry, aber diese "Liste" kannst Du total vergessen, da sie offenbar nicht auf Fakten basiert.

Das kann durchaus stimmen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7029984#post7029984+

Wenn sie langsamer als deine OC-88GT war, dann war die Karte offenbar defekt bzw. du hast einen Fehler bei der Installation oder bei den Tests gemacht. Zumal du beachten solltest, dass Spasstiger eine 1GHz 1GiB GTX+ betrachtet, die es durchaus am Markt gibt.

reunion
2009-01-27, 08:09:15
Naja, es hängt halt schlicht davon ab ob 512MB VRAM noch reichen oder nicht. Soetwas kann man schlecht anhand eines Leistungsindexes darstellen.

Danke dafür Spasstiger.

Fraglich nur, ob man auch weiterhin den Pfad von bigger is better fährt. Laut diesem einen hier verlinkten, übrigens hoch interessanten Interview schätzt ATI das ja wohl so ein.

Welches Interview?

Gast
2009-01-27, 10:12:21
Angenommen nVidia würde die GTX+ mit 2048 und einem 896_SI begstücken, was würde sich dann als Flaschenhals herausstellen?

Nur mal rein hypothetisch:)

MFG Carsten

=Floi=
2009-01-27, 10:23:32
warum hat dann nv keine weitere taktdomäne beim GT200 für die DP alus eingeführt?

edit
dann würden wohl die ROPs limitieren. Ihr vergesst, dass der GT200 auch 32 rops hat und der G92 nur 16

Gast
2009-01-27, 12:51:09
So ist es, wobei man sagen muss das es auch bei 32rops limitieren würde.

robbitop@work
2009-01-27, 13:00:58
Es limitieren wohl nicht vor allem die ROPs sondern eher das Tri-Setup. Das ist beim G94 gut bemessen. Aber offenbar reicht 1x tri/clk nicht mehr für größere Ausbaustufen aus, um nicht ab und an zum Bottleneck zu werden.
Die Z/Stencil Durchsätze der ROPs im G92/GT200 ist dermaßen hoch, dass eher die externe Bandbreite limitieren würde.

reunion
2009-01-27, 13:03:01
Die Durchsatzrate ist vielleicht hoch, die Effizienz aber wohl bescheiden. Anders ist es kaum erklärbar das AMD hier mit einem Bruchteil dessen Konkurrenzfähig sein kann.

Spasstiger
2009-01-27, 13:16:49
Wie kommst Du bloß darauf, dass eine 9800GTX+ mit 1GB ggü einer 9800GTX+ mit 512MB einen "Leistungsindex" von 114% (+14%) besitzt? Defakto ist des 1GB Teil 'dank' des lahmen Speichers sogar langsamer, als meine OC'te 8800GT (mit 512MB!)... obwohl die GPU der 9800GTX+ hoffnungslos besser sein dürfte.
Du müsstest eine 8800 GT schon stark übertakten, damit sie gleichauf mit einer 9800 GTX+ ist. Selbst die langsamste 9800 GTX+ mit 1 GiB VRAM hat noch die Speicherbandbreite einer 8800 GT, aber immer noch einen deutlich höheren Chip- und Shadertakt und mehr Textur- und Shadereinheiten. Und OC vs. Non-OC ist generell unfair.
Außerdem: Wenn eine HD 4850 und eine HD 4870 teilweise deutlich von 1 GiB VRAM profitieren, warum sollte es die 9800 GTX+ dann nicht tun?

Meine Werte gehen übrigens von 700 MiB VRAM-Last aus (siehe eine Seite vorher und in anderen Threads). Für den Anteil, der über der VRAM-Menge der Grafikkarte liegt, wird die externe Bandbreite (PCIe) mit eingerechnet.
Den Einfluss der Speicherbandbreite auf Gesamtergebniss gewichte ich auch abhängig von der VRAM-Last, weil natürlich die Bandbreite anteilsmäßig stärker beansprucht wird, wenn ein und dieselbe Grafikkarte mehr Daten verarbeiten soll. Die 9800 GTX+ 1024 MiB hat in diesem Punkt also naturgemäß erstmal einen Nachteil.

TheDUDE
2009-01-27, 13:25:18
Nochmal: Ich denke, daß NV den G92b weiterverwendet hätte und dann gleich den G(T)300 gebracht hätte, wenn es so einfach wäre. Auch daß NV das "Problem" mit den Taktraten beim G200 nicht erkannt haben soll glaube ich kaum.-NV wird das vorher ausgiebig getestet haben. Der G200 ist v.a. wegen seiner "optimierung" für wissenschaftliche Berechnungen/CUDA so riesig/komplex. Aber natl. hat er auch ettliche kleinere und größere Verbesserungen gegenüber dem G92 erfahren. Das der G92 ein Top-Produkt ist, sieht man ja daran, daß er sich noch sehr gut am Markt hält und von NV weiterverwendet wird.Von der Rechenleistung kann er aber ganz bestimmt nicht mit einem G200 mithalten.Sprüche wie "Ciao G200 wenn G92 ein 512Bit SI hätte" sind Blödsinn!

AnarchX
2009-01-27, 13:29:51
Es limitieren wohl nicht vor allem die ROPs sondern eher das Tri-Setup. Das ist beim G94 gut bemessen. Aber offenbar reicht 1x tri/clk nicht mehr für größere Ausbaustufen aus, um nicht ab und an zum Bottleneck zu werden.

AFAIK sind es bei G200 immernoch nur 1/2 tri/clk:
http://www.nvidia.com/object/IO_11761.html

Spasstiger
2009-01-27, 13:32:41
Nochmal: Ich denke, daß NV den G92b weiterverwendet hätte und dann gleich den G(T)300 gebracht hätte, wenn es so einfach wäre.
Bis zum GT300 behauptet hier aber niemand. Es hätte rein theoretisch zur Überbrückung bis zum GT212 gereicht.
Außerdem ist die Entscheidung für ein 512-Bit-SI nie einfach. Ein G92 mit 512-Bit-SI hätte weit mehr Kritik erdulden müssen als der GT200, viele hätten den Chip als sinnlos angesehen, weil die Rechenleistung nicht gesteigert worden wäre. Der GT200b ist im Vollausbau natürlich schneller als ein G92b mit 512-Bit-SI, da belegen meine Zahlen ganz eindeutig.

robbitop@work
2009-01-27, 13:47:48
Die Durchsatzrate ist vielleicht hoch, die Effizienz aber wohl bescheiden. Anders ist es kaum erklärbar das AMD hier mit einem Bruchteil dessen Konkurrenzfähig sein kann.
RV770 schafft 1x Tri/clk und GT200 schafft 0,5 Tri/Clk.

reunion
2009-01-27, 14:02:25
Ich sprach von den ROPs.

Coda
2009-01-27, 14:13:02
Die Durchsatzrate ist vielleicht hoch, die Effizienz aber wohl bescheiden. Anders ist es kaum erklärbar das AMD hier mit einem Bruchteil dessen Konkurrenzfähig sein kann.
Es limitieren innerhalbe eines Frame auch noch andere Faktoren. Bei Tests die nur Z-Fill testen zerstören die GeForces die Radeons förmlich.

reunion
2009-01-27, 14:24:57
Nichtmal Faktor 2 ist angesichts der theoretischen 256 Samples pro Takt trotzdem nicht unbedingt berauschend:

http://www.xbitlabs.com/images/video/geforce-gtx200-theory/mdolenc_fillrate.gif

http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_14.html#sect1

Mit MSAA ziehen die Radeons im übrigen schon vorbei.

robbitop@work
2009-01-27, 14:37:32
Dieses Verhalten (Z-Fillverlauf in Abhängigkeit von AA) ist aber wohl nicht den ROPs geschuldet, sondern dem Trisetup.

deekey777
2009-01-27, 14:52:11
Dieses Verhalten (Z-Fillverlauf in Abhängigkeit von AA) ist aber wohl nicht den ROPs geschuldet, sondern dem Trisetup.
Verdoppelt sich die Anzahl der Dreiecke, wenn man das MSAA hinzufügt?

robbitop@work
2009-01-27, 15:11:33
Verdoppelt sich die Anzahl der Dreiecke, wenn man das MSAA hinzufügt?
Es entsteht dabei ein linear höherer Aufwand beim Rasterizing. Die Dreiecke müssen ja abgetastet werden (und Positionen auf dem Raster zugeordnet werden). Und je höher die Anzahl von benötigten Samples, desto höher der Aufwand.

Gast
2009-01-27, 16:01:20
Könnte man eigentlich die Double-Precision-Einheiten vom G200 für Physx oder andere sinnvolle Berechnungen bei Spielen nutzen?

Gast
2009-01-27, 16:34:18
Es limitieren innerhalbe eines Frame auch noch andere Faktoren. Bei Tests die nur Z-Fill testen zerstören die GeForces die Radeons förmlich.
In der Praxis kommt am Ende aber wenig bei raus.

Ich finde es mittlerweile sehr interessant welchen weg beide Hersteller gehen und das wir dadurch endlich verschiedene Ansätze sehen wie bestimmte Probleme gelöst werden.

Wären da nicht die "Bildverbesserer" würde sich das Ergebniss und damit auch die Folgen viel weiter erstrecken.

Ich bin höchst gespannt wie sich der Markt in den Folgejahren nachdem Launch des Intel-Jünglings weiter entwickeln wird, sofern dieser über wirklich als Konkurrenz den beiden zusätzen kann. Ich glaube nämich immer noch nicht daran.

MFG Carsten

Spasstiger
2009-01-27, 16:35:43
Könnte man eigentlich die Double-Precision-Einheiten vom G200 für Physx oder andere sinnvolle Berechnungen bei Spielen nutzen?
Selbst wenn, würden sie nicht viel reißen. Die Rechenleistung würde um nichtmal 10% steigen.

Coda
2009-01-27, 16:47:59
Ich komme auf 12,5%

Aber sie sind nicht nutzbar, weil sie nicht parallel zu den 8 SP ALUs verwendet werden können.

Spasstiger
2009-01-27, 17:03:12
Ich komme auf 12,5%
240*3 OPs (fp32-MADD+fp32-MUL) sind mehr als 8*30*2 OPs (fp64-MADD).
Da man das MUL nicht voll anrechnen kann, kommt man halt auf 8,33% bis 12,5% an Zusatzleistung durch die DP-ALUs. Der GT200 soll sein MUL in 90% der Fälle nutzen können, ergo liegt der Vorteil der DP-ALUs eher bei 8,3% als bei 12,5%. Und somit unter 10%.
Das Ganze jetzt natürlich bezogen auf fp32-Operationen. Bei fp64-Operationen leisten die fp32-Einheiten genau 0 GFlops.

Armaq
2009-01-27, 17:03:56
Naja, es hängt halt schlicht davon ab ob 512MB VRAM noch reichen oder nicht. Soetwas kann man schlecht anhand eines Leistungsindexes darstellen.



Welches Interview?
Ich finde es nicht mehr und war den Tag über auch beschäftigt, bin es noch, aber es gibt ein extrem gutes Interview mit Demers über ATI und dazu auch Anmerkungen. Das war vll. das interessanteste Interview aus dem Bereich PC-Technik der letzten 5 Jahre.
Edit: Es wurde auch der Wechsel von einem ehem. Newsredi zu ATI besprochen, mir fällt der Name natürlich nicht ein. Er war für das Design der HD48 Serie maßgeblich verantwortlich (nicht technisch sondern "politisch").

Coda
2009-01-27, 17:14:12
240*3 OPs (fp32-MADD+fp32-MUL) sind mehr als 8*30*2 OPs (fp64-MADD).
Da man das MUL nicht voll anrechnen kann, kommt man halt auf 8,33% bis 12,5% an Zusatzleistung durch die DP-ALUs. Der GT200 soll sein MUL in 90% der Fälle nutzen können, ergo liegt der Vorteil der DP-ALUs eher bei 8,3% als bei 12,5%. Und somit unter 10%.
Das Ganze jetzt natürlich bezogen auf fp32-Operationen. Bei fp64-Operationen leisten die fp32-Einheiten genau 0 GFlops.
Nur weil das MUL immer verwendbar ist heißt das noch lange nicht, dass der Compiler es auch auslasten kann.

PCGH_Carsten
2009-01-27, 17:26:34
Dieses Verhalten (Z-Fillverlauf in Abhängigkeit von AA) ist aber wohl nicht den ROPs geschuldet, sondern dem Trisetup.

Ist auch treiber- und auflösungsabhängig.

edit:
So, mal Werte rausgefischt. 1.600x1.200, FW177.26: FFP - Z pixel rate - 73554.117188M pixels/sec (von 154.112 möglichen MPixeln/s)
Zum Vergleich eine HD2900Pro @ 820/1035, Cat 7.9: FFP - Z pixel rate - 22424.917969M pixels/sec
und eine HD 4870 mit Catalyst 6.14.10.6833 (sorry): FFP - Z pixel rate - 30159.160156M pixels/sec (von 48.000 möglichen MPixeln/s)

In 2.560x1.600 und die GTX (hier OC, 1152 MHz RAM) FFP - Z pixel rate - 78667.570313M pixels/sec (von 154.112 möglichen MPixeln/s)




http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_14.html#sect1

Mit MSAA ziehen die Radeons im übrigen schon vorbei.

Das gibt dein Link allerdings nicht her. Mit AA habe ich leider nur Werte der HD 4850, die bandbreitenmäßig ggü. der 4870 klar im Nachteil ist, daher verzichte ich hier mal auf konkrete Zahlen, die GTX280 liegt in 1.600x1.200 allerdings selbst mit 8xAA >50% vorn, ohne AA hat die 4870 dagegen "nur" ca. 30% Vorsprung ggü. der 4850. Daraus lässt sich jedoch leider nichts verlässliches Extrapolieren.

r@h
2009-01-28, 07:15:04
738Mhz
und zusätzlich fehlen der noch 8 TMUs
Jup... 738.
Und die 8 TMU mehr bringen anscheinend auch nicht wirklich viel -> Bandbreitenlimitiert.

Das kann man nicht linear hochrechnen
Natürlich kann man das... was die theoretische Rechenleistung angeht.
Bleiben bei 738MHz noch immer 20,5%.
(TMU Leitsung +14,3%)

1000Mhz
1100MHz

Nur als Beispiel:
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=9800+gtx%2B&v=e&pixonoff=off&filter=+Liste+aktualisieren+&bl1_id=100&xf=132_1024
Und das gilt auch für die meisten Shops...

EVGA gibt die 1000MHz korrekt an:
http://www.evga.com/products/moreInfo.asp?pn=01G-P3-N880-AR&family=GeForce%209%20Series%20Family

Gigabyte gibt gar nichts an:
http://www.giga-byte.com/Products/VGA/Products_Overview.aspx?ProductID=2918
Man kann aber ein Bios downloaden, der die ausgelieferten 900MHz auf 1000MHz anhebt -> Fakt!

Bei Zotac gibt wenigstens offiziell die 950MHz an.
Bei Sparkle wird sie nicht einmal gelistet (und trotzdem mit 900MHz ausgeliefert).

Bei Point of View werden ganz offizielle 1100MHz angegeben und es sind defakto 900MHz.
http://www.pointofview-online.com/default2.asp?content_id=2125

-

Die einzige Karte, die also mit 1000MHz angegeben und wohl auch ausgelifert wird, ist die von EVGA.
Eine Ausnahme also, keine Regel...

Das nächste mal würde ich Dich bitten, viellecht "etwas" ausführlicher zu werden und Deine Meinung - denn mehr ist es ohne nicht - zumindest zu belegen.

Danke.

Was ich bezweifeln mag. Gerade GT200 zeigt, dass die Architektur nicht sonderlich von höherer Bandbreite profitiert. Dargo hatte sogar mal Tests gemacht, welche zeigten, dass G92 kaum an der Bandbreite hing. Höchstens die ROP-Anzahl ist zu gering.
Bitte mal einen Link dazu... ich kann definitiv das Gegenteil belegen.

Die ROPs alleine sind es nicht, die Bandbreite auch. Eine Ultra herrscht oft genug und die GTX+ sieht nur die Rücklichter. Gut, in vielen Fällen geht der auch der Speicher aus, das ist mit das größte Problem.
Bei der Ultra, gell?
Genau das meine ich...

Das kann durchaus stimmen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7029984#post7029984+

Wenn sie langsamer als deine OC-88GT war, dann war die Karte offenbar defekt bzw. du hast einen Fehler bei der Installation oder bei den Tests gemacht. Zumal du beachten solltest, dass Spasstiger eine 1GHz 1GiB GTX+ betrachtet, die es durchaus am Markt gibt.
Auch ich habe den Speicher auf 1GHz getaktet (nach meinem ersten Durchlauf mit den ausgelieferten 900MHz).
Und es gibt genau eine Karte mit 1000MHz, die EVGA (siehe oben).

FarCry2 1920, HighestDetails (D3D9) ohne AA:
9800GTX+ 1GB 740/900 = 36,99/29/52
9800GTX+ 1GB 740/1000 = 38,11/30/53 = +3,0%
8800GT 512MB 700/1000 = 38,02/30/55 = + 2,8%

Ergo: Bandbreiten-Limitiert.
Und nein, die Karte war nicht defekt... zudem das System und die Treiber identisch.

Dein Test mit 8xAA sagt eigentlich nur aus, dass
a) bei 1440x900 einer 9800GTX+ mit 512MB der Speicher ausgeht.
b) das Leistungsplus einzig vom 10% übertakteten Speicher kommt (und nur knappe 3,6% Vorteil zeigt)
Der Test zeigt also ziemlich genau, was ich selbst auch schon festgestellt habe.
Und: die Shaderleistung 'verpufft' geradezu.

Du müsstest eine 8800 GT schon stark übertakten, damit sie gleichauf mit einer 9800 GTX+ ist.
Nein... siehe oben.

Razor

reunion
2009-01-28, 07:52:24
Ich finde es nicht mehr und war den Tag über auch beschäftigt, bin es noch, aber es gibt ein extrem gutes Interview mit Demers über ATI und dazu auch Anmerkungen. Das war vll. das interessanteste Interview aus dem Bereich PC-Technik der letzten 5 Jahre.
Edit: Es wurde auch der Wechsel von einem ehem. Newsredi zu ATI besprochen, mir fällt der Name natürlich nicht ein. Er war für das Design der HD48 Serie maßgeblich verantwortlich (nicht technisch sondern "politisch").

Ja, ich weiß schon. Du meinst wohl das Interview auf AnandTech.

Das gibt dein Link allerdings nicht her. Mit AA habe ich leider nur Werte der HD 4850, die bandbreitenmäßig ggü. der 4870 klar im Nachteil ist, daher verzichte ich hier mal auf konkrete Zahlen, die GTX280 liegt in 1.600x1.200 allerdings selbst mit 8xAA >50% vorn, ohne AA hat die 4870 dagegen "nur" ca. 30% Vorsprung ggü. der 4850. Daraus lässt sich jedoch leider nichts verlässliches Extrapolieren.

Es gibt Werte von Hardware.fr welche das AFAIK zeigen. Habe lange gesucht aber leider nichts mehr gefunden. ;(

robbitop@work
2009-01-28, 10:11:00
Ist auch treiber- und auflösungsabhängig.

Ja. Die Abtastarbeit hängt, wie gesagt von der Anzahl der abzutastenden Samples ab. Also von der Auflösung und dem AA-Grad.

PCGH_Carsten
2009-01-28, 10:32:45
Ja. Die Abtastarbeit hängt, wie gesagt von der Anzahl der abzutastenden Samples ab. Also von der Auflösung und dem AA-Grad.
Wenn du damit meinst, dass die Chips bei höherer Auflösung effizienter, sprich näher am theoreitschen Maximum arbeiten - ja. Sonst: Häh? MDolencs Fillrate-Tester gibt die Fillrate pro Sekunde als Ergebnis aus, bei identischer Effizienz, die nicht gegeben ist, hinge es nicht von der Auflösung ab.

robbitop@work
2009-01-28, 11:06:20
Wenn du damit meinst, dass die Chips bei höherer Auflösung effizienter, sprich näher am theoreitschen Maximum arbeiten - ja. Sonst: Häh? MDolencs Fillrate-Tester gibt die Fillrate pro Sekunde als Ergebnis aus, bei identischer Effizienz, die nicht gegeben ist, hinge es nicht von der Auflösung ab.
Denkfehler meinerseits.

Spasstiger
2009-01-28, 11:33:25
@r@h: Ich habe 1000 MHz angesetzt, weil das der höchste Takt ist, für den 1,0-ns-Speicher spezifiziert ist. Eine 9800 GTX+ 512 Bit ist ja eh nur Fiktion, also steht es mir auch frei, die Spezifikationen beliebig zu wählen. Die 9800 GTX+ 1024 MiB habe ich dann zu Vergleichszwecken auch mit 1000 MHz angesetzt.

Und was deinen Benchmark angeht: Das scheint die absolute Ausnahme zu sein. Ich will hier keine Ergebnisse präsentieren, die nur in Ausnahmefällen zustande kommen, sondern Ergebnisse, die das Potential einer Grafikkarte aufzeigen, wenn keine außergewöhnlichen Abhängigkeiten auftreten. Bei FarCry 2 ohne AA scheinen die G92-Karten tatsächlich komplett an der Bandbreite zu hängen. Bei Crysis sieht wieder ganz anders aus, da schlägt die höhere Shaderleistung voll durch. Und bei FarCry 2 kannst du mit der 9800 GTX+ 1024 MiB auch AA ohne große Performanceeinbußen zuschalten, wo die 9800 GT 512 MiB durch den zu kleinen Speicher schnell wegbricht (zumindest in 1920x1200). Du hast dir einfach genau den Benchmark rausgepickt, der die 9800 GTX+ 1024 MiB im schlechtest möglichen Bild zeigt.

Gast
2009-01-28, 14:31:22
Den Einfluss der Speicherbandbreite auf Gesamtergebniss gewichte ich auch abhängig von der VRAM-Last, weil natürlich die Bandbreite anteilsmäßig stärker beansprucht wird,

nicht zwangsläufig, nur weil mehr verschiedene daten im VRAM liegen muss das nicht die bandbreite mehr beanspruchen.

Spasstiger
2009-01-28, 15:54:11
nicht zwangsläufig, nur weil mehr verschiedene daten im VRAM liegen muss das nicht die bandbreite mehr beanspruchen.
Mein Modell berücksichtigt die Größe des Grafikspeichers eh nur unter dem Bandbreitenaspekt. Wenn ich 700 MiB VRAM-Last eingebe, dann bedeutet das, dass diese Datenmenge auch "in Bewegung" ist.

Gast
2009-01-28, 17:52:36
Mein Modell berücksichtigt die Größe des Grafikspeichers eh nur unter dem Bandbreitenaspekt. Wenn ich 700 MiB VRAM-Last eingebe, dann bedeutet das, dass diese Datenmenge auch "in Bewegung" ist.

das wird aber nicht unbedingt stimmen, wenn die große speichermenge beispielsweise durch eine größere texturvielfalt entsteht, hat das auf die benötigte bandbreite sicher kaum auswirkungen.

wenn der hohe speicherverbrauch aber beispielsweise durch irgendwelche buffer (z.b. beim deferred renderer) zustande kommt, hat das natürlich auch größere auswirkungen auf den bandbreitenbedarf.

Spasstiger
2009-01-28, 17:59:14
das wird aber nicht unbedingt stimmen, wenn die große speichermenge beispielsweise durch eine größere texturvielfalt entsteht, hat das auf die benötigte bandbreite sicher kaum auswirkungen.
Wie gesagt, mein Modell berücksichtig nur Daten im VRAM, die auch aktiv in Verwendung sind. Alles andere wäre viel zu komplex zu modellieren für mein simples Skript und auch viel zu sehr anwendungsabhängig. Ich hab ja keinen Schaltungssimulator, sondern ich bilde lediglich ein gewichtetes, geometrische Mittel aus einigen normierten Eckdaten.
Die Ergebnisse hauen auch mit einem Fehler von ca. 10% hin, somit reicht das zur groben Performanceabschätzung aus.

r@h
2009-01-29, 20:41:26
Du hast dir einfach genau den Benchmark rausgepickt, der die 9800 GTX+ 1024 MiB im schlechtest möglichen Bild zeigt.
Nein, das war nur ein Beispiel... gilt genauso für:
TR6, LostPlanet, Stalker, COD4, Preay, Fear und HL2:LC
Crysis macht hier eine Ausnahme, allerdings verbleiben vom theoretischen Plus von 20% nur etwa 12,5% übrig...
(mit reduziertem VRAM-Takt sogar weniger als 10%)

Bei letzterem übrigens mit dem gleichen Effekt: mit Standard-VRAM-Takt langsamer, als die 8800GT, mit gleichem VRAM-Takt ein winizigen Tick schneller. Aber alle haben gemeinsam, dass die alleinige Takterhöhung des Speichers IMMER zu einem ordentlichen Leistungsplus führte, ergo: Bandbreiten-Limit!

Und zwar heftig...

Das mit dem AA "for Free" vergiß zudem, denn das verschlimmert das Problem umso mehr... durch den höheren Bandbreiten-Bedarf natürlich.

Man kann also mit fug und recht behaupten, dass die 8800GT 'perfekt' ausbalanciert war - mit 512MB.
ALLES andere, was danach kam, ist Augenwischerei... und die 9800GTX+ mit 1GB ist so ziwmlich die Spitze davon... reine Geldverschwendung.

Sorry, aber Deinem offenbar rein theoretischen "Leistungszuwachs" muss ich hart wiedersprechen.
Praxis-Erfahrungen haben das bei mir (mit meinem System!) eindeutig wiederlegt.

Razor

P.S.: und noch etwas... ICH teste real... also in Aufösungen die ich auch tatsächlich spiele und dort, wo es nicht mehr geht, dann eben ohne AA. Was würde mir auch ein Leistungsplus von 20% (oder mehr) nutzen, wenn es mit AA auch inkl. dessen unspielbar ist? Dass es dann 20% "mehr" sind, hilft mir dann nicht wirklich.

y33H@
2009-01-29, 21:12:08
1G ist berechtigt, aber der kastrierte VRAM-Takt ist Gülle³ ;D

cYa

aths
2009-01-29, 23:52:31
1G ist berechtigt, aber der kastrierte VRAM-Takt ist Gülle³ ;D

cYaImmer das Wort "kastriert" ...

Der RAM-Takt wird gesenkt weil man Speicherbausteine mit doppelter Kapazität nimmt. Die sind für 1100 MHz nicht zu kriegen oder zu teuer. Und die 9800 GTX+ hängt in modernen Spielen weniger am Speichertakt als man denkt.

pest
2009-01-29, 23:56:04
ich mache morgen ein paar Benches mit meiner 8800GT um unter einer "normalen" Situation zu zeigen, das die Bandbreite mehr limitiert als der Rest. Hoffentlich klappts ;) :)

y33H@
2009-01-30, 01:22:58
@ athsUnd die 9800 GTX+ hängt in modernen Spielen weniger am Speichertakt als man denkt.Meine Benches sagen etwas anderes. Erstens sind 512 MiB für xS-Modi viel zu wenig, vor allem in 1.920. Zweitens sind alle G92er ab der 88GT Bandbreiten-limitiert, eine GTX+ mit nur 900-1.000 MHz ist ein Krüppel. Freilich ist die mit entsprechenden Settings schneller als eine GTX+/512, aufgrund des niedrigen VRAM-Taktes verschenkt die Karte aber schon mal locker 15% - was sehr schade ist.

cYa

pest
2009-01-30, 23:23:54
so ich habe ein paar Benches mit Crysis gemacht

E8400@4GHz,4GB DDR2,Vista64 SP1, FW 185.20@HQ
Crysis v1.2 GPU-Bench 1280x1024@High

es wurde jeweils der GPU-Bench 3x3 Loops ausgeführt und die Werte gemittelt

in Klammern hinter den verwendeten Taktraten steht der verwendete Zuwachs im Verhältnis zu den Standardtaktraten (600/1512/900)

nach dem Ergebnis steht der real erreichte FPS-Zuwachs und ein Faktor der angibt wieviel von der rel. Erhöhung aller 3 Komponenten übrig geblieben ist.
Dazu wird die reale Erhöhung durch die gemittelte Erhöhung dividiert.
Größere Werte zeigen eine bessere Resonanz des Systems gegenüber der spezifischen Erhöhung.
Es können auch Werte >1 (max=3.0) auftreten, das bedeutet nicht das die Skalierung überlinear ist, sondern ist der Mittelung geschuldet.
In der letzten Zeile stehen zusätzlich die Werte zum Vorgänger.


600/1512/900
1xAA: 36,10 36,14 36,11 = 36,12
4xAA: 27,51 27,86 27,87 = 27,75

700/1512/900 (+16%,0,0)
1xAA: 36,45 36,44 37,21 = 36,70 (+1.6%, 0.30)
4xAA: 28,65 28,64 28,66 = 28,65 (+3.2%, 0.60)

600/1728/900 (0,+14%,0)
1xAA: 37,30 37,32 37,49 = 37,37 (+3.5%, 0.75)
4xAA: 28,02 28,44 28,44 = 28,30 (+2.0%, 0.43)

600/1512/1053 (0,0,+17%)
1xAA: 37,89 38,78 38,76 = 38,48 (+6.5%, 1.15)
4xAA: 30,26 29,72 30,18 = 30,05 (+8.3%, 1.46)

800/2000/900 (+33%,+32%,0)
1xAA: 40,32 40,31 39,53 = 40,05 (+10.9%,0.50)
4xAA: 30,50 30,10 30,46 = 30,35 (+9.0%, 0.42)

800/2000/1053 (+33%,+32%,+17%)
1xAA: 44,30 44,23 43,64 = 44,06 (+22%,0.80) (+10%,1.76)
4xAA: 33,51 33,48 34,02 = 33,67 (+21%,0.77) (+11%,1.94)




Fazit:
Da der Faktor skaleninvariant ist, kann er als Resultat aller Werteberechnungen zur alleinigen Bewertung herangezogen werden.
In diesem Fall skaliert der Bench mehr über die verfügbare Bandbreite, umso stärker desto höher die verfügbare "Rechenleistung".

r@h
2009-01-31, 19:40:37
1G ist berechtigt, aber der kastrierte VRAM-Takt ist Gülle³ ;D
Öhm... ja :up:
Vielleicht etwas 'knapp'... ;)

Aber klar... meine Überlegung war ja auch: mehr RAM wäre mittlerer Weile gut (nicht zuletzt wegen dem 24" @1920x1200)... aber es braucht eben nicht nur mehr Volumen, sondern eben auch einen breiteren Pfad. Und bei letzterem hat die 9800GTX+ kläglich versagt... so verpufft nicht nur der zusätzliche VRAM, sondern auch die ca. 20% höhere Rechenleistung dieser Karte.

Sehr, sehr schade, denn der GT200 ist auf gar keinen Fall eine Alternative... der GT200b vielleicht... mal schauen.

@pest

Sehr schön aufgezeigt!
Und das, wo Crysis noch am ehesten auf das zusätzliche Lesitungsplus der GPU reagieren sollte...

Razor

Armaq
2009-01-31, 19:49:25
Nur sind 19x12 auch schon brutal viel. Eine 98+ halt ich hier generell für unterdimensioniert. :) Die Karte in dem Bereich ist wohl unstrittig die 4870 1 GB.

aths
2009-01-31, 20:24:12
@ athsMeine Benches sagen etwas anderes. Erstens sind 512 MiB für xS-Modi viel zu wenig, vor allem in 1.920. Zweitens sind alle G92er ab der 88GT Bandbreiten-limitiert, eine GTX+ mit nur 900-1.000 MHz ist ein Krüppel. Freilich ist die mit entsprechenden Settings schneller als eine GTX+/512, aufgrund des niedrigen VRAM-Taktes verschenkt die Karte aber schon mal locker 15% - was sehr schade ist.Gerade weil der Speicherplatz knapp wird, finde ich 1024 MiB mit 1000 MHz besser als 512 MiB mit 1100 MHz. Schon bei der 8800 GT kann man 1 GiB Speicher durchaus nutzen.

Ein Krüppel ist die Karte mit 1000 oder auch nur 900 MHz Speicher sicherlich nicht.

Meine Experimente mit der 8800 GTS-512 und 9800 GTX/GTX+ zeigen, dass der Speichertakt schon OK ist. Je nach Spiel (z. B. mit unkomprimierten Texturen) skaliert der G92 zwar mit dem Speichertakt, aber das betrifft in der Regel ältere Spiele wo die Karte sowieso schnell genug ist. Neuere Spiele hängen beim G92 primär am Shadertakt.

y33H@
2009-01-31, 21:06:50
Gerade weil der Speicherplatz knapp wird, finde ich 1024 MiB mit 1000 MHz besser als 512 MiB mit 1100 MHz. Schon bei der 8800 GT kann man 1 GiB Speicher durchaus nutzen.Das sehe ich ja an sich auch so. Die GTX+ mit schnellem 1,1-GHz-Speicher auszustatten, wäre recht teuer und zudem liegt die Karte dann zu nahe an der 260, grade mit OC.

cYa

Coda
2009-01-31, 21:27:47
Nur sind 19x12 auch schon brutal viel. Eine 98+ halt ich hier generell für unterdimensioniert. :) Die Karte in dem Bereich ist wohl unstrittig die 4870 1 GB.
In 1920x1200 ist die GeForce 285 immer noch deutlich schneller.

Armaq
2009-01-31, 22:15:36
In 1920x1200 ist die GeForce 285 immer noch deutlich schneller.
P/L. :)

Gast
2009-01-31, 22:49:57
P/L. :)
BQ :(

y33H@
2009-01-31, 23:17:39
Die GTX285 ist in 1.920 mit 4xMSAA/16:1-AF idR 30-40% schneller als eine 4870/1G. Letztere kostet 190€, erstere 320€ - ergo 70% teuer. Dafür erhalte ich eine Karte die mit ein wenig Nachhilfe leiser, kühler und stromsparender (!) ist und optional das bessere AF sowie xS/SSAA bietet. Zudem kann die Geforce PhysX, was aktuell mehr "wert" ist als DX10.1 und aufgrund der Lizenzierungen seitens EA, THQ und Co mehr Zukunft hat. Und bei nVidia wird in einem WHQL auch nicht das D3D10-AF "vergessen". Also komm mir bitte nicht mit P/L ;D

--> B2T

cYa

Armaq
2009-02-01, 00:09:20
Die GTX285 ist in 1.920 mit 4xMSAA/16:1-AF idR 30-40% schneller als eine 4870/1G. Letztere kostet 190€, erstere 320€ - ergo 70% teuer. Dafür erhalte ich eine Karte die mit ein wenig Nachhilfe leiser, kühler und stromsparender (!) ist und optional das bessere AF sowie xS/SSAA bietet. Zudem kann die Geforce PhysX, was aktuell mehr "wert" ist als DX10.1 und aufgrund der Lizenzierungen seitens EA, THQ und Co mehr Zukunft hat. Und bei nVidia wird in einem WHQL auch nicht das D3D10-AF "vergessen". Also komm mir bitte nicht mit P/L ;D

--> B2T

cYa
Mir gehts hier nicht um deine Präferenz, ich habe eine Nvidia. Deine Argumente sind für den 08/15 User nicht zugänglich und nicht zielführend. Vor allem deine Softwareargumente sind fürn Popo, da NV das auch schon oft verbockt hat.

aths
2009-02-01, 00:44:55
Das sehe ich ja an sich auch so. Die GTX+ mit schnellem 1,1-GHz-Speicher auszustatten, wäre recht teuer und zudem liegt die Karte dann zu nahe an der 260, grade mit OC.Die GTX 260 lässt sich auch übertakten und man sollte nicht mit der 192-er 260 vergleichen da die meines Wissens nicht mehr hergestellt wird. Die 216-er kann sich recht gut von der 9800 GTX+ absetzen.

y33H@
2009-02-01, 01:25:19
Deine Argumente sind für den 08/15 User nicht zugänglich und nicht zielführend.Den 08/15-User interessiert ergo nur folgendes: Fps/Euro. BQ, Lautstärke, Strom und Features sind egal? So klingts nämlich :(

@ aths

Da wo es FLOPS oder Bandbreite braucht und der VRAM nicht limitiert, ist die 260-216 vorne - wenngleich "nur" 15-25%. Nicht sehr viel wie ich finde. Btw habe ich freilich nicht die 192er gemeint, die ist wie du sagst ja EOL. Wenn ich endlich mal ne GTX+/1G in die Finger bekomme, ziehe ich mal den VRAM hoch und benche gegen :)

cYa

r@h
2009-02-01, 08:04:02
Ein Krüppel ist die Karte mit 1000 oder auch nur 900 MHz Speicher sicherlich nicht.
Neuere Spiele hängen beim G92 primär am Shadertakt.
Oh doch... und nein.
"Meine Experimente" sagen etwas gänzlich anderes...

Die 216-er kann sich recht gut von der 9800 GTX+ absetzen.
Ja... ausschließlich des 448Bit vs. 256Bit Spieicherinterfaces.
(ein Plus von 75% bei gleichem Takt!)

Nur sind 19x12 auch schon brutal viel. Eine 98+ halt ich hier generell für unterdimensioniert. :) Die Karte in dem Bereich ist wohl unstrittig die 4870 1 GB.
Wie gesagt, mit niedrigerem Speichertakt ist sie sogar langsamer, als eine 8800GT mit nur dem halben VRAM...
...darum geht es hier ja: sie ist nicht generell unterdimensioniert, sondern das Speicherinterface ist einfach zu 'eng'.

Oder eben: sie ist hinsichtlich des SI stark kastriert... wohl um den "Neuen" nicht zu nahe zu kommen.

Razor

r@h
2009-02-01, 08:08:39
Ach ja... und ich vergaß (wieder mal ;-) hinzu zu setzen, dass ich die GT200 schon per se ausschließe... salange es keine vernünftigen (Luft-) Kühllösungen gibt. Was meinst Du wohl, was ich von den RV770 halte? Dafür gibt es zwar Lösungen, die aber IMO keine sind, wenn die SpaWa mit weit über 100° im Rechner vor sich hin glühen... und da ist es mir egal, ab das den SpaWa "gut tut" oder nicht.

Razor

mike49
2009-02-01, 12:04:50
Ach ja... und ich vergaß (wieder mal ;-) hinzu zu setzen, dass ich die GT200 schon per se ausschließe... salange es keine vernünftigen (Luft-) Kühllösungen gibt.

Kannst Du diesen Blödsinn nicht langsam mal lassen? Ist ja echt nicht mehr auszuhalten :|

Wir wissen ja, daß die Karte die Du gerade hast (8800GT) die Beste ist und alles andere Mist / Schrott / Beta etc. ist. Leider sind deine zur Unterlegung dieser Thesen herangezogenen Argumente mittlerweile einfach nur noch haarsträubend...

Um mal Fakten sprechen zu lassen:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/22/#abschnitt_temperatur

EIne aktuelle GTX285 liegt im idle 18C und unter Last immer noch 11C unter einer 9800GT (gleicher Kühler wie bei deiner 8800GT).

Armaq
2009-02-01, 12:35:51
Den 08/15-User interessiert ergo nur folgendes: Fps/Euro. BQ, Lautstärke, Strom und Features sind egal? So klingts nämlich :(
cYa
Genau das ist zum Großteil der Fall. Es gibt natürlich einfache Präferenzen, aufgrund von Vorlieben, aber im Grunde genommen ist es zuerst der Preis und die Leistung, dann kommt erst evtl. die Lautstärke, Stromverbrauch und Features.

Ich kann übrigens nicht oft genug betonen, dass ich meine 9800GTX+ aus zwei Gründen habe, einmal aufgrund des mMn. schlechten Kartendesigns bei HD4850 und wegen den fehlenden Profilen. Das waren für mich die Bewegggründe, also weit ab davon. Jmd. der nur WoW und Shooter am PC spielt ist für diese Gründe natürlich nicht empfänglich.

reunion
2009-02-01, 12:56:13
Was meinst Du wohl, was ich von den RV770 halte? Dafür gibt es zwar Lösungen, die aber IMO keine sind, wenn die SpaWa mit weit über 100° im Rechner vor sich hin glühen... und da ist es mir egal, ab das den SpaWa "gut tut" oder nicht.

Razor

You get what you payed for. Die HIS IceQ, die Gainward "Golden Sample", die Sapphire Toxic, oder die Asus Matrix, etc. haben sehr leise und leistungsstarke Kühler.

Armaq
2009-02-01, 13:07:04
You get what you payed for. Die HIS IceQ, die Gainward "Golden Sample", die Sapphire Toxic, oder die Asus Matrix, etc. haben sehr leise und leistungsstarke Kühler.
Die Sapphire kann ich nächste Woche mal in Action erleben, da bau ich die nämlich in einen neuen PC ein. Bin gespannt. Hat gute Bewertungen im Netz.

aths
2009-02-01, 13:14:43
EIne aktuelle GTX285 liegt im idle 18C und unter Last immer noch 11C unter einer 9800GT (gleicher Kühler wie bei deiner 8800GT).Ja und auch unter Last sind GTX 260 (insbesondere die neue mit 55 nm) und GTX 280/285 erträglich. Wem es per default zu laut ist, der kann den Lüfter manuell steuern.

mike49
2009-02-01, 19:32:45
Ja und auch unter Last sind GTX 260 (insbesondere die neue mit 55 nm) und GTX 280/285 erträglich. Wem es per default zu laut ist, der kann den Lüfter manuell steuern.

Korrekt: Meine 55nm GTX260 bleibt jew. ca. 6-8C kälter als meine alte GTX260 in 65nm.

Der neue, abgespeckte Kühler ist bei gleichen %-Einstellungen auch noch ein Stück leiser als der alte. Und von der Temperatur her bleibt - selbst bei OC auf 756/1512 - noch locker Spielraum für eine angepasste Silent Lüftersteuerung.

Dies war bei meiner alten 8800GT übrigens leider nicht so, da die unter Last + OC trotz heftig aufdrehendem Lüfter in bedenkliche Temperaturregionen geriet...

y33H@
2009-02-01, 19:51:13
Mit wieviel Prozent drehen eure Lüfter? Alles über 40% suckt ...

cYa

pest
2009-02-01, 20:47:24
Mit wieviel Prozent drehen eure Lüfter? Alles über 40% suckt ...


immer 100% :confused:
komische frage

aths
2009-02-01, 20:56:03
Mit wieviel Prozent drehen eure Lüfter? Alles über 40% suckt ...

cYaDer Lüfter meiner privaten 9800 GTX dreht mit genau 40% und ist damit leiser als der gedrosselte 60-mm-Revoltec-Northbridge-Lüfter.

mike49
2009-02-01, 20:57:56
Mit wieviel Prozent drehen eure Lüfter? Alles über 40% suckt ...

Bei meiner GTX260-216 (55nm) im idle 25% (=unhörbar), unter Last sind es so zwischen 40-60%.

Sonyfreak
2009-02-01, 21:05:40
Meine GTX 280 dreht im idle mit 25%, im Spielebetrieb mit ca. 40% und unter Furmarkbelastung mit 65%. :)

mfg.

Sonyfreak

Armaq
2009-02-02, 10:15:18
Der Lüfter meiner privaten 9800 GTX dreht mit genau 40% und ist damit leiser als der gedrosselte 60-mm-Revoltec-Northbridge-Lüfter.
Warum holst du dir keinen passiven NB- Kühler? Ich hab son nettes Teil von Thermalright.

Zephyroth
2009-02-04, 11:24:40
Ich muß auch sagen, das sich meine GTX260 angenehm zurückhält. Bei der vorherigen 8800GT mußte ich einen anderen Kühler installieren, die kleine Kreissäge mit 6500U/min war nicht zu ertragen.

Und was die Leistung angeht, je nach Spiel ist meine GTX260 zwischen 40-60% schneller als die 8800GT.

Die theoretischen Überlegungen sind ja schön und gut, auch wenn der GT200 ein "dummer Brute-Force-Chip" ist, so schlägt er einen G92 doch deutlich. Woran dies nun liegen mag, sei dahingestellt, es ist in der Praxis nicht wichtig. Es zählt was man kaufen kann, eine 9800++ mit 512bit SI gibt's halt nicht.

Von der Shaderleistung kann eine 9800+ auch nur mit der ursprünglichen GTX260 (1200MHz und 192 Shader) mithalten, den neuen Modellen die auch noch übertaktet daherkommen, ist jedoch unterlegen (1836MHz x 128 < 1400MHz x 216 ist ca. 30% mehr).

Aber ich gebe euch recht, nVidia dürfte sich irgendwo verrechnet haben, wenn die Shader (die schon mal mit 1800MHz) gelaufen sind, jetzt mit 1400MHz laufen. Allerdings verstehe ich die Probleme die man bekommt wenn man 1400MHz über so einen gewaltigen Chip verteilen will....

Grüße,
Zeph

Gast
2009-02-04, 12:17:56
Die theoretischen Überlegungen sind ja schön und gut, auch wenn der GT200 ein "dummer Brute-Force-Chip" ist, so schlägt er einen G92 doch deutlich.

der GT200 ist kein dummer brute-force-chip sondern teilweise deutlich effizienter als seine vorgänger. allerdings kostet das so viel transistoren, dass ein bruteforce-chip auf G80/92-basis wohl schneller wäre.

Zephyroth
2009-02-04, 13:27:40
Na ja, was kann der GT200 eigentlich mehr (damit meine ich nicht Geschwindigkeit, sondern Funktionen) als der G92. Auch wenn die einzelnen Blöcke verbessert wurden, so merkt man doch sehr die Philosophie: "Von allem vieeel mehr!" deutlich.

Als Analogie gefallen mir Verbrennungsmotoren sehr gut, auch wenn sich im Detail viel verändert hat, die Funktion ist dieselbe, nur gibt's von allem ein wenig mehr (Zylinder, Ventile, Pferdestärken).

Andererseits muß man nVidia auch zugutehalten, das ab einem gewissen Punkt (so stelle ich mir das halt mal vor) die Algorithmen ausgereizt sind und einfach nur mehr massive Parallelisierung (sprich brute force) hilft.

nVidia wollte eine gewisse Leistung haben, es stand der Weg offen die Shader des G92 auf hohe 2.6GHz zu bringen, oder eben die Anzahl der Shader zu erhöhen. Offenbar war es einfacher mehr Shader zu bauen und dabei unkritischere Schaltelemente zu verwenden....

Grüße,
Zeph

Gast
2009-02-04, 13:59:07
Na ja, was kann der GT200 eigentlich mehr (damit meine ich nicht Geschwindigkeit, sondern Funktionen) als der G92.


funktioniell hat sich logischerweise bis auf die DP-einheiten nicht wirklich was geändert, die geschwindigkeit wurde aber zu einem garnicht kleinen teil versucht durch effizienzsteigerung und eben nicht durch pure "dumme" steigerung der rohleistung.


Auch wenn die einzelnen Blöcke verbessert wurden, so merkt man doch sehr die Philosophie: "Von allem vieeel mehr!" deutlich.

wo siehst du da "viel" mehr? trotz 1,5Mrd. transistoren gibt es gerade mal eine steigerung von 8 auf 10 cluster. das einzige was nennenswert gesteigert wurde sind die ALUs von 128 auf 240, aber nichtmal hier gibt es eine verdopplung.

ein reiner bruteforce-chip wäre ein G92 mit 16 cluster, dieser wäre wahrscheinlich sogar kleiner und dabei zumindest in spielen schneller.

nvidia ging aber genau den anderen weg, die rohleistung nicht so stark zu steigern und dafür noch mehr auf effizienz zu setzen, im nachhinein wohl nicht unbedingt die richtige entscheidung, vor allem ausgehend von einem G80 der eh schon ziemlich effizient ist, irgendwann steigt dann der aufwand für weitere effizienzsteigerungen überproportional, dass es schon besser ist einfach die rohleistung zu erhöhen (ATI hat ja mit dem RV770 ähnliches gezeigt, indem man die rohleistung sehr stark erhöht hat und dabei etwas effizienz liegen ließ)

r@h
2009-02-07, 21:02:43
(gleicher Kühler wie bei deiner 8800GT).
Bei meiner Karte werkelt ein Zalman VF-900cu... nur zur Info.
Das zeigt allerdings recht deutlich, dass Du nicht einmal ansatzweise verstanden hast, was ich auszudrücken versuche.

Aber für Dich vielleicht noch einmal ganz einfach:
- für GTX260/280 & Co. gibt es keine vernünftige Alternativkühlung (die Referenzkühlung ist effektiv, aber viel zu laut)
- der Stromverbrauch dieser GT200-Monster ist viel zu hoch (was insbesonders für die GTX285 gilt)

Jetzt verstanden?
Habe ich allerdings auch schon so geschrieben... :rolleyes:

...die Gainward "Golden Sample"...
...hatte ich in meinem Rechner uns zeigte exakt das von mir gezeichnete Bild.
Wenn die anderen genauso sind, kann man sie ebenfalls vergessen.
It's easy like that!

Als Analogie gefallen mir Verbrennungsmotoren sehr gut, auch wenn sich im Detail viel verändert hat, die Funktion ist dieselbe, nur gibt's von allem ein wenig mehr (Zylinder, Ventile, Pferdestärken).
Und weniger Leistung pro Pferdestärke... ja.
Wenn ich noch daran denke, wie ein Polo seinerzeit mit 60PS abgegangen ist... und was ein heutiger damit anstellt :rolleyes:

Sehr schönes Beispiel!

Spiegelt es dorch exakt die jetzige Situation mit G92 vs. GT200 wieder.
Funktional ist NICHTS hinzu gekommen - der 'neue' hat einfach nur "mehr".
Mehr Bandbreite auf jeden Fall, was ihm zugute kommt und auch dem G92 gut stünde.

Womit wir auch schon wieder beim eigentlichen Thema wären.

Razor

Zephyroth
2009-02-07, 23:06:24
Und weniger Leistung pro Pferdestärke... ja.
Wenn ich noch daran denke, wie ein Polo seinerzeit mit 60PS abgegangen ist... und was ein heutiger damit anstellt :rolleyes:

Ja und wenn ich dran denke wie dieser besagte Polo hinter meinem Civic hinterherkeuchen würde. Zwar ist das Leistungsgewicht nicht ganz unähnlich (Polo mit 800kg und 60PS vs. Civic mit 1400kg und 140PS). Im Stadtverkehr würde der Polo recht nett mithalten, aber sobalds auf die Landstraße oder Autobahn geht ist Feierabend....

Von der Effizienz ist der GT200 nicht hinter dem G92, soweit ich das überblicken kann. Mir bringt meine GTX260 im Schnitt gut 60% mehr Leistung. Im Idle ist die Leistungsaufnahme meines Rechners um kein Watt gestiegen (gegenüber der 8800GT), nur unter Volllast hat sich entsprechend etwas getan (da braucht er nun 40W mehr). Ich weis ja nicht was der Reinverbrauch von der 8800GT war (ich schätze mal so bei 60-70W), aber gehe ich davon aus, dann braucht die GTX260 etwa 100-110W, das entspricht einer Steigerung um etwa 60%, genau das was ich auch an Grafikleistung mehr rauskriege....

Zugegeben, das gilt für Spiele, mit dem Furmark schaffe ich durchaus nochmal 60W mehr (allerdings weis ich nicht, wieviel die 8800GT hier gebraucht hätte)....

Verwunderlich ist dieses Abschneiden nicht, denn wie du sagst, der GT200 ist im wesentlichen ein aufgeblasener G92. Wenn sich an der Architektur nicht viel ändert, wieso sollte sich in der Effizienz was ändern?

Um den Kreis zu schließen, wieder zurück zu den Autos. Wie wär's mit dieser theoretischen Überlegung "Polo mit Breitreifen und Turbo - Golf GTI unnötig - Theoretische Überlegung?"
Genauso hört sich dieser Thread nämlich an. Klar kann ein aufgebohrter Polo mit einem modernen GTI mithalten, wieso auch nicht. Aber er bleibt ein aufgebohrter Polo immer mit dem Damoklesschwert das er irgendwann mal unausgewogen ist (seien es die zu schwachen Bremsen, oder die Karosserie die mit der Leistung nicht mithalten kann). Gleiches wird beim GT200 passiert sein, die Karosserie des G92 war wohl ausgereizt, daher das viele Drumherum und Aufgeblase auf den GT200.

Klar könnte nVidia sich verrechnet haben mit dem GT200, sowas kann bei 1.4 Mrd. Transistoren schon mal vorkommen. Aber eines ist sicher, nVidia hat sich gut überlegt ob sie den eleganten Weg des G92 weitergehen oder den aufwändigen des GT200. Eine Firma macht grundsätzlich das, was am wenigsten kostet und am meisten einbringt. Wäre dies ein überarbeiteter G92 gewesen, dann hätten sie das gemacht. Aber offenbar hat es gute kommerzielle Gründe für den GT200 gegeben. Darauf kann man sich verlassen, denn verschenken tut keine Firma etwas....

Grüße,
Zeph

Armaq
2009-02-08, 02:53:22
Und Fehler macht keiner?! Die letzte Cb.de Meldung zeigt eindeutig, dass der GT200 der Schritt in die falsche Richtung war.

Zephyroth
2009-02-08, 19:29:18
Und Fehler macht keiner?! Die letzte Cb.de Meldung zeigt eindeutig, dass der GT200 der Schritt in die falsche Richtung war.

Wer einen Chip mit 1.4 Mrd. Transistoren und 574mm² baut, dem muß klar sein, das das Ding schweineteuer ist. Das der GT200 kostentechnisch gesehen ein Wahnsinn ist, war auch nVidia klar. Es muß einen Grund gegeben haben, der eine Weiterentwicklung des G92 als noch kostenintensiver erscheinen ließ.

Man darf nicht vergessen auch ein G92 mit 512bit SI bräuchte eine ähnlich teure Platine wie die des GT200.

Für mich als User hat dies keine Bedeutung, die GT200-Karten sind die schnellsten die es gibt und sie sind sogar relativ preiswert (für die gebotene Leistung). Der GT200 ist mehr oder weniger der Prescott von nVidia, mit dem Unterschied das AMD leistungstechnisch nicht vorbeizieht.

Für den nächsten Chip wird sich nVidia allerdings wieder etwas einfallen lassen müssen...

Grüße,
Zeph

aths
2009-02-08, 19:40:51
Ja, wie oft noch: Der G92 kommt mit 256 Bit prima zurecht.

G80 hatte noch 384 Bit. Aber das wurde auch gebraucht, da zum Beispiel die Algorithmen zur Komprimierung der Speicherbandbreite nicht so ausgereift waren. Der G92 würde mit einem 512-Bit-SI hier und da etwas schneller sein, aber der Performancegewinn stünde nicht im Verhältnis zu den Mehrkosten des komplexeren PCBs.

Die originale 9800 GTX ist als Ablöse zur 8800 GTX zu verstehen: Geringere Produktionskosten und weniger Speicher, trotzdem gleiche Leistung (mit Ausnahme von 8x Multisampling.) Die GTX+ bietet (ebenfalls mit Ausnahme von 8x Multisampling) sogar mehr Leistung. Insbesonder bei der Shaderperformance ist die GTX+ überlegen. Und das ist das, woran es der GeForce bei modernen Spielen mangelt.

Der GT200 ist primär ein Leisungs-Upgrade durch zusätzliche Units, aber auch durch eine im Vergleich zum G80 erheblich gesteigerten Effizienz. Nvidia hat alle möglichen Schwachstellen ausgebügelt. Das merkt man wenn man zusätzliche Effekte aktiviert, dem GT200 geht nicht so schnell die Puste aus wie vorherigen Generationen. Die Verarbeitung im GT200 läuft runder.

Mit 1024 MiB RAM ist der G92 dank hoher CPU-Taktraten auch bei nur 1000 MHz Speichertakt ein exzellenter Midrange-Chip. Die 9800 GTX+ heißt bald anders, aber Nvidia wird diese Architektur noch eine Weile im Programm haben.

Noch 2009 wird G92 von einer besseren Architektur abgelöst werden, vor allem dürfen wir mehr Shaderpower erwarten.

Coda
2009-02-08, 19:44:43
Ja, wie oft noch: Der G92 kommt mit 256 Bit prima zurecht.
Dagegen spricht, dass die GTX 260 mit praktisch identischer Shaderleistung wesentlich schneller ist.

reunion
2009-02-08, 19:54:39
Da gab es aber schon auch einige Architekturverbesserungen. Zumal die GTX260-216 schon mehr Shaderleistung hat (das MUL soll auch deutlich öfter verwendet werden können).

Undertaker
2009-02-08, 20:12:16
Aber für Dich vielleicht noch einmal ganz einfach:
- für GTX260/280 & Co. gibt es keine vernünftige Alternativkühlung (die Referenzkühlung ist effektiv, aber viel zu laut)
- der Stromverbrauch dieser GT200-Monster ist viel zu hoch (was insbesonders für die GTX285 gilt)


Was ist denn das für ein Unfug? Idle kann man den Lüfter problemlos noch deutlich herunterregeln, @load verhält sich zumindest die GTX260 schon exzellent.
Der Verbrauch ist ebenfalls absolut beachtlich, mit etwa 105W bei der GTX260 (55nm) ist die Karte effizienter als eine 9800GTX+ (55nm) mit 80W und eine HD4870 1GB mit 130W. Auch die GTX285 mit 150W liegt absolut angemessen, man vergleiche eine 4850X2 mit 225W.

aths
2009-02-08, 20:36:40
Dagegen spricht, dass die GTX 260 mit praktisch identischer Shaderleistung wesentlich schneller ist.Bei Settings für die die GTX 260 gebaut wurde, geht der normalen GTX+ der RAM aus. Der GT200 hat pro 8-er SP-Cluster ein doppelt so großes Registerfile und weitere Optimierungen. Die tatsächliche Shaderleistung ist höher.

HD-Ronny
2009-02-08, 22:14:21
Also ich komm mit meiner G92 GTS auch noch, trotz des armseligen SI, in den aktuellen Games bei 1680x1050 sehr gut zurecht. Übertakten lässt sie sich auch pervers (756/1890/1008 "unmodded")gut ,zudem ist sie noch recht genügsam was die Stromaufnahme betrifft und fiept nie,niemals rum.
Eine 9800GTX+ wird vielleicht mal Kult sein und Sammlerstatus erreichen.
(best G92 ever).
edit/ Ups,die G92 lebt ja noch als GT1x0 weiter. /edit :massa:

Armaq
2009-02-16, 09:51:59
Here we go again.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/februar/beschleunigt_nvidia_g92b-chip/

Unsere Vermutungen sind nicht ganz bodenlos gewesen.

r@h
2009-02-21, 11:25:29
Aber eines ist sicher, nVidia hat sich gut überlegt ob sie den eleganten Weg des G92 weitergehen oder den aufwändigen des GT200. Eine Firma macht grundsätzlich das, was am wenigsten kostet und am meisten einbringt. Wäre dies ein überarbeiteter G92 gewesen, dann hätten sie das gemacht. Aber offenbar hat es gute kommerzielle Gründe für den GT200 gegeben.
Der GT200 wurde im professionellen Sektor gebraucht... that's it.
Und als "Abfallprodukt" kam er in den Consumer-Markt, wo eine derartige Leistung überhaupt nicht gebraucht wird...
...gab es aber schon öfter - auch schrieb ich das schon.

Um bei Deinen Auto-Vergleichen zu bleiben:
Der GT200 ist ein Transporter für den Nicht-Gewerbe-treibenden...
...fährt gut uns schnell, schafft theoretisch 'ne Menge weg, fährt aber eigentlich immer "leer".

Und Fehler macht keiner?! Die letzte Cb.de Meldung zeigt eindeutig, dass der GT200 der Schritt in die falsche Richtung war.
Der Kosten wegen?
Tjo... hier rächt sich eben, dass nVidia hier kein wirkliches Consumer-Produkt geschaffen hat und sich nun gegen starke AMD-Produkte stellen muss.

Ja, wie oft noch: Der G92 kommt mit 256 Bit prima zurecht.
Nein, denn der G92 "klebt" hier bei 1920 permanent am Limit.
Aber das wurde hier ja schon gezeigt... schon öfters :rolleyes:

Insbesonder bei der Shaderperformance ist die GTX+ überlegen. Und das ist das, woran es der GeForce bei modernen Spielen mangelt.
Und wieder falsch... denn da es am SI 'mangelt', kann die Shaderperformance nicht ausgespielt werden.
Sie "verpufft" einfach... wie ebenfalls schon mehrfach gezeigt.

Dagegen spricht, dass die GTX 260 mit praktisch identischer Shaderleistung wesentlich schneller ist.
Exakt.

Was ist denn das für ein Unfug?
Kein "Unfug"... die Kühler sind ALLESAMT viel zu laut.
Aber auch das wurde schon mehrfach geschrieben...

Razor

P.S.: die Palit GTX260-216 55nm Sonic mit "custom cooling" ist leider auch nichts... (http://www.techpowerup.com/reviews/Palit/GeForce_GTX_260_Sonic_216_SP/28.html) *schnüff*

Gast
2009-02-21, 11:37:22
P.S.: die Palit GTX260-216 55nm Sonic mit "custom cooling" ist leider auch nichts... (http://www.techpowerup.com/reviews/Palit/GeForce_GTX_260_Sonic_216_SP/28.html) *schnüff*

Würde ich so nicht sagen. Auf den Kühler der Karte kann man wunderwar 2x 92mm Lüfter @7V draufschnallen. Dann ist es sehr sehr leise und die Kühlung sollte dann auch 1A sein!

aths
2009-02-21, 13:55:54
Und wieder falsch... denn da es am SI 'mangelt', kann die Shaderperformance nicht ausgespielt werden.
Sie "verpufft" einfach... wie ebenfalls schon mehrfach gezeigt.Lange und komplexe Shader-Berechnungen benötigen kaum externe Bandbreite (also Bandbreite zum Onboard-Grafikspeicher.)

r@h
2009-02-22, 08:27:40
Würde ich so nicht sagen. Auf den Kühler der Karte kann man wunderwar 2x 92mm Lüfter @7V draufschnallen. Dann ist es sehr sehr leise und die Kühlung sollte dann auch 1A sein!
Sollte... vielleicht.
Möchte einen Test sehen, der das bestätigt.

Lange und komplexe Shader-Berechnungen benötigen kaum externe Bandbreite (also Bandbreite zum Onboard-Grafikspeicher.)
Nur das "Lange und komplexe Shader-Berechnungen" offenbar gar nicht das Problem sind.
Sonst wäre der beobachtete Effekt des Klebens am Speicher-Takt nicht gegeben, gell?

Razor

Bastler
2009-02-22, 09:59:12
als der 92 Chip rauskam habe ich mich gefragt warum nur das 256 Bit Speicher interface.

1. Kostenfaktor.
2. Politik



In 40 nm und mit 512 Bit Speicher ( welcher mittlerweise billiger ist).
kann man noch lange Leistungsfähige( Im unteren Segment) Karten Anbieten ohne Entwicklungskosten. Und die Fertigung ist dann ja lange ausgereift.

Bin auch Überzeugt das die 1,4 Millionen Transistoren des G200 noch mehr drauf haben als mom gezeigt.

Wir werden es sehen.

Viel spass noch beim verbeißen bei diesem Thema

aths
2009-02-22, 16:11:01
Nur das "Lange und komplexe Shader-Berechnungen" offenbar gar nicht das Problem sind.
Sonst wäre der beobachtete Effekt des Klebens am Speicher-Takt nicht gegeben, gell?Aber nicht dort, wo G92 die größten Schwächen hat: Shader-Power. Ältere Spiele, die tendenziell weniger Shader-Power brauchen, laufen auf dem G92 schnell genug. Neuere Spieler hängen primär am Shader und höchstens sekundär am Speicherinterface. Deshalb wäre ein 512-Bit-SI beim G92 vollkommen übertrieben, gell?

In diesem Sinne.

y33H@
2009-02-22, 17:01:40
Wenn man sich hier (http://www.pcgameshardware.de/aid,676324/Geforce-9800-GTX-mit-1-GB-Videospeicher-im-Test/Grafikkarte/Test/?page=1)mal die Unterschiede der 1G-GTX+ mit 1,0 und 1,1 GHz VRAM-Takt anschaut, fällt auf, dass auch mit hohen Settings praktisch nie 10% Differenz erzielt werden [Außnahme ist CoD5 in 1.920 mit 4x MSAA]. Da hat sich im Vergleich zu früher (88GT-Zeiten) imo am Treiber viel getan. Hat mich selbst überrascht, aber ich denke, man muss so langsam Abstand von der These nehmen, der G92 sei gnadenlos Bandbreiten-limitiert. Er ist wenn, dann VRAM-limitiert [mit 512 MiB] ... aber das ist ja eine bekannte Tatsache ;)

cYa

Armaq
2009-02-22, 18:01:51
Im Grunde genommen ist es ja auch völliger Überfluss den wir diskutieren. Die Menge an Multiplattformtiteln lässt die Softwareentwicklung eh nur gebremst voranschreiten. Nur haben wir verzogenen PC-Gamer gerne Auflösung ab 1280x1024 bis 1900x1200 mit 4-8AA + T(M)S(S)AA und einer Texturauflösung mit der Mann das EmpireStateBuilding locker tapezieren könnte.

pest
2009-02-22, 19:12:51
Aber nicht dort, wo G92 die größten Schwächen hat: Shader-Power. Ältere Spiele, die tendenziell weniger Shader-Power brauchen, laufen auf dem G92 schnell genug. Neuere Spieler hängen primär am Shader und höchstens sekundär am Speicherinterface. Deshalb wäre ein 512-Bit-SI beim G92 vollkommen übertrieben, gell?

In diesem Sinne.

Ich habe in diesem Thread doch Crysis-Benches gepostet die genau das wiederlegen

aths
2009-02-22, 21:20:25
Ich habe in diesem Thread doch Crysis-Benches gepostet die genau das wiederlegenDie genau was widerlegen? In Crysis ist sogar die 8800 GS mit 192-Bit-SI, aber 96 SP, in hohen Settings schneller als die 9600 GT mit 256-Bit-SI, aber 64 SP.

pest
2009-02-22, 21:50:00
Die genau was widerlegen?

:confused: der G92 hängt auch bei Shaderlastigen Titeln viel stärker an der Bandbreite, als angenommen, vor allem je höher die vorhandene Rechenkraft ist.

y33H@
2009-02-22, 22:11:33
Wenn dem so wäre, müsste eine GTX+/1G mit 1,1 GHz konstant 8-10% vor einer GTX+/1G mit 1,0 GHz liegen. Dem ist aber nicht so - nV hat da wohl endlich was unternommen.

cYa

pest
2009-02-22, 23:03:46
was poste ich hier eigentlich benchmarks, wenn eh jeder weiter das glaubt, woran er glauben möchte...sinnlos

y33H@
2009-02-23, 00:00:33
Kannst du mir die verlinken? Danke - ich möchte nicht den ganzen Thread durchwühlen.

cYa

pest
2009-02-23, 00:22:41
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7074727&postcount=130

dargo
2009-02-23, 00:31:11
was poste ich hier eigentlich benchmarks, wenn eh jeder weiter das glaubt, woran er glauben möchte...sinnlos
Geht das Theater schon wieder los? :rolleyes:
Ich dachte es wäre schon längst geklärt, dass der G92 nicht am Mangel von Speicherbandbreite verhungert. Und genau das hast du mit deinen Benches bestätigt.

y33H@
2009-02-23, 00:41:41
@ pest

Von 900 auf 1.053 MHz Speichertakt sind es +17% mehr Bandbreite. Mit 602/1.512 MHz gewinnst du dadurch mit 1xAA 6,5% und mit 4xAA 8,3%. Mit 800/2000 MHz gewinnst du dadurch mit 1xAA 10% und mit 4xAA 11%. Das sind prozentual nur 1/3 bis knapp 2/3 der 17% mehr Bandbreite. Im Test der 1G-GTX+ von PCGH ist es btw genauso. Starke Abhängigkeit wäre bei 17% mehr Bandbreite eine Steigerung der Fps um konstant 15-17%, also nahezu linear.

Von einer extremen Abhängigkeit des G92 von der Bandbreite zu sprechen, ist somit Bullshit [soll nicht böse klingen, ich mag das Wort].

cYa

pest
2009-02-23, 00:47:32
Geht das Theater schon wieder los? :rolleyes:
Ich dachte es wäre schon längst geklärt, dass der G92 nicht am Mangel von Speicherbandbreite verhungert. Und genau das hast du mit deinen Benches bestätigt.

habe ich überhaupt nicht, was willst du mir hier erzählen.

@ pest

Von 900 auf 1.053 MHz Speichertakt sind es +17% mehr Bandbreite. Mit 602/1.512 MHz gewinnst du mit 1xAA 6,5% und mit 4xAA 8,3%. Mit 800/2000 MHz gewinnst du mit 1xAA 10% und mit 4xAA 11%. Das sind prozentual nur 1/3 bis knapp 2/3 dessen von den 17% mehr MHz um welchen du den Speichertakt erhöhst. Im Test der 1G-GTX+ von PCGH ist es genauso. Starke Abhängigkeit wäre bei 17% mehr Bandbreite eine Steigerung der Fps um konstant 15-17%, also nahezu linear.

Von einer extremen Abhängigkeit des G92 von der Bandbreite zu sprechen, ist somit Schwachsinn.

cYa

es geht nicht darum wie die skalierung im verhältnis zum speichertakt steht, sondern wie die skalierung unter den einzelnen komponenten ist.
und da reagiert die 8800GT viel stärker auf bandbreitenerhöhung.

dargo
2009-02-23, 00:56:12
habe ich überhaupt nicht, was willst du mir hier erzählen.

Du erhöhst die Bandbreite um 17%, bekommst um 8,3% höhere Frames und willst hier erzählen der G92 hätte zu wenig Bandbreite? OMG... ich bin raus, das wird mir zu bunt.

pest
2009-02-23, 01:03:52
Du erhöhst die Bandbreite um 17%, bekommst um 8,3% höhere Frames und willst hier erzählen der G92 hätte zu wenig Bandbreite? OMG... ich bin raus, das wird mir zu bunt.

du checkst die zahlen einfach nicht

y33H@
2009-02-23, 01:17:06
17% mehr Bandbreite, aber nur max. 11% mehr Fps. Da ist de facto nicht zu wenig Bandbreite vorhanden. Um schlicht diese Tatsache geht es mir. kA was du mit "skalierung unter den einzelnen komponenten" meinst ... kannst es mir aber gerne (verständlich) erläutern. Dass die Bandbreite mit mehr FLOPS usw. wichtiger wird, ist klar und braucht nicht gezeigt zu werden.

Eine lineare Skalierung bei Erhöhung der Bandbreite wirst du aber mit einer handelsüblichen G92(b)-Karte nicht erzielen.

cYa

dargo
2009-02-23, 01:19:45
du checkst die zahlen einfach nicht
;D

Ich frage mich gerade wer hier was nicht checkt.

17% mehr Bandbreite, aber nur max. 11% mehr Fps.
Es sind +8,3%, nicht 11. Also quasi 1:~0,5 :)

y33H@
2009-02-23, 02:12:27
@ dargo

8,3% bei 602/1.512 und 11,0% bei 800/2.000. Wobei letzteres in der Praxis so nicht zu finden ist, da selbst eine GTX+ "nur" mit 738/1.836 läuft.Also quasi 1:~0,5Jepp.

cYa

Raff
2009-02-23, 09:32:49
Es gibt nur eine Grafikkartenserie, die wirklich bandbreitenlimitiert war und ist: die GeForce2. Egal bei welcher GF2, jedes Megahertz mehr Speichtertakt lässt sich in Benchmarks nachweisen. Das Teil war unausgewogen (weil ineffizient), die G92-Karten sind im Direktvergleich "perfekt" ausbalanciert.

MfG,
Raff

pest
2009-02-23, 10:21:03
Ich frage mich gerade wer hier was nicht checkt.


was diskutiere ich eig. mit jmd. der nichtmal nen englischen satz lesen kann


Es sind +8,3%, nicht 11. Also quasi 1:~0,5 :)

ja genau, du schaust dir genau eine zahl an, und schließt daraus...das ist grober unfug, das hast du schon bei deinem bench versucht.
ich habe das resultat schon so aufgehübscht das es eig. jeder verstehen kann

17% mehr Bandbreite, aber nur max. 11% mehr Fps. Da ist de facto nicht zu wenig Bandbreite vorhanden. Um schlicht diese Tatsache geht es mir.


jetzt schau doch nicht auf die eine zahl, verdammt...das gibt doch keine
zulässige aussage, das wird unter realen bedingungen nie linear skalieren
und nur wenn es das tut seid "ihr" der meinung es sei limitiert?


kA was du mit "skalierung unter den einzelnen komponenten" meinst ... kannst es mir aber gerne (verständlich) erläutern. Dass die Bandbreite mit mehr FLOPS usw. wichtiger wird, ist klar und braucht nicht gezeigt zu werden.


ok, ich stelle die frage andersherum. wenn der g92 "perfekt" ausbalanciert ist
wieso reagiert er dann viel stärker auf bandbreitenerhöhung in einem
stark shaderlastigen spiel, als auf die erhöhung der shaderleistung?

y33H@
2009-02-23, 10:41:49
das wird unter realen bedingungen nie linear skalieren
und nur wenn es das tut seid "ihr" der meinung es sei limitiertWenn es unter realen Bedingungen kaum skaliert, limitiert es nicht bzw. kaum.

cYa

pest
2009-02-23, 10:44:39
Wenn es unter realen Bedingungen kaum skaliert, limitiert es nicht bzw. kaum.

cYa

:| - was begrenzt denn deiner meinung nach die performance in dieser situation?

y33H@
2009-02-23, 10:46:18
Ein GTX+ 1G skaliert in erster Linie über den Shadertakt [FLOPS], in zweiter Linie durch den Coretakt [Pixelfillrate für FSAA + hohe Auflösungen] und dann erst mit dem Speichertakt. Zumindest ist das meine Erfahrung.

cYa

Raff
2009-02-23, 10:49:20
So pauschal lässt sich das vermutlich nie sagen. Ohne MSAA wird mehr GPU/ALU-Takt schneller durchschlagen, mit 16xQ zieht mehr VRAM plus Takt. Flaschenhälse lassen sich verlagern.

MfG,
Raff

dargo
2009-02-23, 10:54:10
was diskutiere ich eig. mit jmd. der nichtmal nen englischen satz lesen kann

Ah, jetzt wird mit anderen Waffen geschossen. Für dich ist man also nur als Diskussionpartner mit guten Englischkenntnissen geeignet? Danke, dass du mir die Augen über deine Persönlichkeit geöffnet hast. Schon mal daran gedacht, dass einige Leute hier nicht in DE geboren sind und in der Schule als Fremdsprache kein englisch hatten?


ja genau, du schaust dir genau eine zahl an, und schließt daraus...

Natürlich schaue ich mir nur das eine Ergebnis an, denn nur das ist auschlaggebend. Oder wo kann ich eine G8800GT mit 800Mhz Coretakt und 2000Mhz Shadertakt kaufen? Und selbst wenn es solche OC-Karten geben sollte bezieht sich mein Standpunkt auf ausgewogene Speicherbandbreite bei G92 immer noch auf eine standard G8800GT mit 600/1512/900Mhz. Du scheinst nicht zu verstehen, dass ein IHV bei seinem Referenzdesign ein Produkt plant welches ein gutes Kosten/Nutzen Verhältnis bewahrt. Und genau das tut beispielsweise eine G8800GT in Bezug auf Speicherbandbreite zur Rohleistung.

Es gibt nur eine Grafikkartenserie, die wirklich bandbreitenlimitiert war und ist: die GeForce2. Egal bei welcher GF2, jedes Megahertz mehr Speichtertakt lässt sich in Benchmarks nachweisen. Das Teil war unausgewogen (weil ineffizient), die G92-Karten sind im Direktvergleich "perfekt" ausbalanciert.

Korrekt. :)

pest
2009-02-23, 10:57:17
Ein GTX+ 1G skaliert in erster Linie über den Shadertakt [FLOPS], in zweiter Linie durch den Coretakt [Pixelfillrate für FSAA + hohe Auflösungen] und dann erst mit dem Speichertakt. Zumindest ist das meine Erfahrung.

cYa

ich gebs auf...da kann ich gleich mit ner wand reden...


Natürlich schaue ich mir nur das eine Ergebnis an, denn nur das ist auschlaggebend.


omg...nein ist es nicht!


Du scheinst nicht zu verstehen, dass ein IHV bei seinen Referenzdesign ein Produkt plant welches ein gutes Kosten/Nutzen Verhältnis bewahrt. Und genau das tut beispielsweise eine G8800GT in Bezug auf Speicherbandbreite zur Rohleistung.


hier gehts aber um eine 9800GTX mit theoretischen 512-Bit Bus. Und selbst unter Standardtakten ist sie nicht ausgeglichen, das verraten dir die anderen Zahlen

Gast
2009-02-23, 11:08:13
hier gehts aber um eine 9800GTX mit theoretischen 512-Bit Bus. Und selbst unter Standardtakten ist sie nicht ausgeglichen, das verraten dir die anderen Zahlen
Also ich muss mich auch wundern. Warum wird pest niedergebügelt, wenn er in einem Thread zu einer spekulativen 9800GTX+ mit 512Bit-SI (Hint: Doppelte Bandbreite) der Frage nachgeht, wieweit G92 von Bandbreitenerhöhung profitiert?

In seinem Bench hängt die Karte nicht ausschließlich an der Bandbreite, profitiert aber deutlich von einer Erhöhung. Kann die Grundsatzdiskussion um die reine Lehre "Limitierung" nicht beendet werden. G92 nimmt mehr Bandbreite dankend an, ob das bis zu einer spekulativen Verdopplung noch der Fall wäre, bleibt die Frage, vermutlich wäre er irgendwann unterwegs komplett Shaderlimitiert und das schöne, breite Interface würde teilweise verpuffen?!

Armaq
2009-02-23, 11:13:44
Welches Spiel, ausser Crysis, wäre denn für einen solchen Test geeignet? Ich habe ja zZ. noch frei und würde der Sache mit meiner 9800GTX+ nachgehen. Ich komme glaube auch genau auf die 800/2000 Mhz und könnte demnach ausloten, was geht und was nicht geht. Anzubieten habe ich GoW, Fallout3, GTA IV, Steam (L4D, TF2 etc.), Assassins Creed, CoD4.

Gast
2009-02-23, 11:14:52
Also ich sehe hier auch eher eine Bandbreitenlimitierung. Selbst eine Erhöhung von Core und Shader zusammen bringen nicht annähernd so viel Bandbreitenerhöhung. Außerdem kann man hier sehr schön sehen, dass Crysis überhaupt nicht Shader-Lastig ist, sondern sehr ausgewogen Core und Shader belastet (war selbst auf meiner "nur" 96SP GTX640 auch so).

Zitat:
600/1512/900
4xAA: 27,51 27,86 27,87 = 27,75

700/1512/900 (+16%,0,0)
4xAA: 28,65 28,64 28,66 = 28,65 (+3.2%, 0.60)

600/1728/900 (0,+14%,0)
4xAA: 28,02 28,44 28,44 = 28,30 (+2.0%, 0.43)

600/1512/1053 (0,0,+17%)
4xAA: 30,26 29,72 30,18 = 30,05 (+8.3%, 1.46)

dargo
2009-02-23, 11:24:00
hier gehts aber um eine 9800GTX mit theoretischen 512-Bit Bus. Und selbst unter Standardtakten ist sie nicht ausgeglichen, das verraten dir die anderen Zahlen
Eigentlich gehts im Threadtitel um die G9800GTX+. Dann kommst du wieder mit Benches der G8800GT. Könnt ihr euch mal einigen? :ugly:
Bei der G9800GTX+ ist das Verhältnis zwischen Rohleistung und Speicherbandbreite natürlich etwas schlechter als bei der G8800GT, was eigentlich nur der überdurchschnittlich gestiegenen Shaderleistung zu verdanken ist. Also in überwiegend shaderlastigen Games.

Ich weiß aber ehrlich gesagt nicht was das ganze rumphilosophieren um das 512Bit SI soll? :|
Der ganze Thread ist nur noch lächerlich. Und ich bereue jetzt schon mich hier eingemischt zu haben.

1. Mit einem 512Bit SI könnte man eine G9800GTX+ nicht so preislich gegen eine ATI aufstellen wie es nun der Fall ist.
2. Man könnte mit mehr Speicherbandbreite viel mehr in höhere AA-Modis investieren wobei die Graka wieder an 512MB verhungern würde. Also 1024MB mit 1,1Ghz rein um sie noch teurer zu machen. :hammer:

Ein G92/G92b ist nun mal so wie er ist. Daran lässt sich nichts ändern. ;)

PS: ich überlege mir jetzt schon ob ich einen Thread zum G200 aufmachen sollte. Dazu fällt mir nur folgendes ein:

1. Wie schnell wäre ein G200 ohne das PhysX-Zeugs?
2. Was würde ein höherer Takt und mehr Shadereinheiten bringen?
3. Wie würde ein G200 mit 2GB Vram performen?
4. Wie hoch könnte man einen G200 in 40nm takten?

usw.
usf.

:biggrin:

Armaq
2009-02-23, 11:32:14
Warum du meine Frage lächerlich machst, verstehe ich jetzt nicht.
Es ging mir um die gegebene Konkurrenzfähigkeit des 9800GTX+, auch im Hinblick auf die GT200 Serie. Ein aufgemotzter G92 kann hier doch einiges bewirken.

dargo
2009-02-23, 11:36:47
Es ging mir um die gegebene Konkurrenzfähigkeit des 9800GTX+, auch im Hinblick auf die GT200 Serie. Ein aufgemotzter G92 kann hier doch einiges bewirken.
Ja, dafür reicht es aber nicht nur die Speicherbandbreite auf 140,8GB/s zu erhöhen und den Vram zu verdoppeln.

PS: wer sagt denn überhaupt, dass eine theoretische G9800GTX+ mit einem 512Bit SI die Taktraten von 738/1836Mhz halten kann?

Armaq
2009-02-23, 11:41:32
Ja, dafür reicht es aber nicht nur die Speicherbandbreite auf 140,8GB/s zu erhöhen und den Vram zu verdoppeln.
Recht hast du. Der GT200 enthält auch Verbesserungen, von denen der Spieler erstmal nichts merkt. Er ist aber auch ein sehr teurer Chip. Aber das wurde im Beitrag schon diskutiert.

Captain Future
2009-02-23, 11:42:55
Sorry mal für den Fullquote.

so ich habe ein paar Benches mit Crysis gemacht


E8400@4GHz,4GB DDR2,Vista64 SP1, FW 185.20@HQ
Crysis v1.2 GPU-Bench 1280x1024@High

es wurde jeweils der GPU-Bench 3x3 Loops ausgeführt und die Werte gemittelt

in Klammern hinter den verwendeten Taktraten steht der verwendete Zuwachs im Verhältnis zu den Standardtaktraten (600/1512/900)

nach dem Ergebnis steht der real erreichte FPS-Zuwachs und ein Faktor der angibt wieviel von der rel. Erhöhung aller 3 Komponenten übrig geblieben ist.
Dazu wird die reale Erhöhung durch die gemittelte Erhöhung dividiert.
Größere Werte zeigen eine bessere Resonanz des Systems gegenüber der spezifischen Erhöhung.
Es können auch Werte >1 (max=3.0) auftreten, das bedeutet nicht das die Skalierung überlinear ist, sondern ist der Mittelung geschuldet.
In der letzten Zeile stehen zusätzlich die Werte zum Vorgänger.


600/1512/900
1xAA: 36,10 36,14 36,11 = 36,12
4xAA: 27,51 27,86 27,87 = 27,75

700/1512/900 (+16%,0,0)
1xAA: 36,45 36,44 37,21 = 36,70 (+1.6%, 0.30)
4xAA: 28,65 28,64 28,66 = 28,65 (+3.2%, 0.60)

600/1728/900 (0,+14%,0)
1xAA: 37,30 37,32 37,49 = 37,37 (+3.5%, 0.75)
4xAA: 28,02 28,44 28,44 = 28,30 (+2.0%, 0.43)

600/1512/1053 (0,0,+17%)
1xAA: 37,89 38,78 38,76 = 38,48 (+6.5%, 1.15)
4xAA: 30,26 29,72 30,18 = 30,05 (+8.3%, 1.46)

800/2000/900 (+33%,+32%,0)
1xAA: 40,32 40,31 39,53 = 40,05 (+10.9%,0.50)
4xAA: 30,50 30,10 30,46 = 30,35 (+9.0%, 0.42)

800/2000/1053 (+33%,+32%,+17%)
1xAA: 44,30 44,23 43,64 = 44,06 (+22%,0.80) (+10%,1.76)
4xAA: 33,51 33,48 34,02 = 33,67 (+21%,0.77) (+11%,1.94)





Fazit:
Da der Faktor skaleninvariant ist, kann er als Resultat aller Werteberechnungen zur alleinigen Bewertung herangezogen werden.
In diesem Fall skaliert der Bench mehr über die verfügbare Bandbreite, umso stärker desto höher die verfügbare "Rechenleistung".
Kleine Vorbemerkung: "High" bedeutet maximale DX9-Einstellung, oder? Da sind doch die Shader gar nicht "voll aufgedreht.

Was ich interessant finde (und was mMn die Relevanz von Crysis als Benchmark abwürdigt) ist die Tatsache, dass 4xAA eigentlich einen stärkeren Einfluss auf die Bandbreite haben sollte - hat es hier aber so gut wie nicht.

800/2000/900 (+33%,+32%,0)
1xAA: 40,05 (+10.9%,0.50)
4xAA: 30,35 (+9.0%, 0.42)

800/2000/1053 (+33%,+32%,+17%)
1xAA: 44,06 (+22%,0.80) (+10%,1.76)
4xAA: 33,67 (+21%,0.77) (+11%,1.94)


Ohne RAM-OC brechen die Fps auf 75,8%, mit RAM-OC auf 76,4% der ungeglätteten Variante ein. Bei Bandbreitenabhängigkeit würde ich hier einen stärkeren Einfluss erwarten.

aths
2009-02-23, 18:25:34
Also ich muss mich auch wundern. Warum wird pest niedergebügelt, wenn er in einem Thread zu einer spekulativen 9800GTX+ mit 512Bit-SI (Hint: Doppelte Bandbreite) der Frage nachgeht, wieweit G92 von Bandbreitenerhöhung profitiert?

In seinem Bench hängt die Karte nicht ausschließlich an der Bandbreite, profitiert aber deutlich von einer Erhöhung. Kann die Grundsatzdiskussion um die reine Lehre "Limitierung" nicht beendet werden. G92 nimmt mehr Bandbreite dankend an, ob das bis zu einer spekulativen Verdopplung noch der Fall wäre, bleibt die Frage, vermutlich wäre er irgendwann unterwegs komplett Shaderlimitiert und das schöne, breite Interface würde teilweise verpuffen?!In Bezug auf G92 haben z. B. 8600 GTS und 9600 GT (ganz grob überschlagen) doppelt so viel Bandbreite pro Shader-Anweisung oder gefiltertes Texel. Das bringt in der Tat was, die 8600 GTS war trotz etwa geviertelter Shaderleistung (im Vergleich zur 8800 GTX) als Karte zum Zocken durchaus geeignet und die 9600 GT liegt gegenüber der 8800 GT weniger zurück als man denkt. So gesehen könnte man annehmen, dass die 9800 GTX mit 512-Bit-SI richtig Druck machen müsste. Die Frage ist, zu welchen Kosten. Das 512-Bit-SI würde die Platine erheblich verteuern.

Man muss auch das Segment sehen: 8600 und 9600 sind als jeweilige Midrange-Karten dazu gedacht, neue Spiele nur mit reduzierten Details zu zocken und müssen gute Leistung lediglich bei älteren Spielen bringen. Diese verbrauchen pro Pixel in der Regel mehr Bandbreite (weniger Texturschichten = Color/Z-Anteil steigt (als Durchschnitt auf den Takt gerechnet), kürzere Shader, möglicherweise sogar noch Verzicht auf Texturkomprimierung.)

Die 9800 GTX und GTX+ sollen 8800-GTX-Leistung bringen oder leicht übertreffen, aber günstiger in der Herstellung sein. Also verkleinert man den Chip (inzwischen 55 nm statt 90 nm) und spart nach Möglichkeit an der Speicherinterface-Breite, was so gut es geht durch Optimierungen im Chip und durch allgemeine Taktsteigerungen kompensiert wird. Sicherlich gibts trotzdem Spiele bei denen der G92 am Speicherinterface hängt. Der Trend geht aber zu immer längeren Shadern. Dann geht dem G92 beim Rechnen die Puste aus, während sich der Memorycontroller langweilt.

Ich bin so dreist, zu behaupten, dass ein G92 mit 256 SP (die 64 TMUs können bleiben) bei neuen Top-Titeln schneller wäre als ein 128-SP-G92 mit 512-Bit-SI.