PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GT200/RV770: Taktskalierung


KonKorT
2009-02-27, 19:07:11
Guten Abend liebe 3DCenter-Community,

ich möchte Euch im folgenden einen Test vorstellen, der die Taktskalierung von GT200 und RV770 in sieben Applikationen unter zwei Settings thematisiert.

Entgegen vieler Ansichten scheinen GT200 und RV770 absolut nicht shaderlimitiert in heutigen 3D-Spielen.
Bei RV770 im Besonderen ist aufgefallen, dass die reine Erhöhung des Speichertakts überraschend viel bringt.

Folgend das kompakte Fazit und der Link zum Test:

Der Test hat gezeigt, dass aktuelle Grafikchips in aktuellen Spielen nicht shaderlimitiert sind. Insgesamt sind sowohl der GT200 als auch der RV770 relativ ausgeglichen. Der GT200 reagiert am Stärksten noch auf den Chiptakt, allerdings nur in einem mäßigen Maß gegenüber seinen anderen Taktdomänen. Definitiv ist der GT200 auch nicht bandbreitenlimitiert, eine Steigerung der Speichertaktfrequenz brachte bei unseren Messungen am Wenigsten.

Beim RV770 gestaltet sich die Sache da schon anders: Eine Erhöhung der Speicherbandbreite führte zu einer ähnlichen Leistungssteigerung wie die Anhebung des Chiptakts, welcher immerhin beim RV770 Taktgeber für die Shader, TMUs und ROPs ist. Da der RV770 im Form der Radeon HD 4850 auch in einer Variante mit noch deutlich weniger Speicherbandbreite vorzufinden ist, kam diese Erkenntnis etwas überraschend. Ursache könnten aber auch die absolut gesunkenen Speicherlatenzen durch die Speichertakterhöhung sein. Insgesamt zeichnet sich das Gesamtbild des RV770 zumindest auf der Radeon HD 4870 aber noch als relativ ausgeglichen aus.

Darüber hinaus ist auffällig geworden, dass der GT200 mit steigendem Takt tendenziell besser skaliert als der RV770.


GT200/RV770: Taktskalierung (http://www.hardware-infos.com/tests.php?test=58)


Allen Lesern an dieser Stelle viel Spaß beim Lesen. Ich würde mich über Kritik und Anregungen sehr freuen!

Gast
2009-02-27, 19:19:21
Ich bin grad beim Vantage angekommen und mir stellt sich die Frage, was genau ihr da eigentlich zeigen wollt.

Carsten

KonKorT
2009-02-27, 19:25:48
Dann hast Du offenbar die Einleitung übersprungen. ;)

"Vergangenen Sommer präsentierten ATI und Nvidia ihre neusten Grafikgeschosse. Doch wo liegt die Achillesferse der neuen Chips? Man munkelt, aktuelle Spiele würden nach immer mehr Shader lechzen und die Textur- und Rasterierungsperformance immer mehr an Bedeutung verlieren. Aber stimmt das wirklich? Sind die neusten ATI- und Nvidia-Produkte shaderlimitiert? Wir haben nachgemessen!"

Es werden die einzelnen Taktdomäne gesteigert und geschaut, welches den größten Nutzen bringt. So lässt sich auf Flaschenhälse schließen.

Mr. Lolman
2009-02-27, 19:36:22
Anhand der Ergebnisse geh ich davon aus, dass ihr mit einer 512MB HD4870 gebencht habt. Wenn der Speicher ausgeht skaliert das Ding mit steigendem Takt natürlich nicht mehr sogut.


Außerdem solltet ihr dringendst eure Balken überarbeiten. Der optische Unterschied zw. zB. 12,98 und 14,10fps darf auf keinen Fall doppelt so groß sein, wie der Unterschied zw. 14,10 und 15,65!



EDIT: Der verlinkte Test von PCGH ist auch interessant, krankt aber wohl an dem Umstand, dass die Treiber damals noch nicht besonders gut optimiert waren. Denn wenn ich mir ixbtlabs' I3DSPeed von November 2008 ansehe, ist zB bei Crysis die 4870 zT. mehr als doppelt so schnell wie die 3870. Mit dem Catalyst 9.2 dürfte sich das Verhältnis noch mehr zugunsten der 4870 verschoben haben.

Gast
2009-02-27, 19:42:38
Dann hast Du offenbar die Einleitung übersprungen. ;)

"Vergangenen Sommer präsentierten ATI und Nvidia ihre neusten Grafikgeschosse. Doch wo liegt die Achillesferse der neuen Chips? Man munkelt, aktuelle Spiele würden nach immer mehr Shader lechzen und die Textur- und Rasterierungsperformance immer mehr an Bedeutung verlieren. Aber stimmt das wirklich? Sind die neusten ATI- und Nvidia-Produkte shaderlimitiert? Wir haben nachgemessen!"

Es werden die einzelnen Taktdomäne gesteigert und geschaut, welches den größten Nutzen bringt. So lässt sich auf Flaschenhälse schließen.
Und du nicht eure Benchmark-Settings. Wollt ihr aufgrund der Spieleperformance samt äußerer Einflüsse, die ihr noch verstärkt durch AA/AF, auf Low-Level-Performances schließen? Mutig, mutig.

Carsten

Spasstiger
2009-02-27, 19:45:17
Danke für die Benches, damit kann ich direkt mal mein Modell verifizieren.

Das kommt bei meinem Modell ganz ohne Benchmarks raus:

http://www.abload.de/img/geforce_gtx280_scaling3osf.png

http://www.abload.de/img/radeon_hd4870_scalingzzsh.png

http://www.abload.de/img/radeon_hd4870_512_scalhsuz.png

/EDIT: Sieht so aus, als ob ich bei der GTX 280 die Texel- oder Pixelfüllrate ein wenig zu schwach gewichte. Bei der Radeon HD 4870 gewichte ich offenbar die Speicherbandbreite etwas zu schwach.

y33H@
2009-02-27, 19:48:20
@ Mr. Lolman

Laut Test ein 1G-Modell.

cYa

Mr. Lolman
2009-02-27, 19:54:48
@ Mr. Lolman

Laut Test ein 1G-Modell.

cYa


Oha. Hoppla. :redface:

KonKorT
2009-02-27, 21:03:47
Außerdem solltet ihr dringendst eure Balken überarbeiten. Der optische Unterschied zw. zB. 12,98 und 14,10fps darf auf keinen Fall doppelt so groß sein, wie der Unterschied zw. 14,10 und 15,65!

Nachdem sich das mit 1024 MiB geklärt hat, ist auch das behoben. Bei Erstellung der Balkenlänge wurde auf Ganzzahlen zurückgegriffen, jetzt werden auch Nachkommastellen berücksichtigt, womit das ganze etwas präziser abläuft.
Danke für den Hinweis!

Und du nicht eure Benchmark-Settings. Wollt ihr aufgrund der Spieleperformance samt äußerer Einflüsse, die ihr noch verstärkt durch AA/AF, auf Low-Level-Performances schließen? Mutig, mutig.

Carsten

Man hätte optional noch ohne AA/AF benchen können. Ich werde es für den nächsten Test (RV870/GT300 ;)) berücksichtigen.

Mit AA/AF, so wie es jetzt ist, ist es natürlich deutlich praxisorientierter. Es ist ja gerade interessant, wie sie mit AA/AF zurecht kommen, solange der VRAM nicht voll wird.

=Floi=
2009-02-28, 00:03:47
ohne aa af kannst du dir sparen. Eher noch ne weitere auflösung und 8xaa

KonKorT
2009-02-28, 00:15:26
Auflösung macht ja offenbar kaum einen Unterschied. Mir ist nur aufgefallen, dass prinzipiell alle Konfigs bei der höheren Auflösung etwas schlechter skalieren. Aber das ist auch nur marginal und könnte im Rahmen der Messtolleranz fallen.
8xAA? Hmm, vielleicht würde das ganze dann noch ROP- und speicherlastiger. ;)

Unyu
2009-02-28, 00:22:54
Was soll 8xAA bringen?
Das wir alle sehen können, wie GT200 1:1 mit dem Chiptakt skaliert?

Stormscud
2009-02-28, 09:08:22
Ich finds i.O.
Danke für den Test! 4*AA sollte doch noch immer die am Häufigsten genutzte AA-Auflösung sein. Man hätte vllt. noch 2 Tests mit 8*AA und komplett ohne AA machen können. Praktisch ob sich da was an den Ergebnissen ändert.

KonKorT
2009-02-28, 09:43:43
Was mir persönlich übringens bei diesem Test bewusst wurde:

Es kursieren ja noch Gerüchte, der RV790 sei nur ein RV770 mit höherem Chiptakt, nämlich 950 statt 750 MHz. Der Speichertakt würde bei 900 MHz verbleiben.
Sofern ATI keine weiteren Änderungen am Chipdesign vorgenommen hat - gut, davon ist nach der monatelangen Entwicklung eher weniger von auszgehen ;) -, sollte die 27 prozentige Chiptakterhöhung gerade mal in 10-15 Prozent Mehrperformance umschlagen.

Ph0b0ss
2009-02-28, 09:47:43
Interessant ist, dass der G200 kaum an der Bandbreite hängt! Da wäre dann also noch eine Ultra oder ein G200 @40nm mit bis zu 900/2000 Core/Shader ohne Probleme bei GDDR3 @1400Mhz möglich.:eek::cool:

KonKorT
2009-02-28, 10:02:23
Rate mal, warum die GT21x-Reihe aller Voraussicht nach maximal mit einem 256 Bit breiten Speicherbus ausgestattet sein wird? ;)
Dass es in dem Ausmaße ist, hat mich aber zugegeben auch schon überrascht.

Gast
2009-02-28, 13:54:11
Interessant ist, dass der G200 kaum an der Bandbreite hängt!

mit einem 512bit-interface auch nicht weiter verwunderlich.

GeneralHanno
2009-02-28, 14:39:06
nur hängt die ROP anzahl leider oder auch nicht leider mit dem SI zusammen. ich find's aber krass, dass ATi fast genau so gut mir der speicherbandbreite wie mit dem chiptakt skaliert. beim R600 konnte man ja den speichertakt halbieren ohne große einbußen ;)

LovesuckZ
2009-02-28, 14:50:59
Der r600 hatte auch nur 16 TMUs und fast die Bandbreite des rv770 mit 2,5 bzw. des GT200 mit 5 fach sovielen. Logisch, dass er kaum Leistung verliert, wenn die Bandbreite halbiert wird.

Coda
2009-02-28, 15:26:39
mit einem 512bit-interface auch nicht weiter verwunderlich.
Die Speicherfrequenz ist natürlich total irrelevant. ATI hat bei RV770 mit der halben SI-Breite fast die gleiche Bandbreite durch GDDR5.

=Floi=
2009-02-28, 17:14:09
kann man diese bandbreite eigentlich auch mit einem programm messen? In der praxis sollte der durchsatz schon ein stück geringer sein, da hier die latenzen auch eine rolle spielen.

Mr. Lolman
2009-02-28, 17:52:35
Laut dem Programm http://www.m3fe.com/content/fillratetest/ erreicht meine HD4870@825/1150 knapp 92GB/s, was zwar weit weg vom theoretischem Soll ist, aber für den ersten Platz in den Charts reicht. ;)

http://www.m3fe.com/fillratetestweb/ViewResults.php



EDIT:
Mit 825/900 sinds ~82GB/s...
Mit 850/1200 sinds ~94GB/s...

Lawmachine79
2009-02-28, 18:18:43
Ich hätte eigentlich eher getippt, daß NV bandbreitenlimitiert ist (wegen den Schwächen bei 8xMSAA) und ATI bei der Texturfüllrate.

Spasstiger
2009-02-28, 20:04:50
Ich hätte eigentlich eher getippt, daß NV bandbreitenlimitiert ist (wegen den Schwächen bei 8xMSAA) und ATI bei der Texturfüllrate.
Die 8xAA-Schwäche hat mit der Speicherbandbreite nichts zu tun.

Sonyfreak
2009-02-28, 21:44:44
Interessanter Test finde ich. Ich dachte bisher immer, dass die Leistung linear mit dem Takt ansteigt. Warum eigentlich nicht? Wegen den Latenzen oder wie?

Laut dem Programm http://www.m3fe.com/content/fillratetest/ erreicht meine HD4870@825/1150 knapp 92GB/s, was zwar weit weg vom theoretischem Soll ist, aber für den ersten Platz in den Charts reicht. ;)
http://www.m3fe.com/fillratetestweb/ViewResults.phpUnd meine übertaktete GTX 280 knackt nichtmal die 49GB/s Marke. Ich glaub wirklich zuverlässig ist das Programm nicht. :wink:

mfg.

Sonyfreak

Mr. Lolman
2009-02-28, 22:06:14
Interessanter Test finde ich. Ich dachte bisher immer, dass die Leistung linear mit dem Takt ansteigt. Warum eigentlich nicht? Wegen den Latenzen oder wie?

Und meine übertaktete GTX 280 knackt nichtmal die 49GB/s Marke. Ich glaub wirklich zuverlässig ist das Programm nicht. :wink:

mfg.

Sonyfreak

Komisch. Hab mich auch schon ziemlich gewundert, warum die 2 GTX260 so schlecht abschneiden. Trotzdem skalieren die Werte halbwegs den Taktraten entsprechend (GPU-Takt hat kaum Auswirkungen auf die Speicherbandbreite)
Vll. war die Karte nicht im 3D-Modus?


Naja, werd ich die Liste wohl noch etwas länger anführen :biggrin:

Gast
2009-02-28, 22:29:42
Vielleicht limitiert bei den heutigen schnellen karten etwas anderes??

GeneralHanno
2009-02-28, 23:31:52
naja, die GPU wird um 20% schneller getaktet, der rest des systems (insb. die CPU) nicht => also nur ~19% mehr FPS ;)

Gast
2009-03-01, 20:25:30
Dann hast Du offenbar die Einleitung übersprungen. ;)

"Vergangenen Sommer präsentierten ATI und Nvidia ihre neusten Grafikgeschosse. Doch wo liegt die Achillesferse der neuen Chips? Man munkelt, aktuelle Spiele würden nach immer mehr Shader lechzen und die Textur- und Rasterierungsperformance immer mehr an Bedeutung verlieren. Aber stimmt das wirklich? Sind die neusten ATI- und Nvidia-Produkte shaderlimitiert? Wir haben nachgemessen!"

Es werden die einzelnen Taktdomäne gesteigert und geschaut, welches den größten Nutzen bringt. So lässt sich auf Flaschenhälse schließen.

Na-ja, wirklich entkräften konntet ihr die Shaderlimmitierung auch nicht. Klar, ihr habt den Shadertakt angehoben, was wenig gebracht hat. Aber warum? Weil etwa TMUs oder ROPs der limitierende Faktor ist? Nein, das kann man daraus nicht eindeutig schließen, den an die Shader verteilt ein Thread-Manager die ganzen Aufgaben und der taktet nun mal mit Chiptakt, weswegen die Steigerung des Shadertaktes nur in Verbindung mit dem Chiptakt etwas bringt. Das wäre eine zweite mögliche Deutung, womit eure Ergebnisse nicht eindeutig die Shaderlimmitierung ausschließen.

KonKorT
2009-03-01, 21:05:20
Der Thread-Manager wird meines Wissens beim GT200 mit halbem Shadertakt angesprochen und ist damit unabhängig vom Chiptakt.

Gast
2009-03-01, 22:37:55
Warum hat man den Speicher nicht mal übertaktet um zu schauen wie es dann aussieht?

Der_Korken
2009-03-01, 22:58:37
Interessanter Test! Was ich erstaunlich finde, dass die Karten im Grunde so gut ausbalanciert sind. Bei der HD4870 war ich zB der Meinung, dass mehr Speichertakt nichts bringt, weil die Karte sowieso mehr als genug hat und die 4850 trotz 45% weniger Bandbreite nur um 20 bis 25% zurückliegt. Das scheint hier wohl widerlegt zu sein. Bei der GTX200 hat man oft was von Shaderlimit gehört, aber das hat mit der Praxis anscheinend wenig zu tun. Ich würde ja auf ein ROP-Limit tippen, denn man sieht oft genug, dass sich eine GTX260-216 selten von der 192er absetzen kann, weil eben beide Karten gleich viele ROPs haben.

Spasstiger
2009-03-01, 23:01:42
Ich würde ja auf ein ROP-Limit tippen, denn man sieht oft genug, dass sich eine GTX260-216 selten von der 192er absetzen kann, weil eben beide Karten gleich viele ROPs haben.
Da gibts kein spezielles Limit. Wenn man nur zwei von vielen Komponenten um x% aufstockt, wird man keine Leistungssteigerung von x% haben. Aber auch keine Leistungssteigerung von 0%. Die Wahrheit liegt irgendwo dazwischen.
Wenn die Leistungssteigerung x% betragen würde, dann hieße dass, dass die zwei aufgestockten Komponenten komplett limitiert haben und somit maßlos unterdimensioniert wären.

Gast
2009-03-03, 20:32:43
Hmm? noch einen dritte Taktdomäne nur für Thread-Manager? Das glaube ich jetzt nicht, KonKort. Wie wäre es mit Quellen?

Coda
2009-03-03, 20:48:30
Es ist keine dritte Taktdomäne an sich, der Takt wird vom Shadertakt halbiert.

KonKorT
2009-03-04, 12:23:36
Hmm? noch einen dritte Taktdomäne nur für Thread-Manager? Das glaube ich jetzt nicht, KonKort. Wie wäre es mit Quellen?

Nein, keine dritte Taktdomäne, sondern nur halber Shadertakt (wie erwähnt).

Quelle: Beyond3D (http://www.beyond3d.com/content/reviews/51/7)

"The GTX 280 is the current GT200-based flagship. It uses GT200 with all units enabled, giving it 240 FP32 SPs, 30 FP64 SPs, 512-bit external memory bus and 1024MiB of connected DRAMs. The chip is clocked at 602MHz for the base clock, 1296MHz for the hot clock, and thus 648MHz for the global scheduler."