PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Flaschenhals? Wo zwickt's?


lingua
2012-03-02, 20:24:56
Wo liegt bei heute aktuellen GPUs / Architekturen die "Engstelle" ?

Fermi: GF110/114, GF100/104
NI: Cayman / RV940
SI: Tahiti / Cap Verde
+Derivate

- Shaderleistung / Output
- ROP Leistung / Output
- Bandbreite
- Texturierleistung / Output
- Geometrieleistung / Output

Output : Was von der Theorie tatsächlich auf die Strasse kommt

xxMuahdibxx
2012-03-02, 22:00:36
Und die Software vernachlässigen wir einfach mal ....

Treiber und co probieren ja vieles rauszuholen aber wenn jemand halt einseitig optimiert läufts auf der einen Grafikkarte mit 90-100% Auslastung und bei einer anderen halt teilweise nur mit 50 % .

lingua
2012-03-02, 22:36:19
Und die Software vernachlässigen wir einfach mal ....

Treiber und co probieren ja vieles rauszuholen aber wenn jemand halt einseitig optimiert läufts auf der einen Grafikkarte mit 90-100% Auslastung und bei einer anderen halt teilweise nur mit 50 % .


Ja - hast natürlich recht - hätte ich gleich dazuschreiben sollen....

Trotz sehr hoher theoretischer Leistung bringt Tahiti beispielsweise nicht so den mächtigen Schub ggü prev Gen GF110 - wieso? Ich kann mir schwer vorstellen, dass man bei AMD wissentlich am Frontend/Backend (wie immer mal wider hier gemutmaßt) spart und die Recheneinheiten nicht genügend füttert.
Oder umgekehrt: Würde man viel für theoretische Rechenkraft (transistortechnisch) ausgeben, wenn man sie nicht nutzen kann? - scheint mir in kleinster Weise nachvollziehbar.

Wie würde ein GF114 mit 512SP vs. GF110 in Spielen abschneiden (taktgleich und bei ansonsten unverändertem Setup)?
Oder ist GF114 ausgewogen, so wie er ist?

Ist Tahiti / Cap Verde ausgewogen?

PCGH_Carsten
2012-03-02, 23:01:58
Ausgewogen wofür?

Tahiti und überhaupt alle GCN-Chips gehen bsw. beim Raytracing ab wie Schmidts Katze. Ohne die Graphics Pipeline bekommen sie offenbar die Rechenleistung gut auf die Straße.

xxMuahdibxx
2012-03-03, 08:54:42
Wenn die Grafikkartenhersteller die Perfekte Mischung gefunden hätten wieso Optimieren sie dann immer noch ?

Na weil die Spieleprogrammierer immer neue Features einbauen und damit die Balance sich immer wieder verschiebt .

Einfach zu sagen die GF114 ist zu 100 % ausgelastet geht halt nicht .

Das ist wie mit Beschleunigungswerten bei Autos ... eigentlich packts Das Auto XYZ in 7 Sekunden von 0 auf 100 aber wenns Berg hoch geht halt nicht ( schlecht optimiertes Spiel )
aber Berg runter packt ers auch in 6 ( perfekt optimiertes Spiel ) .

lingua
2012-03-03, 20:18:35
Ausgewogen wofür?



Tahiti und überhaupt alle GCN-Chips gehen bsw. beim Raytracing ab wie Schmidts Katze. Ohne die Graphics Pipeline bekommen sie offenbar die Rechenleistung gut auf die Straße.

Im Sinne von (Beispiel):
Zwischen einer GT430 und einer GT440 gibts nicht viele Unterschiede, letztgenannte hat mit GDDR5 75% mehr Speicherbandbreite und ein bisschen mehr Takt. Ergebnis: die GT440 ist unwesentlich schneller (lohnt eigtl. nicht).
Bremsen hier die ROPs? - und sind die transistortechnisch so "schwer", dass man die wegrationalisiert hat?

Zwischen GTX570 und GTX560ti gibts viele Unterschiede; dennoch interessiert mich, wieso man mit den TMUs bei GF110 so "sparsam" im Vergleich zu GF114 umgeht? Oftmals ist die GTX570 nicht drastisch weit vor einer GTX560ti - trotz recht deutlicher Überlegenheit in allen weiteren technischen Belangen

Eine HD6870 ist trotz mehr Takt und 1120 SP oftmals nicht weit vor einer HD6850. Wo ist die Engstelle?

Ausgewogenheit:

Die HD6870 hätte ja auch 960SP haben können (physikalisch), der Chip ansonsten gleich, mehr Takt, mehr Leistung (reines hypothetisieren).

Übertrieben:
Ist: GF110 mit 512 SP / 64 TMU / 48 ROP / 384 Bit DDR vs.
Fantast1: GF110 mit 256 SP /128 TMU / 16 ROP / 256 Bit DDR
Fantast2: GF110 mit 1024 SP / 32 TMU / 32 ROP / 128 Bit DDR

Mal abgesehen vom Transistorbudget, in welches jede GPU nunmal reinpassen muss, ist denke ich ersichtlich, was ich mit ausgewogen meine.

Wenn die Grafikkartenhersteller die Perfekte Mischung gefunden hätten wieso Optimieren sie dann immer noch ?

Na weil die Spieleprogrammierer immer neue Features einbauen und damit die Balance sich immer wieder verschiebt .

Einfach zu sagen die GF114 ist zu 100 % ausgelastet geht halt nicht .

Das ist wie mit Beschleunigungswerten bei Autos ... eigentlich packts Das Auto XYZ in 7 Sekunden von 0 auf 100 aber wenns Berg hoch geht halt nicht ( schlecht optimiertes Spiel )
aber Berg runter packt ers auch in 6 ( perfekt optimiertes Spiel ) .

Hmm....
Ich stimme zu. Von dieser Seite habe ich das nicht betrachtet.

Aber wenn ich einen Chip designe, dann weis ich noch nicht (denke ich), was in den Folgejahren von der Spieleindustrie kommt (oder doch?) und muss vielleicht "blind" vorpreschen.

Krasses Beispiel: Nvidias NV30 war in der Designphase, da hat Microsoft ja noch nichtmal DX9 fertig spezifiziert - und PS2.0 ging daneben (Fehldesign).

lingua
2012-03-03, 20:23:31
@ Carsten

...ohne die Graphics Pipeline?

Was soll denn das heißen?

Piffan
2012-03-03, 20:49:46
Eigentlich ist die Frage schon längst beantwortet. Wo der Flaschenhals liegt, lässt sich nicht pauschal sagen, früher mal in der Anfangszeit der komplexen Grafikchips von Nnvidia (TNT; Geforce) war es sicher die Bandbreite. Heute ist das Thema zu komplex, um es mit einer einfachen Antwort zu sagen. Oder andersrum: Wenn die Software für ein Design optimiert wird, läuft es gut. Oder wenn die Chips für einen Anwendungsfall optimiert werden, läuft es gut....

PCGH_Carsten
2012-03-03, 22:32:55
Ohne Graphics Pipeline soll heißen, dass zum Beispiel Triangle-Setup und Rasterisierung entfallen.

eraser-x
2012-03-03, 22:57:04
sind diese engpässe denn nur auf den gaming bereich in diesem thread angesprochen
oder allg. auf alle anwendungen ?

weil es gibt ja deutlich mehr als nur bissel zocken im grakabereich

mfg

lingua
2012-03-03, 23:18:09
Ohne Graphics Pipeline soll heißen, dass zum Beispiel Triangle-Setup und Rasterisierung entfallen.

Impliziert das, dass genau hierbei SI's Flaschenhals liegt? (Triangle-Setup und Rasterisierung, also Geometrie)

lingua
2012-03-03, 23:26:47
sind diese engpässe denn nur auf den gaming bereich in diesem thread angesprochen
oder allg. auf alle anwendungen ?

weil es gibt ja deutlich mehr als nur bissel zocken im grakabereich

mfg

Naja - nachdem sowieso nicht alle Anwendungen gleiche Anforderungen haben, lässt sich das aus dieser Sicht schwer beantworten.
ABER: wohl eher gemeint ist der Gaming - Bereich

PCGH_Carsten
2012-03-03, 23:29:08
Das ist ein möglicher Umkehrschluss. Ich denke aber nicht, dass sich das so pauschal sagen lässt.

aths
2012-03-04, 01:04:35
Eigentlich ist die Frage schon längst beantwortet. Wo der Flaschenhals liegt, lässt sich nicht pauschal sagen, früher mal in der Anfangszeit der komplexen Grafikchips von Nnvidia (TNT; Geforce) war es sicher die Bandbreite. Heute ist das Thema zu komplex, um es mit einer einfachen Antwort zu sagen. Oder andersrum: Wenn die Software für ein Design optimiert wird, läuft es gut. Oder wenn die Chips für einen Anwendungsfall optimiert werden, läuft es gut....Bandbreite ist immer noch das Thema Nummer Eins. Zwar bringt Speicherübertaktung oft nicht viel, was ja heißen würde, dass es eher an der Rechenleistung mangelt, doch wenn man einen Schritt zurück geht, sieht man, die GPU alle möglichen Dinge spendiert bekommt. Also eine überdimensionierte Tesselationseinheit, recht große Caches, weitgehend IEEE754-konforme Double-Precision-Rechernwerke obwohl die für Spieler uninteressant sind – doch bei der Bandbreite wird geknausert. Da gibt dann auch schon mal krumme Werte wie 192 Bit.

lingua
2012-03-04, 12:05:02
Bandbreite ist immer noch das Thema Nummer Eins. Zwar bringt Speicherübertaktung oft nicht viel, was ja heißen würde, dass es eher an der Rechenleistung mangelt, doch wenn man einen Schritt zurück geht, sieht man, die GPU alle möglichen Dinge spendiert bekommt. Also eine überdimensionierte Tesselationseinheit, recht große Caches, weitgehend IEEE754-konforme Double-Precision-Rechernwerke obwohl die für Spieler uninteressant sind – doch bei der Bandbreite wird geknausert. Da gibt dann auch schon mal krumme Werte wie 192 Bit.

Ich interpretiere hier "Bandbreite" als Datendurchsatz - vom Hauptspeicher (Video) angefangen über alle Caches, Interconnect der Ausführungseinheiten etc. - korrekt?

Aber, danke, Du bringst es auf den Punkt: manches ist überdimensioniert, anderes vielleicht zu knapp bemessen. Ich meine, mich an Vergleiche erinnern zu können, die Du anhand einer G84-GTS vs. G92-GTX gemacht hast, die auch die Ausgewogenheit der Chips (am Rande) berührten. Damals, nicht unbekannt, wünschten sich bei G92 viele mehr Bandbreite. G84, obwohl deutlich schlanker, schien hier in Relation deutlich ausbalancierter zu sein...

Skysnake
2012-03-04, 12:51:18
Die Bandbreite allein ist nicht mal alles. Du musst auch schlicht genug zu tun haben für die ganzen Einheiten, und natürlich muss man auch die entsprechenden Daten an der richtigen Stelle haben.

Je nach dem kann man da sehr schnell sich selbst ein Bein stellen und die Performance ins bodenlose fallen lassen.

Ich sags mal so. Zwischen völlig unoptimierten Code und extrem gut optimierten Code kann schnell mal ein Faktor 20-100 liegen. In Games wirst du wohl irgendwas zwischen 20 und 75% vom Maximalwert erreichen, einfach weil das schon ausreichend ist, bzw. das Zeug halt nicht nur auf einer Karte gut laufen muss, sondern auf vielen unterschiedlichen.

DAS ist ja der große Vorteil, den Konsolen haben. Es gibt GENAU! eine Hardwareplattform, auf die man dann optimieren kann.

Deswegen haben die APUs von AMD auch eine verdammt gute Chance für die Zukunft, da wohl alle Next-Gen Konsolen auf GPUs/APUs von AMD setzen werden. Da wird also für die Dinger optimiert wie blöd. Klar die Chips werden teilweise custom sein mit eDRAM etc. aber dennoch werden die APUs sehr davon profitieren.