PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Warum skaliert ATI besser in höheren Auflösungen?


Gast
2008-03-28, 14:43:05
Ich wollte mal wissen warum ATI Graka weniger Leistung verlieren in höheren Auflösung?


http://www.abload.de/img/08lzi3.jpg


http://www.abload.de/img/cry12800e2.gif (http://www.abload.de/image.php?img=cry12800e2.gif)

http://www.abload.de/img/cry1600xte.gif (http://www.abload.de/image.php?img=cry1600xte.gif)

http://www.abload.de/img/cry1920j52.gif (http://www.abload.de/image.php?img=cry1920j52.gif)

Gast
2008-03-28, 14:53:34
Ich wollte mal wissen warum ATI Graka weniger Leistung verlieren in höheren Auflösung?

möglicherweise weil die treiber mehr cpu-last erzeugen, wodurch die karten in niedrigen auflösungen nicht so schnell rendern könnten wie sie es von ihrer leistungsfähigkeit her eigentlich könnten.

GeneralHanno
2008-03-28, 15:01:47
ich behaupte mal, das liegt an dem bandbreiten und speicherhunger der GF9x. 256bit und 512MiB sind bei nvidias speicher(menge und durchsatz)management einfach zu wenig. ATi hat das besser im griff!

€dit: man sieht das sehr schön, wie der G80 mit 1600*1200 und höher wenig wegbricht, die 88GT aber massiv!

Gast
2008-03-28, 15:02:47
Hmm hätte erst auf die Bandbreite getipt, aber daran liegt es wohl nicht da die 8800GTX ja eine höhere hat.

GeneralHanno
2008-03-28, 15:08:28
selbst beim G80 kann die bandbreite/speichermenge limitieren!

außerdem muss man sich zurück erinnern was ATi beim shrink R600->RV670 gemacht hat. da man das SI halbiert hat (und somit die bandbreite um 40% gekürzt) wurden neue komressionstechniken eingebaut, um bandbreite zu sparen.

zudem ist der unterschied in der skalierung G80, RV670 relativ gering, der G92 verliert unter hohen auflösungen dagegen massiv!

Gast
2008-03-28, 15:16:36
ich behaupte mal, das liegt an dem bandbreiten und speicherhunger der GF9x. 256bit und 512MiB sind bei nvidias speicher(menge und durchsatz)management einfach zu wenig.


die anforderungen an die bandbreite steigt bei höherer auflösung im verhältnis zur rechenleistung gleich stark an.
im gegenteil der anstieg am bandbreitenbedarf sollte bei höherer auflösung sogar etwas geringer sein als jener an die rechenleistung (höhere auflösung -> mehr texturen im maginification-bereich -> höhere trefferrate im texturcache -> geringere anforderungen an die bandbreite pro pixel)

Labberlippe
2008-03-30, 20:25:19
möglicherweise weil die treiber mehr cpu-last erzeugen, wodurch die karten in niedrigen auflösungen nicht so schnell rendern könnten wie sie es von ihrer leistungsfähigkeit her eigentlich könnten.


Hi

Soviel CPU Last kann gar nicht erzeugt werden, das dies derart merkbar wäre.

Gruss Labberlippe

anddill
2008-03-30, 21:20:26
Zumal die CPU-Last der Grafiktreiber schon seit Jahren auf den zweiten Kern verlagert wird.

MikBach
2008-03-30, 22:00:47
Das Thema interessiert mich auch,
allerdings glaube ich, dass hier niemand eine Antwort liefern kann.
Selbst so faehige Leute wie z.B. Demirug, Aths oder Coda.
Leider

Coda
2008-03-30, 22:02:53
Die Antwort dürfte wohl einfach sein, dass die Speicherhierarchie der G92-Karten einfach nicht auf 8xAA oder so hohe Auflösungen optimiert wurde.

MikBach
2008-03-30, 22:10:41
Die Antwort dürfte wohl einfach sein, dass die Speicherhierarchie der G92-Karten einfach nicht auf 8xAA oder so hohe Auflösungen optimiert wurde.
So einfach, wie du es dir vorstellst ist es auch wieder nicht.
lassen wir 8xAA aussen vor, trotzdem skalieren die ATI/AMD-Karten beser mit hoher Aufloesung,
Ich tippe mal auf Hierarch-Z.

Coda
2008-03-30, 22:19:57
So einfach, wie du es dir vorstellst ist es auch wieder nicht.
Ach nein und wieso nicht?

Ich tippe mal auf Hierarch-Z.
Das gehört genauso zur Speicherhierarchie.

Zu kleine Buffer, nicht angepasstes Prefetching, falsche Lastzuweisung und schon hast du Performanceeinbrüche.

LovesuckZ
2008-03-30, 22:22:09
Im aktuellsten Test von Computerbase.de sind es eher die AMD (hier 3870) die abbauen (8800GT).

MikBach
2008-03-30, 22:28:19
Ach nein und wieso nicht?
Mit dem nachfolgenden Satz hast du bewiesen, warum es so ist....


Das gehört genauso zur Speicherhierarchie.

Zu kleine Buffer, nicht angepasstes Prefetching, falsche Lastzuweisung und schon hast du Performanceeinbrüche.
Ja, warum nennt denn niemand Hier-Z?
So besteaetigst du nur meine Vermutung, Coda.

MikBach
2008-03-30, 22:31:17
Im aktuellsten Test von Computerbase.de sind es eher die AMD (hier 3870) die abbauen (8800GT).
LS, keinen Plan oder was?
Dieses "Problem" ist schon seit der 7500er bekannt.
Die AtTIs verlieren mit steigender Aufloesung einfach weniger an fps, das ist Fakt

Gast
2008-03-30, 22:32:38
LS, keinen Plan oder was?
Dieses "Problem" ist schon seit der 7500er bekannt.
Die AtTIs verlieren mit steigender Aufloesung einfach weniger an fps, das ist Fakt


LovesuckZ
2008-03-30, 22:33:39
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/21/#abschnitt_performancerating

Viel Spaß beim Lesen.

Coda
2008-03-30, 22:45:22
Ja, warum nennt denn niemand Hier-Z?
Es ist nicht so, dass G92 deshalb einbricht, weil das Hier-Z-Verfahren auf den NVIDIA-Karten schlechter wäre, falls du darauf hinaus willst. Solche Dinge skalieren theoretisch vollkommen linear mit der Auflösung, wenn dann sind eben nur Buffer zu klein o.ä.

Du schreist mal wieder völlig undifferenziert was in die Gegend. Außerdem gilt das eh bloß für die "kleinen" G8x-Architekturen, G80 hatte damit überhaupt kein Problem.

MikBach
2008-03-30, 22:47:01
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/21/#abschnitt_performancerating

Viel Spaß beim Lesen.
Ist je nach Spiel verschiieden. Pixelsader usw.
Die Tendenz ist klar ersichtlich, oder hast du Tomaten auf den Augen?

Coda
2008-03-30, 22:48:33
Schau dir 8800 GTX und Ultra an. Es gibt keine "Tendenz".

G92 ist einfach nicht für diesen Workload ausgelegt. Fertig aus.

MikBach
2008-03-30, 22:51:15
Es ist nicht so, dass G92 deshalb einbricht, weil das Hier-Z-Verfahren auf den NVIDIA-Karten schlechter wäre, falls du darauf hinaus willst. Solche Dinge skalieren theoretisch vollkommen linear mit der Auflösung, wenn dann sind eben nur Buffer zu klein o.ä..
Theoretisch, ja.
In der Praxis sieht es anders aus.

Du schreist mal wieder völlig undifferenziert was in die Gegend. Außerdem gilt das eh bloß für die "kleinen" G8x-Architekturen, G80 hatte damit überhaupt kein Problem.
Weil genug Speicher vorhanden war und die Architektur damit besser zurechtkam.

Coda
2008-03-30, 22:52:29
Ja also. G92 ist einfach nicht so gut darauf abgestimmt wie G80, hat aber bis auf das kleinere SI die gleiche Architektur.

Theoretisch, ja.
In der Praxis sieht es anders aus.
Ich will dir damit nur klar machen, dass dein Schwarz-Weiß-Denken in diesem Fall wie so oft einfach nicht zutrifft. Es ist nicht ein Merkmal das hier den Ausschlag gibt, das ist viel komplexer als du denkst.

Vor allem ist G84 in HSR-Tests deutlich besser als G80 relativ gesehen. Und diese Verbesserungen sollten auch in G92 zu finden sein. Es liegt also sicher nicht daran.

LovesuckZ
2008-03-30, 22:52:41
Ist je nach Spiel verschiieden. Pixelsader usw.
Die Tendenz ist klar ersichtlich, oder hast du Tomaten auf den Augen?

Erkläre dochmal anhand der Spieleauswahl, warum die nVidia Karten bei Erhöhung der Auflösung stärker einbrechen würden. Ich sehe hier nur, dass eine 8800gt den Vorsprung ausbauen kann...

Grestorn
2008-03-30, 22:55:33
Zumal die CPU-Last der Grafiktreiber schon seit Jahren auf den zweiten Kern verlagert wird.

Na und? Dennoch muss die CPU die Leistung erbringen, egal auf welchem Core. Sie behindert nur weniger das Spiel, wenn dieses primär auf einem Core läuft.

Ich halte das Treiberargument für das schlüssigste.

Das Auge
2008-03-30, 23:33:04
Na und? Dennoch muss die CPU die Leistung erbringen, egal auf welchem Core. Sie behindert nur weniger das Spiel, wenn dieses primär auf einem Core läuft.

Ich halte das Treiberargument für das schlüssigste.

Von bislang wenigen Ausnahmen mal abgesehen skalieren die Spiele mit mehr als einem Kern doch noch nicht so gut, als daß ein zweiter Kern nicht noch genug Reserven für den Treiber übrig hat?

Grestorn
2008-03-30, 23:46:27
Von bislang wenigen Ausnahmen mal abgesehen skalieren die Spiele mit mehr als einem Kern doch noch nicht so gut, als daß ein zweiter Kern nicht noch genug Reserven für den Treiber übrig hat?

Doch natürlich. Aber dennoch braucht der Treiber ja den einen Core für die Aufbereitung der Daten und die Versorgung der Grafikkarte. Es spielt also für die Effizienz des Treibers keine so große Rolle ob es nun einen oder mehrere Cores gibt. Die Arbeit muss gemacht werden, so oder so. Und zwar für jedes Frame.

Nur wenn das Spiel selbst auch viel CPU Zeit benötigt, bringt das Verlagern des Treiberthreads auf den anderen Core etwas. Aber auch dann würde man den höheren CPU-Bedarf sehen in dem die Geschwindigkeitsvorteile bei geringerer Auflösung weniger deutlich sind.

RavenTS
2008-04-05, 14:46:29
...
Nur wenn das Spiel selbst auch viel CPU Zeit benötigt, bringt das Verlagern des Treiberthreads auf den anderen Core etwas. Aber auch dann würde man den höheren CPU-Bedarf sehen in dem die Geschwindigkeitsvorteile bei geringerer Auflösung weniger deutlich sind.

Müsste dann bei extrem CPU-lastigen Sachen wie Supreme Commander nicht auch schon bei normalen Auflösungen auf der ATi-Seite die Performance deutlich einbrechen?

Grestorn
2008-04-05, 14:49:16
Müsste dann bei extrem CPU-lastigen Sachen wie Supreme Commander nicht auch schon bei normalen Auflösungen auf der ATi-Seite die Performance deutlich einbrechen?

Naja, im Vergleich zu was?

=Floi=
2008-04-06, 23:26:15
ohne absolute werte bringt das ganze doch imho garnichts
die 100% bezeihen sich auf 800X600 und wenn dieser wert nicht sehr hoch ist brechen die anderen werte auch nicht so stark ein. Oder umgedreht, bei G92 sollte der 800X600 wert am höchsten sein und hinter aber dafür mehr einbrechen und deshalb kann man anhand der prozentwerte höchstens einen vagen vergleich wagen, aber keinen absoluten!

RavenTS
2008-04-08, 11:20:51
Naja, im Vergleich zu was?

Na im Vergleich zu nVIDIA-Karten/Treiber. Es ging doch darum, die "bessere Skalierung" vielleicht mit cpu-lastigeren Treibern zu begründen, die eben mit steigender Auflösung weniger ins Gewicht fallen...