PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Spart Ati zu stark am Speicherinterface?


=Floi=
2009-10-09, 21:07:03
Hallo
ich habe den eindruck, dass ati einfach zu stark am SI spart. juniper ist quasi ein RV790 mit einem 128bit si, DAS kann doch nicht gut gehen. beim anderen chip hat man auch einen verdoppelten RV790 und satte 2,72 gflop, welche auch versorgt werden müssen.
Es hinterlässt bei mir den einstruck, dass man auf dem papier mit den technischen daten protzen will und hinten rum dann aber die leistung über das billige SI einbremst.

mapel110
2009-10-09, 21:11:04
http://www.beyond3d.com/content/reviews/53/1
Da wirst du vom Gegenteil überzeugt,

http://www.firingsquad.com/hardware/ati_radeon_5870_overclocking/
und hier

AnarchX
2009-10-09, 21:16:17
Die benötigte Bandbreite pro Pixel hat in Vergangenheit stetig abgenommen, dementsprechend scheinen die für Evergreen gewählten SIs wohl der beste Kompromiss zwischen Leistung und Kosten zu sein.

Wohl möglich ist AMD auch nicht in der Lage das SI so zu skalieren wie Nvidia (64-Bit Stufen), weshalb die nächst größere SI-Stufe wieder schon zu viel gewesen wäre.

Dural
2009-10-09, 21:17:16
http://www.beyond3d.com/images/reviews/cypress-arch/pixel-fillrate.png

Spasstiger
2009-10-09, 21:17:45
Die HD 5770 erreicht mit ihrem 128-Bit-SI und ihren 800 SPs die Performance einer Radeon HD 4870. Imo wäre eine HD 5770 mit einem 256-Bit-SI auch nur um rund 13% schneller, also knapp über der HD 4890.

AnarchX
2009-10-09, 21:26:29
Die HD 5770 erreicht mit ihrem 128-Bit-SI und ihren 800 SPs die Performance einer Radeon HD 4870.
In Extremfällen (wie UT3 mit MSAA (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/4/#abschnitt_direct3d9benchmarks)) würde ich das stark bezweifeln und auch so könnte es im Durchschnitt knapp werden mit 66% der Bandbreite. Aber für ein <$159 Design ist die Bandbreite ausreichend.

Spasstiger
2009-10-09, 21:30:34
In Extremfällen (wie UT3 mit MSAA (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/4/#abschnitt_direct3d9benchmarks)) würde ich das stark bezweifeln
Sind selbst im Extremfall (UT3 mit 8xAA) nur 22% Vorteil bei 81% mehr Speicherbandbreite. Btw. die HD 4870 mit dem auf GDDR3-Niveau runtergetakteten GDDR5-Speicher gilt nicht als Vergleich, weil hier die Timings nicht angepasst wurden. Der Speicher auf der HD 5770 wird sicherlich dem Takt angemessene Timings haben und somit mit schnellem GDDR3 @ 256 Bit vergleichbar sein.

AnarchX
2009-10-09, 21:34:19
Wie kommst du auf 22%?

reunion
2009-10-09, 21:34:58
Eben. Mehr als 10% ist die 5770 niemals langsamer als die 4890, zumal sie auch noch sehr hoch getakteten GDDR5 hat. Wobei man auch noch die bessere Filterung berücksichtigen muss.

Spasstiger
2009-10-09, 21:39:20
Wie kommst du auf 22%?
http://www.abload.de/img/gddr5s6d4.png

=Floi=
2009-10-09, 21:45:10
es ist eben auch ein zeichen für effizienz und skalierung, wenn die mehrtakt am SI (in wärme) verpufft.

AnarchX
2009-10-09, 21:46:30
http://www.abload.de/img/gddr5s6d4.png
Und die Auswirkung der höheren Bandbreite auf die Entfaltung des GPU-Taktes unterschlägst du?

Eben. Mehr als 10% ist die 5770 niemals langsamer als die 4890, zumal sie auch noch sehr hoch getakteten GDDR5 hat. Wobei man auch noch die bessere Filterung berücksichtigen muss.
Im Vantage Performance Setting sind es schon mal mehr als 10% ohne AA oder AF:
http://img8.imageshack.us/img8/5759/mymypchd577020.jpg

Dural
2009-10-09, 21:46:38
nicht 4850 und 4870 vergleichen, die diverenz bei der 4870 ist ja sogar 57%

Spasstiger
2009-10-09, 21:56:34
Und die Auswirkung der höheren Bandbreite auf die Entfaltung des GPU-Taktes unterschlägst du?
Wie meinen? Computerbase hat die HD 4850 leider nicht mit 750 MHz getestet. Die Radeon HD 5770 hat zwar einen noch höheren GPU-Takt, aber auch eine größere Speicherbandbreite als die HD 4850 (76,8 GB/s vs. 63,6 GB/s).

nicht 4850 und 4870 vergleichen, die diverenz bei der 4870 ist ja sogar 57%
Die stark runtergetaktete HD 4870 taugt nicht für den Vergleich, weil man die Speichertimings nicht verschärft hat. Die HD 5770 dürfte den Speicher mit sinnvollen Timings betreiben und nicht mit viel zu laschen Timings.
Deshalb nehme ich lieber die HD 4850 für den Vergleich.

Die HD 5770 müsste nach meinen Abschätzungen ziemlich exakt gleich schnell wie die HD 4870 sein.

es ist eben auch ein zeichen für effizienz und skalierung, wenn die mehrtakt am SI (in wärme) verpufft.
Woraus schließt du, dass ein höherer GPU-Takt keine Mehrleistung bringt bzw. dass eine Bandbreitelimitierung vorliegt. Der Computerbase-Test taugt zur Beurteilung dieser Aussage leider nicht, da die HD 4870 mit dem stark runtergetakteten GDDR5-Speicher keinem realen Vergleich entspricht. Die Speichertimings sind dort viel zu lasch, das wirst du bei einer Serienkarte nie finden. Man hätte die HD 4850 noch mit 750 MHz GPU-Takt testen müssen.

Im Vantage Performance Setting sind es schon mal mehr als 10% ohne AA oder AF:
http://img8.imageshack.us/img8/5759/mymypchd577020.jpg
Die HD 5770 ist dort 10,5% langsamer als die HD 4890. Ok, mehr als 10%, aber nicht wesentlich mehr.

AnarchX
2009-10-09, 22:04:49
Wie meinen? Computerbase hat die HD 4850 leider nicht mit 750 MHz getestet. Die Radeon HD 5770 hat zwar einen noch höheren GPU-Takt, aber auch eine größere Speicherbandbreite als die HD 4850 (76,8 GB/s vs. 63,6 GB/s).

@720/1100MHz ist die 4850 immernoch 23% langsamer als eine 4870:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_asus_radeon_hd_4850_top/3/#abschnitt_benchmarks
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_asus_radeon_hd_4850_top/4/#abschnitt_sonstige_messungen (ganz unten)

Spasstiger
2009-10-09, 22:15:59
@720/1100MHz ist die 4850 immernoch 23% langsamer als eine 4870:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_asus_radeon_hd_4850_top/3/#abschnitt_benchmarks
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_asus_radeon_hd_4850_top/4/#abschnitt_sonstige_messungen (ganz unten)
Sind rund 22% weniger im Worst-Case. Und die HD 5770 hat nochmal 18% mehr Chiptakt und 9% mehr Speicherbandbreite.
Die Übertaktungsergebnisse zeigen, dass die Speicherbandbreite nicht so wichtig ist. 6% mehr Chiptakt und 11% mehr Speichertakt bei der HD 4850 und trotzdem nur bestenfalls 6% mehr Performance.

AnarchX
2009-10-09, 22:20:01
Die HD 5770 ist dort 10,5% langsamer als die HD 4890. Ok, mehr als 10%, aber nicht wesentlich mehr.
Schaust du auf die falschen Zahlen?
8714 / 10327 =0.844 - also gute 15% langsamer.

Spasstiger
2009-10-09, 22:27:15
Schaust du auf die falschen Zahlen?
8714 / 10327 =0.844 - also gute 15% langsamer.
Stimmt, die Legende neben den Balken ist Brainfuck. Bin irgendwie komplett auf dem falschen Dampfer gewesen.

Ich bleibe aber bei meiner Einschätzung, dass die HD 5770 im Mittel gleichschnell ist wie die HD 4870. Im Worst-Case-Fall sinds dann möglicherweise auch 10% weniger (nach meiner Rechnung eher 5% weniger). Im Best-Case-Fall 5-8% mehr.

mboeller
2009-10-10, 08:41:48
nehmt als Basis am besten die 4770 und nicht die 4850/4870. Das passt wegen des neueren Designs und des gleich breiten Speicherinterfaces besser.

Die 4770 ist meisten 5-10% langsamer als die 4850 bei 51,2/64 GB/sec 25% Bandbreitenunterschied.

Die 5770 hat nun 50% mehr Bandbreite als die 4770. Ergo sollte das bei dem geringfügig größerem System [40/32 TMUs und 800/640 ALUs] reichen. Im Verhältnis hat der 5770 also 20% mehr Bandbreite pro TMU und pro ALU zur Verfügung. Das sollte also reichen.

Außerdem, der 5770 ist ein Chip für das Performance Segment (wie der 4770) und nicht für das Enthusiast Segment (wie 4850/4870). Da sind kleinere Abstriche notwendig um die Kosten im Griff zu halten.

S940
2009-10-10, 09:20:57
nehmt als Basis am besten die 4770 und nicht die 4850/4870. Das passt wegen des neueren Designs und des gleich breiten Speicherinterfaces besser.
Ich würde ja noch die paar Tage warten und eine 5770 nehmen, die hat das nagelneue Design, um das es hier geht :biggrin:

Coda
2009-10-10, 16:45:07
Wobei man auch noch die bessere Filterung berücksichtigen muss.
Weißt du ob AMD wirklich mehr Samples nimmt? Ich glaube da hat man einfach ein wenig umverteilt, damit es nicht mehr so auffällt.

Nicht, dass das nicht legitim wäre, wenn das Endergebnis besser ist, aber laut B3D hat die Texel-Füllrate Taktnormalisiert nicht abgenommen - im Gegenteil.

reunion
2009-10-10, 16:50:47
Weißt du ob AMD wirklich mehr Samples nimmt? Ich glaube da hat man einfach ein wenig umverteilt, damit es nicht mehr so auffällt.

Nicht, dass das nicht legitim wäre, wenn das Endergebnis besser ist, aber laut B3D hat die Texel-Füllrate Taktnormalisiert nicht abgenommen - im Gegenteil.

Ich weiß zumindest das ein RV8xx mit AF mehr Füllrate verliert wie jede andere GPU. Irgendwo muss die Füllrate ja hinwandern. Selbst GTX285@HQ benötigt da anscheinend weniger Texel:

http://img411.imageshack.us/img411/6550/rm3dfiltering.gif

http://techreport.com/articles.x/17618/6

http://img42.imageshack.us/img42/1899/texaf.png

http://www.bit-tech.net/hardware/graphics/2009/09/30/ati-radeon-hd-5870-architecture-analysis/12

Coda
2009-10-10, 16:53:53
Selbst GTX285@HQ benötigt da anscheinend weniger Texel:
Quatsch. Das Ding hat einfach relativ zur Rechenleistung viel mehr Textur-Power. Und ich sag's dir nochmal: HQ spart nichts. Kein einziges Texel.

Ich bezog mich auf die Aussage von B3D:
However, the count of texels sampled for generating a pixel is something of a confounding factor, since our early measurements indicate that it has actually gone slightly down compared to the RV770, which could cause problems for certain high-frequency surfaces.

Aber deine Füllraten-Diagramme sagen etwas anderes.

reunion
2009-10-10, 16:57:32
Quatsch. Das Ding hat einfach relativ zur Rechenleistung viel mehr Textur-Power. Und ich sag's dir nochmal: HQ spart nichts. Kein einziges Texel.


Nagut, ich dachte die Tests messen wirklich die Texelfüllrate. Trotzdem seltsam das eine GTX285 eine 5870 dort überholen kann. Aber das Ergebnis im Vergleich zu RV7xx ist mehr als deutlich. Oder spielt auch da wieder was anderes mit rein?

reunion
2009-10-10, 16:59:55
Ich bezog mich auf die Aussage von B3D:


Aber deine Füllraten-Diagramme sagen etwas anderes.

Vielleicht hängt das ja damit zusammen das RV8xx jetzt auch die vollen 80 TAUs (oder wie hießen die Dinger?) hat und nicht wie RV770 nur 32 bei 40 TMUs.

Coda
2009-10-10, 17:01:38
Du meinst Vertex-Data-Interpolatoren. Das hat RV8xx gar keine mehr. Das machen jetzt die ALUs mit ;)

Nein, ehrlich gesagt kannte ich die Diagramme noch nicht. Das sieht für mich tatsächlich aus, als würde RV870 wirklich auch quantitativ besser filtern.

Gast
2009-10-10, 19:43:37
Ich denke er meint die Addressierer nicht die Interpolatoren.
Wenn ich mir die Diagramme so ansehe kommt so ein ungutes Gefühl, dass AMD beim Filterkernel selbst Mist gebaut hat und eigentlich kaum Samples spart, allerdings gehört den Leuten dort echt eine...

Gast
2009-10-11, 20:30:52
Nagut, ich dachte die Tests messen wirklich die Texelfüllrate. Trotzdem seltsam das eine GTX285 eine 5870 dort überholen kann.

Wenn nicht alle Texel aus dem Cache kommen, spielt die Speicherleistung auch eine Rolle.

Coda
2009-10-11, 20:35:28
Ich denke er meint die Addressierer nicht die Interpolatoren.
Wenn ich mir die Diagramme so ansehe kommt so ein ungutes Gefühl, dass AMD beim Filterkernel selbst Mist gebaut hat und eigentlich kaum Samples spart, allerdings gehört den Leuten dort echt eine...
Wüsste nicht wie man das so versauen sollte, dass es mit ausreichend Samples noch flimmerig filtert. Man muss ja nur n Samples entlang einer Linie abtasten. Das ist wirklich kein Hexenwerk.

HOT
2009-10-12, 08:38:13
AMD hat gut daran getan, dieses Speicherinterface zu verwenden, auch wenn es in manchen Situationen ganz sicher bremst. Aber es macht die Karte erschwinglich und unproblematisch. Nur als Profivariante wäre eine Version mit 512Bit sicherlich wünschenswert gewesen.

Ailuros
2009-10-12, 08:53:39
AMD hat gut daran getan, dieses Speicherinterface zu verwenden, auch wenn es in manchen Situationen ganz sicher bremst. Aber es macht die Karte erschwinglich und unproblematisch. Nur als Profivariante wäre eine Version mit 512Bit sicherlich wünschenswert gewesen.

Workstation GPUs haben traditionell weniger Bandbreite als desktop GPUs aus gutem Grund. Die GT200 basierende Quadro FX5800 mit 4GB Speicher hat lediglich 102GB/s Bandbreite.

AnarchX
2009-10-12, 09:03:10
Workstation GPUs haben traditionell weniger Bandbreite als desktop GPUs aus gutem Grund. Die GT200 basierende Quadro FX5800 mit 4GB Speicher hat lediglich 102GB/s Bandbreite.
Aber eben auch nur um den Stromverbrauch des deutlich größeren VRAM unter Kontrolle zu halten.
Für einen Workstation Cypress wären sicherlich 512-Bit mit 4GiB 0.4ns Speicher @<1GHz und niedriger Spannung nicht verkehrt, aber für den kleinen Profimarkt von AMD lohnt sich das Tapeout wohl kaum.

Aquaschaf
2009-10-12, 09:23:53
Workstation GPUs haben traditionell weniger Bandbreite als desktop GPUs aus gutem Grund. Die GT200 basierende Quadro FX5800 mit 4GB Speicher hat lediglich 102GB/s Bandbreite.

Der Grund dafür liegt aber eher darin dass für professionelle Anwendungen eine höhere Zuverlässigkeit gefragt ist, weswegen dort der Speicher mit konservativen Parametern betrieben wird.

Ailuros
2009-10-12, 10:12:58
Ihr habt beide Recht; nur ging es mir eher darum dass AMD keineswegs unter solchen Bedingungen einen >256bit Bus fuer den HPC Markt brauchen wuerde.

Aber eben auch nur um den Stromverbrauch des deutlich größeren VRAM unter Kontrolle zu halten.

Da GF100 Quadros bis zu 6GB Speicher haben werden, aendert sich an der Geschichte wohl auch nichts.

Für einen Workstation Cypress wären sicherlich 512-Bit mit 4GiB 0.4ns Speicher @<1GHz und niedriger Spannung nicht verkehrt, aber für den kleinen Profimarkt von AMD lohnt sich das Tapeout wohl kaum.

Eine V8700 (RV770-256bit) hat wenn ich mich nicht irre 1024MB Speicher und 108GB/s Bandbreite. Fehlt dem Ding im Vergleich zur FX5800 (GT200-512bit) nun Bandbreite oder eher eine hoehere Speichermenge?

Der Grund dafür liegt aber eher darin dass für professionelle Anwendungen eine höhere Zuverlässigkeit gefragt ist, weswegen dort der Speicher mit konservativen Parametern betrieben wird.

In dem Fall brauchen RV870 basierende FirePROs wohl eher ECC als alles andere.

Sorkalm
2009-10-12, 11:05:20
Eine V8700 (RV770-256bit) hat wenn ich mich nicht irre 1024MB Speicher und 108GB/s Bandbreite. Fehlt dem Ding im Vergleich zur FX5800 (GT200-512bit) nun Bandbreite oder eher eine hoehere Speichermenge?

Es gibt noch einen V8750 (http://www.amd.com/us/Documents/v8750_data_sheet.pdf) mit 2 GiB RAM und 115,2 GB/s, sonst gleiche Daten, würde wohl eher auf Speicher deuten...

Aquaschaf
2009-10-12, 11:13:54
Eine V8700 (RV770-256bit) hat wenn ich mich nicht irre 1024MB Speicher und 108GB/s Bandbreite. Fehlt dem Ding im Vergleich zur FX5800 (GT200-512bit) nun Bandbreite oder eher eine hoehere Speichermenge?

Das hängt natürlich total an der Anwendung was limitiert, aber im Vergleich zur FX5800 wird es wohl öfters der Speicher sein.

Ailuros
2009-10-12, 11:21:36
Es gibt noch einen V8750 (http://www.amd.com/us/Documents/v8750_data_sheet.pdf) mit 2 GiB RAM und 115,2 GB/s, sonst gleiche Daten, würde wohl eher auf Speicher deuten...

Tatsaechlich. Aendert aber nicht besonders viel an meiner Logik.

***edit: es ist zwar halb OT aber weiss jemand zufaellig ob Photoshop CS4 ein GPU Speicher-limit hat? Anders wenn ich theoretisch eine Asus Mars mit 4GB in ein System schnalle, kann Photoshop die Speichermenge auch ausnutzen?

Coda
2009-10-12, 16:21:36
Aber eben auch nur um den Stromverbrauch des deutlich größeren VRAM unter Kontrolle zu halten.
Könnte mir auch vorstellen, dass zwei Chips pro Kanal keine so hohen Frequenzen erlauben.

CrazyIvan
2009-10-13, 07:26:05
Tatsaechlich. Aendert aber nicht besonders viel an meiner Logik.

***edit: es ist zwar halb OT aber weiss jemand zufaellig ob Photoshop CS4 ein GPU Speicher-limit hat? Anders wenn ich theoretisch eine Asus Mars mit 4GB in ein System schnalle, kann Photoshop die Speichermenge auch ausnutzen?
AFAIK nutzt Photoshop die GPU nur für Zoom und Bewegen des Bildes. Filter etc. werden zwar vereinzelt mittlerweile auf der GPU implementiert - für den Großteil gilt das jedoch nicht. Als Grund gibt Adobe den begrenzten Speicher der Grafikkarte an (man geht hierbei sicherlich vom derzeit im Markt zu erwartenden Standard von max. 512 Mbyte aus). Insofern ist PS also wirklich speicherlimitiert - und zwar in dem Maße, dass ein Großteil des Potenzials einer GPU bei der Bildbearbeitung derzeit noch brach liegt.

lingua
2009-11-05, 19:11:01
Die angeführten Überlegungen und Vergleiche mit ähnlichen Architekturen bzgl. des Speicherinterfaces sind ja gut, aber kann jemand die Frage beantworten, wie viel Speicherdurchsatz überhaupt benötigt wird?

Wenn ich X Frames / sec. mit [Auflösung] und [Bildberechnungslast*] in Zusammenhang bringe, kann ich da nicht den minimalen Bedarf / optimalen Bedarf bestimmen?

*man verzeihe den Ausdruck - laienhaft der interne Verkehr durch Rechenlast / für die Erstellung eines Bildes oder so ähnlich....

Irgendwie müssen dass doch ATI/Nvidia auch können; neben Überlegungen des Preises und der Marktpolitik sollte man auch wissen, was man braucht, schließlich hat eine HD4870 eben ca. 115 GB/sec. Bandbreite und nicht 32 GB/sec.


mfg

Thunder99
2009-11-18, 21:27:52
Anscheinend wirkt sich die niedrige Bandbreite bzw Speicherinterface doch aus:

HD5970 Test @ CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/22/#abschnitt_uebertaktbarkeit)

ATi hat der Presse darüber hinaus noch ein Tool zur Erhöhung der Spannung zur Verfügung gestellt. Mit diesem ist es möglich, der GPU 1,1625 Volt anstatt 1,05 Volt und dem Speicher 1,15 Volt anstatt 1,1 Volt zu geben. Dadurch können wir die Rechenkerne auf satte 900 MHz hoch schnellen lassen. Der GDDR5-Speicher scheint bei 2.600 MHz jedoch schon an der Grenze zu sein, denn ein besseres Ergebnis ist nicht drin. Und anscheinend ist die Karte stark bandbreitenlimitiert, da die Geschwindigkeit nur noch gering ansteigt.
Quelle CB

davidzo
2009-11-19, 16:20:39
eine x2 mit afr und dem entsprechenden overhead ist aber auch ein völlig anderes scenario als bei einer singlegpukarte.

ebenso ist 3dmurks vantage wohl eher auf bandbreite anzusprechen als die meisten spiele. ut ist da eine ausnahme, das ist auch bandbreitenlimitiert.

in der mehrheit der tests auch ohne cf wirst du sehen, dass die chiptakterhöhung noch den größten leistungsplus gibt.