PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870: (P)Review-Thread


Seiten : 1 [2] 3 4 5

Eggcake
2008-06-25, 12:26:31
Die 4870 sollte noch derbstes Übertaktungspotential bieten, denn mit der richtigen Kühlung ist eine richtig niedrige Temp drin:

http://images.hardwarecanucks.com/image/skymtl/GPU/PALIT-HD4870/PALITHD4870-84.jpg


Btw. :
So, this card accomplishes something that has only happened once before in the history of this site; it wins both the Dam Good Award and the Dam Good Value Award. Bravo AMD, ATI and Palit. Bravo.

;)

Odal
2008-06-25, 12:31:45
Hmm irgendwie verwirrt mich das, könnte es ein engine (treiber) problem sein? Das der speicher nicht langt glaube ich nicht, immerhin laufen andere games ja auch mit 8xaa super schnell.


natürlich geht da schonmal der vram aus....

und gerade grid zieht je nach reflexionen und schattenauflösung tüchtig vram

mit beetlewars ultrahigh mod bekommst du grid auch auf nem GTX280 SLI system auf unspielbare einstellige FPS

als faustregel würde ich immer schauen wie die 9800GTX zur 88GTX/Ultra liegt....

das ist immer ein gutes indiz für fehlenden vram

AnarchX
2008-06-25, 12:32:23
Techreport hat nun ihren Artikel auch online:
http://techreport.com/articles.x/14990

horn 12
2008-06-25, 12:33:12
Warum ist nur die HD4850 und 4870 Karten so extrem heiss unter Last, und gar im IDLE!!:mad:
Ebenso soll der HD 4870-er Lüfter im Idle doch andauernd leise sein, aber beim Zocken voll aufdrehen und sehr störend wirken, etwa wie jener der
HD2900 XT Serie.
Ist vielleicht ein Hindernis mir die 4870-er zu holen, da Silent System habe.
Heute werde ich in Italien mal die Verfügbarkeit checken, bis dann.

PS: Komme selbst aus Italien... daher!

SentinelBorg
2008-06-25, 12:33:46
Eine tolle Karte und endlich mal wieder ein guter Wurf von ATI. Das wird den Markt sicher beleben.

Jedoch sehe ich jetzt nicht schwarz für Nvidia. Sie haben die letzten zwei Jahre den HighEnd-Bereich dominiert und werden mit dem G200B wieder aufschliessen.

Schaut man sich die Tests so durch, siehst für mich wie folgt aus:
Die 4870 positioniert sich sowohl von der Leistung her, als auch vom Stromverbrauch zwischen GTX260 und GTX280
Die 4870 hat aber immer noch schlechteres AF und kein Supersampling/Hybrids, dafür teils etwas besseres 8x MSAA und DX10.1
Sowohl die 4870, wie auch die GTX260/280 werden unter Last ziemlich laut
Auf der anderen Seite haben sich beide Hersteller beim Idle deutlich verbessert
Die 4870 ist sehr günstig, aber zumindest ich erwarte eine Anpassung der Nvidia Preise in den nächsten Wochen, der Vorteil wird also verschwinden, auch wenns für Nvidia teuer wird

Summa summarum, tendiere ich dazu auf die G200B zu warten. Die sollte in Sachen Leistung zu Wärmeentwicklung/Lautstärke dann besser abschneiden.

Und im übrigen würde es mich nicht wundern, wenn die neuen Nvidia Karten mit den nächsten Treibern mehr zulegen als die neuen ATI Karten. Man scheint da doch bei Nvidia etwas mehr umgebaut zu haben.

deekey777
2008-06-25, 12:35:47
Das unbereinigte für ATi etwa weniger positive Rating hättest du auch noch verlinken können. ;)

@UT3-AA-Performance: Imo spielen unter 4xAA die GeForce doch noch ihre höhere Z-Fill aus, immerhin dürfte der Defferred-Renderer wohl einiges an Z-Fill verschlingen.
UE3 ist kein Deferred Renderer.
Auch verschlingt ein DR nicht einiges an Z-Fillrate, denn der G-Buffer enthält nicht bloß Tiefenwerte wie bei einem Z-Pass in Doom 3 oder Crysis, er enthält die gesamte Szene bis auf die Beleuchtung/Shading; man könnte gar den darauf folgenden Lighting-/Shading-Pass als Postprocessing bezeichnen.

Dass UE3-Spiele kein MSAA unterstützen, ist eine Limitierung der Engine und wohl weniger von D3D9 (warum unterstützt R6: Vegas 2 von Haus aus MSAA?).

tam tam
2008-06-25, 12:38:05
warum noch immer 256bit? was wäre wenn 512? ^^

aber ma sehr erfreulich, daß es da voran geht :)

bin ma auf die 1gb-variante gespannt, hab aber nirgends gelesen, daß so eine in planung sei?

wenn sie jetzt noch die treiberproblematik in den griff bekommen werd ich viell. einen 2. versuch mit ati starten(der letzte vor 2 jahren scheiterte an 3 origin. ati-karten)

Matrix316
2008-06-25, 12:38:06
Interessant ist ja, dass zwei billige 8800GTs oft die neuen High End Cards in den Schatten stellen. Wobei, wenn ich den Preis, den ich für die erste bezahlt habe, zu dem Preis, den eine zweite kosten würde hinzurechne, bin ich auch wieder bei 380 € oder so (und eine 4870 kostet dann doch etwas weniger ;)). :rolleyes:

Dago
2008-06-25, 12:38:17
Naja ist zwar alles Schön und gut nur Fangen wieder beide Hersteller an sich
keine Gedanken über den Stomverbrauch zu machen.

Aber Egal scheißen wir darauf, der Strom wird ja wie manche hier meinen auch immer billiger.

Sorry aber beide Karten gefallen mir in diesem Punkt überhaupt nicht. Ich dachte das beide Hersteller entlich in die Richtige Rechnung wieder gehen und nun dieser Gewaltige Rückschritt in Richtung X29XX serie.

Grüße

Grisu

Wohl wahr. Da sollte man aber endlich einen richtigen Schritt gehen und die Graka im 2D-Betrieb komplett deaktivieren, so wie das mit dem Hybrid-Graphik-Modell angedacht ist. Dumm nur, dass sich die Treiber in den aktuellen MS-Betriebssystemen nicht umschalten lassen und das man so auf passende Onboardgraphikchips angewiesen ist, in diesem Fall also eine ATI-Lösung. Da sollte mal endlich mehr passieren!

@Eggcake
Nur weil die Karte gut zu kühlen ist, heisst das nicht, dass sie übermäßig stark zu übertakten ist. Da spielen noch ganz andere Dinge mit.

Kriton
2008-06-25, 12:40:23
warum noch immer 256bit? was wäre wenn 512? ^^


In Anbetracht des GDDR5-Speichers kommt es da wohl kaum zu einer Limitierung. Und es dürfte einfacher sein die 4850 von der 4870 abzugrenzen, wobei man dennoch die Chips vom selben Band laufen lassen kann (unterscheiden sich ja nur durch den Speicher und den Takt).

Raff
2008-06-25, 12:41:55
@UT3-AA-Performance: Imo spielen unter 4xAA die GeForce doch noch ihre höhere Z-Fill aus, immerhin dürfte der Defferred-Renderer wohl einiges an Z-Fill verschlingen.

Ich sehe hier keine "schlechte" Performance: http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=5&cboxrenderarticle=base

Im Gegenteil, gerade bei 8x AA glänzen die 4800-er wieder.

MfG,
Raff

Odal
2008-06-25, 12:42:31
Techreport hat nun ihren Artikel auch online:
http://techreport.com/articles.x/14990


danach kann man die 4870 sogar ziemlich mit der GTX280 gleichsetzen :eek:

AnarchX
2008-06-25, 12:45:31
Ich sehe hier keine "schlechte" Performance: http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/&page=5&cboxrenderarticle=base

Im Gegenteil, gerade bei 8x AA glänzen die 4800-er wieder.

Weil dort dann wieder ATi bei der Z-Fill vorne liegt? ;)
Aber laut DK777 liegt es ja nicht daran.

Gast
2008-06-25, 12:46:38
Wenig gebenchte Games scheinen der 4870 auch nicht so zu liegen. Bei Trackmania United ist die 4870 langsamer als eine 9800GTX +:
http://www.golem.de/0806/60606-trackmania.png

Bei +60 FPS ist das sowas von egal :P

Eggcake
2008-06-25, 12:47:17
Warum ist nur die HD4850 und 4870 Karten so extrem heiss unter Last, und gar im IDLE!!:mad:
Ebenso soll der HD 4870-er Lüfter im Idle doch andauernd leise sein, aber beim Zocken voll aufdrehen und sehr störend wirken, etwa wie jener der
HD2900 XT Serie.
Ist vielleicht ein Hindernis mir die 4870-er zu holen, da Silent System habe.
Heute werde ich in Italien mal die Verfügbarkeit checken, bis dann.

PS: Komme selbst aus Italien... daher!

Powerplay funktioniet nach wie vor nicht richtig - wird hoffentlich mit dem nächsten Treiber behoben.

Gebe dir allerdings Recht, dass die Kühler schon eher dürftig sind...

Edit:

@Dago

Das ist mir klar, doch generell kann man mit "kühleren" Karten besser übertakten.

Odal
2008-06-25, 12:52:27
warum noch immer 256bit? was wäre wenn 512? ^^

aber ma sehr erfreulich, daß es da voran geht :)

bin ma auf die 1gb-variante gespannt, hab aber nirgends gelesen, daß so eine in planung sei?


klar kommt ne 1GB version der 4870...und angeblich auch der 4850...

und warum sollen sie ein 512Bit speicherinterface nehmen? ATI hat auf kosteneffizienz gesetzt und da sind 256Bit mit GDDR5 ram gleich schnell und deutlich billiger (wenns den ram mal in ordentlichen stückzahlen gibt)

Eine tolle Karte und endlich mal wieder ein guter Wurf von ATI. Das wird den Markt sicher beleben.

Jedoch sehe ich jetzt nicht schwarz für Nvidia. Sie haben die letzten zwei Jahre den HighEnd-Bereich dominiert und werden mit dem G200B wieder aufschliessen.

der G200b lässt sich aber durch 65nm->55nm nicht auf weniger als die hälfte DIE size shrinken...weiterhin ist ein 512Bit pcb teuer...

und beides müsste sich ändern damit NV preislich am RV770 dranbleiben kann und ihn leistungstechnisch ein wenig übertrumpfen kann...

klar braucht man nicht schwarz sehen, aber nur weil der name nvidia noch genug zieht und die wohl noch genug finanzielle reserven haben sollten


Und im übrigen würde es mich nicht wundern, wenn die neuen Nvidia Karten mit den nächsten Treibern mehr zulegen als die neuen ATI Karten. Man scheint da doch bei Nvidia etwas mehr umgebaut zu haben.

für mich liest sich das eher so als hätte nvidia deutlich weniger umgekrempelt wie ATI...die haben ja von TMUs über ROPs über ALUs über Speichercontroller echt alles angefasst (und damit meine ich nicht deren anzahl)

Exxtreme
2008-06-25, 12:52:41
Die sollen noch Supersampling in den Treiber einbauen ... das wäre Porno.

Sorkalm
2008-06-25, 12:55:28
Techreport hat nun ihren Artikel auch online:
http://techreport.com/articles.x/14990

Schöne Erklärungen. :)

reunion
2008-06-25, 13:13:27
Techreport hat nun ihren Artikel auch online:
http://techreport.com/articles.x/14990

Wenn man ein halbwegs gut durchlüftetes Gehäuse hat sollte die Lautstärke also kein Problem sein:

http://techreport.com/r.x/radeon-hd-4870/noise-load.gif

Eggcake
2008-06-25, 13:15:12
...und angeblich auch der 4850...

Von der gibt es bereits 1GB-Versionen (von Asus z.B.) :)

deekey777
2008-06-25, 13:16:24
Weil dort dann wieder ATi bei der Z-Fill vorne liegt? ;)
Aber laut DK777 liegt es ja nicht daran.
Ich sagte nur, dass UE3 kein Deferred-Renderer ist und dass bei einem echten Deferred-Renderer nicht nur Z-Fillrate entscheidend ist.

Coda
2008-06-25, 13:19:49
UE3 ist teilweise schon ein Deferred-Renderer.

up¦²
2008-06-25, 13:24:32
The Radeon HD 4800
http://www.bjorn3d.com/read.php?cID=1301

Nebenbei: unfaßbares ... nie dagewesenes P/L =)
http://geizhals.at/eu/?cat=gra16_512&asuch=HD%204850&sort=p
lieferbar ab 139€!
mit dabei: => ASUS EAH4850/HTDI, Radeon HD 4850, 1024MB GDDR3

Gast
2008-06-25, 13:38:05
Bei den Diskussionen zu den AA-Modi stellt sich mir die Frage:

Wie siehts denn nun aus mit der Qualität bei den neuen Karten? Neigt Ati immer noch stärker zu Texturflimmern, Filterbugwellen und ähnlichem? So wie ich das sehe ist doch die bessere Speed bei 8xAA bei Ati wurscht, weil nvidia auch bei 4xAA (jeweils plus 16xAF) insgesamt die bessere Qualität liefert. Oder seh ich das falsch? Für einen ernsthaften Input zu dieser Frage wäre ich ganz dankbar...

Gruß
Lars

Gast
2008-06-25, 13:38:37
Könnte man im ersten Post die Tests nicht nach Single und CF Tests sortieren?

AnarchX
2008-06-25, 13:46:40
Die PDFs zu RV770/HD4800 von AMD:
http://www.pcinpact.com/actu/news/44386-Radeon-HD-4850-4870.htm

Zatoichi
2008-06-25, 13:46:53
So, bin mal gespannt, hab mal eine 4870 bestellt. Laut Tante von Alternate ist die Karte da und müßte morgen bei mir sein. Ist eine Sapphire. Endlich mal wieder was zum basteln^^.

tam tam
2008-06-25, 13:50:04
Bei den Diskussionen zu den AA-Modi stellt sich mir die Frage:

Wie siehts denn nun aus mit der Qualität bei den neuen Karten? Neigt Ati immer noch stärker zu Texturflimmern, Filterbugwellen und ähnlichem? So wie ich das sehe ist doch die bessere Speed bei 8xAA bei Ati wurscht, weil nvidia auch bei 4xAA (jeweils plus 16xAF) insgesamt die bessere Qualität liefert. Oder seh ich das falsch? Für einen ernsthaften Input zu dieser Frage wäre ich ganz dankbar...

Gruß
Lars


würde mich genauso interessieren, auch ich lege sehr großen wert auf die bildqualität ^^

Fetza
2008-06-25, 13:53:46
Bei den Diskussionen zu den AA-Modi stellt sich mir die Frage:

Wie siehts denn nun aus mit der Qualität bei den neuen Karten? Neigt Ati immer noch stärker zu Texturflimmern, Filterbugwellen und ähnlichem? So wie ich das sehe ist doch die bessere Speed bei 8xAA bei Ati wurscht, weil nvidia auch bei 4xAA (jeweils plus 16xAF) insgesamt die bessere Qualität liefert. Oder seh ich das falsch? Für einen ernsthaften Input zu dieser Frage wäre ich ganz dankbar...

Gruß
Lars

Also mein bruder hat einen r600, ich einen g80 - weder gibts bei ihm bugwellen, noch ist das aa in irgendeiner weise schlechter. Natürlich filtert der g80/g92/g200 auf dem papier besser, in der praxis sieht man das aber eher nicht. So siehts übrigends auch der techreport.

So wie es allerdings aussieht, sollte man beim r770 auch wieder auf transparenz-aa verzichten, denn das wird wieder über die shader realisiert und bricht krass fett ein. Das normale 8xaa rennt dafür wie sau.

Gast
2008-06-25, 14:07:50
Also mein bruder hat einen r600, ich einen g80 - weder gibts bei ihm bugwellen, noch ist das aa in irgendeiner weise schlechter. Natürlich filtert der g80/g92/g200 auf dem papier besser, in der praxis sieht man das aber eher nicht. So siehts übrigends auch der techreport.

So wie es allerdings aussieht, sollte man beim r770 auch wieder auf transparenz-aa verzichten, denn das wird wieder über die shader realisiert und bricht krass fett ein. Das normale 8xaa rennt dafür wie sau.

Na gut, wobei trotzdem insgesamt die Qualität bei nV eher besser ist, auch bei 4xAA gegenüber Ati mit 8xAA......

Und zu Transparenz-AA: Ich würde dann lieber auf 8xAA verzichten als auf Transparenz-AA. Letzteres bringt dann doch spürbar bessere Qualität, bei Zäunen und ähnlichem.....

Gast
2008-06-25, 14:09:52
So wie es allerdings aussieht, sollte man beim r770 auch wieder auf transparenz-aa verzichten, denn das wird wieder über die shader realisiert und bricht krass fett ein. Das normale 8xaa rennt dafür wie sau.
Nicht Transparenz-AA sondern EDCFAA ;)

Fetza
2008-06-25, 14:14:43
Na gut, wobei trotzdem insgesamt die Qualität bei nV eher besser ist, auch bei 4xAA gegenüber Ati mit 8xAA......

Und zu Transparenz-AA: Ich würde dann lieber auf 8xAA verzichten als auf Transparenz-AA. Letzteres bringt dann doch spürbar bessere Qualität, bei Zäunen und ähnlichem.....

Ich kann nur davon ausgehen, was ich bereits gesehen und verglichen haben. Da bleiben eigentlich nur die supersampling modi von nv als echter pluspunkt.

Zum transparenz-aa: Das ist geschmackssache, wenn man bedenkt das du mit der neuen graka-generation auch problemlos 1920er auflösungen fahren kannst, nicht so bedeutend, imho.

Zum thema 4xaa von nv ist besser als 8xaa von ati: Und meine tante berta is`nen grillherd. ;D

Nicht Transparenz-AA sondern EDCFAA ;)

Na ich habe was gegen buchstabensalat.;) Ups sorry, da habe ich was falsch verstanden :redface:

MuLuNGuS
2008-06-25, 14:18:08
Ich sagte nur, dass UE3 kein Deferred-Renderer ist und dass bei einem echten Deferred-Renderer nicht nur Z-Fillrate entscheidend ist.

dann eben Deferred-Shaderer, auf jeden fall wird das shading Deferred eingesetzt also erzähl nicht jedesmal das die UE3 pauschal kein Deferred-Renderer ist.

frix
2008-06-25, 14:18:35
Wollt nochmal zum AlphaTest AA nachhaken?
Wie wird das bei Ati realisiert. Bei NV konnte man ja multisampling oder supersampling für alpha texutren verwenden.
Wenn das transparenz AA bei den neuen ati langsam ist wäre das ein K.O. kriterium für mich.

Metzger
2008-06-25, 14:21:09
Gibt es eigentlich auch schon eine Ankündigung einer 4870 mit einem Passiv-Kühler á la S2?

AnarchX
2008-06-25, 14:23:39
Wollt nochmal zum AlphaTest AA nachhaken?
Wie wird das bei Ati realisiert. Bei NV konnte man ja multisampling oder supersampling für alpha texutren verwenden.
Wenn das transparenz AA bei den neuen ati langsam ist wäre das ein K.O. kriterium für mich.
CB hat Skalierungsbenches, das Problem bei ATi scheint aber das je nach Treiber öfters mal zwischen TMSAA und TSSAA gewechselt wird.

Gibt es eigentlich auch schon eine Ankündigung einer 4870 mit einem Passiv-Kühler á la S2?
160W TDP und eine Passivkühlung? ;) Das wird sich wohl kein Hersteller trauen.

Aquaschaf
2008-06-25, 14:25:43
dann eben Deferred-Shaderer, auf jeden fall wird das shading Deferred eingesetzt also erzähl nicht jedesmal das die UE3 pauschal kein Deferred-Renderer ist.

Deferred-Shadower, wenn schon ;)

frix
2008-06-25, 14:27:30
hm also man kann nich selbständig zw.TMSAA und TSSAA im control panel entscheiden?
Bei TMSAA sollte doch der performance hit ähnlich gering ausfallen wie bei NV ?

AnarchX
2008-06-25, 14:29:58
hm also man kann nich selbständig zw.TMSAA und TSSAA im control panel entscheiden?
Bei TMSAA sollte doch der performance hit ähnlich gering ausfallen wie bei NV ?
Im aktuellen Treiber schon:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/#abschnitt_aa_und_afskalierung
Einen Schalter scheint es im Treiber zu geben, aber der funktioniert wohl nicht, weshalb CB auch auf TAA im Parkour verzichtet hat.

MuLuNGuS
2008-06-25, 14:30:08
Deferred-Shadower, wenn schon ;)

wollte ich auch erst schreiben, aber Sweeney spricht von shading:
http://forum.beyond3d.com/archive/index.php/t-41658.html

frix
2008-06-25, 14:32:55
Im aktuellen Treiber schon:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/#abschnitt_aa_und_afskalierung
Einen Schalter scheint es im Treiber zu geben, aber der funktioniert wohl nicht, weshalb CB auch auf TAA im Parkour verzichtet hat.

danke für den link. Für zukünftige treiber kann man sich also noch eine nachbesserung versprechen.

ShadowXX
2008-06-25, 14:33:10
Interessant wäre hier eine 1Gb Version.
Juppss....den Gedanken hatte ich auch öfter.
Der Test einer 1GB Version einer 4870 wäre IMHO höchst interessant.

Wenn man mal durch die Testergebnisse durchgeht sieht man eines extrem deutlich (abgesehen davon das die 4870 bei 8xMSAA meist ruled): Das Speichermanagement bei ATI ist aber sowas von besser als das von nV, das man sich wirklich fragt was nV mit dem Speicher so macht.

Man sieht reihenweise wie bei nV die 512GB-Karten oftmals schon bei 1680x1050 wegen Speicherproblemen wegbrechen.

Aber ATI passiert das meist erst bei 1920 + 8xMSAA oder sogar erst bei der 2560er Auflösung.

Der Einbruch bei Grid aber aber trotzdem merkwürdig, da Sie bei 4xMSAA deutlich besser dasteht und ich mir nicht vorstellen kann das Ihr plötzlich bei 8xMSAA in 1680 der wegbricht.

Das Fazit bei PCHG ist aber das im Overall die 280GTX bei 4xMSAA leicht schneller ist, die ATI aber bei 8xMSAA deutlicher Sieger ist die sogar teilweise die 280GTX schlägt.

Ne 4870 1GB + OCed (am besten um ca. 100MHz) könnte ein ziemliches Monster sein, wobei die dann wohl auch um die 300-320 Euro kosten wird.

MuLuNGuS
2008-06-25, 14:43:52
Ne 4870 1GB + OCed (am besten um ca. 100MHz) könnte ein ziemliches Monster sein, wobei die dann wohl auch um die 300-320 Euro kosten wird.

na, das darf sie dann meinetwegen auch kosten ;)

MadManniMan
2008-06-25, 14:46:22
Puh, das mit dem Treiber ist eine gute Frage. Auch wenn es vielleicht den Anschein macht, wird würden das mit dem Treiberwirwar in Ordnung so finden, stimmt das nicht. Gedanken darum mache ich mir schon länger, nur noch sehe ich da keine Lösung. Mal schauen, aber da wird sich sicherlich noch was ändern.

Es führt wohl nix an einem Rebench vorbei, kann man nix machen.

Yups
2008-06-25, 14:46:37
Die 4870 für 217€ (geizhals) weist doch nvidia mal so richtig in die Schranken. Für alle Durchschnittsuser ist doch so ziemlich klar was gekauft werden muss :) Solange die Treiber auch anständig funktionieren ist doch alles in Butter. Mich freut es, viel Leistung für wenig Geld und endlich wieder vernünftige Konkurrenz für nv =)

35007
2008-06-25, 14:53:16
Die 4870 für 217€ (geizhals) weist doch nvidia mal so richtig in die Schranken.

Was meinst du wie viel die 4850/70 in einem Monat kosten werden?

Ich tipp mal auf 125€ für die 50er imd 170€ für die 4870.

35007

puntarenas
2008-06-25, 14:53:47
danke für den link. Für zukünftige treiber kann man sich also noch eine nachbesserung versprechen.
Anzunehmen, wobei es ja auch schon insgesamt funktioniert hat, dann mal nur TSSAA und dann plötzlich wieder nur TMSAA apliziert wurde. :confused:

Das Lesen der Reviews war bisher jedenfalls ein reiner Genuß und ich habe richtig Lust auf ein RV770-Kärtchen bekommen. Das klingt einfach alles so schön elegant, hier getweaket, da eine Finesse, *haben will*. :heart: Ich hoffe bloß für ATI, dass sie im PowerPlay keinen Hardwaredefekt haben und es wirklich nur ein Treiberproblem ist, angeprießen wurden Idle-Werte von unter 10W und jetzt liegen wir je nach Messung mindestens 20W über einer HD3870. :(

AnarchX
2008-06-25, 14:54:59
Was meinst du wie viel die 4850/70 in einem Monat kosten werden?

Ich tipp mal auf 125€ für die 50er imd 170€ für die 4870.

Ich glaube kaum, dass im kommenden Quartal die ohnehin schon niedrigen UVPs deutlich unterschritten werden, Nvidia wird wohl nicht in der Lage sein ihre Preise so deutlich anzupassen, dass AMD sich dazu gezwungen sieht.

reev
2008-06-25, 14:57:37
Wenn man mal durch die Testergebnisse durchgeht sieht man eines extrem deutlich (abgesehen davon das die 4870 bei 8xMSAA meist ruled): Das Speichermanagement bei ATI ist aber sowas von besser als das von nV, das man sich wirklich fragt was nV mit dem Speicher so macht.

Man sieht reihenweise wie bei nV die 512GB-Karten oftmals schon bei 1680x1050 wegen Speicherproblemen wegbrechen.

Aber ATI passiert das meist erst bei 1920 + 8xMSAA oder sogar erst bei der 2560er Auflösung.

Das ist mir auch aufgefallen. Ich dachte ja erst, ein Preisvergleich zwischen einer ATI 4870 512 MB für ~250 Euro und einer nVidia 260 GTX (896 MB) für ~300 Euro hinke ein bisschen - eine ATI 4870 1 GB würde dann ja vermutlich auch um die 300 Euro kosten. Aber wenn ich mir so die Tests anschaue, frage ich mich eher, ob ich eine ATI 4870 1 GB für meine 1920x1200 eigentlich brauche, bzw. für welche Auflösungen/Einstellungen sie überhaupt Sinn macht...

Popeljoe
2008-06-25, 15:04:51
Ich glaube kaum, dass im kommenden Quartal die ohnehin schon niedrigen UVPs deutlich unterschritten werden, Nvidia wird wohl nicht in der Lage sein ihre Preise so deutlich anzupassen, dass AMD sich dazu gezwungen sieht.
NV würde dadurch wirklich einiges an Substanz lassen, denn die DIE Größe des neuen Chips ist ja nun nicht grade klein und entsprechend teuer in der Herstellung.
Aber imo kalkuliert AMD momentan mit den Chips auch am unteren Limit um Marktanteile zurückzuerobern!

Kriton
2008-06-25, 15:05:00
Aber wenn ich mir so die Tests anschaue, frage ich mich eher, ob ich eine ATI 4870 1 GB für meine 1920x1200 eigentlich brauche, bzw. für welche Auflösungen/Einstellungen sie überhaupt Sinn macht...

Die Frage stelle ich mir auch.
Wobei ich da die Berichte zu AoC im Ohr habe, wonach karten mit weniger als 800 MB Speicher deutlich schlechtere Texturen geladen haben.

Eggcake
2008-06-25, 15:10:45
Die Frage stelle ich mir auch.
Wobei ich da die Berichte zu AoC im Ohr habe, wonach karten mit weniger als 800 MB Speicher deutlich schlechtere Texturen geladen haben.

Spiele AoC zwar nur auf 1280er Auflösung, aber selbst mit meiner 320MB kleinen 8800 GTS kommt es nur selten zu Texturfehlern. Und ich würde keine Grafikkarte an einem solchen Bugfest wie AoC testen ;)

Tarkin
2008-06-25, 15:12:30
Mal ne andere blöde Frage... wann werden eigentlich die neuen Cinema 2.0 Tech-Demos freigegeben bzw. gibts vielleicht irgendwo schon offizielle HQ-Clips?

I WANT RUBY!!!! :biggrin:

Kriton
2008-06-25, 15:14:03
Spiele AoC zwar nur auf 1280er Auflösung, aber selbst mit meiner 320MB kleinen 8800 GTS kommt es nur selten zu Texturfehlern. Und ich würde keine Grafikkarte an einem solchen Bugfest wie AoC testen ;)

Keine Fehler - schlecht aufgelöste Texturen.

Das hier meine ich:

http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/

Eggcake
2008-06-25, 15:16:38
Keine Fehler - schlecht aufgelöste Texturen.

Das hier meine ich:

http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/

Das meine ich auch.
Weiss nicht was die fabrizieren, aber wenns auf meiner 320er GF anständig läuft (alles aufm Maximum mit 4x AA, 16x AF), dann sollten sies auch gebacken kriegen mit ner 512er GF.
Und ausserdem sind wir hier auch im ATI-Thread - und der Bug bezieht sich vor allem auf GF-Karten (und ja, ich spreche hier von Bug, weil man wie gesagt bei AoC meiner Meinung nach keine Grafiktests durchführen sollte, weils in dem Spiel von Bugs und Enginefehlern nur so wimmelt).

Bsp. 5FPS an einer Stelle - mache ich einen einzigen Schritt nach vorne springen die FPS wieder auf über 50.
Diese niedrig aufgelösten Texturen gabs schon in der Beta, dort aber noch massenhaft. Von daher gehe ich von einem Problem des Spiels, nicht primär des Grafikkartenspeichers aus.

Gast
2008-06-25, 15:35:54
wenn ich so die verbrauchs messungen der 4870 anschaue frag mich schon was AMD mit der 4870X2 genau vor hat, das gibt ja mal locker 300Watt!?!

http://www.pcgameshardware.de/aid,648637/Test/Benchmark/RV770-Test_Radeon_HD_4800_im_Technik-Check/&menu=browser&image_id=844258&article_id=648637&page=1&show=original

Coda
2008-06-25, 15:36:47
dann eben Deferred-Shaderer, auf jeden fall wird das shading Deferred eingesetzt also erzähl nicht jedesmal das die UE3 pauschal kein Deferred-Renderer ist.
Nein das Shading eben nicht. Nur das Schattenzeug.

Redneck
2008-06-25, 15:41:36
Mal ne andere blöde Frage... wann werden eigentlich die neuen Cinema 2.0 Tech-Demos freigegeben bzw. gibts vielleicht irgendwo schon offizielle HQ-Clips?

I WANT RUBY!!!! :biggrin:

frage ich mich auch... auch wenn es erst einmal nur ein Video in guter Quali ist.

Gruß

deekey777
2008-06-25, 15:44:11
Vielleicht wäre ein Blick bei AMD nicht verkehrt? Wie hier:
http://www.amd.com/us-en/0,,3715_15721,00.html

reunion
2008-06-25, 15:46:55
HD4870 lieferbar:
http://geizhals.at/eu/a346315.html

Tarkin
2008-06-25, 15:50:08
Vielleicht wäre ein Blick bei AMD nicht verkehrt? Wie hier:
http://www.amd.com/us-en/0,,3715_15721,00.html

Vielen Dank! Hab die heute morgen übersehen...

Adam D.
2008-06-25, 15:51:37
HD4870 lieferbar:
http://geizhals.at/eu/a346315.html
Respekt! Ging ja fix.

Redneck
2008-06-25, 15:53:25
finde diesen Bench von Techreport sehr interessant in Bezug auf 10.1 :
http://techreport.com/r.x/radeon-hd-4870/assassinscreed.gif

Techreport hat ausdrücklich eine ungepatchte Version getestet, also mit 10.1 Pfad (mit dem angeblich fehlendenden Render Pass).

Habe die restlichen reviews nach einem Test von einer gepatchten AC Version durchsucht um
einmal 10 -10.1 vergleichen zu koennen auf der 48xx Serie.
Any ideas ?

Gruß

AnarchX
2008-06-25, 16:00:43
HD4870 lieferbar:
http://geizhals.at/eu/a346315.html
Gleich mal 30€ auf den UVP draufgeschlagen und Mindfactory listet gleich bei 299€ ihre Palit. Naja, wer vernünftig ist wartet noch bis Mitte Juli.

Popeljoe
2008-06-25, 16:01:14
Bei dem Bench frag ich mich: Wer braucht denn die die 4870 im CF, wenn die 4850 CF fast genausoviel bringt??? ;) Und die Average FPS sind bei der Single und CF Version gleich? Beide 31...

GeneralHanno
2008-06-25, 16:04:34
die 3850 hat ja 199$ UVS. liegt die 3870 nun eigentlich bei 229$ oder 299$ UVP ???

ShadowXX
2008-06-25, 16:05:57
Hab auch noch eine bei Alternate abbekommen....ich hoffe das klappt da das ganze über Telefon ging und etwas "chaotisch" ablief da massen an alten Daten geändert wurden mussten.
die 3850 hat ja 199$ UVS. liegt die 3870 nun eigentlich bei 229$ oder 299$ UVP ???
299$...upss sorry. ich dachte du meinst die 4870..

d.h. eigentlich wäre das ca. 230Euro (inkl. MWSt). 30 Euro Aufschlag am Anfang finde ich OK.

LovesuckZ
2008-06-25, 16:06:09
die 3850 hat ja 199$ UVS. liegt die 3870 nun eigentlich bei 229$ oder 299$ UVP ???

Wenn du die alten Karten meinst, da hat AMD die Preise auf 159$ bzw. 179$ gesenkt.
Bei den neuen liegen sie bei 199$ und 299$.

Jules
2008-06-25, 16:08:30
HD4870 lieferbar:
http://geizhals.at/eu/a346315.htmlThanks:up:

Es juckt so in den Fingern. Doch die Vernunft sagt, warte auf die 1GB Version bzw. bis der Preis etwas angepasst ist:)

MfG Jules

Unyu
2008-06-25, 16:08:33
Techreport hat ausdrücklich eine ungepatchte Version getestet, also mit 10.1 Pfad (mit dem angeblich fehlendenden Render Pass).
Warum das?
Das fehlt nicht angeblich, sondern tatsächlich.

Kann man nicht mal mehr sinnvoll testen?

Marty98
2008-06-25, 16:13:24
Wenn man ein halbwegs gut durchlüftetes Gehäuse hat sollte die Lautstärke also kein Problem sein:

http://techreport.com/r.x/radeon-hd-4870/noise-load.gif

Viele wie ich empfinden alles >40 DB als sehr laut. Ich hab schon lüfter getauscht die laut c't 0,3 Sone hatten.

AnarchX
2008-06-25, 16:17:47
Viele wie ich empfinden alles >40 DB als sehr laut. Ich hab schon lüfter getauscht die laut c't 0,3 Sone hatten.
Offenes Gehäuse und 30cm Abstand zur Karte:
http://techreport.com/articles.x/14990/15
Also in der Praxis wohl deutlich niedriger, die Einordnung unter der doch relati leisen HD3870 zeigt es doch schon an.

Skinner
2008-06-25, 16:18:38
Warum das?
Das fehlt nicht angeblich, sondern tatsächlich.
Kann man nicht mal mehr sinnvoll testen?

Klar das jeder bei Ubisoft sagt, das der fehlt. Hat NVIDIA ja auch genügend Geld mit reingestellt ;)

Marty98
2008-06-25, 16:19:50
Nebenbei: unfaßbares ... nie dagewesenes P/L =)
http://geizhals.at/eu/?cat=gra16_512&asuch=HD%204850&sort=p
lieferbar ab 139€!

Die 18 EUR Versandkosten sind echt unfassbar.

tombman
2008-06-25, 16:23:02
Habe mir jetzt auch einige reviews durchgelesen und bin mit 2x GTX280 zufrieden :)

Crossfire skaliert ja teilweise saumäßig, und für mich war eines wichtig: 2x GTX280 erlauben Crysis @ VeryHigh +4xAA SPIELBAR zu erleben, während das mit ATI derzeit nicht möglich scheint.

Auch bei Vantage Extreme schauts bei ATI schlecht aus. Da brauchts dann wohl wirklich 2xR700.

Allgemein kann man sagen, daß diese Runde ganz klar an ATI geht, Nvidia wurde ordentlich in den A... gefickt, weil SOVIEL Leistung für etwas über 200€ ownt einfach.

Mir persönlich hätte es aber nix gebracht, weil alle games außer Crysis+Vantage auch vorher schon absolut spielbar waren.
Ob man jetzt 60fps oder 80fps hat ist sowas von Schnuppe...

Mit Nvidia kann ich wenigstens SSAA reinhauen, das macht die Konsolenports wenigstens etwas hübscher ;D

Für single card user kann die Antwort nur HD4870 lauten ;) Diese Leistung sollte ziemlich lange anhalten- Bravo, ATI :)

Ich schätze, 2x GTX280 + Wakü sollte auch wieder SEHR lange halten :)

Jules
2008-06-25, 16:25:16
Die 18 EUR Versandkosten sind echt unfassbar.Kaufste bei Mindfactory, Allday Free;) (142,- die 3 EUR da:))

Grumbart
2008-06-25, 16:25:33
Warum das?
Das fehlt nicht angeblich, sondern tatsächlich.

Kann man nicht mal mehr sinnvoll testen?

Wenn wir eine Zeit lang weitersuchen, finden wir vielleicht noch negative Testberichte HD4800 Serie, ganz bestimmt.

Redneck
2008-06-25, 16:26:17
Warum das?
Das fehlt nicht angeblich, sondern tatsächlich.

Kann man nicht mal mehr sinnvoll testen?
Arbeitest Du bei UBI Montreal oder wieso stellst Du das als Faktum hin ?

Ehrliche Frage : wurde eigentlich irgendwo einmal untersucht, ob es nach dem Patch zu einem optischen Unterschied zur Ursprungsversion gekommen ist.
Worin machte sich der fehlende Pass denn bemerkbar?

Nakai
2008-06-25, 16:27:33
Das Problem ist leider, dass ATI eine sehr gute Karte für sehr wenig Geld anbietet. 140€ für über 9800GTX-Niveau. Für 220€ mehr als GTX260 bzw. fast GTX280-Niveau.
Was will NV machen? Der GT200 schluckt zuviele Transistoren also auch zuviel Platz. Auf 55nm plus weitere Verbesserungen sollte NV in der Lage seine eine gute kleine Karte rauszubringen. Im Highend wird es mit dem R700 eher schlecht für NV aussehen.


mfg Nakai

€:
Ehrliche Frage : wurde eigentlich irgendwo einmal untersucht, ob es nach dem Patch zu einem optischen Unterschied zur Ursprungsversion gekommen ist.
Worin machte sich der fehlende Pass denn bemerkbar?

Ja da gab es einen Test, aber ich weiß die Adresse nemmer. Unterschiede sind sichtbar, z.B. es fehlt staub.

AnarchX
2008-06-25, 16:30:34
Das Problem ist leider, dass ATI eine sehr gute Karte für sehr wenig Geld anbietet. 140€ für über 9800GTX-Niveau. Für 220€ mehr als GTX260 bzw. fast GTX280-Niveau.
Was will NV machen? Der GT200 schluckt zuviele Transistoren also auch zuviel Platz. Auf 55nm plus weitere Verbesserungen sollte NV in der Lage seine eine gute kleine Karte rauszubringen. Im Highend wird es mit dem R700 eher schlecht für NV aussehen.

Kommt vielleicht die nächste GX2 schneller als gedacht. ;)

GeneralHanno
2008-06-25, 16:32:18
Kommt vielleicht die nächste GX2 schneller als gedacht. ;)

weder der G200 noch der G200b sind für eine GX2 karte geeignet.

Nakai
2008-06-25, 16:33:10
Kommt vielleicht die nächste GX2 schneller als gedacht. ;)

Ohne 55nm nicht.

Aber die kann kommen, muss sie aber vor 2009. Da kommt dann wieder ATI mit dem R800, welcher bestimmt wieder zusätzliche Performance bringt.


mfg Nakai

Eggcake
2008-06-25, 16:33:22
Thanks:up:

Es juckt so in den Fingern. Doch die Vernunft sagt, warte auf die 1GB Version bzw. bis der Preis etwas angepasst ist:)

MfG Jules

Gleichfalls... :usad:

Wobei ich ~219€ schon für saugut halte. Wird garantiert bald auf unter 200€ fallen.
Naja zumindest sobald die Verfügbarkeit etwas steigt ;)

reunion
2008-06-25, 16:34:56
Hab auch noch eine bei Alternate abbekommen....ich hoffe das klappt da das ganze über Telefon ging und etwas "chaotisch" ablief da massen an alten Daten geändert wurden mussten.


Wenn du viel Glück hattest. Inzwischen sind sie schon wieder weg.

Marodeur
2008-06-25, 16:35:06
Ich wart mal noch etwas ab wo sich die Preise einpendeln, hab noch ein paar Wochen zeit.

Entweder wirds eine 260er oder eben die 4870. Kommt auch drauf an wie die Performance der 4870 in AoC aussieht. Laut HardOCP (wurden die eigentlich schon verlinkt? Wenn nein -> http://enthusiast.hardocp.com/article.html?art=MTUyNCwxLCxoZW50aHVzaWFzdA== schenken sich hier die beiden wohl nicht viel.

Von daher tendier ich derzeit nach 3x NVidia seit der 9700 wieder mal zu einer ATI. Abwechslung muss sein :)

Etwas enttäuscht bin ich aber von der idle-Leistungsaufnahme. Hoffe die Kartenhersteller machen da was aus der "Luft" die sie noch nach unten hin haben bei den Taktraten... :(

tombman
2008-06-25, 16:38:31
Ich würde Nvidia nicht abschreiben.

Der G200 war wohl sowas wie ein "neue Ära" Chip. In dem Fall bedeutet neue Ära etwa: more than gaming, sprich GPGPU.

Bei den kranken 1.4 Milliarden Trasistoren Chip und dem Können von Nvidia, kann ich mir nicht vorstellen, daß sie den 1 Milliarden Chip von ATI nicht hätten in Grund und Boden stampfen können. Diese 400 Millionen können nur in GPGPU geflossen sein.

G200b wird wohl wieder etwas Luft nach oben schaffen, durch höheren Takt, aber ich bin mal auf die echte neue Generation gespannt, da könnten sie sich wieder auf performance konzentrieren.

Man wird jetzt sowieso mal locker 2 Monate die Treiber abwarten müssen...

Redneck
2008-06-25, 16:38:57
Mir persönlich hätte es aber nix gebracht, weil alle games außer Crysis+Vantage auch vorher schon absolut spielbar waren.
:)

Du spielst Vantage ? :biggrin:

Gruß

ShadowXX
2008-06-25, 16:42:09
Wenn du viel Glück hattest. Inzwischen sind sie schon wieder weg.
Er hat zu mir gesagt das noch welche da sind und ich eine von denen abbekomme (ich hatte auch schon bestelt bevor du deinen Geizhals-Link gepostet hattest).

Ich hab eher Angst das es an die falsche Adresse geht, da die alte Firmenadresse geändert werden musste, die dazu nur noch die Rechnungsadresse ist und es dazu eben noch eine abweichende Lieferadresse gibt. Und mein Sachbearbeiter wirkte als wenn er den Job noch nicht lange macht.

Ich werds merken, wenn die Karte bis Freitag Mittag nicht da ist werde ich mal anrufen....

4 Vitamins
2008-06-25, 16:50:25
[/list]
Summa summarum, tendiere ich dazu auf die G200B zu warten. Die sollte in Sachen Leistung zu Wärmeentwicklung/Lautstärke dann besser abschneiden.

.

du hast das wichtigste vergessen: die meisten kaufen sich ne karte die ihren budget entspricht, es ist bei der überwiegenden mehrheit bis 250-300 euro, welche für ne graka ausgegeben werden.
Wenn interesiert ein G200b für 500 euro???


gruss

MuLuNGuS
2008-06-25, 16:51:27
Nein das Shading eben nicht. Nur das Schattenzeug.

schon klar, ausgedrückt hat er sich dennoch anders.

dann halt Deferred-Shadower.

9800ProZwerg
2008-06-25, 17:00:03
Sagt mal, was wollt ihr mit ner 1GB Version der 4850/4870?
Die bricht doch selbst bei 8xAA nicht so stark ein!
Also wozu 1GB?

Gast
2008-06-25, 17:05:42
Also wozu 1GB?

Für morgen. Die meisten getesteten Anwendungen sind Wochen+Monate alt.

Aber was ist mit neuen? So eine Karte hält locker bis zu 2 Jahre und da sind 512MB bisschen wenig.

Eggcake
2008-06-25, 17:05:49
Zukunft etc.

tombman
2008-06-25, 17:13:20
Nachdem es offenbar KEIN review schafft, die interessanten Dinge zu benchen, muß ich wohl ein bischen rum-painten ;D

http://www.abload.de/img/assu7vg.jpg

Habe für die HD4870er großzügig 30% mehr zu HD4850 gerechnet, also das Maximum. Da CF hier mit +91% skaliert, habe ich das auch für SLI angenommen.
Wenn die dritte HD4870 30% drauflegt, dann sind sie genau bei 2x GTX280.

3x HD4870 entsprechen ca 2x GTX280

2x R700 entsprechen ca 3x GTX280

In beiden Fällen ist Nvidia ca 50% teurer...

Henroldus
2008-06-25, 17:30:57
Nachdem es offenbar KEIN review schafft, die interessanten Dinge zu benchen, muß ich wohl ein bischen rum-painten ;D

http://www.abload.de/img/assu7vg.jpg

ganz großes Kino Tombi: 2x230Eur gegen 1100€ :eek: +lokales Atomkraftwerk
(jeweils Launch Preise!)

Skinner
2008-06-25, 17:35:35
ganz großes Kino Tombi: 2x230Eur gegen 1100€ :eek: +lokales Atomkraftwerk
(jeweils Launch Preise!)

:ulol4:

Ist aber genau das, was von Tombman prognostiziert wurde. Nur solange das nicht wirklich so gebencht wurde, ist und bleibt das nur Spekulation.

Skinner
2008-06-25, 17:37:27
Sagt mal, was wollt ihr mit ner 1GB Version der 4850/4870?
Die bricht doch selbst bei 8xAA nicht so stark ein!
Also wozu 1GB?

CF @ 16xAA bei 1920x1200 vielleicht :|

tombman
2008-06-25, 17:38:09
Hier ist auch noch mal ein Benchmark mit zusätzlich 4870 Crossfire (die anderen getesteten Karten sind teilweise übertaktet, zB. die GT260):

http://www.tweaktown.com/reviews/1481/sapphire_radeon_hd_4870_in_crossfire/index.html
ganz großes Kino Tombi: 2x230Eur gegen 1100€ :eek: +lokales Atomkraftwerk
(jeweils Launch Preise!)
Also bei mir war der Launchpreis 1018€...

Und 2x GTX280 sind auch schneller als 2x HD4870...

Deshalb habe ich mit 3x HD4870 gerechnet, die in etwa 2x GTX280 Leistung erreichen werden. (triple-irgendwas skaliert ja schlechter als dual-irgendwas)

Und Preise sollte man schon zu selben Zeitpunkten vergleichen, schließlich kann man nicht Vergangenheit mit Gegenwart vergleichen, wenn es um KÄUFE geht.
Also

230€ *3= 690€

470€ *2= 940€

=> 250€ "zum Fenster hinaus" => isses mir wert, da IMO mehr Komfort bei Nvidia und weniger Nerven (Profilverwaltung, NHancer, XP SLI, Lastanzeige, support, GPGPU, Phys-X) :cool:

Sorkalm
2008-06-25, 17:55:58
Naja, das du GPGPU aufzählst klingt doch etwas merkwürdig. :D

PHuV
2008-06-25, 18:01:26
Ich würde Nvidia nicht abschreiben.

Der G200 war wohl sowas wie ein "neue Ära" Chip. In dem Fall bedeutet neue Ära etwa: more than gaming, sprich GPGPU.

Bei den kranken 1.4 Milliarden Trasistoren Chip und dem Können von Nvidia, kann ich mir nicht vorstellen, daß sie den 1 Milliarden Chip von ATI nicht hätten in Grund und Boden stampfen können. Diese 400 Millionen können nur in GPGPU geflossen sein.

G200b wird wohl wieder etwas Luft nach oben schaffen, durch höheren Takt, aber ich bin mal auf die echte neue Generation gespannt, da könnten sie sich wieder auf performance konzentrieren.

Man wird jetzt sowieso mal locker 2 Monate die Treiber abwarten müssen...

Vor allen Dingen, wenn das Ding wirklich im High-End-Computing dann seine Abnehmer findet, da lacht Nvidia über die Absatzzahlen, welche ATI dann im Midrange-Bereich macht.

GPUs revolutionieren das Rechenzentrum (http://www.silicon.de/hardware/server-desktops/0,39038998,39192512,00/gpus+revolutionieren+das+rechenzentrum.htm)

Gast
2008-06-25, 18:08:30
3x HD4870 entsprechen ca 2x GTX280

2x R700 entsprechen ca 3x GTX280




...in deinem Crysis-Beispiel.

tombman
2008-06-25, 18:24:59
...in deinem Crysis-Beispiel.

Schaut euch mal diese Folie an:

http://www.abload.de/img/quad-cf-lolsta.jpg

Unter "Great Scaling" verstehe ich aber was anderes als im Schnitt 2.75x bei 4 (!) Gpus ;D

Das schaut eher nach stinknormalem CF aus...

Das stärkt meine These 3x GTX280 = 2x R700...

Aber immerhin: ATi hat tatsächlich immer das beste P/L, in jeder Preiskategorie.

Fps sind aber nicht alles für mich :)

Gast
2008-06-25, 18:26:15
tombman kannste das mal mit 8aa machen,wen interessiert denn diese settings die bei jeder 9800gtx spielbar ist:)

mach mal aber nicht vom stuhl fallen;)

Gast
2008-06-25, 18:28:36
lol hier noch ein test: http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1946594/radeon_hd_4870_p5.html
Preis/Leistung: Befriedigend :ugly:

Nakai
2008-06-25, 18:30:24
lol hier noch ein test: http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1946594/radeon_hd_4870_p5.html
Preis/Leistung: Befriedigend :ugly:

Naja Gamestar ist einfach NV-biased.

Lol, die negativen Punkte sind ja mal sowas von lächerlich.


mfg Nakai

Coda
2008-06-25, 18:36:17
"perfekter anisotroper Texturfilter" zeugt auch nicht gerade von großartiger Ahnung.

Savay
2008-06-25, 18:36:36
Vor allen Dingen, wenn das Ding wirklich im High-End-Computing dann seine Abnehmer findet, da lacht Nvidia über die Absatzzahlen, welche ATI dann im Midrange-Bereich macht.

GPUs revolutionieren das Rechenzentrum (http://www.silicon.de/hardware/server-desktops/0,39038998,39192512,00/gpus+revolutionieren+das+rechenzentrum.htm)


ja nur das in der standard workstation maximal 8*RV770 und wohl eher höchstens 4*GT200 reinpassen dürften. ;) nV steht mit Tesla schließlich nicht alleine da...

dazu kommt das AMD den plattform vorteil hat der nicht zu unterschätzen ist und genug connections in dem gebiet...spätestens seit dem opteron. :)

tombman
2008-06-25, 18:40:28
Nvidia ist einfach zu teuer...

Die GTX260 muß auf 250€ runter und die GTX280 maximal auf 300€...dann paßts HALBWEGS...

PHuV
2008-06-25, 18:41:28
Unter "Great Scaling" verstehe ich aber was anderes als im Schnitt 2.75x bei 4 (!) Gpus ;D

Das schaut eher nach stinknormalem CF aus...

Das stärkt meine These 3x GTX280 = 2x R700...


Du meinst wohl 2x GTX280 = 3x R700, oder?

Nakai
2008-06-25, 18:42:09
Nvidia ist einfach zu teuer...

Die GTX260 muß auf 250€ runter und die GTX280 maximal auf 300€...dann paßts HALBWEGS...

Joa, aber da bleibt kaum noch was für NV übrig bzw. gar nichts.


mfg Nakai

€: Du meinst wohl 2x GTX280 = 3x R700, oder?

Ein R700 wird schneller als ne GTX280 sein.

Gast
2008-06-25, 18:43:11
die 260gtx gibts schon für knappe 260,jetzt muss die große nach ziehen.

PHuV
2008-06-25, 18:43:27
ja nur das in der standard workstation maximal 8*RV770 und wohl eher höchstens 4*GT200 reinpassen dürften. ;) nV steht mit Tesla schließlich nicht alleine da...

dazu kommt das AMD den plattform vorteil hat der nicht zu unterschätzen ist und genug connections in dem gebiet...spätestens seit dem opteron. :)

Das wird man sehen, was sich durchsetzt, oder welches mehr für die Wissenschaft benötigte Leistung bereitstellt. Irgendwo müssen die 1,4 Mrd Transistoren für die GTX 280 ja wohl angelegt sein.

deekey777
2008-06-25, 18:45:39
"perfekter anisotroper Texturfilter" zeugt auch nicht gerade von großartiger Ahnung.
Ich habe zwar keine Ahnung, was du gerade meinst, aber ich tue mich mal wichtig und verlinke mal das:
http://www.techreport.com/articles.x/14990/7

tombman
2008-06-25, 18:45:57
Du meinst wohl 2x GTX280 = 3x R700, oder?
Nein, stimmt schon so. 3 Nvidia Chips vs 4 ATi Chips ;) (R700 = 2 Chips!)

Coda
2008-06-25, 18:46:54
Ich habe zwar keine Ahnung, was du gerade meinst, aber ich tue mich mal wichtig und verlinke mal das:
http://www.techreport.com/articles.x/14990/7
Ich meine dass RV770 immer noch unterfiltert wie RV670 auch. Die Blumen sagen darüber nichts aus.

Endorphine
2008-06-25, 18:54:50
GPU-Architekt Eric Demers beteuert aber, dass man sich ein ganzes Jahr Zeit genommen habe, um die Zahl der benötigten Transistoren zu verringern [...] Stellt sich also wieder die Frage, wo "Vereinfachungen" und "Optimierungen" eingebaut wurden, um in Benchmarks gut dazustehen, aber Qualitätseinbußen durch weniger geleistete Arbeit hingenommen werden sollen.

Wenn die Karten bei den kritischen und informierten Kunden angekommen sind, 2-3 Monate in's Land gegangen sind und ungeschönte Praxiserfahrungen durch die Foren kommuniziert wurden, kann man die Lage einschätzen.

Abwarten also...

AnarchX
2008-06-25, 19:00:15
Schaut euch mal diese Folie an:

http://www.abload.de/img/quad-cf-lolsta.jpg

Unter "Great Scaling" verstehe ich aber was anderes als im Schnitt 2.75x bei 4 (!) Gpus ;D

Das schaut eher nach stinknormalem CF aus...


Sind ja auch nur 4x 4870 und nicht 2-mal R700.

Ich meine dass RV770 immer noch unterfiltert wie RV670 auch. Die Blumen sagen darüber nichts aus.
Du hattest dir doch auch eine 4850 bestellt? Da könntest du ja mal etwas für die Hauptseite fabrizieren. ;)

reunion
2008-06-25, 19:01:30
Stellt sich also wieder die Frage, wo "Vereinfachungen" und "Optimierungen" eingebaut wurden, um in Benchmarks gut dazustehen, aber Qualitätseinbußen durch weniger geleistete Arbeit hingenommen werden sollen.

Wenn die Karten bei den kritischen und informierten Kunden angekommen sind, 2-3 Monate in's Land gegangen sind und ungeschönte Praxiserfahrungen durch die Foren kommuniziert wurden, kann man die Lage einschätzen.

Abwarten also...

Wie das gemeint war war wohl offensichtlich. Aber an irgendwas müssen sich die nV-Fans ja aufhängen.

Coda
2008-06-25, 19:03:44
Sind ja auch nur 4x 4870 und nicht 2-mal R700.
Was ist da genau der Unterschied? Meinst du der neue Crossfire-Interconnect funktioniert nur auf dem gleichen PCB? Mag sein, muss aber nicht.

Zatoichi
2008-06-25, 19:04:14
Stellt sich also wieder die Frage, wo "Vereinfachungen" und "Optimierungen" eingebaut wurden, um in Benchmarks gut dazustehen, aber Qualitätseinbußen durch weniger geleistete Arbeit hingenommen werden sollen.

Wenn die Karten bei den kritischen und informierten Kunden angekommen sind, 2-3 Monate in's Land gegangen sind und ungeschönte Praxiserfahrungen durch die Foren kommuniziert wurden, kann man die Lage einschätzen.

Abwarten also...

Hmm, ist den etwas schlechtes daran, eine effizente und kostengünstige Architektur zu schaffen? Was hat man den von einem Monster ala GTX280, die laut,teuer und stromfressend ist? Ich dachte eigentlich, das die IHVs davon weggehen? Bei geringfügig schlechterer Leistung soviel Geld weniger auszugeben wie im Moment sich der Unterschied bei NV / Ati darstellt, ist doch besser als umgekehrt, oder bin ich da der einzige der so denkt?

reunion
2008-06-25, 19:05:15
Was ist da genau der Unterschied? Meinst du der neue Crossfire-Interconnect funktioniert nur auf dem gleichen PCB? Mag sein, muss aber nicht.

Es ist definitiv so. Man braucht sich nur die Reviews durchlesen.

dildo4u
2008-06-25, 19:08:39
Nvidia ist einfach zu teuer...

Die GTX260 muß auf 250€ runter und die GTX280 maximal auf 300€...dann paßts HALBWEGS...
Der Preis der GTX260 wurde vom Markt schon angepasst super Job von ATI ohne diesen Druck hätte man whol noch ewig über 300€ für die GTX260 gezahlt.Wenn die X2 da ist dürfte auch die GTX280 deutlich billiger werden.

http://www3.hardwareversand.de/2/articledetail.jsp?aid=22296&agid=554&ref=13

pXe
2008-06-25, 19:12:34
Der Preis der GTX260 wurde vom Markt schon angepasst super Job von ATI ohne diesen Druck hätte man whol noch ewig über 300€ für die GTX260 gezahlt.Wenn die X2 da ist dürfte auch die GTX280 deutlich billiger werden.

http://www3.hardwareversand.de/2/articledetail.jsp?aid=22296&agid=554&ref=13


Klasse, sieht so aus als wär auf jeden Fall der Kunde diesmal der Gewinner.

pXe

Endorphine
2008-06-25, 19:13:32
Hmm, ist den etwas schlechtes daran, eine effizente und kostengünstige Architektur zu schaffen? Gar nichts, wenn kein Betrug am Kunden gemacht wird. Wenn ich allerdings die explizite Aussage lese, dass sehr viel Arbeit darin gesteckt wurde, die Transistoren-Zahl so niedrig wie möglich zu bekommen fallen mir sofort viele Beispiele aus der Vergangenheit ein, wo einfach zu viel gespart wurde und nur deshalb die Balkenlänge nach rechts geht, weil die Karte weniger arbeitet und weniger Qualität bietet.

Wenn AMD jetzt ganz offen an die Grenzen der Effizienz geht und das alte Schema von Optimierung auf populäre Benchmarks so richtig ausreizt, dann bin ich eben gespannt, ob man für diese Maxime nicht auch wieder mal Qualität opfert.

Das wird sich zeigen, wenn 2-3 Monate in's Land gegangen sind und die 3D-Gurus ungeschönte Meinungen über die Karten in den Foren posten konnten.

Man wird auch sehen müssen, ob die Treiber schon brauchbare Qualität haben oder ob es wieder ein Desaster wie bei der Radeon 9700 im ersten Jahr nach ihrer Vorstellung wird, wo die Karte nur in Benchmarks gut dasteht und in der Realität dank Bugs keine Freude aufkommt. Die VRAM-Schwäche der GeForce 8/9 ist bekannt, die neuen Schwächen der aktuellen Radeons noch nicht.

Daher: abwarten, und Hype bleiben lassen.

AnarchX
2008-06-25, 19:15:06
Es ist definitiv so. Man braucht sich nur die Reviews durchlesen.
Wo kann man das lesen, ich habe nur in einigen Reviews die Folien entdeckt, die ich auch im neuen Spekuthread in #1 verlinkt habe:
http://www.hothardware.com/image_popup.aspx?image=big_slide_18.jpg&articleid=1172&t=a

Jedenfalls ein Hinweis gibt es ja schonmal auf eine bessere Skalierung:
- HD4870: X3600
- 4xHD4870: 2,75x laut tombmans Folie
- 2xR700 laut ATi: X12500 -> Skalierung von 3,47x

][immy
2008-06-25, 19:22:47
Man wird auch sehen müssen, ob die Treiber schon brauchbare Qualität haben oder ob es wieder ein Desaster wie bei der Radeon 9700 im ersten Jahr nach ihrer Vorstellung wird, wo die Karte nur in Benchmarks gut dasteht und in der Realität dank Bugs keine Freude aufkommt.


was war denn an der Radeon 9700 schlecht?
also die war nicht nur in benchmarks verdammt gut, sondern an sich auch in spielen und das eine lange lange zeit. verwechselst du die vielleicht mit der 8500er?

@topic
nun, sieht so aus als müsste ich doch noch ein wenig warten. die temperaturen scheinen ja nicht so doll zu sein, da warte ich doch lieber bis z.B. HIS wieder etwas bessere kühler drauf-pflanzt

Zatoichi
2008-06-25, 19:23:48
Gar nichts, wenn kein Betrug am Kunden gemacht wird. Wenn ich allerdings die explizite Aussage lese, dass sehr viel Arbeit darin gesteckt wurde, die Transistoren-Zahl so niedrig wie möglich zu bekommen fallen mir sofort viele Beispiele aus der Vergangenheit ein, wo einfach zu viel gespart wurde und nur deshalb die Balkenlänge nach rechts geht, weil die Karte weniger arbeitet und weniger Qualität bietet.

Wenn AMD jetzt ganz offen an die Grenzen der Effizienz geht und das alte Schema von Optimierung auf populäre Benchmarks so richtig ausreizt, dann bin ich eben gespannt, ob man für diese Maxime nicht auch wieder mal Qualität opfert.

Das wird sich zeigen, wenn 2-3 Monate in's Land gegangen sind und die 3D-Gurus ungeschönte Meinungen über die Karten in den Foren posten konnten.

Man wird auch sehen müssen, ob die Treiber schon brauchbare Qualität haben oder ob es wieder ein Desaster wie bei der Radeon 9700 im ersten Jahr nach ihrer Vorstellung wird, wo die Karte nur in Benchmarks gut dasteht und in der Realität dank Bugs keine Freude aufkommt. Die VRAM-Schwäche der GeForce 8/9 ist bekannt, die neuen Schwächen der aktuellen Radeons noch nicht.

Daher: abwarten, und Hype bleiben lassen.

Ja, das mit der Angst vor den Ati Treibern, das hab ich wieder, aber ich geb ihr gerne ein Chance. Bei dem PLV kann so viel nicht schief gehen. Interessant ist aber, das du diese Aussage anders verstehst als ich. Ich hab das so ausgelegt, das man Stolz auf die geringe Anzahl der Transistoren ist, da man damit das sehr gute PLV erreicht. Cheaten hab ich da nicht hinter vermutet. Aber du hast recht, die Zeit wirds zeigen. Nur solange nix derartiges Bewiesen ist, sollte man diesbezüglich immer die Kirche im Dorf lassen.

reunion
2008-06-25, 19:25:42
Wo kann man das lesen, ich habe nur in einigen Reviews die Folien entdeckt, die ich auch im neuen Spekuthread in #1 verlinkt habe:
http://www.hothardware.com/image_popup.aspx?image=big_slide_18.jpg&articleid=1172&t=a

Jedenfalls ein Hinweis gibt es ja schonmal auf eine bessere Skalierung:
- HD4870: X3600
- 4xHD4870: 2,75x laut tombmans Folie
- 2xR700 laut ATi: X12500 -> Skalierung von 3,47x

Ein interessantes Details am Speichercontroller ist ein so genannter „CrossFire X Interconnect“, der auf dem RV770 neu hinzugekommen ist. Eric Demers wollte sich zu diesem Thema leider nicht äußern und so können wir nur spekulieren, was der neue Anschluss macht. Definitiv fest steht, dass der Interconnect nicht beim klassischen CrossFire-Verbund aus zwei, drei oder vier diskreten Grafikkarten zum Einsatz kommt. Stattdessen wird der CrossFire X Interconnect nur beim R700 eingesetzt werden, der noch nicht vorgestellten High-End-Karte mit zwei RV770-GPUs auf einem PCB.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/4/#abschnitt_technik_im_detail_part_2

MadManniMan
2008-06-25, 19:25:43
Wenn ich allerdings die explizite Aussage lese, dass sehr viel Arbeit darin gesteckt wurde, die Transistoren-Zahl so niedrig wie möglich zu bekommen fallen mir sofort viele Beispiele aus der Vergangenheit ein, wo einfach zu viel gespart wurde und nur deshalb die Balkenlänge nach rechts geht, weil die Karte weniger arbeitet und weniger Qualität bietet.

Nunja, der RV770 ist ja einfach mal eine Verbreiterung, wie es der R420 nach dem R300 war - und so gesehen kann ich mir schon sehr gut vorstellen, dass das mit rechten Dingen zu geht.

tombman
2008-06-25, 19:30:30
Wo kann man das lesen, ich habe nur in einigen Reviews die Folien entdeckt, die ich auch im neuen Spekuthread in #1 verlinkt habe:
http://www.hothardware.com/image_popup.aspx?image=big_slide_18.jpg&articleid=1172&t=a

Jedenfalls ein Hinweis gibt es ja schonmal auf eine bessere Skalierung:
- HD4870: X3600
- 4xHD4870: 2,75x laut tombmans Folie
- 2xR700 laut ATi: X12500 -> Skalierung von 3,47x

Jo, das dachte ich mir auch. Aber das würde im Umkehrschluß bedeuten, sie haben echt ein 4 pci-e slots mobo für die quad Messung hergenommen.

Würde man auf eine FOLIE nicht das beste hernehmen, was da ist, also 2x R700, angenommen er skaliert wirklich besser? ;)

Gast
2008-06-25, 19:31:03
Nachdem es offenbar KEIN review schafft, die interessanten Dinge zu benchen, muß ich wohl ein bischen rum-painten ;D


Habe für die HD4870er großzügig 30% mehr zu HD4850 gerechnet, also das Maximum. Da CF hier mit +91% skaliert, habe ich das auch für SLI angenommen.
Wenn die dritte HD4870 30% drauflegt, dann sind sie genau bei 2x GTX280.

3x HD4870 entsprechen ca 2x GTX280

2x R700 entsprechen ca 3x GTX280

In beiden Fällen ist Nvidia ca 50% teurer...

was hatt so was hier in nem Review thread zu suchen?

Gast
2008-06-25, 19:31:12
@Endorphine
Eric Demers sagte nichts von Transistoren sparen, er sprach von höherer Packdichte. 956 Millionen Transistoren auf 256mm² sind eine sehr gute Leistung. Transistoren hat man gespart indem man zB FP16 "nur" noch in 2 Takten filtern kann etc

tombman
2008-06-25, 19:34:21
was hatt so was hier in nem Review thread zu suchen?
Ich sehe da aber (P)Review Thread stehen...:cool:

w0mbat
2008-06-25, 19:38:33
@Endorphine
Eric Demers sagte nichts von Transistoren sparen, er sprach von höherer Packdichte. 956 Millionen Transistoren auf 256mm² sind eine sehr gute Leistung. Transistoren hat man gespart indem man zB FP16 "nur" noch in 2 Takten filtern kann etc

Bei den Texturformaten gibt es beim RV770 keine Änderungen. Die TMUs können innerhalb eines Taktes einen 64-Bit-Wert filtern, weswegen die Textureinheiten FP16-HDR-Rendering ohne Geschwindigkeitsverlust gegenüber der herkömmlichen Genauigkeit berechnen können.

?!

Sorkalm
2008-06-25, 19:38:39
Würde man auf eine FOLIE nicht das beste hernehmen, was da ist, also 2x R700, angenommen er skaliert wirklich besser? ;)

Es steht aber eindeutig Quad Radeon HD 4870 da. Und ein Marketing sollte eigentlich nicht dazu führen, dass man statt eigene Produkte zu kaufen auf anderer Produkte warten. ;)

Marodeur
2008-06-25, 19:41:18
Ich würde Nvidia nicht abschreiben.

Der G200 war wohl sowas wie ein "neue Ära" Chip. In dem Fall bedeutet neue Ära etwa: more than gaming, sprich GPGPU.

Bei den kranken 1.4 Milliarden Trasistoren Chip und dem Können von Nvidia, kann ich mir nicht vorstellen, daß sie den 1 Milliarden Chip von ATI nicht hätten in Grund und Boden stampfen können. Diese 400 Millionen können nur in GPGPU geflossen sein.


So lang sich ein Spiel dadurch nicht beschleunigt interessiert mich GPGPU nunmal nicht die Bohne, das ist das Problem dabei. ;)

Gast
2008-06-25, 19:42:04
Nunja, der RV770 ist ja einfach mal eine Verbreiterung, wie es der R420 nach dem R300 war


IIRC kann R300 nicht brilinear filtern, der R420 aber schon. Kann aber auch nur eine Treibersache sein.

tombman
2008-06-25, 19:42:50
Irgendwas ist aber trotzdem komisch.

Laut cb skaliert 4850 bei vantage X bei 1.87x.

2x R700 müssen zumindest normales CF zwischen den Karten nutzen, weil die spezielle Verbindung nicht über die slots rennen kann.

12500/1.87 = 6684 für EINE R700

Jetzt schafft aber eine 4870 X3600

6684/3600~ 1.85x

Wie kann normales CF (=1.87x) besser skalieren als der spezielle Modus (1.85x)?
==
Würde höchstens so funken: 3600* 1.9 *1.82

Knapp, aber es geht, aber das wäre bei 4 Gpus wirklich spitzenmäßige Skalierung...

Trotzdem: 3x GTX280 holen sie nicht ein damit, 2x GTX280 hat schon X9200 laut cb. OCed haben 3 Stück über X15000 laut XS...

Gast
2008-06-25, 19:48:02
?!
Das ist so. CB hat das vom RV670/R600 leider falsch übernommen.

MadManniMan
2008-06-25, 19:51:36
IIRC kann R300 nicht brilinear filtern, der R420 aber schon. Kann aber auch nur eine Treibersache sein.

Au ja, da war ja was! Da hab ich jetzt freilich ein Eigentor geschossen ... er hat schon Recht, wir solltens im Auge behalten :)

uweskw
2008-06-25, 19:56:07
na ja, AMD AMD hat bei seinen Vorabinformationen diesesmal gewaltig untertrieben. Angeblich sollte die 4850 in Augenhöhle mit 8800 GT sein, ist aber so schnell wie die 9800GTX und die 4870 liegt nicht wie angekündigt auf Niveau der 9800GTX sondern schlägt meist die 280GTX

tombman
2008-06-25, 19:58:21
und die 4870....schlägt meist die 280GTX
Nana, mal nicht ausflippen hier ;D

uweskw
2008-06-25, 20:14:53
Nana, mal nicht ausflippen hier ;D

ruhig, ruhig.. nicht aufregen.

also in dem Setting dass die meisten mit so einer Karte spielen wollen
1600x1200, 8AA
da sieht die 4870 schon meist besser aus.
schaut einfach mal die Tests auf der ersten Seite an.

horn 12
2008-06-25, 20:18:09
Wenn ich die HD4850 behalte und dann ne weitere nehme in 2-3 Monaten, um ca. 115-120 Euro oder gar ne HD4870 dazu um 180 Euro.
Letzter wäre aber Stuss da sich jene der 4850 anpassen würde bei den Taktraten, oder dennoch ausreichend gut. Speicherbandbreite hätte iuch dann ja im Überfluss, wenn auch nicht so viel wie 2x4870 GDDR5.

Wären die 4800- Serie vor allem auch die 4850 nicht so heiss, (oder noch Treiberbedingt? :banana:) wäre die HD4850 sicher ein Liebling bei mir, aber so schon bedeutend weniger.
Warum dies:
Habe 2x120mm Lüfter auf 5 Volt gedrosselt und schon jetzt sehr heiss im Gehäuse/ Mainboard ca. gute 40+ Grad!!!:mad: Dazu kommt noch höhere CPU Temperatur bei E8400... und das OC wird schwieriger!:wall:

tombman
2008-06-25, 20:29:16
ruhig, ruhig.. nicht aufregen.

also in dem Setting dass die meisten mit so einer Karte spielen wollen
1600x1200, 8AA
da sieht die 4870 schon meist besser aus.
schaut einfach mal die Tests auf der ersten Seite an.
Tatsache ist, daß die GTX280 bei Crysis und Vantage unangreifbar ist, die schwersten Belastungen heutzutage- das zählt für mich.

Und wenn du einen Konsolenport mit SSAA spielen kannst oder mit 8xAA, dann nimmst sicher SSAA, glaub mir ;)

Aber zur Klärung: ich rate KEINEM zu GTX280... bestenfalls zu 2x GTX280, aber nur wenn spezielle Wünsche vorliegen, wie in meinem Fall.
Ich kenn mich: ich würde mich über die Preisersparnis bei zb 2x HD4870 freuen, aber je mehr Zeit vergeht, desto eher würde ich mir SLI zurückwunschen....

Endorphine
2008-06-25, 20:42:24
@Endorphine
Eric Demers sagte nichts von Transistoren sparen, er sprach von höherer Packdichte. 956 Millionen Transistoren auf 256mm² sind eine sehr gute Leistung. Transistoren hat man gespart indem man zB FP16 "nur" noch in 2 Takten filtern kann etc Das Zitat ist keine Interpretation von mir, sondern ein 1:1 Zitat von heise.de (wenn auch aus dem Kontext gerissen). Ich habe kein gutes Gefühl, wenn ausdrücklich "beteuert" wird, dass man ein ganzes Jahr lang mit sehr viel Aufwand möglichst viele Transistoren eingespart hat.

Wozu das führen kann, sieht man ja in der Vergangenheit. Daher bin ich auf ungeschönte Berichte von informierten Besitzern in 2-3 Monaten gespannt, weniger auf Hype-(P)Reviews.

reunion
2008-06-25, 20:54:16
Das Zitat ist keine Interpretation von mir, sondern ein 1:1 Zitat von heise.de (wenn auch aus dem Kontext gerissen). Ich habe kein gutes Gefühl, wenn ausdrücklich "beteuert" wird, dass man ein ganzes Jahr lang mit sehr viel Aufwand möglichst viele Transistoren eingespart hat.

Wozu das führen kann, sieht man ja in der Vergangenheit. Daher bin ich auf ungeschönte Berichte von informierten Besitzern in 2-3 Monaten gespannt, weniger auf Hype-(P)Reviews.

Was unter dem Kontext betrachtet, dass beim R6xx-Design viele Transistoren für Dinge verpulvert wurde, die wenig bis nichts brachten völlig logisch und nachvollziehbar ist. Was genau erwartest du denn? Das die Karte jetzt durch die Bank gut performt und plötzlich bei neuen Spielen wegbricht wenn die bösen "Hype-Reviews" der Vergangenheit angehören? Das ich nicht lache. Aber ist schon schwer ein Haar in der Suppe zu finden nicht wahr? Letztlich hättest du die Karte längst gekauft wenn sie von nV kämen, mehr gibt es dazu eigentlich nicht zu sagen.

Odal
2008-06-25, 21:23:23
Nvidia ist einfach zu teuer...

Die GTX260 muß auf 250€ runter und die GTX280 maximal auf 300€...dann paßts HALBWEGS...

die GTX260 dürfte max. 215-220€ kosten wenn die 4870 schon für 229€ verkauft wurde, und die GTX280 dürfte höchstens 275€ kosten (auf jedenfall nicht über 300€)

Ja, das mit der Angst vor den Ati Treibern, das hab ich wieder, aber ich geb ihr gerne ein Chance. Bei dem PLV kann so viel nicht schief gehen. Interessant ist aber, das du diese Aussage anders verstehst als ich. Ich hab das so ausgelegt, das man Stolz auf die geringe Anzahl der Transistoren ist, da man damit das sehr gute PLV erreicht. Cheaten hab ich da nicht hinter vermutet. Aber du hast recht, die Zeit wirds zeigen. Nur solange nix derartiges Bewiesen ist, sollte man diesbezüglich immer die Kirche im Dorf lassen.

vor ATI treibern braucht man keine angst haben eher vor den nvidia treibern...das durft ich erst wieder ein paar mal feststellen...

achso meine GeFroschFX 5600go im laptop produziert schon seit jahren mit den jeweilstreibern bunten pixelsalat bei 2xAA....4xAA funzt dagegen (natürlich viel zu lahm auch bei alten spielen)

cl55amg
2008-06-25, 23:25:15
die GTX260 dürfte max. 215-220€ kosten...


DIe GTX260 ist auf dem Weg dahin:
http://www3.hardwareversand.de/3/articledetail.jsp?aid=22296&agid=554&ref=13


Die Produktionskosten der neuen Geforce Reihe sollten recht hoch sein, ich denke das dieser Preiskampf Nvidia mehr schaden wird als ATI.

Mal schauen ob Nvidia nochmal 500 Millionen in die Entwicklung einer neuen Generation steckt...

Adam D.
2008-06-25, 23:45:37
und als GTX280 käufer wär ich auch ziemlich angepisst wenn ich da über 500€ hingeblättert hätte.... :D
Und wen interessiert das? Was hat das hier im Thread zu suchen? Sorry, das ist einfach nur die Anstachelung zum Flamen, mehr nicht.

Coda
2008-06-25, 23:57:35
achso meine GeFroschFX 5600go im laptop produziert schon seit jahren mit den jeweilstreibern bunten pixelsalat bei 2xAA....4xAA funzt dagegen (natürlich viel zu lahm auch bei alten spielen)
Das dürfte an defekten ROPs liegen. Probier mal 2xAA im Fenstermodus aus. Sollte gehen ;)

ShadowXX
2008-06-26, 00:03:13
na ja, AMD AMD hat bei seinen Vorabinformationen diesesmal gewaltig untertrieben. Angeblich sollte die 4850 in Augenhöhle mit 8800 GT sein, ist aber so schnell wie die 9800GTX und die 4870 liegt nicht wie angekündigt auf Niveau der 9800GTX sondern schlägt meist die 280GTX
Na jetzt wollen wir mal nicht untertreiben.
Auf der letzten Folie die ich gesehen habe stand eindeutig das ATI mit der 4870 30% schneller als eine 9800GTX sein wollte.

Unyu
2008-06-26, 00:04:51
die GTX260 dürfte max. 215-220€ kosten wenn die 4870 schon für 229€ verkauft wurde, und die GTX280 dürfte höchstens 275€ kosten (auf jedenfall nicht über 300€)
Auch unter Berücksichtigung anderer Faktoren?

Jetzt sinds gerade mal 8% Aufpreis von der 4870 beim Hinterhofhändler zur GTX 260 beim normalen Händler.
Dafür gibts auch keine Nachladeruckler mehr.


Mal schauen ob Nvidia nochmal 500 Millionen in die Entwicklung einer neuen Generation steckt...
Was sollen sie sonst machen? Türen zu?
Jetzt haben sie die ganzen Features im Chip.
Der nächste Schritt ist wieder Leistung pur.

Adam D.
2008-06-26, 00:04:57
a) Die GTX280 wird nicht "meistens" geschlagen
b) Die Folie platzierte die HD4870 zwischen 9800GTX und GX2. Die Prozente entstanden ja eher aus Gerüchten.

ShadowXX
2008-06-26, 00:17:29
a) Die GTX280 wird nicht "meistens" geschlagen
b) Die Folie platzierte die HD4870 zwischen 9800GTX und GX2. Die Prozente entstanden ja eher aus Gerüchten.
Ne Ne auf der einen internen ATI Folie stand direkt "9800 +30%".

Ist etwas mehr geworden, erst recht bei höheren Auflösungen und 8xMSAA, aber das gehörte IMHO diesmal zur ATI Taktik des Tiefstapelns und war die "Rache" für nVs indirekte "wir haben noch kein US-Architektur" beim G80.

Es ist lustigerweise immer dasselbe: Nach einem Erfolg werden die jeweiligen "Sieger" immer etwas nachlässig (ATI nach dem r300, dem im Prinzip im nur weitere Aufgüsse folgten die sich immer knapper über die Zeit retten konnten, jetzt nV die das gleiche Schicksal im Prinzip sogar etwas früher einholt).

Gast
2008-06-26, 00:21:43
DIe GTX260 ist auf dem Weg dahin:
http://www3.hardwareversand.de/3/articledetail.jsp?aid=22296&agid=554&ref=13


Die Produktionskosten der neuen Geforce Reihe sollten recht hoch sein, ich denke das dieser Preiskampf Nvidia mehr schaden wird als ATI.

Mal schauen ob Nvidia nochmal 500 Millionen in die Entwicklung einer neuen Generation steckt...

Eher das doppelte, btw sind die OEM Deals wichtig, und die Back-to-School Zeit kommt erst noch (aber die Verträge sind schon geschlossen). Aber egal, gedanken dazu sind hier fehl, und deine wohl eher falsch.

robbitop
2008-06-26, 00:24:41
Transistoren hat man gespart indem man zB FP16 "nur" noch in 2 Takten filtern kann etc
Ist das sicher?

cl55amg
2008-06-26, 00:35:09
Eher das doppelte, btw sind die OEM Deals wichtig, und die Back-to-School Zeit kommt erst noch (aber die Verträge sind schon geschlossen). Aber egal, gedanken dazu sind hier fehl, und deine wohl eher falsch.


Diese Investition muss man erst mal machen können, und nach einem wohl sich anbahnenden Preiskampf mit einem Konkurenten der etwas kokurenzfähiger ist, stellt sich die Frage die jetztige Strategie aufgeht.
Ich denke die HD4000 Serie wird die OEMs eher interessieren. Besonders bei den guten Presse die die Karten gerade bekommen.

ShadowXX
2008-06-26, 00:40:04
Ist das sicher?
Soweit ich das gelesen habe: ja.
Die FP16TMUs sind vollständig raus geflogen.

Lt. Erklärung kann das aber hinten allen möglichen Latenzen, die in Situationen wo man FP16-Filtering überhaupt nutzt auftreten, ohne Probleme "verstecken".
Und nach den Benches die ich bisher gesehen haben, hat er damit Recht.

ATIs Architektur scheint extrem durchdacht und bis auf die letzte Kommastelle durchgerechnet zu sein. "Wie machen wir aus den gegebenen Umständen und dem vorhanden Budget das bestmögliche draus".
Da wurde wahrscheinlich nicht nur alles zum optimieren "angefasst", sondern gleichzeitig auch bei jedem Teil die Schwachstellen analysiert und wenn möglich ausgemerzt.

Das einzige was Sie relativ unangetastet gelassen haben sind Ihre leicht ineffektive ALUs, das gleichen Sie dann aber eben durch Masse aus (da kann man wohl auch nichts dran drehen ohne gleich die ganze Architektur über den Haufen zu schmeissen).

SentinelBorg
2008-06-26, 01:20:32
du hast das wichtigste vergessen: die meisten kaufen sich ne karte die ihren budget entspricht, es ist bei der überwiegenden mehrheit bis 250-300 euro, welche für ne graka ausgegeben werden.
Wenn interesiert ein G200b für 500 euro???

gruss
Wer sagt denn was von 500 Euro bei der G200B? Die G92 Karten waren doch auch nicht teuer?!

ganz großes Kino Tombi: 2x230Eur gegen 1100€ :eek: +lokales Atomkraftwerk
(jeweils Launch Preise!)

Hmm, ist den etwas schlechtes daran, eine effizente und kostengünstige Architektur zu schaffen? Was hat man den von einem Monster ala GTX280, die laut,teuer und stromfressend ist? Ich dachte eigentlich, das die IHVs davon weggehen? Bei geringfügig schlechterer Leistung soviel Geld weniger auszugeben wie im Moment sich der Unterschied bei NV / Ati darstellt, ist doch besser als umgekehrt, oder bin ich da der einzige der so denkt?

Nun mal langsam, was Lautstärke und Stromverbrauch angeht, steht die 4870 auch nicht so viel besser da als die GTX280 und das trotz 55nm.

Chris2CB
2008-06-26, 01:34:27
Nun mal langsam, was Lautstärke und Stromverbrauch angeht, steht die 4870 auch nicht so viel besser da als die GTX280 und das trotz 55nm.


Finde jetzt den Test nicht, aber einmal wurde Last mit 3DMark erzeugt wo eine 4870 absolut im Rahmen war und einmal Fur Benchmark wo diese dann soviel wie eine GTX280 verbraucht. Was allerdings noch für die GTX280 spricht ist der niedrige Idle Wert.

Gast
2008-06-26, 01:36:56
aber das gehörte IMHO diesmal zur ATI Taktik des Tiefstapelns

Gute "Taktik" wie ich finde *nochanR600denk:rolleyes:

ShadowXX
2008-06-26, 01:37:27
Finde jetzt den Test nicht, aber einmal wurde Last mit 3DMark erzeugt wo eine 4870 absolut im Rahmen war und einmal Fur Benchmark wo diese dann soviel wie eine GTX280 verbraucht. Was allerdings noch für die GTX280 spricht ist der niedrige Idle Wert.
Ich habe aber auch schon Tests gesehen wo die 4870 quasi Pari mit der GTX280 beim Verbrauch war.

ATI sollte mal schleunigst Treiber rausringen wo Powerplay2 auch funktioniert.
Wobei das bei Load natürlich auch nichts bringt.

Die 4870 ist zumindest nicht der Ministromverbraucher wie es oftmals im ersten Augenblick dargestellt wird.....ich hab jetzt schon 2 Tests gelesen wo Sie von ATIs geringer Stromaufnahme schwären und dann im "Power Consuming" Bild plötzlich die GTX280 besser dasteht und die 4870 sich auch im "Load" Bild nicht mit ruhm bekleckert.
Die 4850 steht relativ gut da, aber die 4870 ist genau wie die 280er ein ganz guter "sauger".

Odal
2008-06-26, 01:41:02
Das dürfte an defekten ROPs liegen. Probier mal 2xAA im Fenstermodus aus. Sollte gehen ;)

an defekten rops im NV31.A generell oder nur in meiner GPU? :D

ich meine aber das dies zum kaufzeitpunkt und ne weile dannach (also 2003-2004) funktionierte...

Auch unter Berücksichtigung anderer Faktoren?

Jetzt sinds gerade mal 8% Aufpreis von der 4870 beim Hinterhofhändler zur GTX 260 beim normalen Händler.
Dafür gibts auch keine Nachladeruckler mehr.


wie wo was keine nachladeruckler mehr? gerade die G80 abkömmlinge sind für ihr schlechtes vram management und entsprechende einbrüche bei dessen ausgehen berühmt berüchtigt...


weiterhin wurde die 4870 heute erst vorgestellt....gib der mal ne woche wie die GTX260 schon hatte und dann guck nochmal....

achso und anhand der leistungsdaten und des geringeren techlevels dürfte die GTX260 höchstens weniger aber auf keinen fall mehr kosten...


Was sollen sie sonst machen? Türen zu?
Jetzt haben sie die ganzen Features im Chip.
Der nächste Schritt ist wieder Leistung pur.

welche features? hab ich jetzt was verpasst? der GT200 hat doch immer noch kein DX10.1 verpasst bekommen....trotz das er schon der dritte der generation G80 und nachkommen ist....

hier hängt nvidia eigentlich eher hinterher

ShadowXX
2008-06-26, 01:43:21
an defekten rops im NV31.A generell oder nur in meiner GPU? :D

An deiner GPU.

ich meine aber das dies zum kaufzeitpunkt und ne weile dannach (also 2003-2004) funktionierte...
Und ich kenne viele wo es auch immer noch funktioniert....egal welcher Treiber.

tombman
2008-06-26, 05:17:00
jo schwanztage is eh fürn arsch
PPU cheat funkt beim extreme setting kaum, da fast kein Einfluß. Maximal 5% kannst damit cheaten, und das kann man sich ja wegdenken.
Und fürn Arsch ist KEIN 3dmark je gewesen, nur können die meisten damit nicht umgehen...


und als GTX280 käufer wär ich auch ziemlich angepisst wenn ich da über 500€ hingeblättert hätte.... :D
Klar bin ich angepißt, weil ich soviel abdrücken mußte. Und es wird ja noch mehr, ca 200€ für 2x Wasserkühler...

Aber, warum verkaufe ich sie nicht einfach gleich wieder? Würde sicher fast ohne Verlust gehen.
3x HD4870 ist ja schnell gekauft (3x müßte mindestens sein, um auf 2x GTX280 Niveau zu kommen ;)), mobo auch. Warum tue ichs nicht?

Weil ich keinen Bock auf ATi Crossfire habe.
Weil ich keinen Bock auf .exe renaming habe.
Weil ich gerne eine Lastanzeige habe.
Weils dann statt 2x Wasserkühler 3x Wasserkühler wäre-> Preis steigt wieder.
Weil ich kein neues mobo einbauen will (nervt- obwohl ich schon wüßte welches: DFI UT-X48 ;))
Weil ich mich bei Multi-GPU nicht zu Vista zwingen lassen will. (GTX280 SLI geht auch unter XP, da nur 2 Gpus. 3x ATI = Vista only)
Weil FPS/Euro eben NICHT alles ist;)

Fazit: angepißt: ja, Ausweg: nein :cool:

Wenn ich nur eine SINGLE card brauchen würde-> klar, dann HD4870, würde ich auch jedem empfehlen.

p.s: das gilt nur für die jetzige Situation. Ob ich vielleicht mal 2x R700 oder mir ne dritte GTX dazuhänge, oder auf G200b warte- keine Ahnung.

tombman
2008-06-26, 05:38:52
Auf CB ist die 280er im Schnitt 37% schneller als die 4870er..
http://img95.imageshack.us/img95/5640/bubuuda3.th.jpg (http://img95.imageshack.us/my.php?image=bubuuda3.jpg)

Triskaine
2008-06-26, 07:10:59
Auf CB ist die 280er im Schnitt 37% schneller als die 4870er..
http://img95.imageshack.us/img95/5640/bubuuda3.th.jpg (http://img95.imageshack.us/my.php?image=bubuuda3.jpg)

Berechne mal den Durchschnitt ohne 3dMurks, dann reden wir weiter. Aber hey, ich geb dir recht die GTX 280 ist im Gesamtbild gesehen schneller, aber auf keinen Fall so viel das es den hohen Preis rechtfertigt. Wenn sie ~300€ kosten würde wäre es noch vertretbar.

tombman
2008-06-26, 07:44:49
470€ sind auf keinen Fall gerechtfertigt...

Als ersten Schritt gehört das Teil auf 350€ runter und dann zügig auf 300€...

tombman
2008-06-26, 07:48:58
aber sonst gehts noch?
Wenn die HD4870 230€ kostet? Dann dürfte die 280er nicht mehr als 300€ kosten...
Und die 260er 1:1 zur HD4870er...
==
Ich finde die reviews alle schlapp.

Ich würde so testen:

* Neueste Treiber für alle, wenns ned direkt geht, dann mit .ini hack.

* 3 Auflösungen, jeweils mit 4xAA/16xAF und ganz ohne: 1280x800 (= HD LCD, die "kleinere" Auflösung, ähnlich wie 12x10, CRT user etc), 1680x1050 (22" TFT, sehr verbreitet) und 1920x1200 (24" TFT, im Kommen)- als Nachtrag könnte man noch 2560x1600 messen

* Von jeder Karte 3 Stück haben, damit man auch triple-gpu testen kann, jeweils der beste chipset

* DX9 games extra, DX10 games extra. NUR maximale Details.

* Performance Report für DX9 und DX10 getrennt+ 4x/16x

* Idle und Load Messung, bis hinauf zu 3x Gpu.

* Lautstärke bis hinauf zu 3x Gpu

tombman
2008-06-26, 08:00:08
PS ich habe bei AOC mit ner 280er 1,2 gig vram Verbrauch...und in DIRT knappe 900....kannste ja nachstellen und anschliesend den roten Schrott weiter hypen.
Ich habe selbst 2x GTX280...

XuXo
2008-06-26, 08:00:14
Wenn die HD4870 230€ kostet? Dann dürfte die 280er nicht mehr als 300€ kosten...
Und die 260er 1:1 zur HD4870er...
==
Ich finde die reviews alle schlapp.

Ich würde so testen:

* Neueste Treiber für alle, wenns ned direkt geht, dann mit .ini hack.

* 3 Auflösungen, jeweils mit 4xAA/16xAF und ganz ohne: 1280x800 (= HD LCD, die "kleinere" Auflösung, ähnlich wie 12x10, CRT user etc), 1680x1050 (22" TFT, sehr verbreitet) und 1920x1200 (24" TFT, im Kommen)- als Nachtrag könnte man noch 2560x1600 messen

* Von jeder Karte 3 Stück haben, damit man auch triple-gpu testen kann, jeweils der beste chipset

* DX9 games extra, DX10 games extra. NUR maximale Details.

* Performance Report für DX9 und DX10 getrennt+ 4x/16x

* Idle und Load Messung, bis hinauf zu 3x Gpu.

* Lautstärke bis hinauf zu 3x Gpu

so würde ich gerne einen test lesen

robbitop
2008-06-26, 08:11:30
Soweit ich das gelesen habe: ja.
Die FP16TMUs sind vollständig raus geflogen.
Wäre sinnvoll, ja. Würde Transistoren sparen und genutzt wird's eh nicht.
Aber gibt's dafür auch eine Quelle? CB schreibt ja (vermutlich aus den whitepapers) dass die Dinger immernoch FP16 pro Takt können.


Das einzige was Sie relativ unangetastet gelassen haben sind Ihre leicht ineffektive ALUs, das gleichen Sie dann aber eben durch Masse aus (da kann man wohl auch nichts dran drehen ohne gleich die ganze Architektur über den Haufen zu schmeissen).
Die Architektur ist eben eine gänzlich andere. R600/700 kann pro SIMD nur ein Programm ausführen und muss dort auf Parallelität und Unabhängigkeit setzen. G80/90/200 kann pro Kanal ein eigenes Pixel berechnen. Damit stören Abhängigkeiten recht wenig. Dafür kostet das Konzept aber auch. Und das ist auch nicht mal eben umgebaut.

dreamweaver
2008-06-26, 08:47:04
so würde ich gerne einen test lesen

Ich ebenfalls!

Und das Ganze mit
8800 GTX
260 GTX
280 GTX
4850
4870

Wer machts? :)

Gast
2008-06-26, 08:47:24
Das dürfte an defekten ROPs liegen. Probier mal 2xAA im Fenstermodus aus. Sollte gehen ;)


Geht IIRC ebensowenig. Seit irgendwelchen 7x.xx (?) Treibern ist 2xAA auf den GFFX kaputt.

Mr. Lolman
2008-06-26, 08:57:31
Weil ich gerne eine Lastanzeige habe.


SLI oder GPU? Denn letzteres gibts auch mit den ATT.

Skinner
2008-06-26, 08:57:56
Ich ebenfalls!

Und das Ganze mit
8800 GTX
260 GTX
280 GTX
4850
4870

Wer machts? :)

Jemand der zuviel Geld über hat ;D

Also von den normalen Usern hier wohl niemand.

reunion
2008-06-26, 09:24:41
ATI sollte mal schleunigst Treiber rausringen wo Powerplay2 auch funktioniert.
Wobei das bei Load natürlich auch nichts bringt.


Clock-Gathering bringt auch unter Load etwas, wenn auch natürlich nicht so viel wie im idle-Modus.

Wäre sinnvoll, ja. Würde Transistoren sparen und genutzt wird's eh nicht.
Aber gibt's dafür auch eine Quelle? CB schreibt ja (vermutlich aus den whitepapers) dass die Dinger immernoch FP16 pro Takt können.


Ja sie wurden wohl rausgenommen, CB hat das wohl falsch abgeschrieben. Ich habe mindestens zwei Folien in Erinnerung wo AMD das indirekt angemerkt hatte, mal sehen ob ich die noch finde.

An interesting tidbit we're is that 64-bit filtering capability has gone from one value per clock to half of that-which means 2 clocks per bilinear filtered 64-bit color value. This was done because having full rate 64-bit filtering consumed quite a chunk of silicon, and internal analysis showed that perf/W and perf/mm2 would increase if the filtering rate was reduced and thus transistors were saved, allowing for more TUs to be implemented overall. Going by the quoted performance numbers and what we've seen in practice in terms of 64-bit filtering, this was a correct engineering choice.

/Edit: http://www.rage3d.com/reviews/video/atirv770/architecture/index.php?p=5

Die Architektur ist eben eine gänzlich andere. R600/700 kann pro SIMD nur ein Programm ausführen und muss dort auf Parallelität und Unabhängigkeit setzen. G80/90/200 kann pro Kanal ein eigenes Pixel berechnen. Damit stören Abhängigkeiten recht wenig. Dafür kostet das Konzept aber auch. Und das ist auch nicht mal eben umgebaut.

Wenn ich mir ansehe, wie wenig Platz die ALUs selbst bei dem kleinen RV770-Die benötigen, dann wage ich zu behaupten, dass die Rechenleistung/mm² auch in der Praxis bei AMD trotz fehlender Shaderdomain wesentlich höher liegt. Die einzigen die sich hier verkalkuliert haben sind nV. Was nützt volle Auslastung wenn ich dafür enorm viel investieren muss?

HPVD
2008-06-26, 09:28:59
gibt es schon eine sichere Aussage dazu, ob das MR-Problem bei Crossfire der 48x0 serie gelöst wurde? Sowohl bei zwei Einchip Karten als auch bei der kommenden zwei-chip R700?

Gast
2008-06-26, 09:31:43
Clock-Gathering bringt auch unter Load etwas, wenn auch natürlich nicht so viel wie im idle-Modus.

Warum sollte es in einem USC etwas bringen unter Load?

Gast
2008-06-26, 09:32:25
gibt es schon eine sichere Aussage dazu, ob das MR-Problem bei Crossfire der 48x0 serie gelöst wurde? Sowohl bei zwei Einchip Karten als auch bei der kommenden zwei-chip R700?
Es ist nicht gelöst. Es wurde nur mal wieder festgestellt, dass Zocker28 ein ATI/AMD-Fanboy ist.

reunion
2008-06-26, 09:32:32
Warum sollte es in einem USC etwas bringen unter Load?

Weil nie alle Transistoren gleichzeitig schalten. Siehe:

http://img258.imageshack.us/img258/8159/5mvw6.png (http://imageshack.us)
http://img258.imageshack.us/img258/8159/5mvw6.454987a52a.jpg (http://g.imageshack.us/g.php?h=258&i=5mvw6.png)

Und das scheint in den aktuellen Treibern noch zu fehlen.

Coda
2008-06-26, 09:47:28
Clock-Gating ist eine reine Hardwaresache. Darauf hat der Treiber absolut keinen Einfluss.

Das einzige was der machen kann ist die Corespannung und die Taktrate verändern, aber garantiert nichts im Chip magisch verändern.

The_Invisible
2008-06-26, 09:55:01
470€ sind auf keinen Fall gerechtfertigt...

Als ersten Schritt gehört das Teil auf 350€ runter und dann zügig auf 300€...

wieso? absolutes highend war schon immer unverhältnismäßig teuer, siehe auch intels extreme serie die gleich mal das doppelte kosten bei <10% mehrleistung.

und das das gerade von dir kommt ist schon seltsam.

mfg

tombman
2008-06-26, 10:05:12
wieso? absolutes highend war schon immer unverhältnismäßig teuer, siehe auch intels extreme serie die gleich mal das doppelte kosten bei <10% mehrleistung.
Keiner kauft die X Serie wegen 10% mehr Takt. Da läßt sich Intel einfach den offenen Multi bezahlen...

und das das gerade von dir kommt ist schon seltsam.

Die Wege des tombman sind unergründlich ;D

ShadowXX
2008-06-26, 10:33:50
Wenn ich mir ansehe, wie wenig Platz die ALUs selbst bei dem kleinen RV770-Die benötigen, dann wage ich zu behaupten, dass die Rechenleistung/mm² auch in der Praxis bei AMD trotz fehlender Shaderdomain wesentlich höher liegt. Die einzigen die sich hier verkalkuliert haben sind nV. Was nützt volle Auslastung wenn ich dafür enorm viel investieren muss?
XBit sieht das etwas differenzierter:

The superscalar Radeon HD architecture is known to be sensitive to shader code optimizations notwithstanding the special-purpose task dispatcher available in every GPU of this generation. With the amount of ALUs increased from 320 to 800, the GPU will not slow down too much if the driver is not optimized for a specific 3D application. In the worst case, one out of each five ALUs will operate, which means 160 operating ALUs in total (as opposed to the RV670’s 64). These 160 ALUs should deliver about the same performance as the GeForce 9800 GTX provides. In the best case, the computing capacity of the Radeon HD 4850 may reach 1 teraflop. That is, this modest $199 card can challenge the expensive GeForce GTX 280 that is declared to have a computing capacity of about 1teraflop, too.


nV hat IMHO die bessere (zumindest die elegantere) Designenrtscheidung getroffen, die aber den Nachteil hat das Sie "teuer" erkauft werden muss.
ATI hat den Vorteil das Ihre US-Architektur simpler (und dadurch weniger Platz bzw. Transistoren benötigt) ist und Sie dadurch durch reine Masse dagegenhalten können.

Was jetzt wirklich besser ist? Das kommt wohl auch auf den Anwendungsfall an.

robbitop
2008-06-26, 10:37:37
Wenn ich mir ansehe, wie wenig Platz die ALUs selbst bei dem kleinen RV770-Die benötigen, dann wage ich zu behaupten, dass die Rechenleistung/mm² auch in der Praxis bei AMD trotz fehlender Shaderdomain wesentlich höher liegt. Die einzigen die sich hier verkalkuliert haben sind nV. Was nützt volle Auslastung wenn ich dafür enorm viel investieren muss?
Na du weißt ja nicht, wieviel % des Platzes beim GT200 oder G80 die ALUs nehmen und wieviel % beim RV770.
Der G92 ist bei ähnlichem Takt auf ähnlichem effektiven Shaderoutput. Und der hat deutlich weniger Transistoren. Was NV hier verkackt hat, ist mir unklar. Aber pro Fläche hast du natürlich recht. Pro Transistor wäre ich mir nicht sicher.
Allerdings erkauft ATI sich einen Teil der hervorragenden Performance mit einem Texturfilter, der bitte kein Vorbild für die Industrie ist.
NV hat nicht grundlos soviel Fläche in die TMUs verpulvert.

SavageX
2008-06-26, 10:39:15
Clock-Gating ist eine reine Hardwaresache. Darauf hat der Treiber absolut keinen Einfluss.


Dann wäre aber

"Clock Gating is now supported and enable under the Linux operating system. Further details can be found in topic number 737-35191"

in den Linux Catalyst 8.6 release notes irreführend. Hat hier 5 Watt Ersparnis im idle gebracht (edit: Radeon 3850).

reunion
2008-06-26, 10:40:41
Was jetzt wirklich besser ist? Das kommt wohl auch auf den Anwendungsfall an.

Das sehe ich anders. Bei den Platz, welchen nV für ihre 240SPs in Gt200 benötigt, könnte AMD locker 2000SPs verbauen. Und mit Verlaub, da nützt nV dann auch die bessere Auslastung nichts mehr. nVs Weg mag zwar eleganter wirken, doch AMDs Weg scheint effizienter mit den Ressourcen umzugehen. Und nochmal sei erwähnt: Trotz fehlender Shaderdomain, wenn die bei AMD auch noch vorhanden wäre, würde es für nV ganz düster aussehen.

AnarchX
2008-06-26, 10:41:50
Na du weißt ja nicht, wieviel % des Platzes beim GT200 oder G80 die ALUs nehmen und wieviel % beim RV770.

Ich denke doch schon:
G200 26,5% = 153mm² @65nm
RV770 28% = 72mm² @55nm ~ 89mm²@65nm

reunion
2008-06-26, 10:43:39
Na du weißt ja nicht, wieviel % des Platzes beim GT200 oder G80 die ALUs nehmen und wieviel % beim RV770.

Doch, die Verteilung ist von GT200 und RV770 öffentlich. Mal sehen ob ich die finde. Von G80 bekam ich mal eine PM von Coda, keine Ahnung ob ich die hier posten darf, musst du mit ihm klären.

/Edit:

GT200:
http://img517.imageshack.us/img517/7784/13214996to6.jpg (http://imageshack.us)
http://img517.imageshack.us/img517/7784/13214996to6.4f58da6423.jpg (http://g.imageshack.us/g.php?h=517&i=13214996to6.jpg)

RV770:
http://img517.imageshack.us/img517/9589/59496817ek6.jpg (http://imageshack.us)
http://img517.imageshack.us/img517/9589/59496817ek6.aa064dd214.jpg (http://g.imageshack.us/g.php?h=517&i=59496817ek6.jpg)

ShadowXX
2008-06-26, 10:49:55
Das sehe ich anders. Bei den Platz, welchen nV für ihre 240SPs in Gt200 benötigt, könnte AMD locker 2000SPs verbauen. Und mit Verlaub, da nützt nV dann auch die bessere Auslastung nichts mehr. nVs Weg mag zwar eleganter wirken, doch AMDs Weg scheint effizienter mit den Ressourcen umzugehen. Und nochmal sei erwähnt: Trotz fehlender Shaderdomain, wenn die bei AMD auch noch vorhanden wäre, würde es für nV ganz düster aussehen.
Naja....Brute Force würde ich nicht als "effizienter" mit Resourcen umgehen betrachten.


Theoretically, the GPU contained 320 execution units but this was only true when all the 64 pipelines were loaded, which was not always the case. In 3D applications many operations depend on the results of previous operations, so it is hard to keep the pipeline loaded always. Application-specific optimizations in the Catalyst driver were required for that but it is often impossible to get access to the game code until it is officially released.

As the consequence, the ATI Radeon HD architecture often found itself using but one ALU in each execution unit and lagging behind the competing G80/G92-based solutions from Nvidia. The latter not only had more independent execution modules but also worked at higher clock rates. Creating the RV770, the ATI developers solved the problem of the potential inefficiency of the superscalar architecture in the most direct way – by increasing the number of execution modules from 64 to 160. Of course, it means there are more transistors in the core, but the 55nm tech process helped keep the size of the core within reasonable limits. (http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_5.html)


Beide Wege haben IMHO Vor- und Nachteile.
Ich würde momentan auch von der G200-Architektur nicht auf die Effiziens von nVs weg schliessen.
Wie Robbitop schon sagten....irgendetwas ist da scheinbar schief gelaufen (was auch immer).

robbitop
2008-06-26, 10:51:26
Ich denke doch schon:
G200 26,5% = 153mm² @65nm
RV770 28% = 72mm² @55nm ~ 89mm²@65nm
Tja aber G200 hat aber auch effektiv höheren Output.
Ist dabei auch Steuerlogik ect berücksichtigt?

Gast
2008-06-26, 10:53:48
Weil nie alle Transistoren gleichzeitig schalten. Siehe:

http://img258.imageshack.us/img258/8159/5mvw6.png (http://imageshack.us)
http://img258.imageshack.us/img258/8159/5mvw6.454987a52a.jpg (http://g.imageshack.us/g.php?h=258&i=5mvw6.png)

Und das scheint in den aktuellen Treibern noch zu fehlen.
Da sieht man doch wunderbar, dass kein Pfeil nach unten eingezeichnet ist bei 3D-App. :|

reunion
2008-06-26, 10:53:56
Tja aber G200 hat aber auch effektiv höheren Output.

Bei gleichem Takt? Wohl kaum. Und auch sonst dürfte da wenn überhaupt nicht viel fehlen.

Da sieht man doch wunderbar, dass kein Pfeil nach unten eingezeichnet ist bei 3D-App. :|

Du siehst aber schon die Linie, welche den Verbrauch kennzeichnet? Oder brauchst du einen Pfeil um das beurteilen zu können?

ShadowXX
2008-06-26, 10:59:33
Wäre sinnvoll, ja. Würde Transistoren sparen und genutzt wird's eh nicht.
Aber gibt's dafür auch eine Quelle? CB schreibt ja (vermutlich aus den whitepapers) dass die Dinger immernoch FP16 pro Takt können.

Ja sie wurden wohl rausgenommen, CB hat das wohl falsch abgeschrieben. Ich habe mindestens zwei Folien in Erinnerung wo AMD das indirekt angemerkt hatte, mal sehen ob ich die noch finde.

/Edit: http://www.rage3d.com/reviews/video/atirv770/architecture/index.php?p=5

Ich hab dazu auch noch was bei XBit gefunden:

The texture processors have a completely new design. Each TMU now contains 16 FP32 texture samplers, four address units and four filter units. The efficiency of sampling seems to be low but this is compensated by the doubled bandwidth of the bus between the TMUs and the texture caches. ATI managed to increase the speed of filtering of 32-bit and 64-bit textures by 2.5 and 1.5 times respectively. It sounds good theoretically and should be as good in practical applications.

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/rv770_tmu.gif

reunion
2008-06-26, 11:00:48
Naja....Brute Force würde ich nicht als "effizienter" mit Resourcen umgehen betrachten.


Und warum nicht? Effizient ist es mit wenig Aufwand viel zu erreichen. Mit Unmengen von Transistoren eine bessere Auslastung zu erreichen ist nicht Effizient, sondern höchstens Effektiv.

Coda
2008-06-26, 11:03:23
Dann wäre aber

"Clock Gating is now supported and enable under the Linux operating system. Further details can be found in topic number 737-35191"

in den Linux Catalyst 8.6 release notes irreführend. Hat hier 5 Watt Ersparnis im idle gebracht (edit: Radeon 3850).
KA vielleicht gibt es entsprechende Konfigurationsregister der GPU und der Treiber muss sich auf Clock-Gating einstellen weil er entsprechende Teile der GPU aktivieren/deaktivieren muss.

Aber unter Last auf das Clock-Gating einfluss nehmen. Das wage ich zu bezweifeln.

DrumDub
2008-06-26, 11:04:26
Da sieht man doch wunderbar, dass kein Pfeil nach unten eingezeichnet ist bei 3D-App. :| der abstand ist ja auch nicht so groß unter last, aber er ist da.

robbitop
2008-06-26, 11:04:54
Bei gleichem Takt? Wohl kaum. Und auch sonst dürfte da wenn überhaupt nicht viel fehlen.
Bei jetzigen Taktraten natürlich. Die hohe Taktbarkeit kostet ja auch etliche Transistoren und Ressourcen.

Endorphine
2008-06-26, 11:05:14
Was genau erwartest du denn? Dass man als Kunde nicht verarscht wird, ergo volle Qualität und nicht nur Benchmark-Balkenlänge. AMD hat ja jetzt sogar richtig zugegeben, nur noch für Benchmarks und niedrige Kosten zu optimieren. Ich nehme aber lieber weniger Balkenlänge und dafür volle Qualität. Eine reine Präferenzfrage...

Das die Karte jetzt durch die Bank gut performt und plötzlich bei neuen Spielen wegbricht wenn die bösen "Hype-Reviews" der Vergangenheit angehören? Ich habe nur Bedenken, dass sich über Zeit dann doch wie schon so oft in der Vergangenheit erlebt Nachteile in der Qualität herausstellen, wenn ganz offen auf extrem wenige Transistoren bei gleichzeitig maximaler Benchmark-Balkenlänge optimiert wurde. Der Satz "wir wollen optimale Darstellungsqualität bringen" wird nicht erwähnt. Letztlich hättest du die Karte längst gekauft wenn sie von nV kämen, mehr gibt es dazu eigentlich nicht zu sagen. Da ist was dran. Obwohl objektiv der VRAM-Bug von GF8/GF9 einfach nur nervt. Nichts ist perfekt. :redface:

reunion
2008-06-26, 11:08:57
Dass man als Kunde nicht verarscht wird, ergo volle Qualität und nicht nur Benchmark-Balkenlänge. AMD hat ja jetzt sogar richtig zugegeben, nur noch für Benchmarks und niedrige Kosten zu optimieren. Ich nehme aber lieber weniger Balkenlänge und dafür volle Qualität. Eine reine Präferenzfrage...

Erstaunlich was man in einen solchen Satz alles reininterpretieren kann, wenn man sich nur genug anstrengt. Respekt.


Ich habe nur Bedenken, dass sich über Zeit dann doch wie schon so oft in der Vergangenheit erlebt Nachteile in der Qualität herausstellen, wenn ganz offen auf extrem wenige Transistoren bei gleichzeitig maximaler Benchmark-Balkenlänge optimiert wurde. Der Satz "wir wollen optimale Darstellungsqualität bringen" wird nicht erwähnt.


Die Bildqualität ist exakt wie bei einem R6xx, das sollte bekannt sein. Und den gibt es nun wirklich schon lange. Wenn dir das reicht, wirst du auch mit einem RV770 nichts falsch machen. Wenn nicht, dann nicht.

dreamweaver
2008-06-26, 11:12:52
Sollte doch klar sein. Das sind auch nur Menschen, die solche Seiten als Hobby betreiben. Und Geld scheissen können die auch nicht (sorry für die Ausdrucksweise).

Hä? Die Hardware haben sie doch. Aber die Tests sind inkonsequent. Das hat doch nix mit Geld zu tun. tombman hat genau die Auflösung/AA/AF Kombinationen aufgezählt, die mal wichtig wären.

ShadowXX
2008-06-26, 11:24:18
Das hier finde ich interessant:

According to officials from AMD’s graphics product group, there is a number of games that take advantage of ATI’s programmable tesslation unit incoming and all of them were developed on ATI Radeon HD 2000 and HD 3000 hardware, which means that quite a number of end-users will be able to enjoy improved image quality and, perhaps, even feel themselves happy for choosing ATI Radeon over Nvidia GeForce.

But while the actual video games are enroute, those who have ATI Radeon HD 3000 or 4000 may enjoy The Froblins demo, which uses DX10.1’s global illumination technique, HDR, lighting and post-processing along with tessellation for frogs-goblins and terrain. Moreover, in the demo ATI Radeon HD hardware can even compute artificial intelligence, something new for graphics processors, isn’t it?

Aber wie benutzen Sie den Tesselator? AFAIK gibt es weder in D3D10.0 noch in 10.1 die Möglichkeit diesen anzusprechen.

Und da Sie explizit von DX10.1 sprechen glaube ich auch nicht das das ganze dann in OGL programmiert wird/ist.

siehe:http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_8.html (incl. Beispielbilder)

Gast
2008-06-26, 11:33:55
Das hier finde ich interessant:

Aber wie benutzen Sie den Tesselator? AFAIK gibt es weder in D3D10.0 noch in 10.1 die Möglichkeit diesen anzusprechen.




Steht doch im Text drin: er wird entweder als VS oder als GS angesprochen:


The tessellation unit of the ATI RV770 graphics processing unit can be programmed by both geometry and vertex shaders, hence, it is completely backwards compatible.

reunion
2008-06-26, 11:34:32
Das hier finde ich interessant:

Aber wie benutzen Sie den Tesselator? AFAIK gibt es weder in D3D10.0 noch in 10.1 die Möglichkeit diesen anzusprechen.

Und da Sie explizit von DX10.1 sprechen glaube ich auch nicht das das ganze dann in OGL programmiert wird/ist.

siehe:http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_8.html (incl. Beispielbilder)

Hack?

http://img139.imageshack.us/img139/9556/hackek4.png

DrFreaK666
2008-06-26, 11:37:38
Gibt es auch Tests mit 24xCFAA??

HarryHirsch
2008-06-26, 11:53:10
Nachdem die Karten nun doch ziemlich gut abschneiden frag ich mich warum vor dem release so viele Chefs/ Entwickler AMD verlassen haben?
Was hätte man denn besser machen können?

ShadowXX
2008-06-26, 11:53:19
Gibt es auch Tests mit 24xCFAA??
Ja, bei XBit (http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html).

Aber vergiss es. Selbst 12xCFAA ist schon viel zu langsam um es benutzen zu können (zumindest wenn die Games halbwegs neu sind.....bei 3-5 Jahren alten Titeln könte es anders aussehen).

ShadowXX
2008-06-26, 11:55:29
Hack?
http://img139.imageshack.us/img139/9556/hackek4.png
Ja, scheint ein Hack zu sein ("...that hide implementation Details....").

Kann man diese "The Froblins" Demo schon irgendwo runterladen?

reunion
2008-06-26, 11:58:01
Ja, bei XBit (http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html).

Aber vergiss es. Selbst 12xCFAA ist schon viel zu langsam um es benutzen zu können (zumindest wenn die Games halbwegs neu sind.....bei 3-5 Jahren alten Titeln könte es anders aussehen).

Anhand eines Spiels kannst du das wohl kaum beurteilen. Wie immer kommst es darauf an. Tw. ist 12xEDAA sogar schneller als 8xMSAA: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/#abschnitt_aa_und_afskalierung

HarryHirsch
2008-06-26, 11:58:37
Ja, scheint ein Hack zu sein ("...that hide implementation Details....").

Kann man diese "The Froblins" Demo schon irgendwo runterladen?

scheint bis jetzt nur videos zu geben

Gast
2008-06-26, 12:00:44
Ja, bei XBit (http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html).

Aber vergiss es. Selbst 12xCFAA ist schon viel zu langsam um es benutzen zu können (zumindest wenn die Games halbwegs neu sind.....bei 3-5 Jahren alten Titeln könte es anders aussehen).

für so hohe aa einstellung braucht man auch die 4870,die 4840 hat da nicht genug bandbreite dafür.

S940
2008-06-26, 12:03:02
XBit sieht das etwas differenzierter:


nV hat IMHO die bessere (zumindest die elegantere) Designenrtscheidung getroffen, die aber den Nachteil hat das Sie "teuer" erkauft werden muss.
ATI hat den Vorteil das Ihre US-Architektur simpler (und dadurch weniger Platz bzw. Transistoren benötigt) ist und Sie dadurch durch reine Masse dagegenhalten können.

Was jetzt wirklich besser ist? Das kommt wohl auch auf den Anwendungsfall an.
Das ist wieder die alte VLIW Geschichte, ATis Chip hat den simpleren Aufbau, der Compiler muss es richten, bzw. man muss auf jedes Spiel einzeln optimieren (um sicherzustellen, dass möglichst viele der SU benützt werden und der worst case von nur 160 verwendeten nicht eintrifft).
Deswegen legt ATi auch mit jedem neuen Treiber ziemlich zu, da die Karten zuvor halt mit schlechter Auslastung liefen. Die Optimierung ist nicht ohne, v.a. muss jedes Spiel einzeln untersucht werden, das dauert, AMD hat nicht unbegrenzte ManPower.
Nachdem die Karten nun doch ziemlich gut abschneiden frag ich mich warum vor dem release so viele Chefs/ Entwickler AMD verlassen haben?
Was hätte man denn besser machen können?
Das waren alles nur Leute aus der CPU(=AMD) Abteilung, die ATi Ingenieure arbeiten im Stillen vor sich hin, und liefern gute Arbeit ab ;-)

Fazit:
Bin mal gespannt, ob ab Catalyst ~8.8 & 1GB 4870 Karten die 280GTX eingeholt werden kann ...

ciao

Alex

ShadowXX
2008-06-26, 12:04:11
Anhand eines Spiels kannst du das wohl kaum beurteilen. Wie immer kommst es darauf an. Tw. ist 12xEDAA sogar schneller als 8xMSAA: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/#abschnitt_aa_und_afskalierung
Ehrlich gesagt traue ich Computerbase bei Ihren Messungen nicht so ganz. Die solten mal Ihre DB reseten und bei allen Messungen mit den neusten Treibern neu anfangen.

Du hast natürlich recht das man das nicht an einem Spiel festmachen sollte, aber das Ergebnis von Xbit vs. die beiden Ergebnisse von Computerbase hängen mir zu weit auseinander.
Einer von beiden liegt da falsch, denn die getesteten Szenarien sollen ca. gleich viel Arbeit für den Edge Detect Filter darstellen.

für so hohe aa einstellung braucht man auch die 4870,die 4840 hat da nicht genug bandbreite dafür.
Benötigt Edge Detect Bandbreite? Das wird doch in den Shadern gerechnet und selbst wen auf Daten noch zugegriffen werden müsste, sollten die in den Caches sein (und die sind mehr als schnell genug angebunden, der 1st Level Cache ist mit 480GBps und der 2nd Level Cache noch mit 384GBps angebunden.

Gast
2008-06-26, 12:06:57
bei cb ist auch tssaa in funktion was natürlich auch quatsch ist.das funktioniert immernoch nicht,das das denen nicht auffällt warum die fps gleichstabil bleiben;)

robbitop
2008-06-26, 12:08:43
Naja 12x ED ist vom Bandbreiten und Z-Verbrauch ja nur 4xMSAA. Hinzu kommt nochmal Shaderlast durchs Downsampling und natürlich die ganzen dyanmsichen Branchanweisungen. (IF)
Bei einer Branchgranularität von 64 ist das sicher kein Zuckerschlecken.

reunion
2008-06-26, 12:08:50
Ehrlich gesagt traue ich Computerbase bei Ihren Messungen nicht so ganz.

Du hast natürlich recht das man das nicht an einem Spiel festmachen sollte, aber das Ergebnis von Xbit vs. die beiden Ergebnisse von Computerbase hängen mir zu weit auseinander.
Einer von beiden liegt da falsch, denn die getesteten Szenarien sollen ca. gleich viel Arbeit für den Edge Detect Filter darstellen.


Du vergisst das xbitlabs auch AAA aktiv hatte, was ungleich mehr Arbeit für den ED-Filter bedeutet. Ich fand jedenfalls selbst mit einer 3870 genug Szenen, wo EDAA sinnvoll einsetzbar war.

ShadowXX
2008-06-26, 12:13:27
Naja 12x ED ist vom Bandbreiten und Z-Verbrauch ja nur 4xMSAA. Hinzu kommt nochmal Shaderlast durchs Downsampling und natürlich die ganzen dyanmsichen Branchanweisungen. (IF)
Bei einer Branchgranularität von 64 ist das sicher kein Zuckerschlecken.
Shaderpower sollte genug da sein, speziell da ATI für ED das ganze sicher auf Ihre Architektur optimiert hat.

Bist du dir bei der Branchgranularität sicher?

Bei der 2000er Serie war dir Granularität 5 Pixel (bei der X1000-Serie noch 16).
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_4.html

Ich kann mir irgendwie nicht vorstellen das jetzt 2 Generationen später plötzlich 64 sind.

Du vergisst das xbitlabs auch AAA aktiv hatte, was ungleich mehr Arbeit für den ED-Filter bedeutet. Ich fand jedenfalls selbst mit einer 3870 genug Szenen, wo EDAA sinnvoll einsetzbar war.
Ja, die Testbedingen bei XBit fand ich insgesamt auch etwas merkwürdig....speziell als Sie bei nV AF auf HQ geschaltet haben und bei ATI AI auf Standard liessen und dies unter der Prämisse "bei allen das beste was gibt" lief.
Da wären die Volaris damals ganz gut mit gefahren;)

reunion
2008-06-26, 12:14:48
Shaderpower sollte genug da sein, speziell da ATI für ED das ganze sicher auf Ihre Architektur optimiert hat.

Bist du dir bei der Branchgranularität sicher?

Bei der 2000er Serie war dir Granularität 5 Pixel (bei der X1000-Serie noch 16).
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_4.html

Ich kann mir irgendwie nicht vorstellen das jetzt 2 Generationen später plötzlich 64 sind.

Schon die 2000er Serie hatte 64 Pixel AFAIK.

ShadowXX
2008-06-26, 12:16:38
Schon die 2000er Serie hatte 64 Pixel AFAIK.
Hmmm. Xbit sagt 5.

Aber keine Ahnung woher Sie das haben.

Gast
2008-06-26, 12:17:11
Ich hab dazu auch noch was bei XBit gefunden:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/rv770_tmu.gif


Zu den FP16 TMUs gibt es von Rys auf Beyond3D eine klare Aussage: 1/2-Speed. Das wurde AFAIR auch von ATi Leute so bestätigt

Link: http://forum.beyond3d.com/showthread.php?t=41377&page=189 (ganz unten)


PS.: Der ganze Kommentar von Rys ist auch Bemerkenswert:


PSS.: Kommentar von DaveBaumann über den RV770:

Starting point was the cost target. The initial specification was 150% over R600, however the engineering focus was area optimization, so once they got underway the efficiency gains mean we could be 8 SIMD's (200% R600); a little while later, due to further gains, GDDR5 and a couple of other things, we were pad limited at 8 again, so the additional 2 SIMD's were lobbed in. And I'm not complaining about that!


PSS.: Mit einem Bios-Update funktioniert anscheinend auch PowerPlay2 :

http://img261.imageshack.us/img261/193/moddedet1.jpg
Link: http://forum.beyond3d.com/showthread.php?t=48691&page=4

robbitop
2008-06-26, 12:21:53
Also 5 ist nicht durch 4 teilbar. Klingt irgendwie seltsam.
Nein ich bin mir nicht sicher. Ich ging von dieser Zahl aus, weil soviele Kanäle für die Quads pro SIMD vorhanden sind.

Der Einbruch bei edge Detect sieht auch eher nach einer größeren Granularität aus.

reunion
2008-06-26, 12:24:46
PS.: Der ganze Kommentar von Rys ist auch Bemerkenswert:


Du hast den Text vergessen: :)

You'll only be waiting for 2.5 hours.

Random question answering from the thread and notes on things, since I won't have anything for NDA expiry (it's already 2am here, I'm not done, and I have work in the morning sadly):

* FP16 filtering is half speed, and the samplers are limited by available interpolators (only 32 texcoords/clk) when processing INT8 at full speed
* 260mm2, 960M transistors or so
* Huge focus on area efficiency and perf/watt
* Chip was pad limited in the beginning***, so the last couple of SIMDs are value adds that weren't originally planned for. Explains the first point a little bit.
* ROPs are mostly 2x everywhere measured with MSAA and really help the chip go fast. ROP MSAA downfilter this time.
* Seems to be 64KiB L1 per sampler with huge L1 bandwidth, new design
* Finding peak rates everywhere on the chip has been easy. I've seen 1Tflop FP32, full bilinear rates and peak INT8 blend and Z-only writes (64 Zs/clock, yay!)
* GDDR5 is really what lets the chip kick some real ass
* GS perf is up compared to RV670, maybe a new (bigger) coalescing stream out cache there, and more threads in flight
* Colour cache is per ROP, same as R6
* 16KiB per SIMD shared memory + 16KiB global (not the SMX)
* All 800 SPs can do integer, fat one only for specials still. 1 FP32 MAD or 1 FP<->INT or 1 integer op/clock for all
* New caching scheme for the RF I think
* Orlando-led design but very distributed in terms of teams. Scott Hartog led, and he worked on i740 at Intel
* Over 5MiB of SRAM on-chip if you count every pool
* New UVD block with 7.1 over HDMI
* No ring bus MC, new controller nice and efficient due to new ROP design


It's the single most impressive graphics processor (and pairing with a memory technology, nice one Joe!) I've ever seen, when looked at as a whole. I don't say that lightly either, there have been some winning chips over the years.

Deeply impressive and really deserves to get ATI back on the map when it comes to performance 3D graphics. Sorry I won't have anything more filling for arch NDA expiry, go read hardware.fr, Tech Report and Morgoth's pieces if you want more data.

*** ^infinity, that's honestly the best thing ever

http://forum.beyond3d.com/showpost.php?p=1181214&postcount=4723

PSS.: Kommentar von DaveBaumann über den RV770:


Und hier der Link: http://forum.beyond3d.com/showpost.php?p=1181269&postcount=4751

Eggcake
2008-06-26, 12:27:35
Also nochmals, damit ich das richtig verstanden hab:

bei der 4850er funzt TSSAA noch nicht (bzw. "AAA"), seh ich das richtig?
Und das wäre genau der Teil, welcher die Gitter (z.B. bei HL2-Screenshots) besser glättet bzw. nicht verschwinden lässt..?!

Weil so find ich siehts katastrophal aus, wenn mal einfach ein ganzes Gitter verschwindet...

Mr. Lolman
2008-06-26, 12:31:42
Also nochmals, damit ich das richtig verstanden hab:

bei der 4850er funzt TSSAA noch nicht (bzw. "AAA"), seh ich das richtig?
Und das wäre genau der Teil, welcher die Gitter (z.B. bei HL2-Screenshots) besser glättet bzw. nicht verschwinden lässt..?!

Weil so find ich siehts katastrophal aus, wenn mal einfach ein ganzes Gitter verschwindet...

Das Gitter bei HL2 verschwindet nur, weil AF im Treiber eingestellt wurde. Stellt mans direkt in der App ein (was man ohnehin immer machen sollte), ist alles in bester Ordnung.

Eggcake
2008-06-26, 12:32:50
Das Gitter bei HL2 verschwindet nur, weil AF im Treiber eingestellt wurde. Stellt mans direkt in der App ein (was man ohnehin immer machen sollte), ist alles in bester Ordnung.

Ah, oki danke. Hatte nur grad bisl nen Schock, als ich das sah...wäre für mich ein K.O.-Kriterium gewesen ;)

robbitop
2008-06-26, 12:35:59
Was ATI da gemacht hat ist ziemlich sick. "Was? Das Pad bekommt ihr nicht voll? Dann haut mal mehr SIMDs rauf!"
Und 5 MiB SRAM! Alter Schwede. Die Packdichte wundert mich nun kaum noch.
Insgesamt: Respekt an ATI. Viele sinnvolle Änderungen.

2B-Maverick
2008-06-26, 12:36:47
Und hier der Link: http://forum.beyond3d.com/showpost.php?p=1181269&postcount=4751

Hammerhart finde ich ja echt den Kommentar über die Limitierung des Chips über die Anschluss-Pins: damit die Pins alle untergebracht werden konnten wurden einfach noch zwei SIMD-Prozessor Arrays drangepappt, damit der Chip größer wurde!!!
Korrigiert mich bitte wenn ich falsch liege.... aber das finde ich echt witzig.
(und Rhys wohl auch)

CU
Markus

reunion
2008-06-26, 12:41:17
Was ATI da gemacht hat ist ziemlich sick. "Was? Das Pad bekommt ihr nicht voll? Dann haut mal mehr SIMDs rauf!"


Das Gegenteil ist der Fall, der Chip war wohl schlicht zu klein um alle Pads unterzubringen. Durch mehr SIMDs bekommt man das Pad sicher nicht voller. :)

Aber jetzt weiß man auch woher die Aussage von Dave Orton mit den 96 Shader kam. Das war wohl damals für RV770 geplant (150% R600), am Ende wurden es "etwas" mehr.

ShadowXX
2008-06-26, 12:44:57
Also nochmals, damit ich das richtig verstanden hab:

bei der 4850er funzt TSSAA noch nicht (bzw. "AAA"), seh ich das richtig?
Und das wäre genau der Teil, welcher die Gitter (z.B. bei HL2-Screenshots) besser glättet bzw. nicht verschwinden lässt..?!

Weil so find ich siehts katastrophal aus, wenn mal einfach ein ganzes Gitter verschwindet...
So wie ich es verstanden habe funktioniert AAA, allerdings nur die MSAA-Variante (was analog zu nVs TMSAA wäre).

Sorkalm
2008-06-26, 13:02:34
Gainward gibt die Nvidia-Exklusivität auf und wird bald die ersten Karten der HD-4800-Serie vorstellen:
http://forums.vr-zone.com/showthread.php?t=293775

S940
2008-06-26, 13:31:10
Also die Story mit den Pads und der DIE Fläche ist ja wirklich mal unschlagbar .. erzählt das mal nvidia ...

Jetzt bin ich aber erst Recht auf neue Treiber gespannt, die aktuellen sind wohl auf keinen Fall auf 800 Shader optimiert, höchstens auf 480.

ciao

Alex

Coda
2008-06-26, 13:32:39
Also die Story mit den Pads und der DIE Fläche ist ja wirklich mal unschlagbar .. erzählt das mal nvidia ...
"Die" ist keine Abkürzung. Das man zu viele Pads haben kann weiß auch NVIDIA, deshalb hatte G92 auch nur 256 bit.

Jetzt bin ich aber erst Recht auf neue Treiber gespannt, die aktuellen sind wohl auf keinen Fall auf 800 Shader optimiert, höchstens auf 480.
Was genau willst du da "optimieren"? Das Scheduling wird vom Chip gemacht und die Shaderoptimierung ist exakt die gleiche egal ob 32 oder 1600 ALUs.

robbitop
2008-06-26, 13:32:46
Also die Story mit den Pads und der DIE Fläche ist ja wirklich mal unschlagbar .. erzählt das mal nvidia ...

Jetzt bin ich aber erst Recht auf neue Treiber gespannt, die aktuellen sind wohl auf keinen Fall auf 800 Shader optimiert, höchstens auf 480.

ciao

Alex
Es wurde doch bloß die Anzahl der SIMDs skaliert. Aber an den SIMDs wurde kaum was geändert. Ich würde da nicht mehr allzuviel erwarten.
Wenn sie nicht bandbreitenlimitiert ist, zeigt sie der GTX260 die Zähne. Viel mehr wird nicht drin sein.

reunion
2008-06-26, 13:44:19
Bei jetzigen Taktraten natürlich. Die hohe Taktbarkeit kostet ja auch etliche Transistoren und Ressourcen.

Auch bei jetzigen Taktraten will ich das erstmal sehen. Ohne die stärkere/höhere Anzahl an TMUs/ROPs würde es wohl schlecht für GT200 aussehen. In punkto Shaderleistung ist da bestenfalls ein Gleichstand drin IMHO. Man braucht sich ja nur ansehen, wie schon eine 4850 eine 9800GTX in punkto Shaderleistung vernichtet:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/xbitmark.gif

http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_17.html#sect0

Und eine GTX280 hat selbst auf dem Papier nur etwas über 40% mehr Shaderperformance wie eine 9800GTX. Okay das MUL soll etwas besser nutzbar sein und auch sonst gibt es Verbesserungen, aber nichts weltbewegendes.

/Edit: Interessant ist hier auch die 4-5x so hohe Branchingleistung einer 4850 ggü. einer 3870.

Coda
2008-06-26, 13:49:44
Ne 4870 kann von der reinen Rechenleistung hinten und vorne nicht mit einer GTX 280 mithalten. Das sind ja rein wenn man die nicht perfekte ALU-Auslastung von 60-80% bei ATI schon unter den 933 GFLOPS von G200. Dazu kommt noch die allgemein effizienter Architektur bei NVIDIA und das öfter verwendbare Mul.

Du dürftest dich also ziemlich täuschen. Das ist nämlich genau der Punkt an dem ich G200 am stärksten einschätze.

reunion
2008-06-26, 13:54:22
Ne 4870 kann von der reinen Rechenleistung hinten und vorne nicht mit einer GTX 280 mithalten. Das sind ja rein wenn man die nicht perfekte ALU-Auslastung von 60-80% bei ATI schon unter den 933 GFLOPS von G200. Dazu kommt noch die allgemein effizienter Architektur bei NVIDIA.

Du dürftest dich also ziemlich täuschen. Das ist nämlich genau der Punkt an dem ich G200 am stärksten einschätze.

Die zusätzliche MUL muss erstmal gebraucht werden. Selbst nV spricht nur von 10-20% Mehrleistung dadurch. MAD Leistung ist nur 624GLOPs vs. 1.2TFLOPs auf der 4870. Und irgendwo muss die gute Leistung des RV770 ja herkommen, ROPs und TMUs sind jedenfalls unterlegen. Außerdem liegt man gerade bei shaderlastigen Titeln wie GRID sehr gut.

Coda
2008-06-26, 13:55:57
Auch wieder wahr. Ich dachte es wären 933 GFLOPS MAD. Gut dann könntest du recht haben.

S940
2008-06-26, 13:56:58
Was genau willst du da "optimieren"? Das Scheduling wird vom Chip gemacht und die Shaderoptimierung ist exakt die gleiche egal ob 32 oder 1600 ALUs.
Das scheduling wird von Chip gemacht ? Ok, dann hab ich wohl was falsch verstanden, ich bin davon ausgegangen, dass da die R6xxx x/ R7xx Chips VLIW CPUs/GPUs sind, und für VLIW gilt:
The VLIW approach, on the other hand, executes operation in parallel based on a fixed schedule determined when programs are compiled. Since determining the order of execution of operations (including which operations can execute simultaneously) is handled by the compiler, the processor does not need the scheduling hardware that the three techniques described above require.
http://en.wikipedia.org/wiki/Very_long_instruction_word

Was stimmt denn nun ?

ciao

Alex

Coda
2008-06-26, 13:59:14
Das gilt pro ALU-Block aber nicht für die Threadverteilung auf die einzelnen ALUs.

Kriton
2008-06-26, 14:19:52
Wasserkühlung für die 4870:

http://www.tweaktown.com/news/9727/asetek_first_to_deliver_superior_hd_4870_cooling/index.html

Gast
2008-06-26, 14:48:14
Auch bei jetzigen Taktraten will ich das erstmal sehen. Ohne die stärkeren/höheren Anzahl an TMUs/ROPs würde es wohl schlecht für GT200 aussehen. In punkto Shaderleistung ist da bestenfalls ein Gleichstand drin IMHO. Man braucht sich ja nur ansehen, wie schon eine 4850 eine 9800GTX in punkto Shaderleistung vernichtet:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/xbitmark.gif

http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_17.html#sect0

Und eine GTX280 hat selbst auf dem Papier nur etwas über 40% mehr Shaderperformance wie eine 9800GTX. Okay das MUL soll etwas besser nutzbar sein und auch sonst gibt es Verbesserungen, aber nichts weltbewegendes.

/Edit: Interessant ist hier auch die 4-5x so hohe Branchingleistung einer 4850 ggü. einer 3870.


Diese Seite habe ich auch gerade gefunden. Was mich vor allem wundert ist die extreme Performance bei heavy branching. Da hat Ati im Vergleich zur 3870 gleich um den Faktor 4 zugelegt.

Ich dachte immer das die Nvidia Karten hier wegen der aufwendigeren SPs wesentlich besser abschneiden. Oder hängt die Effizienz der SPs nicht mit der Effizienz bei Heavy Branching zusammen?

Für mich jedenfalls widersprechen diese Ergebnisse erst einmal allem was ich erwartet habe. Die Auslastung der Shaderunits scheint also kein Problem (mehr) zu sein im Vergleich zu Nvidia; oder?

Coda
2008-06-26, 14:50:08
Die Branching-Performance hängt im wesentlichen vor allem von der Granularität ab. D.h. wieviele Quads immer den gleichen Branch nehmen müssen.

S940
2008-06-26, 14:56:08
Das gilt pro ALU-Block aber nicht für die Threadverteilung auf die einzelnen ALUs.
Alles klar, danke für den Hinweis.

Hab auch nochmal nachgelesen, Du meinst den (ultra)Threaded Dispatcher, oder ?
The setup engine passes data to the R600's threaded dispatch processor. This part of the GPU, as Demers put it "is where the magic is." Its job is to keep all of the shader cores occupied,...
http://techreport.com/articles.x/12458/2

Danke & ciao

Alex

ShadowXX
2008-06-26, 15:13:14
Die Branching-Performance hängt im wesentlichen vor allem von der Granularität ab. D.h. wieviele Quads immer den gleichen Branch nehmen müssen.
Das müsste dann doch im Umkehrschluss heissen, das die Granularität bei rv770 wesentlich kleiner ist als bei rv670?

Also keine 64 mehr, sondern eher in Richtung 16?

robbitop
2008-06-26, 15:22:43
Das sieht fast so aus. Da müsste dann beim Edge Detect AA ordentlich was davon ankommen.
Ich bin beeindruckt!
Wäre nur das AF noch etwas besser.... ^^

ShadowXX
2008-06-26, 15:26:19
Das sieht fast so aus. Da müsste dann beim Edge Detect AA ordentlich was davon ankommen.
Ich bin beeindruckt!
Wäre nur das AF noch etwas besser.... ^^
Womit ich dann wohl mein Zweifel an den ED-CFAA Messungen von CB zurückziehen muss und XBit dort scheinbar "schlecht" gemessen hat (oder es tatsächlich am AAA lag).

Coda
2008-06-26, 15:27:36
Das müsste dann doch im Umkehrschluss heissen, das die Granularität bei rv770 wesentlich kleiner ist als bei rv670?

Also keine 64 mehr, sondern eher in Richtung 16?
16 könnte sein aber dann haben sie mehr an der ALU-Struktur und am Dispatcher geändert als gedacht.

Fetza
2008-06-26, 15:56:28
Nochmal die frage zu den fp16-tmus, ist durch deren beschneidung eigentlich dann eine gute hdr performance in gefahr? Oder gibts da keine bedenken?