PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13

Hydrogen_Snake
2009-09-23, 10:16:00
Liegt wohl um die 20W, und AERO ist vielleicht etwas mehr, ja.

Nice.

PCGH_Raffael
2009-09-23, 10:16:27
Mit "was rauskommt" meine ich fps und Bildqualität. Die Mster-Config rennt ja in Crysis deutlich schneller als DX10 very high ohne dabei subjektiv schlechter auszusehen. Durch die Farb- und Kontrastanpassungen wirkt es eher hübscher.

Jau. Ich bezog mich auf Warhead unter D3D9. Wenn ich das richtig in Erinnerung habe, funktioniert SSAA nicht unter D3D10.

Liegt wohl um die 20W, und AERO ist vielleicht etwas mehr, ja.

Bei uns zieht die Karte 20 Watt mit Aero.

MfG,
Raff

ShadowXX
2009-09-23, 10:17:28
Solide wäre meine Meinung zum RV870.
Genau das trifft es am besten: solide.
Nicht überragend, nicht schlecht, irgendetwas in der Mitte.

Persönlich hatte ich etwas mehr erwartet. Wenn Sie mehr Speed hätte, könnte man das fehlende HQAF verschmerzen, aber so taugt Sie für jemanden der ne 275, 280, 285 oder 4890 hat im Prinzip kaum zum aufrüsten (ausser man ist Hammerharter Crysis und/oder Stalker Fan).

Das SGSSAA ist Zugegebenermaßen ein extrem leckeres Leckerli, aber alleine dafür ausrüsten? Die Hybridmodi auf den nVs sehen auch sehr gut bei alten Games aus.

Frage an die Tester unter uns:
Funktioniert das SGSSAA auch unter OpenGL, oder ist es wie bei nV wo nur die Hybrids unter OpenGL laufen?

Eyefinity ist sicher nett (und ein Dolchstoß in Matrox Herz), aber für mich völlig unrelevant.

Wenn mich allerdings jemand fragt der sich neu eine Karte kaufen will bzw. von einer schwachbrüstigen Karte aus aufrüsten will, dem werde ich die 5870 oder 5850 ans Herz legen.

Hydrogen_Snake
2009-09-23, 10:18:11
Jau. Ich bezog mich auf Warhead unter D3D9. Wenn ich das richtig in Erinnerung habe, funktioniert SSAA nicht unter D3D10.



Bei uns zieht die Karte 20 Watt mit Aero.

MfG,
Raff

Sehr geil... das wäre evtl. was für mein nächstes System, mal sehen was nVidia bringt.
Geschwindigkeit ist nämlich jetzt nicht großartig für eine neue Karte.
Wenn die Komponennten unter 110W Idlen bräuchte ich es nicht mal mehr ausschalten.

Ailuros
2009-09-23, 10:18:12
Alles eine Frage der Benchs. Bei CB sind es ziemlich genau 50%, wenn man das PhysX Spiel und den Bug in Hawk nicht berücksichtigt.

Es ist eben nicht "alles" eine Frage der benutzten Applikationen sondern auch zu einem grossen Teil die Perspektive die man mit Absicht akzeptieren will. Wenn ich den Durchschnitt zwischen 4x und 8xAA scores in 1920 von CB nehme komme ich auf runde 35% gegenueber der GTX285, da machen 2 andere Spielescores fuer den CB Durchschnitt auch nicht mehr 15% mehr aus.

Spasstiger
2009-09-23, 10:18:37
Jau. Ich bezog mich auf Warhead unter D3D9.
Gut, Warhead hab ich noch nie gespielt.

Wenn ich das richtig in Erinnerung habe, funktioniert SSAA nicht unter D3D10.
Richtig, deshalb ja auch die Mster-Config unter D3D9. D3D10 very high hab ich nur zum Vergleich genannt, weil ich da den optischen und performanceseitigen Unterschied kennen.

Cyphermaster
2009-09-23, 10:18:38
Ich würde als "objektiven" Wertungsversuch sagen, der Chip liegt sowohl in Performance, als auch Filterqualität unterhalb den Hoffungen der Fans, aber noch innerhalb des realistisch Erwartbaren/Notwendigen. Man hat ein klein wenig am AF getan, den Idle-Verbrauch gesenkt, beim SSAA auf nV aufgeschlossen, und man hat sich in der Performance so halbwegs ausreichend an der Spitze positioniert.

Ehrlich gesagt hätte ich mich an AMDs Stelle vor dem großen neuen nV-Chip auch nicht zu weit aus dem Fenster gelehnt, nur um dann festzustellen, daß man für die Performancekrone doch gleich wieder eine HD6870 bringen muß, wenn der Konkurrenzchip doch schneller ist...
Ich vermute, wirtschaftlich gesehen ist der HD5 mehr eine "Brückenlösung".

y33H@
2009-09-23, 10:18:40
*falscher Thread*

PCGH_BenchMarc
2009-09-23, 10:19:40
Mit "was rauskommt" meine ich fps und Bildqualität. Die Mster-Config rennt ja in Crysis deutlich schneller als DX10 very high ohne dabei subjektiv schlechter auszusehen. Durch die Farb- und Kontrastanpassungen wirkt es eher hübscher.19x12 mit 4x SGSSAA und mit 8x SGSSAA [DX9, High, Mster v3.1, Rygel-Texturen]:

http://www.abload.de/thumb/blubb2009-09-2310-01-2pxh6.jpg (http://www.abload.de/image.php?img=blubb2009-09-2310-01-2pxh6.jpg) http://www.abload.de/thumb/blubb2009-09-2310-02-1dxsj.jpg (http://www.abload.de/image.php?img=blubb2009-09-2310-02-1dxsj.jpg)

Durchaus spielbar für halbwegs Hartgesottene.

AnarchX
2009-09-23, 10:20:16
SSAA @ Batman: http://www.hardware.fr/articles/770-8/dossier-amd-radeon-hd-5870.html

derguru
2009-09-23, 10:22:47
Aber völlig verbencht. Auf der 5000er Karte SSAO auf very high und auf den anderen nur auf High.

stimmt,dann wäre der abstand noch größer.

19x12 mit 4x SGSSAA und mit 8x SGSSAA [DX9, High, Mster v3.1, Rygel-Texturen]:

http://www.abload.de/thumb/blubb2009-09-2310-01-2pxh6.jpg (http://www.abload.de/image.php?img=blubb2009-09-2310-01-2pxh6.jpg) http://www.abload.de/thumb/blubb2009-09-2310-02-1dxsj.jpg (http://www.abload.de/image.php?img=blubb2009-09-2310-02-1dxsj.jpg)

Durchaus spielbar für halbwegs Hartgesottene.

lecker sieht es schon aus.

Spasstiger
2009-09-23, 10:22:47
19x12 mit 4x SGSSAA und mit 8x SGSSAA [DX9, High, Mster v3.1, Rygel-Texturen]:

http://www.abload.de/thumb/blubb2009-09-2310-01-2pxh6.jpg (http://www.abload.de/image.php?img=blubb2009-09-2310-01-2pxh6.jpg) http://www.abload.de/thumb/blubb2009-09-2310-02-1dxsj.jpg (http://www.abload.de/image.php?img=blubb2009-09-2310-02-1dxsj.jpg)

Durchaus spielbar für halbwegs Hartgesottene.
Dakeschön. :)
Ist durchaus pornös. Diese fps (4xSGSSAA) schafft meine HD 2900 Pro nichtmal in 1680x1050 ohne AA. Und Mod-Texturen hab ich dann auch noch nicht drauf. Mit den 28 fps könnte ich leben, wenn ich im Gegenzug diese Optik bekomme. Die Konsoleros finden sich ja auch teilweise mit 25 fps avg. ab (GTA IV @ Playstation 3).

Iceman346
2009-09-23, 10:23:05
SSAA @ Batman: http://www.hardware.fr/articles/770-8/dossier-amd-radeon-hd-5870.html

Die Performance ist ja wohl noch im spielbaren Bereich, aber leider sieht man am Bild, dass SSAA dort blurrt.

reunion
2009-09-23, 10:24:18
Es ist eben nicht "alles" eine Frage der benutzten Applikationen sondern auch zu einem grossen Teil die Perspektive die man mit Absicht akzeptieren will. Wenn ich den Durchschnitt zwischen 4x und 8xAA scores in 1920 von CB nehme komme ich auf runde 35% gegenueber der GTX285, da machen 2 andere Spielescores fuer den CB Durchschnitt auch nicht mehr 15% mehr aus.

Doch, es sind ziemlich exakt 15% durch diese zwei Scores, kannst es ja mal durchrechnen.

Blaire
2009-09-23, 10:29:21
lecker sieht es schon aus.

Die Palmen wirken aber irgendwie "matschig" liegt sicherlich am LOD. Allerdings soviel effizienter ist das aber gegenüber OGSSAA bzw. Hybriden dann doch nicht wenn ich auf die FPS schaue. 8xSGSSAA wird selbst für 4x5870 schwer zu meistern sein. ;(

w0mbat
2009-09-23, 10:30:44
Lecker :love2:
http://img5.imagebanana.com/img/wv4y019e/1.jpg

http://www.bit-tech.net/news/hardware/2009/09/23/win-a-sapphire-radeon-hd-5870-vapor-x-card/1

Wechselbalg
2009-09-23, 10:31:15
Ich finde auch, dass man vielleicht ein bisschen zwischen Karte und Architektur unterscheiden muss. Generell gefällt mir, dass auch GDDR5 Karten nun endlich wieder annehmbare Werte im Idle Verbrauch erreichen werden. Ebenso finde ich persönlich die Möglichkeit für RGSSAA schön, auch wenn es eben sowohl technisch als auch aus Perfomancegründen nicht bei neueren Titeln funktioniert. Ich spiele aber auch gerne mal ältere Titel und da finde ich es dann sehr gut, wenn ich Möglichkeiten habe die vorhandene Perfomance auch irgendwie umzuwandeln. Das bessere AF ist zumindest gegenüber der Vorgängergeneration ja auch ein Pluspunkt, auch wenn etwas mehr schon schön gewesen wäre. Dies sind zumindest Punkte, die sich dann ja auch noch bei Juniper und Co. alle positiv auswirken werden.

Die 5870 hingegen ist wirklich ein etwas zweischneidiges Schwert. Als Gesamtpaket wohl anfangs ohne Konkurrenz, aber auch kein so großer Sprung, dass ein Wechsel jetzt extrem attraktiv ist, wenn man schon eine starke Karte hat. Es wird interessant zu sehen sein, wie sie sich dann gegen andere Karten aus ihrer Generation schlägt. Das wird sich aber wohl erst in einiger Zeit klären, wenn zum einem etwas tiefergehende Tests erscheinen und zum anderen auch die Treiberentwicklung voranschreitet. Es wäre interessant zu sehen wie sehr sich eine reine Erhöhung des Speichertakts auf die Perfomance auswirkt und wie viel sich durch Treiberentwicklung noch rausholen lässt, obwohl die Architektur sich ja schon grob an der Vorgängerserie orientiert. Sollte sich bei der Speichertechnologie etwas tun, wäre eventuell bei einem Refresh recht leicht ein guter Perfomancesprung zu erreichen.

reunion
2009-09-23, 10:31:52
Die Palmen wirken aber irgendwie "matschig" liegt sicherlich am LOD. Allerdings soviel effizienter ist das aber gegenüber OGSSAA bzw. Hybriden dann doch nicht wenn ich auf die FPS schaue. 8xSGSSAA wird selbst für 4x5870 schwer zu meistern sein. ;(

Was verstehst du unter effizienter? Es wird durch die bessere Sampleanordnung natürlich nicht schneller, sondern die Kanten werden halt besser geglättet. Und 8xSSAA kannst du in neuen Spielen natürlich kaum benutzen, das wird bei NV auch nicht anders sein. Aber schon 2xSSAA sollte das Bild erheblich beruhigen.

desert
2009-09-23, 10:31:54
Alles eine Frage der Benchs. Bei CB sind es ziemlich genau 50%, wenn man das PhysX Spiel und den Bug in Hawk nicht berücksichtigt. Aber ich hätte mir anhand der technischen Daten auch mehr erwartet.

Wiedermal eine Verschwörung gegen ATI?

Ht4u kommt auch ungefähr auf das Verhältnis


http://tinyurl.com/l6p2pg

Mal ein direkt vergleich zwischen 5870 u. gtx 285

Spasstiger
2009-09-23, 10:33:04
Die Palmen wirken aber irgendwie "matschig" liegt sicherlich am LOD. Allerdings soviel effizienter ist das aber gegenüber OGSSAA bzw. Hybriden dann doch nicht wenn ich auf die FPS schaue. 8xSGSSAA wird selbst für 4x5870 schwer zu meistern sein. ;(
Wie schnell rennt denn 8xS-AA + TSSAA und 16xS-AA + TSSAA auf einer GTX 285 bei sonst gleichen Settings? Und wie gut ist die Glättung im Vergleich (Screenshot)?

Iceman346
2009-09-23, 10:34:03
Lecker :love2:
http://img5.imagebanana.com/img/wv4y019e/1.jpg

http://www.bit-tech.net/news/hardware/2009/09/23/win-a-sapphire-radeon-hd-5870-vapor-x-card/1

Mmh, Contest läuft bis zum 15. Oktober, also noch ne ganze Zeit. Mal schauen wann die Vapor-X dann wirklich im Handel steht, interessanter als die Default-Kühllösung ists auf jeden Fall und auch wenn diese leiser sein soll als die der Vorgänger bin ich da etwas vorsichtig. Die 4890 war nämlich unerträglich laut.

reunion
2009-09-23, 10:35:15
Wiedermal eine Verschwörung gegen ATI?


Das hat niemand behauptet, also spare dir deine blöden Kommentare. Es ist nur schon lange klar das man in PhysX Spielen mit aktiviertem GPU-PhysX und in HAWK mit AF wenig zu lachen hat.

derguru
2009-09-23, 10:36:11
Die Palmen wirken aber irgendwie "matschig" liegt sicherlich am LOD. Allerdings soviel effizienter ist das aber gegenüber OGSSAA bzw. Hybriden dann doch nicht wenn ich auf die FPS schaue. 8xSGSSAA wird selbst für 4x5870 schwer zu meistern sein. ;(

4xsgssaa reicht aus und auch lockerspielbar mit einer x2.
bloß immer in der reg lod anpassen ist auch blöd,zumindest unter win7 weil att nit funzt.:biggrin:

omg Sapphire legt aber früh los mit der vapor x reihe,das hätte ich erst in 2 monaten oder so erwartet.

Jake Dunn
2009-09-23, 10:37:11
"Rauskommt"? Enthusiast ohne mster in 1.920 x 1.200 mit 4x SGSSAA/LOD -1 ist jedenfalls nur zäh spielbar. Es sieht aber äußerst sahnig aus. :)

MfG,
Raff

Mit Tweaks und 2xSGSSAA + OC an der Karte mußte es doch gehen?

Wiso hab ihr nicht mit RT übertaktet?

reunion
2009-09-23, 10:38:37
Wiso hab ihr nicht mit RT übertaktet?

Geht noch nicht, die Karte wird noch nicht unterstützt.

robbitop
2009-09-23, 10:39:15
Ich bin enttäuscht, dass SG-SSAA offenbar nur das TS-SSAA @all ist. Es sollte effizienter gehen, wenn man es anders umsetzt. Außerdem wundert mich, dass es mit Postprocessing nicht funktioniert. Offenbar wird doch nicht das gesamte Bild mehrfach durchgeschoben?

Ich hoffe, dass NV mit dem GT300 sich beim SG-SSAA mehr Mühe geben und es immer funktioniert und damit ATI antreiben, es ebenfalls anständig zu implementieren.

derguru
2009-09-23, 10:39:41
@jake dunn

du wolltest doch arma 2 sehen,:biggrin:
http://www.abload.de/img/img0026854nkht.gif

Blaire
2009-09-23, 10:41:23
Wie schnell rennt denn 8xS-AA + TSSAA und 16xS-AA + TSSAA auf einer GTX 285 bei sonst gleichen Settings? Und wie gut ist die Glättung im Vergleich (Screenshot)?

Hier mal 8xSQ 1920x1080 ist nicht die selbe Szene aber auch die Mster Config 3.01 (3xGTX280)
http://picfront.de/d/2hT46C9I79B/Crysis2009-01-2902-02-46-04.png
Auf einer GTX285 8xS+TRSSAA dürfte ne Diashow sein (10fps vieleicht geschätzt)

LovesuckZ
2009-09-23, 10:45:02
Lecker :love2:
http://img5.imagebanana.com/img/wv4y019e/1.jpg

http://www.bit-tech.net/news/hardware/2009/09/23/win-a-sapphire-radeon-hd-5870-vapor-x-card/1

Haben die Idioten die Stromanschlüsse nach hinten gesetzt, statt nach oben? Ohman...

Nein. Das 8x SGSSAA besser ist ist völlig klar. Nur wundert es mich das du das plötzlich auch so siehst. :)

Wieso sollte "4xSGSSAA locker reichen", wenn es nicht die Polygonkantenglättung von 8xSGMSAA erreicht und dies in den letzten Jahren als "Qualität" verkauft wurde? Du hast die Frage noch nicht beantwortet.

Spasstiger
2009-09-23, 10:45:06
Hier mal 8xSQ 1920x1080 ist nicht die selbe Szene aber auch die Mster Config 3.01 (3xGTX280)
http://picfront.de/d/2hT46C9I79B/Crysis2009-01-2902-02-46-04.png
Wirkt imo deutlich unruhiger als der Screen vom PCGH-Marc mit 4xSGSSAA, ist aber dafür auch schärfer. Die fps sind gut, aber mit drei GTX 285 finde ich das dann auch nicht mehr so toll. Mikroruckler, Abwärme, Anschaffungskosten, etc.
Mit TSSAA kommt man wohl an die Bildquali der HD 5870 @ 4xSGSSAA hin, aber das scheint ja indiskutabel langsam auf der GTX 285 zu laufen.

tombman
2009-09-23, 10:45:58
http://www.xbitlabs.com/articles/video/display/radeon-hd5870_9.html#sect2
Wow die PC Killerapp immer noch nicht spielbar. ;D
Kein Problem :cool:

http://www.abload.de/img/gt300lolhy0c.jpg (http://www.abload.de/image.php?img=gt300lolhy0c.jpg)

:biggrin:

derguru
2009-09-23, 10:47:05
gar nicht mal so unrealistisch außer die min. fps:biggrin:

S940
2009-09-23, 10:47:42
Immer der selbe Murks bei jedem Launch warte auf Treiber X.Die Games die getestet wurden sind alle mher oder weniger alt und totoptemiert.Die Architektur unterscheidet sich ja nicht wirklich zur 4800 woher sollen die Sprünge kommen?
Was meinst Du mit Architektur ? Die Karte hat

a) doppelt soviel SPUs -> da kann man die Arbeit ganz anderes Verteilen
b) viel größere Data Stores / Zwischenspeicher

Nem VLIW chip muss man konstruktionsbedingt da wieder anderen Code vorsetzen, wenn man alles rausholen will. Bis dahin tuts der aktuelle Treiber. Wie Du schon sagtest gibts ja durchaus Gemeinsamkeiten zw. alt und neu.

Aber am Limit wird der neue Chip eben noch nicht betrieben :)

ciao

Alex

Spasstiger
2009-09-23, 10:49:16
@tombman: Imo 23 fps min. und 42 fps. avg. ;)
Dass die GTX 380 schneller wird als die HD 5870 hat doch auch vor dem Release niemand bezweifelt. Ok, ich persönlich habe vorher den Vorteil der GTX 380 auf 30% angesetzt, jetzt tendiere ich zu 40%.

w0mbat
2009-09-23, 10:50:26
Haben die Idioten die Stromanschlüsse nach hinten gesetzt, statt nach oben? Ohman...



Wieso sollte "4xSGSSAA locker reichen", wenn es nicht die Polygonkantenglättung von 8xSGMSAA erreicht und dies in den letzten Jahren als "Qualität" verkauft wurde? Du hast die Frage noch nicht beantwortet.

Wieso? Die Karte ist so trotzdem kürzer als die normale HD5870, auch mit gesteckten Adaptern.

Blaire
2009-09-23, 10:51:24
Wirkt imo deutlich unruhiger als der Screen vom PCGH-Marc mit 4xSGSSAA, ist aber dafür auch schärfer. Die fps sind gut, aber mit drei GTX 285 finde ich das dann auch nicht mehr so toll. Mikroruckler, Abwärme, Anschaffungskosten, etc.

3xGTX280 (nicht 285) ;) Sind auch nur 2xMSAA+2x2SSAA=8xSQ klar das die Kanten nicht optimal geglättet sind, mit 16xS sähe das sicher besser aus.
Mit 30fps@Limiter läuft es butterweich keine Mikroruckler. Abwärme hält sich mit Undervolting in Grenzen, Anschaffungskosten derzeit ~600€uro... was kosten zwei 5870 sind wir auch bei 6-700 ca. von daher. :)

Gast
2009-09-23, 10:51:40
@tombman: Imo 23 fps min. und 42 fps. avg. ;)
Dass die GTX 380 schneller wird als die HD 5870 hat doch auch vor dem Release niemand bezweifelt. Ok, ich persönlich habe vorher den Vorteil der GTX 380 auf 30% angesetzt, jetzt tendiere ich zu 40%.
Sieht eher nach 20 min fps aus

MartinRiggs
2009-09-23, 10:52:23
Na ist doch schlechter gestartet als viele gehofft haben.
Die Karte ansich ist gut aber kein Überflieger und da sie nicht bestellbar ist braucht man sich auch keine Gedanken machen ob man sie kaufen will oder nicht.
Ich würde gerne mal von den Technik-Cracks wissen ob die Karte wirklich an ihrem kleinen Speicher-Interface eingeht oder wo sie kränkelt.
Auf dem Papier sieht die HD5870 viel stärker aus als sie dann in echt ist, sehr komische Sache.:uponder:

robbitop
2009-09-23, 10:53:34
Ich glaube auch, dass noch Leistung "versteckt" wird. Einerseits möglicherweise aus taktischer Sicht bis NV etwas bringt. Andererseits natürlich aus Sicht der Spiele. Heutige Spiele nutzen offenbar noch nicht die hohe MADD-Leistung der RV870 aus. Ich kann mir vorstellen, dass die RV870 in einiger Zeit gegen die GTX285 deutlich besser darsteht als sie es jetzt tut.

Ich kann mich noch gut an R520 vs R580 erinnern. Letzterer hatte zum Launch nur wenige Prozent Vorsprung (aus dem selben Grund) obwohl er die dreifache MADD-Leistung vom R520 hatte. 1-2 Jahre später maß ich bei CoD4 Faktor 2 Differenz. Bei Crysis wird es tendenziell sogar noch stärker ausgefallen sein.

Ich erwarte so starke Steigerungen natürlich nicht von RV870. Aber hinter ihr steckt IMO noch ein Stück mehr, als jetzt zu sehen ist.

Ich hoffe aber vielmehr auf anständig implementiertes SGSSAA. Das hier ist nur ein halbherziger Hack.

Jake Dunn
2009-09-23, 10:55:08
Die Palmen wirken aber irgendwie "matschig" liegt sicherlich am LOD. Allerdings soviel effizienter ist das aber gegenüber OGSSAA bzw. Hybriden dann doch nicht wenn ich auf die FPS schaue. 8xSGSSAA wird selbst für 4x5870 schwer zu meistern sein. ;(

Rygel hat andere Texturen bei den Palmen drin und ich schätze EdgeAA (in CRYSIS ab High Default) ist auch noch aktiv.

Bilder von CRYSIS Vanilla ohne dieses EdgeAA (kann man per CFG ausschalten) wären intertesant.

Geht noch nicht, die Karte wird noch nicht unterstützt.

Doch durch ändern der Inf, bei 3DGuru geht es ja ->http://www.guru3d.com/article/radeon-hd-5870-review-test/26

Bzw. 5400mhz beim Speicher :eek: sind ~173GB/s


@jake dunn

du wolltest doch arma 2 sehen,:biggrin:
http://www.abload.de/img/img0026854nkht.gif

Thx :) Link?

DrumDub
2009-09-23, 10:56:15
Die Performance ist ja wohl noch im spielbaren Bereich, aber leider sieht man am Bild, dass SSAA dort blurrt. ist klar, wenn der lod nicht verschoben wird.

reunion
2009-09-23, 10:56:33
Wieso sollte "4xSGSSAA locker reichen", wenn es nicht die Polygonkantenglättung von 8xSGMSAA erreicht und dies in den letzten Jahren als "Qualität" verkauft wurde? Du hast die Frage noch nicht beantwortet.

Doch ich habe sie beantwortet. Doch anstatt darauf einzugehen drehst du wie üblich den Spieß einfach um. Offensichtlich reicht bei dir jetzt 4xAA nicht mehr. Ich werde das bei der nächsten Diskussion darüber festhalten. Ich habe 8xAA nie in den Himmel gelobt, ich habe mich nur dagegen gewehrt das es sinnlos ist.

derguru
2009-09-23, 10:56:49
Thx :) Link?

createur de automobil:biggrin:
http://www.hardware.fr/articles/770-1/dossier-amd-radeon-hd-5870.html

AnarchX
2009-09-23, 10:58:31
Doch durch ändern der Inf, bei 3DGuru geht es ja ->http://www.guru3d.com/article/radeon-hd-5870-review-test/26

Bzw. 5400mhz beim Speicher :eek: sind ~173GB/s

Bei iXBT hat man die 5870 @ 950/1250MHz im ganzen Parkour mitgetestet, somit ein Ausblick auf eine mögliche OC-5870:
http://209.85.129.132/translate_c?hl=de&ie=UTF-8&sl=ru&tl=en&u=http://www.ixbt.com/video3/cypress-part3.shtml&rurl=translate.google.ch&usg=ALkJrhgEBnxmz7Q2mjUIvM5q2cC_XvJLtg#p1

Gast
2009-09-23, 10:59:38
Keine Ahnung warum gemeckert wird, eigentlich ist alles im Rahmen. Die Karte ist kein Überflieger, aber eine klare Verbesserung.

Und der Vergleich mit nvidias kommenden Chips kann auch nicht ernst gemeint sein, dafür müssten die beiden zeitgleich erscheinen.
Wir sollten nicht vergessen, das noch aufgebohrte Varianten mit mehr Takt oder besseren Speicher noch mehr rausholen könnten und das wird von vielen gar nicht berücksichtigt. 50% und mehr Verbesserung könnten da definitiv drin sein.

Ich finds auch schade, das immer nur Standardmodelle getestet werden, wo doch mittlerweile jede zweite oder dritte Karte geänderte Taktraten hat.
z.B. die 4890 würd ich am ehesten mit 950/1050 sehen wollen, es gibt sogar noch schnellere im Markt.

Nicht zu vergessen auch, das die CPU-Leistung nicht überdeutlich zugelegt hat, das könnte noch ein bremsender Faktor hier und da sein, der den Durchschnitt runterzieht (dieses Problem hätte nvidia auch).

Popeljoe
2009-09-23, 10:59:46
Kein Problem :cool:

http://www.abload.de/img/gt300lol2y1o.jpg (http://www.abload.de/image.php?img=gt300lol2y1o.jpg)

:biggrin:
FAKE! :D
Aber cooler Paperlaunch. ;)
Nur die Min FPS solltest du nochmal bearbeiten...

robbitop
2009-09-23, 10:59:59
Übrigens soll SGSSAA mit CFAA kombinierbar sein. Müsste mal jemand SGSSAA mit einem Narrow-Tent kombinieren. Ergebnis wäre besser als herkömmliches SGSSAA aufgrund des besseren Downsamplingfilters.

Gast
2009-09-23, 11:05:20
Doch ich habe sie beantwortet. Doch anstatt darauf einzugehen drehst du wie üblich den Spieß einfach um. Offensichtlich reicht bei dir jetzt 4xAA nicht mehr. Ich werde das bei der nächsten Diskussion darüber festhalten. Ich habe 8xAA nie in den Himmel gelobt, ich habe mich nur dagegen gewehrt das es sinnlos ist.
Niemand hat behauptet 8xMSAA sei sinnlos.

Es wurde behauptet, das die 8xMSAA Performance nicht als allgemeingültiger Leistungsmaßstab genommen werden darf.
Es wurde behauptet, das 8xMSAA 16xLQAF kein TAA eine unsinnige Kombination ist.
Es wurde behauptet, das es viele Modi gibt, 8xMSAA ist lediglich eines, eine mit absolut grausigem FPS/BQ Verhältnis.

Gast
2009-09-23, 11:06:27
Übrigens soll SGSSAA mit CFAA kombinierbar sein. Müsste mal jemand SGSSAA mit einem Narrow-Tent kombinieren. Ergebnis wäre besser als herkömmliches SGSSAA aufgrund des besseren Downsamplingfilters.
SSAA mit BlurAA koppeln?

Jake Dunn
2009-09-23, 11:07:32
createur de automobil:biggrin:
http://www.hardware.fr/articles/770-1/dossier-amd-radeon-hd-5870.html

In ARMA2 geht die sehr gut, 84% schneller als die GTX285 in 1920x1200 4xAA

AnarchX
2009-09-23, 11:12:09
Um die Diskussionen etwas übersichtlicher zu halten, habe ich einen Thread exklusiv zur Supersampling-Diskussion zu eröffnet:
Vollbild-Supersampling (SGSSAA) auf Radeon HD 5000 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7550462#post7550462)

Bitte dort über das SSAA weiterdiskutieren.

Gast
2009-09-23, 11:14:01
4850 in NL gelistet für 209€!
Lieferzeit 1-10 Tage.

desert
2009-09-23, 11:16:39
Was meinst Du mit Architektur ? Die Karte hat

a) doppelt soviel SPUs -> da kann man die Arbeit ganz anderes Verteilen
b) viel größere Data Stores / Zwischenspeicher

Nem VLIW chip muss man konstruktionsbedingt da wieder anderen Code vorsetzen, wenn man alles rausholen will. Bis dahin tuts der aktuelle Treiber. Wie Du schon sagtest gibts ja durchaus Gemeinsamkeiten zw. alt und neu.

Aber am Limit wird der neue Chip eben noch nicht betrieben :)

ciao

Alex

Wann gab es denn mal wirklich einen sprung von treiber zu treiber? Es wird ja immer davon berichtet in den Foren das das der neue supertreiber ist und alles viel smoother läuft und wenn man dann testet ist es mehr ein placebo effekt.

Betrifft beide ihv gleichermassen.

Habe mal kurz die treibertests auf cb verglichen, da hat crysis von 15.,6 auf 16,6 zugelegt bei 1920 x 1200 4aa/16af und bei hawx blieb es gleich vom 9.6 auf den 9.8 treiber

Da ist wohl mehr der wunsch der Vater des Gedankens

derguru
2009-09-23, 11:18:56
Wann gab es denn mal wirklich einen sprung von treiber zu treiber? Es wird ja immer davon berichtet in den Foren das das der neue supertreiber ist und alles viel smoother läuft und wenn man dann testet ist es mehr ein placebo effekt.

Betrifft beide ihv gleichermassen.

Habe mal kurz die treibertests auf cb verglichen, da hat crysis von 15.,6 auf 16,6 zugelegt bei 1920 x 1200 4aa/16af und bei hawx blieb es gleich vom 9.6 auf den 9.8 treiber

Da ist wohl mehr der wunsch der Vater des Gedankens

bah hör auf hier rum zustänkern,

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_9x_beta/7/#abschnitt_crysis_warhead

reunion
2009-09-23, 11:21:14
Wann gab es denn mal wirklich einen sprung von treiber zu treiber? Es wird ja immer davon berichtet in den Foren das das der neue supertreiber ist und alles viel smoother läuft und wenn man dann testet ist es mehr ein placebo effekt.

Betrifft beide ihv gleichermassen.

Habe mal kurz die treibertests auf cb verglichen, da hat crysis von 15.,6 auf 16,6 zugelegt bei 1920 x 1200 4aa/16af und bei hawx blieb es gleich vom 9.6 auf den 9.8 treiber

Da ist wohl mehr der wunsch der Vater des Gedankens

Genial, du vergleichst natürlich erst dann wenn die Architektur schon ewig am Markt ist und die Treiber entsprechend optimiert. Zu beginn gab es hier sehr wohl beachtliche Steigerungen. Ist ja auch völlig normal. Aber das gilt dann natürlich auch für NV.

desert
2009-09-23, 11:25:14
bah hör auf hier rum zustänkern,

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_9x_beta/7/#abschnitt_crysis_warhead

War das etwa der treiber der keine AF appliziert hat?

Appliziert eigentlich ati heute korrekt 16af in crysis?

Tarkin
2009-09-23, 11:26:51
@tombman: Imo 23 fps min. und 42 fps. avg. ;)
Dass die GTX 380 schneller wird als die HD 5870 hat doch auch vor dem Release niemand bezweifelt. Ok, ich persönlich habe vorher den Vorteil der GTX 380 auf 30% angesetzt, jetzt tendiere ich zu 40%.

Aha... Bestenfalls oder "im Schnitt"? :freak:

Also mal ehrlich. Glaubt hier etwa wirklich jemand, dass der G300 30 bis 40% schneller wird als der rv870? Wenn ihr da nicht mal enttäuscht werdet...

Wie war das nochmal mit dem Abstand zwischen rv770 und G200? ~ halber DIE, und 80 bis 90% der Leistung (grob).... Und wie ist es jetzt beim rv870 und G300?

Es würde an ein Wunder grenzen, wäre der G300 auch nur um 20% schneller IMO. Mit Verlaub.. ich bezweifle es. Bestenfalls wohl 10% ... im Schnitt ;D

Der Logik nach sollte der Abstand geringer sein als bei rv770-G200. Mit dem kleinen Unterschied, dass ATI > 3 Monate Vorsprung hat

AnarchX
2009-09-23, 11:27:55
Über GT300 und die 5870X2 kann hier diskutiert werden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=465768
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170

Gast
2009-09-23, 11:27:58
Crossfire :up:
http://www.hardware.info/nl-NL/productdb/ZGZnnGZlyZdl/bGRkaJiZmJbK,bGRkaJiZmJfK,bGlkbZiTmJfKZMg,bGlkbJiamJbKZcg,bGlkbJiamJbKZMg,bGhkaJ iZmJHKZcg,bGRkapiamJLKZcg,bGhkZpiTmJjKZMg,bGVkaZiamJTKYcg,bGhkZpiTmJjKY8g,bGpkZJ iWmJfKYsg,bGRkaJiXmJfK,bGNkapibmJbK,bGlkbZiTmJfKZcg,bGNkZ5iamJfKYcg,bGlkbJiamJbK Zsg,bGRkZJiUmJTKYMg,bGhkZZiUmJLKYMg,bGdkapiVmJLKaMg,bGhkZ5iamJrKZcg,bGRkapiUmJHK YMg,bGdkapiXmJbKYsg,bGdkapiVmJLKacg,bGpkZZiSmJrKYcg/FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,0000FF,00F F00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00 ,000000/benchmark/
http://www.hardware.info/nl-NL/articles/amdnaGptZGSa/ATI_Radeon_HD_5870_test__CrossFire/

Gast
2009-09-23, 11:32:04
War das etwa der treiber der keine AF appliziert hat?

Appliziert eigentlich ati heute korrekt 16af in crysis?
1. Ja das war er, hat CB nicht korigiert.
2. Afaik ja, aber was ist mit AI? Gab da auch so einige Dinge, das es mit AI-off mehr Effekte gab.

derguru
2009-09-23, 11:32:22
War das etwa der treiber der keine AF appliziert hat?


ja war es,nur hat sich mit den folgenden treibern auch nicht viel getan mit AF.
also wayne.:wink:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_93/7/#abschnitt_crysis_warhead

_DrillSarge]I[
2009-09-23, 11:34:07
Crossfire :up:
http://www.hardware.info/nl-NL/articles/amdnaGptZGSa/ATI_Radeon_HD_5870_test__CrossFire/
skalierung >100%?

Tarkin
2009-09-23, 11:34:23
Crossfire :up:
http://www.hardware.info/nl-NL/productdb/ZGZnnGZlyZdl/bGRkaJiZmJbK,bGRkaJiZmJfK,bGlkbZiTmJfKZMg,bGlkbJiamJbKZcg,bGlkbJiamJbKZMg,bGhkaJ iZmJHKZcg,bGRkapiamJLKZcg,bGhkZpiTmJjKZMg,bGVkaZiamJTKYcg,bGhkZpiTmJjKY8g,bGpkZJ iWmJfKYsg,bGRkaJiXmJfK,bGNkapibmJbK,bGlkbZiTmJfKZcg,bGNkZ5iamJfKYcg,bGlkbJiamJbK Zsg,bGRkZJiUmJTKYMg,bGhkZZiUmJLKYMg,bGdkapiVmJLKaMg,bGhkZ5iamJrKZcg,bGRkapiUmJHK YMg,bGdkapiXmJbKYsg,bGdkapiVmJLKacg,bGpkZZiSmJrKYcg/FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,0000FF,00F F00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00 ,000000/benchmark/
http://www.hardware.info/nl-NL/articles/amdnaGptZGSa/ATI_Radeon_HD_5870_test__CrossFire/

48901GB 100% schneller als 48701GB - ja klar...

Jake Dunn
2009-09-23, 11:36:58
War das etwa der treiber der keine AF appliziert hat?

Appliziert eigentlich ati heute korrekt 16af in crysis?

http://www.abload.de/img/unbenanntl710.jpg (http://www.abload.de/image.php?img=unbenanntl710.jpg)


Bis zum 9.9er hat sich noch etwas getan ^^

Gast
2009-09-23, 11:37:00
9800 GTX langsamer als 8800 GT, alles klar. :rolleyes:

desert
2009-09-23, 11:37:39
Genial, du vergleichst natürlich erst dann wenn die Architektur schon ewig am Markt ist und die Treiber entsprechend optimiert. Zu beginn gab es hier sehr wohl beachtliche Steigerungen. Ist ja auch völlig normal. Aber das gilt dann natürlich auch für NV.

Dann zeig mir doch bitte mal wo z.b. der r600 richtig zugelegt hat oder der g200.

Ich rede aber auch nicht nur von 5 % oder so, sondern das sich die leistung erst noch so richtig entfaltet wie hier und da ja behauptet wird.

Also nvidia u. ati jünger.

dargo
2009-09-23, 11:39:32
Crossfire :up:
http://www.hardware.info/nl-NL/productdb/ZGZnnGZlyZdl/bGRkaJiZmJbK,bGRkaJiZmJfK,bGlkbZiTmJfKZMg,bGlkbJiamJbKZcg,bGlkbJiamJbKZMg,bGhkaJ iZmJHKZcg,bGRkapiamJLKZcg,bGhkZpiTmJjKZMg,bGVkaZiamJTKYcg,bGhkZpiTmJjKY8g,bGpkZJ iWmJfKYsg,bGRkaJiXmJfK,bGNkapibmJbK,bGlkbZiTmJfKZcg,bGNkZ5iamJfKYcg,bGlkbJiamJbK Zsg,bGRkZJiUmJTKYMg,bGhkZZiUmJLKYMg,bGdkapiVmJLKaMg,bGhkZ5iamJrKZcg,bGRkapiUmJHK YMg,bGdkapiXmJbKYsg,bGdkapiVmJLKacg,bGpkZZiSmJrKYcg/FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,0000FF,00F F00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00,00FF00 ,000000/benchmark/
http://www.hardware.info/nl-NL/articles/amdnaGptZGSa/ATI_Radeon_HD_5870_test__CrossFire/
Dazu fällt mir nur das ein. :usad:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=459122

Fallacy
2009-09-23, 11:40:38
Das ist doch wieder mal nur eine Ankündigung einer Ankündigung.

@topic: Warum hat sich keiner gedraut DX11 zu benchen? Feiglinge.

Dann solltest du allerdings auch erwähnen, dass das DX11-Update erst seit dem 22.09 erhältlich ist, also einen Tag vor dem Launch. Zumindest war das der Zeitpunkt, an dem man von AMD darüber informiert wurde. Die wenigen Redaktionen, die ein Sample bekommen haben, mussten es mit anderen teilen - das heißt die meisten hatten gar kein Sample mehr zu diesem Zeitpunkt. Und diejenigen die noch eins hatten, hatten mit Sicherheit alle Hände voll zu tun. Wenn man jetzt auch noch einen Vista-System hat, war es zu dem Zeitpunkt gar nicht mehr möglich da noch was zu drehen, da DX11 noch nicht für Vista verfügbar ist. Das ganze hat also nichts mit Feigheit zu tun, sondern viel mehr mit fehlender Zeit.

Undertaker
2009-09-23, 11:41:56
Genau das trifft es am besten: solide.
Nicht überragend, nicht schlecht, irgendetwas in der Mitte.


Würde ich auch so sehen. Sehr nett ist die Leistungsaufnahme, die momentane Leistung ist aber noch nicht so der Brüller... Für >300€ ist das P/L zur spottbilligen Vorgängergeneration nicht sonderlich attraktiv. Wohin ist die mehr als doppelte Rohpower verpufft? :confused: Doch so stark im Bandbreitenlimit?

Marodeur
2009-09-23, 11:43:56
Ajo, das Diagramm kann man erstmal fröhlich das Klo runterspülen...

Spasstiger
2009-09-23, 11:44:53
Aha... Bestenfalls oder "im Schnitt"? :freak:
Einfache Rechnung, die GTX 380 wird ungefähr doppelt so schnell wie die GTX 285 (höhere Taktraten, GDDR5, mehr als doppelt soviele Shadereinheiten, 60% mehr TMUs, evtl. eigene TMU-Taktdomäne, ROP-Partitionen mit mehr Fähigkeiten). Die HD 5870 ist im Schnitt 40% schneller als die GTX 285 (je nach Benchmarkauswahl auch mal 30% oder 50%, einigen wir uns auf 40%).
Faktor 2 geteilt durch Faktor 1,4 ergibt Faktor 1,43. Demnach wird eine GTX 380 also 43% schneller als die HD 5870.
Oder gehst du davon aus, dass die GTX 380 nur 70% schneller wird als die GTX 285?

dargo
2009-09-23, 11:45:11
Doch so stark im Bandbreitenlimit?
Nein, wenn ich mir die Skalierung bei Warhead anschaue.

LovesuckZ
2009-09-23, 11:46:25
Für >300€ ist das P/L zur spottbilligen Vorgängergeneration nicht sonderlich attraktiv. Wohin ist die mehr als doppelte Rohpower verpufft? :confused: Doch so stark im Bandbreitenlimit?

Das ist mir bei Computerbase.de aufgefallen. P/L Leistung (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/28/#abschnitt_preisleistungverhaeltnis) ist im Parcours von Computerbase.de fürchterlich schlecht - letzter Platz mit der GTX295 und GTX285...
Vergleicht man das mit der 8800GTX (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/34/#abschnitt_preisleistungverhaeltnis), dann steht die 5870 ziemlich schlecht dar...

AnarchX
2009-09-23, 11:46:37
Würde ich auch so sehen. Sehr nett ist die Leistungsaufnahme, die momentane Leistung ist aber noch nicht so der Brüller... Für >300€ ist das P/L zur spottbilligen Vorgängergeneration nicht sonderlich attraktiv. Wohin ist die mehr als doppelte Rohpower verpufft? :confused: Doch so stark im Bandbreitenlimit?

Wenn man sich die Benchmarks bei iXBT mit 950/1250 und 850/975MHz anschaut, dann limitiert hier wohl die GPU, deren Setup wohl in vielen Fällen die Rohleistung nicht umsetzen kann.

_DrillSarge]I[
2009-09-23, 11:49:36
um die "tatsächliche" leistung in aktion zu sehen, sollte man noch paar treiber ins land ziehen lassen, das war schon immer so.

Gast
2009-09-23, 11:50:02
Aha... Bestenfalls oder "im Schnitt"? :freak:

Also mal ehrlich. Glaubt hier etwa wirklich jemand, dass der G300 30 bis 40% schneller wird als der rv870? Wenn ihr da nicht mal enttäuscht werdet...

Wie war das nochmal mit dem Abstand zwischen rv770 und G200? ~ halber DIE, und 80 bis 90% der Leistung (grob).... Und wie ist es jetzt beim rv870 und G300?

Es würde an ein Wunder grenzen, wäre der G300 auch nur um 20% schneller IMO. Mit Verlaub.. ich bezweifle es. Bestenfalls wohl 10% ... im Schnitt ;D

Der Logik nach sollte der Abstand geringer sein als bei rv770-G200. Mit dem kleinen Unterschied, dass ATI > 3 Monate Vorsprung hat
GT200 ist in erster Linie ein GT Chip, kein G Chip.
Die zusätzlichen Transistoren wurden für die zig 1000€ Produkte eingepflanzt, den typischen 130€ Kunden braucht das nicht zu stören, bekommt er gratis etwas, was er nicht braucht.

Das du das 1zu1 auf GT300 überträgst ist klassisch, GT300 hat grob 30% Mehrtransistoren, wenn die 2400 Millionen stimmen.

GT200 krankte darüber hinaus am zu geringen Takt und natürlich der Tatsache das AMD ein Produkt geschaffen hat das der Konkurrenz nur dank Cheats nahe gekommen ist, in den üblichen Benches.
Die allgemeine Performance wurde nie groß beleuchtet.

Henroldus
2009-09-23, 11:50:14
Crossfire :up:
-DEPPEN-DIAGRAMM-
ähm 4870 ->21,4FPS vs 4890 49,2FPS :freak:

Einfache Rechnung, die GTX 380 wird ungefähr doppelt so schnell wie die GTX 285 (höhere Taktraten, GDDR5, mehr als doppelt soviele Shadereinheiten, 60% mehr TMUs, evtl. eigene TMU-Taktdomäne, ROP-Partitionen mit mehr Fähigkeiten). Die HD 5870 ist im Schnitt 40% schneller als die GTX 285 (je nach Benchmarkauswahl auch mal 30% oder 50%, einigen wir uns auf 40%).
Faktor 2 geteilt durch Faktor 1,4 ergibt Faktor 1,43. Demnach wird eine GTX 380 also 43% schneller als die HD 5870.
Oder gehst du davon aus, dass die GTX 380 nur 70% schneller wird als die GTX 285?
GTX380 ist sicher auch nur auf dem Papier doppelt so schnell wie GTX285 und die Realität wird hier ebenfalls etwas ernüchtern

Gast
2009-09-23, 11:52:02
3850 ist besser als 4850, wusste ich doch schon immer. ;)

derguru
2009-09-23, 11:52:18
mit der 4870 ist mit sicherheit die 512 mb variante gemeint,tippe auf schreibfehler.viele schreibfehler.quak.;D

Spasstiger
2009-09-23, 11:53:00
Das ist mir bei Computerbase.de aufgefallen. P/L Leistung (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/28/#abschnitt_preisleistungverhaeltnis) ist im Parcours von Computerbase.de fürchterlich schlecht - letzter Platz mit der GTX295 und GTX285...
Vergleicht man das mit der 8800GTX (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/34/#abschnitt_preisleistungverhaeltnis), dann steht die 5870 ziemlich schlecht dar...
Wer auf P/L schaut, kauft sich eine Radeon HD 4870 1024 MiB für 120€.
Die HD 5870 ist für Leute, die die schnellste Single-GPU-Karten besitzen möchte und auf die Features wie SGSSAA und DX11 scharf sind.

tombman
2009-09-23, 11:53:28
Die noobs dort haben sowieso nur Schwachsinn geschrieben- siehe Verbrauchsmessungen ;D

_flx
2009-09-23, 11:54:32
Die 4850 ist auch langsamer als eine 3850 & 3870.

Wusst ichs doch, ich hab letztes Jahr die falsche GraKa gekauft ;D


//edit

verdammt, zu langsam :D

reunion
2009-09-23, 11:55:44
Einfache Rechnung, die GTX 380 wird ungefähr doppelt so schnell wie die GTX 285 (höhere Taktraten, GDDR5, mehr als doppelt soviele Shadereinheiten, 60% mehr TMUs, evtl. eigene TMU-Taktdomäne, ROP-Partitionen mit mehr Fähigkeiten). Die HD 5870 ist im Schnitt 40% schneller als die GTX 285 (je nach Benchmarkauswahl auch mal 30% oder 50%, einigen wir uns auf 40%).
Faktor 2 geteilt durch Faktor 1,4 ergibt Faktor 1,43. Demnach wird eine GTX 380 also 43% schneller als die HD 5870.
Oder gehst du davon aus, dass die GTX 380 nur 70% schneller wird als die GTX 285?

Anhand der technischen Daten wäre die 5870 auch doppelt so schnell wie eine 4890. Alles bis auf die Bandbreite wurde verdoppelt, und die limitiert kaum. Also abwarten.

Wenn man sich die Benchmarks bei iXBT mit 950/1250 und 850/975MHz anschaut, dann limitiert hier wohl die GPU, deren Setup wohl in vielen Fällen die Rohleistung nicht umsetzen kann.

Was seltsam ist angesichts des doppelt ausgelegten Hir-Z und Rasterizer.

LovesuckZ
2009-09-23, 11:57:29
Wer auf P/L schaut, kauft sich eine Radeon HD 4870 1024 MiB für 120€.
Die HD 5870 ist für Leute, die die schnellste Single-GPU-Karten besitzen möchte und auf die Features wie SGSSAA und DX11 scharf sind.

So schön, dass auch klingt: Aber eine 4870 1GB kostet zZ 115€ - das ist fast ein 1/3 des Preises einer 5870. Und sie erreicht ca. 65% der Leistung.
SGSSAA sehe ich nicht als großartigen Vorteil an, da es a) sehr viel Leistung kostet und b) bei nVidia auch schon billiger gibt. Kein SG, aber SSAA. Und SG wird wohl niemanden einen 300% Aufpreis wert sein. ;)
Einzig D3D11, aber für den Kauf als Zukunftskarte empfehle ich noch bis Ende November auf nVidia zu warten und dann zu kaufen - auch wenn nVidia nicht am Markt ist. Jetzt aufgrund von D3D11 zu zuschlagen macht keinen Sinn.

AnarchX
2009-09-23, 11:59:27
Was seltsam ist angesichts des doppelt ausgelegten Hir-Z und Rasterizer.
Vielleicht lässt AMD den 2. Rasterizer noch als Trumpf für später deaktiviert. :D

Tarkin
2009-09-23, 11:59:55
Einfache Rechnung, die GTX 380 wird ungefähr doppelt so schnell wie die GTX 285 (höhere Taktraten, GDDR5, mehr als doppelt soviele Shadereinheiten, 60% mehr TMUs, evtl. eigene TMU-Taktdomäne, ROP-Partitionen mit mehr Fähigkeiten). Die HD 5870 ist im Schnitt 40% schneller als die GTX 285 (je nach Benchmarkauswahl auch mal 30% oder 50%, einigen wir uns auf 40%).
Faktor 2 geteilt durch Faktor 1,4 ergibt Faktor 1,43. Demnach wird eine GTX 380 also 43% schneller als die HD 5870.
Oder gehst du davon aus, dass die GTX 380 nur 70% schneller wird als die GTX 285?

tolles Zahlenspiel... allerdings nicht sehr realistisch.

Was bringt dich zu der Annahme, dass nvidia einen höheren Sprung schafft wie ATi? (bei der G300 wird ja anscheinend nicht alles "verdoppelt" - bei ATi schon).

4890 auf 5870 ... alles verdoppelt. Leistung "im Schnitt" ~45% (laut CB)

G200 auf G300 ... nehmen wir hier einfach mal an nVidia schafft auch +45% (obwohl nvidia diesmal an Die-Fläche spart und der Abstand zur Rv870 kleiner wird).... nicht ums VERRECKEN ist das Teil dann 30 bis 40% schneller - WIE AUCH? Zauberei???

Bestenfalls +10% ... und das ist optimistisch!

Zahlenspiele sind eine Sache... die Realität sieht anders aus!

reunion
2009-09-23, 12:00:15
Vielleicht lässt AMD den 2. Rasterizer noch als Trumpf für später deaktiviert. :D

Da die Dinger laut Blockschaltbild fest an jeweils 800SPs hängen müssten dann aber auch die Hälfte der Einheiten deaktiviert sein. :D

derguru
2009-09-23, 12:02:11
So schön, dass auch klingt: Aber eine 4870 1GB kostet zZ 115€ - das ist fast ein 1/3 des Preises einer 5870. Und sie erreicht ca. 65% der Leistung.
SGSSAA sehe ich nicht als großartigen Vorteil an, da es a) sehr viel Leistung kostet und b) bei nVidia auch schon billiger gibt. Kein SG, aber SSAA. Und SG wird wohl niemanden einen 300% Aufpreis wert sein. ;)
Einzig D3D11, aber für den Kauf als Zukunftskarte empfehle ich noch bis Ende November auf nVidia zu warten und dann zu kaufen - auch wenn nVidia nicht am Markt ist. Jetzt aufgrund von D3D11 zu zuschlagen macht keinen Sinn.

lol armutsvergleiche,

wieso hast du das niicht zu nv zeiten mit der 260gtx² 130 euro zu 285gtx mit 300 euro so ein vergleich gemacht?

schau mal da nach dem performanceunterschied:rolleyes:

dargo
2009-09-23, 12:02:51
4890 auf 5870 ... alles verdoppelt. Leistung "im Schnitt" ~45% (laut CB)

Anhand der technischen Daten wäre die 5870 auch doppelt so schnell wie eine 4890. Alles bis auf die Bandbreite wurde verdoppelt...
Nur 3 Posts über dir.

Gast
2009-09-23, 12:03:19
Vielleicht lässt AMD den 2. Rasterizer noch als Trumpf für später deaktiviert. :D
Als Trumpf gibt es wie bei der HD4 irgendwann die 2GiB Versionen und die X2.
So kann man erstmal die GPUs teuer loswerden, ohne viel teuren VRAM zu verlöten.

y33H@
2009-09-23, 12:03:45
und b) bei nVidia auch schon billiger gibtWoran machst du das fest?

LovesuckZ
2009-09-23, 12:04:34
lol armutsvergleiche,

wieso hast du das niicht zu nv zeiten mit der 260gtx² 130 euro zu 285gtx mit 300 euro so ein vergleich gemacht?

schau mal da nach dem performanceunterschied:rolleyes:

Erstaunlich, dass man seine Lieblingsfirma gutreden muss. Siehst du irgendwo, dass ich die GTX285 als tolle P/L Karte ansehe oder sogar empfehlen würde? Nein. Aber erstmal dumm rumlabern, gell?

AnarchX
2009-09-23, 12:05:04
Da die Dinger laut Blockschaltbild fest an jeweils 800SPs hängen müssten dann aber auch die Hälfte der Einheiten deaktiviert sein. :D

Wobei manche Ergebnisse schon etwas seltsam sind:
http://img97.imageshack.us/img97/8018/clipboard19.jpg

http://img42.imageshack.us/img42/9672/clipboard20.jpg

http://209.85.129.132/translate_c?hl=de&ie=UTF-8&sl=ru&tl=en&u=http://www.ixbt.com/video3/cypress-part2.shtml&rurl=translate.google.ch&usg=ALkJrhiE02n3IQ3E7nbxN9QpRIN-bSlpQw#p3

tombman
2009-09-23, 12:05:15
WIE AUCH? Zauberei???
Skill.

robbitop
2009-09-23, 12:05:24
Was seltsam ist angesichts des doppelt ausgelegten Hir-Z und Rasterizer.
Vieleicht läuft das noch nicht ganz so effizient wie es laufen soll. ;) Treiberreleases abwarten.

Gast
2009-09-23, 12:05:58
lol armutsvergleiche,

wieso hast du das niicht zu nv zeiten mit der 260gtx² 130 euro zu 285gtx mit 300 euro so ein vergleich gemacht?

schau mal da nach dem performanceunterschied:rolleyes:
Schwachsinn, alle diese GF haben das selbe Techlevel und die selben Features.

Für eine GTX 285 entgegen einer 9500 GT spricht nur die Performance.


Die 5870 ist bis jetzt die einzige getestete Karte, die 5850 kann man wohl noch kaum kritisieren.

_DrillSarge]I[
2009-09-23, 12:07:07
bekommt man irgendwo diesen "8.66_RC6" treiber her?

skampi
2009-09-23, 12:07:24
@jake dunn

du wolltest doch arma 2 sehen,:biggrin:
http://www.abload.de/img/img0026854nkht.gif

Karte ist somit gekauft. Mehr als eine Verdoppelung gegenüber meiner derzeitigen GTX260-216. Da komme ich als Arma Fan nicht drum herum :)

derguru
2009-09-23, 12:07:25
Erstaunlich, dass man seine Lieblingsfirma gutreden muss. Siehst du irgendwo, dass ich die GTX285 als tolle P/L Karte ansehe oder sogar empfehlen würde? Nein. Aber erstmal dumm rumlabern, gell?

nee man sieht dich bloß immer nur texten wenn es amd bezogen ist.:wink:

ich rede nichts gut nur war das was du erwähnst schon immer so,also nichts aufregendes.

warum muß man für eine 15% mehr performance ca.30% mehr zahlen z.b.4870 1gb zu 4890 1gb oder 260gtx² zu 275.:rolleyes:

dargo
2009-09-23, 12:08:07
Wobei manche Ergebnisse schon etwas seltsam sind:
http://img97.imageshack.us/img97/8018/clipboard19.jpg
http://209.85.129.132/translate_c?hl=de&ie=UTF-8&sl=ru&tl=en&u=http://www.ixbt.com/video3/cypress-part2.shtml&rurl=translate.google.ch&usg=ALkJrhiE02n3IQ3E7nbxN9QpRIN-bSlpQw#p3
Lol, das sieht wirklich danach aus als ob die Treiber bei dem RV870 noch auf Sparflamme laufen. Anders kann ich mir diese Ergebnisse nicht erklären. :|

Gast
2009-09-23, 12:08:47
Einfache Rechnung, die GTX 380 wird ungefähr doppelt so schnell wie die GTX 285 (höhere Taktraten, GDDR5, mehr als doppelt soviele Shadereinheiten, 60% mehr TMUs, evtl. eigene TMU-Taktdomäne, ROP-Partitionen mit mehr Fähigkeiten). Die HD 5870 ist im Schnitt 40% schneller als die GTX 285 (je nach Benchmarkauswahl auch mal 30% oder 50%, einigen wir uns auf 40%).
Faktor 2 geteilt durch Faktor 1,4 ergibt Faktor 1,43. Demnach wird eine GTX 380 also 43% schneller als die HD 5870.
Oder gehst du davon aus, dass die GTX 380 nur 70% schneller wird als die GTX 285?

Spasstiger "bescheinigte" der HD5870 auch rund 70% mehr Leistung zum Vorgänger. Ich denke die GTX380 wird auch so um die 50% schneller sein, als ihr Vorgänger.
Wenn ich hier so mitlese hab ich das Gefühl die grössten "Schlaumeier" hier lagen am meisten daneben mit ihren schätzungen was die Leistung des RV870 betrifft. :)
Ich von meiner Seite aus finde die 5850 sehr interessant!

LovesuckZ
2009-09-23, 12:09:57
Wobei manche Ergebnisse schon etwas seltsam sind:
http://img97.imageshack.us/img97/8018/clipboard19.jpg

http://img42.imageshack.us/img42/9672/clipboard20.jpg

http://209.85.129.132/translate_c?hl=de&ie=UTF-8&sl=ru&tl=en&u=http://www.ixbt.com/video3/cypress-part2.shtml&rurl=translate.google.ch&usg=ALkJrhiE02n3IQ3E7nbxN9QpRIN-bSlpQw#p3

Nun, im Beyond3d.com Forum geht Jawed davon aus, dass es weiterhin nur eine Setup Engine vorhanden ist.

Mr. Lolman
2009-09-23, 12:10:24
Vielleicht ist AMD einfach zu blöd?

Imo nö. Denn wenn man statt optimaler Texturschärfe lieber absolute Flimmerfreiheit hätte, könnte man das LOD dann nicht mehr ins positive schieben, da bei LOD+1 nicht mehr aus der Basemap gesampelt würde.

Gast
2009-09-23, 12:11:10
Skill.
Die haben sie beim G200 überdeutlich bewiesen. :freak:

Jake Dunn
2009-09-23, 12:15:01
I[;7550606']bekommt man irgendwo diesen "8.66_RC6" treiber her?

Ja, kann den nichtmal einer uppen :biggrin:

PCHG hat den beim Batmantest auch auf der HD4890 verwendet

Gast
2009-09-23, 12:15:59
warum muß man für eine 15% mehr performance ca.30% mehr zahlen z.b.4870 1gb zu 4890 1gb oder 260gtx² zu 275.:rolleyes:
Muss man nicht.

Aber man muss für D3D11 + SGSSAA + schlechtes AF einen deftigen Aufpreis zahlen, weil es nur die 5870 gibt.

Gast
2009-09-23, 12:18:34
Aber man muss für D3D11 + SGSSAA + schlechtes AF einen deftigen Aufpreis zahlen, weil es nur die 5870 gibt.

Hmm. Ich dachte 3 Monitor gleichzeitig anzuschließen, wäre in der Geräteklasse bisher auch nicht möglich. Kann mich da aber täuschen.

Spasstiger
2009-09-23, 12:19:36
Was bringt dich zu der Annahme, dass nvidia einen höheren Sprung schafft wie ATi? (bei der G300 wird ja anscheinend nicht alles "verdoppelt" - bei ATi schon).
Bei ATI wurden eben nicht alles verdoppelt, die Speicherbandbreite ist nur um 23% gestiegen.
Bei Nvidia wird alles um mindestens 60% steigen. Voraussichtlich wird es so aussehen:
Shaderleistung +110-130%
Texelfüllrate +60-130% (je nachdem, ob eine eigene TMU-Taktdomäne kommt)
Pixelfüllrate +100-110% (bei verdoppelten ROPs bzw. verdoppelten ROP-Fähigkeiten)
Speicherbandbreite +60-90%
Da ist ein Faktor 2 eben nicht unrealistisch, wenn keine sonstigen Engpässe eingebaut wurden.

derguru
2009-09-23, 12:20:35
Muss man nicht.

Aber man muss für D3D11 + SGSSAA + schlechtes AF einen deftigen Aufpreis zahlen, weil es nur die 5870 gibt.

falsch es gibt auch die 5850 und die kann all das auch und liegt preislich zwischen 275gtx und 285gtx und ist schneller als beide.

such dir was anders zum rummaulen:wink:

MoC
2009-09-23, 12:24:49
So schön, dass auch klingt: Aber eine 4870 1GB kostet zZ 115€ - das ist fast ein 1/3 des Preises einer 5870. Und sie erreicht ca. 65% der Leistung.
SGSSAA sehe ich nicht als großartigen Vorteil an, da es a) sehr viel Leistung kostet und b) bei nVidia auch schon billiger gibt. Kein SG, aber SSAA. Und SG wird wohl niemanden einen 300% Aufpreis wert sein. ;)
Einzig D3D11, aber für den Kauf als Zukunftskarte empfehle ich noch bis Ende November auf nVidia zu warten und dann zu kaufen - auch wenn nVidia nicht am Markt ist. Jetzt aufgrund von D3D11 zu zuschlagen macht keinen Sinn.

Das doch Mist :X

P/L ist noch nie linear angestiegen.

Man hat immer ab einen bestimmten Punkt exponentiell mehr zahlen muessen fur Leistung.

Zumal hier auch noch Faktoren hinzukommen wie schnellste Single-GPU und "Next-Gen"-Featueres. :) und es noch keine Konkurrenz gibt und es sich um Launchpreis handelt (UVP zumindest bei Computerbase)

Den P/L-bewussten Käufer geht die Graka sowieso am Arsch vorbei, sowie es schon immer war.

Zumal er garnicht das das restliche System dafür besitzt diese Graka ordentlich auszureizen.

Ich z.Bsp dackel immer noch mit meiner x1950,E6300,2GBRam rum und werd mir wohl auch nie einen HD5870 kaufen.

Mich erfreut es allerdings das die Effizienz gestiegen ist und die meisten Kritikpunkte zur letzten Generation verbessert wurde.

Gast
2009-09-23, 12:26:44
Bei ATI wurden eben nicht alles verdoppelt, die Speicherbandbreite ist nur um 23% gestiegen.
Bei Nvidia wird alles um mindestens 60% steigen. Voraussichtlich wird es so aussehen:
Shaderleistung +110-130%
Texelfüllrate +60-130% (je nachdem, ob eine eigene TMU-Taktdomäne kommt)
Pixelfüllrate +100-110% (bei verdoppelten ROPs bzw. verdoppelten ROP-Fähigkeiten)
Speicherbandbreite +60-90%
Da ist ein Faktor 2 eben nicht unrealistisch, wenn keine sonstigen Engpässe eingebaut wurden.
Dazu kommt noch die verdoppelte VRAM Menge.

Worst Case wären alleine von den Daten wären 60% bei GT300 vs GT200b.
Worst Case bei RV870 vs RV790 wären 23%.
Habe ich deine Zahlen soweit gelesen?

falsch es gibt auch die 5850 und die kann all das auch und liegt preislich zwischen 275gtx und 285gtx und ist schneller als beide.

such dir was anders zum rummaulen:wink:
Es gibt bisher nur die 5870, wer diese Features will, muss sie kaufen. ;)
Bzw es gibt Test von ihr, sie selbst gibts noch nicht, also kannst du keine Aussage zum Preis/Leistung einer hypotetischen 5850 machen, auch nicht was die GTX 200 Konkurrenz dann kosten wird.

Im Grunde hast du abgelenkt, wie gesagt die GTX 285 Features gibts für 40€, nur die Leistung ist eben geringer. 5870 Features gibts nur bei der 5870, bzw auch dort noch nicht, weil nicht im Laden.

LovesuckZ
2009-09-23, 12:29:36
Das doch Mist :X


Zwei 4870 Karten sind billiger als eine 5870. :freak:
Würde mGPU mit mehr als 2 GPUs besser skalieren, könnte man sich für den selben Preis auch fast drei Karten kaufen.
Aber wenn dir 66% Mehrleistung, SGSSAA, D3D11 und Eyefinity 300% Aufpreis wert sind, dann ist es in Ordnung. Aber bestimmt kein Mist. :rolleyes:

Gast
2009-09-23, 12:33:49
AFR wurde in den letzten Generationen massiv gepusht.
Jetzt muss man sich nicht wundern, wenns zurück schlägt.
Die Nachteile sind nachwievor ein absolutes nogo, aber auf dem Papier, das letztendlich entscheided dominiert es.
So muss die 5870 sich der 4870 X2 beugen, letztere ist verfügbar, billiger und schneller.

Scheiss Situation, tut mir Leid aber das ist jetzt die Realität, AFR ist ein selbstläufer geworden, statt der Konkurrenz zu schaden, schadets auch einem selbst.

Gast
2009-09-23, 12:39:05
Scheiss Situation, tut mir Leid aber das ist jetzt die Realität, AFR ist ein selbstläufer geworden, statt der Konkurrenz zu schaden, schadets auch einem selbst.

Nö, in Sachen Lautstärke und Stromverbrauch bzw. Ergonomie kann die alte X2 gegen die neue 5870 nicht ankommen, und dann muss man noch die Szenarien addieren, in denen CF (noch) nicht funktioniert.

reunion
2009-09-23, 12:48:04
AFR wurde in den letzten Generationen massiv gepusht.
Jetzt muss man sich nicht wundern, wenns zurück schlägt.
Die Nachteile sind nachwievor ein absolutes nogo, aber auf dem Papier, das letztendlich entscheided dominiert es.
So muss die 5870 sich der 4870 X2 beugen, letztere ist verfügbar, billiger und schneller.

Scheiss Situation, tut mir Leid aber das ist jetzt die Realität, AFR ist ein selbstläufer geworden, statt der Konkurrenz zu schaden, schadets auch einem selbst.

AFR wurde gepusht? Die Nachteile sind evident. Und die 4870 X2 ist letztendlich nicht schneller als eine 5870 und auch sonst in jeder Hinsicht unterlegen. Einzig Verfügbar und billiger kann man gelten lassen.

reunion
2009-09-23, 12:52:17
Update: As of 5am EDT, we have seen the availability of 5870s come and go. Newegg had some in stock, but they have since sold out. So indeed AMD did make the hard launch (which we're always glad to see), but it looks like our concerns about a limited supply are proving to be true.

Finally, we asked AMD about the current TSMC 40nm situation, and they have told us that they are happy with it. Our concern was that problems at TSMC (specifically: yield) would be a holdup in getting more cards out there, but this does not look to be the case. However given the low supply of the cards compared to where AMD expects the supply to be, TSMC’s total 40nm capacity may not be to AMD’s liking.

http://www.anandtech.com/video/showdoc.aspx?i=3643

Gast
2009-09-23, 12:52:42
AFR wurde gepusht? Die Nachteile sind evident. Und die 4870 X2 ist letztendlich nicht schneller als eine 5870 und auch sonst in jeder Hinsicht unterlegen. Einzig Verfügbar und billiger kann man gelten lassen.
Nachteile interessieren nicht, im Diagramm ist die X2 sehr schnell, das zählt.

Es zählt nicht was man davon hat.

Gepusht wurde es, es gab keinen Grund AFR Karten anzubieten, AFR gabs schon so wenn man Lust auf den Rotz hatte. Geboren aus dem Wunsch im Test vorne zu sein gabs AFR Karten, den nun hat jeder AFR getestet, nicht extra in Extra Tests sondern in normalen Tests.

Matrix316
2009-09-23, 12:53:33
AFR wurde gepusht? Die Nachteile sind evident. Und die 4870 X2 ist letztendlich nicht schneller als eine 5870 und auch sonst in jeder Hinsicht unterlegen. Einzig Verfügbar und billiger kann man gelten lassen.
Unterlegen ist die 4870x2 nur im Stromverbrauch und dass manche Games noch kein Crossfire unterstützen. Ansonsten isse billiger und fast immer genauso schnell, wenn nicht sogar ein paar FPS schneller.

Wobei ich trotzdem vielleicht dann umsteige, wenn die 5870 erhältlich ist, zumal sicher auch der Preis runtergehen wird. Dass man aber an eine GTX 295 nicht rankommt, finde ich dann schon verwunderlich.

Tarkin
2009-09-23, 12:55:41
Nur 3 Posts über dir.

hier im Thread gehts momentan so schnell... ich habs nicht gesehen sry.

Tarkin
2009-09-23, 12:57:19
Skill.

die kochen auch nur mit Wasser.

ach ja, ich vergaß ... ATi ist ja blöd und nVidia sind Götter. :rolleyes:

Gast
2009-09-23, 13:01:07
die kochen auch nur mit Wasser.

ach ja, ich vergaß ... ATi ist ja blöd und nVidia sind Götter. :rolleyes:
Nein anders rum, AMD macht doppelt so gute GPUs wie Nvidia.
Siehe den Post bezüglich GT200 von dir, auf desen Antwort du nicht geantwortet hast.

tombman
2009-09-23, 13:02:20
Die haben sie beim G200 überdeutlich bewiesen. :freak:

Yepp: Performance+ BQ+ Phys-X+ Ease-of-Use+ Multi-Gpu leader ;)

Skill genug ;)

Gast
2009-09-23, 13:07:07
Unterlegen ist die 4870x2 nur im Stromverbrauch und dass manche Games noch kein Crossfire unterstützen. Ansonsten isse billiger und fast immer genauso schnell, wenn nicht sogar ein paar FPS schneller.

Unterlegen ist die 4870x2 nur im Stromverbrauch und dass manche Games noch kein Crossfire unterstützen. Ansonsten isse billiger und fast immer genauso schnell, wenn nicht sogar ein paar FPS schneller.

die X2 ist auch unterlegen bei:
-Bildqualität
-Lautstärke
-Temperatur
-evtl. auch Leistung (Treiberoptimierungen)
-zukunftstauglichkeit (DX11)

und den Preis muss man erst einpendeln lassen.


Weiss wer schon, wann die NDA für die 5770/5750 fällt?

PS: die Gastfragen sind hart 2^10 -.-

Gast
2009-09-23, 13:08:48
Auch beim AF ist sie deutlich unterlegen.

MoC
2009-09-23, 13:09:05
Zwei 4870 Karten sind billiger als eine 5870. :freak:
Würde mGPU mit mehr als 2 GPUs besser skalieren, könnte man sich für den selben Preis auch fast drei Karten kaufen.
Aber wenn dir 66% Mehrleistung, SGSSAA, D3D11 und Eyefinity 300% Aufpreis wert sind, dann ist es in Ordnung. Aber bestimmt kein Mist. :rolleyes:

Doch das ist Mist :P

Es war noch nie der Fall und es wird zu 99,99999% XD niemals eintreten:

Das ein Next-Gen Produkt , was die HD5870 letzendlich ist (auch wenn sich grötenteils mehr oder weniger um ein Refresh handelt o_O ) Preisleitungsmäßig die beste verfügbare karte ist.

Das P/L-System als linearen Anstieg hinzustellen ist einfach Mist.

Ist ja schön und gut das 2 4870 billiger sind und teilweise (von mir aus auch größtenteils) schneller sind als ne 5870.
Dafür hast du deutliche Abstriche in Bildquälität,Energieverbrauch,Features,etc

Ob du dadurch eher zur ner 5870 oder 2 4870 oder einfahc nur zur ner 4870 greifst ist natuerlich dir ueberlassen. (ich würde auch zur 4870 tendieren :) )

Aber der Grundgedanke die 5870 über das P/L-Verhältnis schlecht zureden, weil sich diese nicht linaer zur 4xxx Serier verhält ist einfach nur Mist :>

darkcrawler
2009-09-23, 13:12:02
Zwei 4870 Karten sind billiger als eine 5870. :freak:
Würde mGPU mit mehr als 2 GPUs besser skalieren, könnte man sich für den selben Preis auch fast drei Karten kaufen.
Aber wenn dir 66% Mehrleistung, SGSSAA, D3D11 und Eyefinity 300% Aufpreis wert sind, dann ist es in Ordnung. Aber bestimmt kein Mist. :rolleyes:

mobopreis x2 für 16x / 16x, microruckler, 1.5x last-verlustleistung, 10fache idleverlustleistung, (kein dx11) toooooll :uup:

immer dieses rumgekotze, die karte ist einfach gut

Exxtreme
2009-09-23, 13:12:53
Also ich bin zufrieden mit der Grafikkarte. Bis auf das AF, was etwas besser sein könnte.

Spasstiger
2009-09-23, 13:25:52
Mich würde ja die AF-Qualität der HD 5870 in diesem Worstcase-Szenario interessieren:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27
(Pointsampling sieht aber trotzdem noch schlimmer aus :D)

RoNsOn Xs
2009-09-23, 13:28:14
die 5850 sollte dann auf höhe der GTX 285 sein, bzw leicht vor oder?

LolekDeluxe
2009-09-23, 13:29:22
mobopreis x2 für 16x / 16x, microruckler, 1.5x last-verlustleistung, 10fache idleverlustleistung, (kein dx11) toooooll :uup:

immer dieses rumgekotze, die karte ist einfach gut
Vergiss es mit LovesuckZ kann man nicht diskutieren.
Wenn die Fanboys keine richtigen kontra Punkte im Konkurrenzprodukt finden, werden welche aus den Fingern gesogen.
Aber wie er auf 300% kommt ist mir schleierhaft ich komme nur auf 65% Teurer.:rolleyes:

desert
2009-09-23, 13:29:34
Vieleicht läuft das noch nicht ganz so effizient wie es laufen soll. ;) Treiberreleases abwarten.

wie kommt ihr immer nur darauf das angeblich der/die nächsten Treiber das "wahre Potenzial" der Karten zeigen sollen.

Das war bis jetzt noch nie der Fall. Von vereinzelten Fällen abgesehen wo bugs beseitigt worden sind, aber ansonsten.

Habe mir mal den spass gemacht den Test der r600 mit dem treibertest 7.10 zu vergleichen. Da liegen ja 6 monate dazwischen um das "wahre Potenzial" freizulegen. Hat komischerweise nichts gebracht, die frameraten blieben meistens gleich.

Ein paar verbessertern sich leicht, manche verschlechterten sich und ein paar bugs worden beseitigt. Mehr aber nicht.

Genauso ein quatsch wie leistung zurückhalten. Genauso damit die unentschlossen erst recht bis zum g300 relaese warten und dann vergleichen. Aber dann, ja aber dann holt ati den Hammer hervor und zerschmettert Nvidia.

Nur wieso nicht jetzt und warten bis zum release der Konkurrenz?. Jetzt haben sie keine konkurrenz und könnten karten verkaufen aber doch nicht mehr wenn die konkurrenz ein gutes angebot hat.

Das ist einfach bekloppt und nochnicht mal marketing leute sind so bekloppt.

Und nvidia kann jetzt sowieso nichts mehr verändern.

Exxtreme
2009-09-23, 13:32:19
wie kommt ihr immer nur darauf das angeblich der/die nächsten Treiber das "wahre Potenzial" der Karten zeigen sollen.

Die Vorgängergeneration hat zumindest bei neueren Spielen um ~50% zugelegt.

derguru
2009-09-23, 13:33:01
lol,bis zum release der gt 300 kostet eine 5850 150 euro und eine 5870 200 euro.;D
lasst mal gt300 vergleich aus dem spiel:wink:

Neocroth
2009-09-23, 13:33:33
jo, das Argument "vllt halten sie Leistung zurück" ist ja wohl idiotisch. Dazu gäbe es keinen Grund - ganz im Gegenteil.

Was ich aber schon glaube: ATi hat noch ein Ass im Ärmel - die 5890. Ich bin überzeugt, dass da noch was kommt, wenn dann mit Sicherheit aber erst im nächsten Jahr.

MadManniMan
2009-09-23, 13:34:32
Ich habe 8xAA nie in den Himmel gelobt, ich habe mich nur dagegen gewehrt das es sinnlos ist.

Ach komm, Du warst nie verlegen darum, das 8xAA als Ub0rargument zu bringen, wo Du es konntest. Sagen wir es mal so: LS und Du, ihr zwei beiden seit DIE Opportunisten hier im Graka-Forum =)


Anhand der technischen Daten wäre die 5870 auch doppelt so schnell wie eine 4890. Alles bis auf die Bandbreite wurde verdoppelt, und die limitiert kaum. Also abwarten.

Ahja, sie limitiert kaum. Ist das jetzt in Stein gemeißelt?

desert
2009-09-23, 13:36:02
Die Vorgängergeneration hat zumindest bei neueren Spielen um ~50% zugelegt.

Zeig mal bitte das die vorgängergeneration (r600/rv670/rv770 ) 50 % wegen treiber zugelegt hat und das auch noch durch die bank.

reunion
2009-09-23, 13:36:11
Ach komm, Du warst nie verlegen darum, das 8xAA als Ub0rargument zu bringen, wo Du es konntest. Sagen wir es mal so: LS und Du, ihr zwei beiden seit DIE Opportunisten hier im Graka-Forum =)


Beispiele? Wo habe ich 8xMSAA als "Ub0rargument" gebracht? Das habe ich nie. Ich habe nur was gesagt wenn gewisse Personen so taten als ob das irrelevant wäre.


Ahja, sie limitiert kaum. Ist das jetzt in Stein gemeißelt?

Schau dir die hinten verlinken Skalierungsbenchs an.

Ailuros
2009-09-23, 13:37:54
lol,bis zum release der gt 300 kostet eine 5850 150 euro und eine 5870 200 euro.;D
lasst mal gt300 vergleich aus dem spiel:wink:

Man kann den Vergleichen nicht entgehen da NV frueher oder spaeter mit ihrer eigenen X11 GPU antworten wird. Und AMD wird nur die Preise reduzieren, wenn NVIDIA die Preise ihrer existierenden GPUs reduziert. Sonst sollten die Kerle auch mal ausnahmsweise einen zusaetzlichen cent ins Sparschwein schmeissen; viel zu Nahe an den Kosten zu verkaufen ist auch nicht immer das tollste.

Spasstiger
2009-09-23, 13:38:44
die 5850 sollte dann auf höhe der GTX 285 sein, bzw leicht vor oder?
Im Mittel leicht vor der GTX 285, in Einzelfällen auch mal deutlich schneller oder langsamer. Hier landet die HD 5850 je nach Auflösung im Mittel 5-8% vor der GTX 285:
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/30.html
In Stalker Clear Sky beträgt der Unterschied im spielbaren Bereich (1920x1200) 25%, das ist wohl der "best case":
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/21.html

mapel110
2009-09-23, 13:41:33
http://www.xbitlabs.com/articles/video/display/radeon-hd5870.html
Der Test ist ja wohl noch nicht verlinkt worden, wenn ich nix übersehen hab.

Das Filetstückchen daraus. Das sieht mal richtig gut aus.

Exxtreme
2009-09-23, 13:41:48
Zeig mal bitte das die vorgängergeneration (r600/rv670/rv770 ) 50 % wegen treiber zugelegt hat und das auch noch durch die bank.
Durch die Bank sicherlich nicht. Aber gibt schon Tests wo das so ist:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_95/7/#abschnitt_crysis_warhead

Und hier ein Plus von 12% im Schnitt:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_95/10/#abschnitt_performancerating

LovesuckZ
2009-09-23, 13:42:40
Vergiss es mit LovesuckZ kann man nicht diskutieren.
Wenn die Fanboys keine richtigen kontra Punkte im Konkurrenzprodukt finden, werden welche aus den Fingern gesogen.
Aber wie er auf 300% kommt ist mir schleierhaft ich komme nur auf 65% Teurer.:rolleyes:

Lern lesen und schreib dich nicht ab. :)


immer dieses rumgekotze, die karte ist einfach gut

Niemand bestreitet hier irgendwas. Aber gut ist manchmal eben nicht gutgenug, um einen 300% Aufpreis auszugleichen. Aber sowas darf man wohl nicht mehr erwähnen, weil sonst die ganzen AMD Fanboys ankommen und irgendwas dumrumsabeln.

reunion
2009-09-23, 13:42:54
Das Filetstückchen daraus. Das sieht mal richtig gut aus.

Naja, nicht vergleichbar.

LolekDeluxe
2009-09-23, 13:47:28
Lern lesen und schreib dich nicht ab. :)

Lern Rechnen dann sehen wir weiter.:freak:

LovesuckZ
2009-09-23, 13:48:19
Lern Rechnen dann sehen wir weiter.:freak:

Eine 4870 1GB kostet 115€. Der Unterschied zu 330€ beträgt mehr als 66%. Aber das ist es eben: Dumm rumlabern.

Gast
2009-09-23, 13:48:28
Beispiele? Wo habe ich 8xMSAA als "Ub0rargument" gebracht? Das habe ich nie. Ich habe nur was gesagt wenn gewisse Personen so taten als ob das irrelevant wäre.
Du hast es nur gerne in Vergleichen gesehen, der Verdacht das du es wegen Nvidias Abschneiden gerne gesehen hast liegt nahe.

Egal, jetzt wo AMD in D3D9 SSAA anbietet können wir endlich 16xLQ AF +8xSSAA vs 16xLQ AF + 8xS + TSSAA testen.

Gast
2009-09-23, 13:53:43
Lern Rechnen dann sehen wir weiter.:freak:Eine 5870 kostet 190€? Wahnsinn, schade das es im Laden erstmal nur Papier gibt.

MoC
2009-09-23, 13:54:06
Naja, nicht vergleichbar.

Wieso? ^^

puntarenas
2009-09-23, 13:54:31
Sonst sollten die Kerle auch mal ausnahmsweise einen zusaetzlichen cent ins Sparschwein schmeissen; viel zu Nahe an den Kosten zu verkaufen ist auch nicht immer das tollste.
Jetzt haben sie ja erst Mal eine gute Zeit, wer im Moment kaufen muss, kommt an einer HD58xx ja kaum vorbei. Es lebe die "Zukunftssicherheit" dank DX11. Allerdings müssen sie auch erst mal reichlich Karten liefern können, mal sehen wie gut die Ausbeute wirklich ist und zunächst will Dell abgefrühstückt sein.

Informierte User, die nicht unbedingt sofort eine Karte brauchen, werden da vermutlich zögerlicher sein, aber das ist ja eine Minderheit. Dennoch ist schon allein die Performance für Aufrüstwillige etwas hinter den Erwartungen zurückgeblieben. Darüber hinaus sind zum einen die Filterverbessereungen wohl mehr oder weniger eine Blendgranate (die allerdings prima gezündet hat -> siehe Anandtech), zum anderen steht Nvidias GT300 noch aus und bis DX11 wirklich relevant wird, gibt es vermutlich längst den Refresh, vielleicht sogar den Nachfolgechip.

Gut für AMD, aber nicht der Big Bang, der sich kurz abzuzeichnen schien. Wäre ja auch zu schön gewesen.

Alexander
2009-09-23, 13:54:52
Im Mittel leicht vor der GTX 285, in Einzelfällen auch mal deutlich schneller oder langsamer. Hier landet die HD 5850 je nach Auflösung im Mittel 5-8% vor der GTX 285:
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/30.html
In Stalker Clear Sky beträgt der Unterschied im spielbaren Bereich (1920x1200) 25%, das ist wohl der "best case":
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/21.html
Hat die GTX 285 denn demnächst überhaupt noch eine Daseinsberechtigung? Mir erscheinen die 5850 und die GTX 275 attraktiver. Je nachdem wieviel man ausgeben möchte, bzw. wieviel Leistung man "braucht".

LovesuckZ
2009-09-23, 14:05:18
Hat die GTX 285 denn demnächst überhaupt noch eine Daseinsberechtigung? Mir erscheinen die 5850 und die GTX 275 attraktiver. Je nachdem wieviel man ausgeben möchte, bzw. wieviel Leistung man "braucht".

Nein, hat sie nicht. Das scheint auch nVidia zu begreifen und liefert wohl schon seit Wochen kaum GTX285 Karten aus. Jedenfalls ist die Verfügbarkeit stark eingrenzt im Vergleich zur GTX260/275. Ist im Grunde auch logisch, haben GTX260 und GTX275 einfach das bessere P/L Verhältnis.
Ich könnte mit vorstellen, dass man den Preis der GTX275 auf GTX260 und den der GTX285 auf GTX275 Niveau senkt. Mehr können sie auch nicht machen.

reunion
2009-09-23, 14:06:07
Wieso? ^^

Habe nicht gesehen das die 5870 zweimal im Diagramm auftaucht und bezog mich nur auf die Fur-Resultate. Sonst sind die Werte der 5870 allerdings tatsächlich sehr niedrig.

Tarkin
2009-09-23, 14:07:19
Yepp: Performance+ BQ+ Phys-X+ Ease-of-Use+ Multi-Gpu leader ;)

Skill genug ;)

Wow, das sind doch mal schlagende Argumente! Dem Smiley entnehmen ich, dass du das nicht ernst meinst... ansonsten :comfort:

Speaking of Skills:

Wo ist die DX11 GPU von nvidia? Wo ist G300? Ach so... die müssen erst mal 40nm und DX10.1 in den Griff bekommen, verstehe.

http://www.pcgameshardware.com/aid,694223/Geforce-G210-Nvidias-first-DirectX-101-card-reviewed/Reviews/

Bis dahin wird auf PhysX und CUDA herumgeritten. Die beiden Pferde sind bereits tot geprügelt falls du es noch nicht bemerkt hast.

Ganz großes Tennis. Kannst du eigentlich noch ruhig schlafen?

Aber was ein richtiger nvidia Fanboy sein will, der hält zu seinem Schatz - auch wenn die Konkurrenz gerade ein überlegenes Produkt gelauncht hat... JETZT ERST RECHT, nicht war? Wie überhaupt nicht kindisch...

ShadowXX
2009-09-23, 14:08:32
Durch die Bank sicherlich nicht. Aber gibt schon Tests wo das so ist:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_95/7/#abschnitt_crysis_warhead

Und hier ein Plus von 12% im Schnitt:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_95/10/#abschnitt_performancerating
Ja, aber was sind schon 10-12%?

Bei den Games wo man die FPS wirklich braucht, die Games also mit 25-30 FPS rumgurken, sind das dann 2 oder 3 Frames mehr.

50% Steigerung sieht man da nirgendwo (außer es hakte vorher im Treiber gewaltif bei einem Spiel, aber das ist dann mehr Bugbereinigung als Optimierung des Treibers).

ATI wird sicher noch was aus den Treibern rausholen, aber wenn es wirklich große FPS-Sprünge gibt, dann nur bei sowas wie HAWX, bei dem ein Treiberbug behoben werden muss.

Gast
2009-09-23, 14:09:57
bis DX11 wirklich relevant wird, gibt es vermutlich längst den Refresh, vielleicht sogar den Nachfolgechip.

Um ehrlich zu sein, ist selbst 3 Jahre nach D3D10 D3D9 noch weitaus wichtiger.

Marodeur
2009-09-23, 14:12:13
Kein Wunder wo sich Vista so schleppend verkauft hat.

dildo4u
2009-09-23, 14:12:37
http://i360.photobucket.com/albums/oo44/iceflight-2008/P9230562.jpg

http://forums.hardwarezone.com.sg/showthread.php?t=2509341

Gast
2009-09-23, 14:14:02
Wow, das sind doch mal schlagende Argumente! Dem Smiley entnehmen ich, dass du das nicht ernst meinst... ansonsten :comfort:
Kannst du einen der Punkte wiederlegen?
Nein, dachte ichs mir, GT200 ist überlegen.


Speaking of Skills:

Wo ist die DX11 GPU von nvidia? Wo ist G300? Ach so... die müssen erst mal 40nm und DX10.1 in den Griff bekommen, verstehe.

http://www.pcgameshardware.com/aid,6...iewed/Reviews/
Du bist lustig.
Es war bekannt das AMD zuerst D3D11 bringt. Einer muss auch der erste sein oder?

40nm hat AMD noch nicht mehr bewiesen als Nvidia, ist aber eh eine Frage von TSMC.

Bis dahin wird auf PhysX und CUDA herumgeritten. Die beiden Pferde sind bereits tot geprügelt falls du es noch nicht bemerkt hast.
Noch gar nicht gemerkt, was ist den der Nachfolger?
Hm, mir fällt nichts ein.

Gast
2009-09-23, 14:15:16
Aber gut ist manchmal eben nicht gutgenug, um einen 300% Aufpreis auszugleichen. Aber sowas darf man wohl nicht mehr erwähnen, weil sonst die ganzen AMD Fanboys ankommen und irgendwas dumrumsabeln.

Das kommt immer wieder auf die persönliche Gewichtung an (äußerst Subjektiv). Dass Du keine 300% Aufpreis bezahlen möchtest, ist Dein gutes Recht. Aber die Mehrleistung gegenüber der 4870 kann man nicht in % angeben. Ich würde mir heute keine 4850 bzw. 4870 kaufen, da meine 2 Bildschirme für meine Arbeit leider schon unterer Limit ist. MEINE Gewichtung ist folglich eine ganz andere und das darf man nicht verallgemeinern.

Die Gewichtung der GT300 wird unter Garantie auch völlig unterschiedliche ausfallen. Und der Mehrpreis wird unter Garantie außerhalb der Mehrleistung der Fps liegen. Wetten? ;-)

reunion
2009-09-23, 14:15:49
5870 momentan ab 316€ gelistet:
http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=5870&v=e&pixonoff=on&xf=

5850 ab 203,03€:
http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=5850&v=e&pixonoff=on&filter=+Liste+aktualisieren+&xf=

Allerdings noch kaum Listungen.

fizzo
2009-09-23, 14:15:52
sieht doch recht ansprechend aus =) fuer HD 4850 besitzer der ersten stunde, wie mich, ist die HD 5850 das logische upgrade. mal schaun wie sich die preise entwicklen.

Slipknot79
2009-09-23, 14:16:34
Man kann den Vergleichen nicht entgehen da NV frueher oder spaeter mit ihrer eigenen X11 GPU antworten wird. Und AMD wird nur die Preise reduzieren, wenn NVIDIA die Preise ihrer existierenden GPUs reduziert. Sonst sollten die Kerle auch mal ausnahmsweise einen zusaetzlichen cent ins Sparschwein schmeissen; viel zu Nahe an den Kosten zu verkaufen ist auch nicht immer das tollste.

Wenn die 5870 X2 vorm GT300 kommt, werden die Preise so und so fallen.

dildo4u
2009-09-23, 14:19:02
http://www.abload.de/img/weak35p1.jpg


Core i7 3.8Ghz 1900*1200 20% wow.:rolleyes:

http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/30.html

derguru
2009-09-23, 14:19:08
Wenn die 5870 X2 vorm GT300 kommt, werden die Preise so und so fallen.
die x2 soll doch ende oktober kommen,also sehr wahrscheinlich das es noch vor der gt300 sein wird.ich hab die preise bissel überzogen gehabt aber so ähnlich wird es werden.

Ailuros
2009-09-23, 14:20:12
Wenn die 5870 X2 vorm GT300 kommt, werden die Preise so und so fallen.

Wieso? Hemlock kann locker etwas teurer sein als D12U.

die x2 soll doch ende oktober kommen,also sehr wahrscheinlich das es noch vor der gt300 sein wird.ich hab die preise bissel überzogen gehabt aber so ähnlich wird es werden.

Oktober? *gruebel*

LovesuckZ
2009-09-23, 14:22:31
Das kommt immer wieder auf die persönliche Gewichtung an (äußerst Subjektiv). Dass Du keine 300% Aufpreis bezahlen möchtest, ist Dein gutes Recht. Aber die Mehrleistung gegenüber der 4870 kann man nicht in % angeben. Ich würde mir heute keine 4850 bzw. 4870 kaufen, da meine 2 Bildschirme für meine Arbeit leider schon unterer Limit ist. MEINE Gewichtung ist folglich eine ganz andere und das darf man nicht verallgemeinern.

Das habe ich auch geschrieben. Die 5870 1GB bietet für 300% Aufpreis eben D3D11, Eyefinity, SGSSAA und 66% Mehrleistung.


Die Gewichtung der GT300 wird unter Garantie auch völlig unterschiedliche ausfallen. Und der Mehrpreis wird unter Garantie außerhalb der Mehrleistung der Fps liegen. Wetten? ;-)

Kann gut möglich sein - ändert dann auch nichts dran, dass es genauso schlecht wäre. ;)

reunion
2009-09-23, 14:23:09
http://www.abload.de/img/weak35p1.jpg


Core i7 3.8Ghz 1900*1200 20% wow.:rolleyes:

http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/30.html

Toll, ein Durchschnitt aller Werte, ohne AA/AF ist da natürlich auch dabei welches entsprechend CPU-limitiert ist. Aber dir ist ja nichts zu blöd um AMD schlecht dastehen zu lassen.

derguru
2009-09-23, 14:25:13
Oktober? *gruebel*
von ende oktober war doch die rede von der x2?

Ailuros
2009-09-23, 14:27:47
von ende oktober war doch die rede von der x2?

Ja und es war auch fuer 5870 von Ende September die Rede und wie sieht es heute mit der Verfuegbarkeit aus? Da Hemlock genau die gleichen cores benutzen wird wie 5870/5850 ist das Ganze auch relativ miteinander verbunden.

xiao didi *
2009-09-23, 14:29:39
sieht doch recht ansprechend aus =) fuer HD 4850 besitzer der ersten stunde, wie mich, ist die HD 5850 das logische upgrade. mal schaun wie sich die preise entwicklen.
Ich denke auch.
AMD liefert hier ihren Soll ab, aber leider auch nicht mehr.
Erfreulich sind die Spitzen nach oben, wie der Idle/Last Verbrauch sowie die Lautstärke.
Ich vermute, dass sich, sobald auch Nvidia ihr Roundup liefern und alles gut verfügbar ist, der Markt ähnlich aussehen wird wie heute.
Sprich: 5850 und GTX 360 (Name geraten!) bei 130€-180€, 5870 bei 230€ und GTX 380 bei 270€+.

Henroldus
2009-09-23, 14:30:36
Das habe ich auch geschrieben. Die 5870 1GB bietet für 300% Aufpreis eben D3D11, Eyefinity, SGSSAA und 66% Mehrleistung.

Kann gut möglich sein - ändert dann auch nichts dran, dass es genauso schlecht wäre. ;)
woher kommt der bLödsinn???
300% Aufpreis heisst der 4fache Preis.
120€(4870 1GB)*4 =480
die 5870 kostet aber nur 320€ ;)

Iceman346
2009-09-23, 14:30:47
Toll, ein Durchschnitt aller Werte, ohne AA/AF ist da natürlich auch dabei welches entsprechend CPU-limitiert ist. Aber dir ist ja nichts zu blöd um AMD schlecht dastehen zu lassen.

Die Seite testet nur mit AA/AF ;) Aber manche der Spiele die sie genommen haben sind schon extrem CPU limitiert, ja.

LovesuckZ
2009-09-23, 14:33:17
woher kommt der bLödsinn???
300% Aufpreis heisst der 4fache Preis.
120€(4870 1GB)*4 =480
die 5870 kostet aber nur 320€ ;)

Dann eben 3fachen Preis. Das ändert überhaupt nichts an der Aussage. :rolleyes:

Der_Korken
2009-09-23, 14:33:21
Irgendwie erinnert mich diese Karte ein wenig an G70 vs R480. Der G70 kam zwar auch vor R520, hat sich aber vom R480 nicht so stark absetzen können, wie man es für eine neue Generation erwartet. Langsam wird es wohl Zeit für eine neue Architektur, da man aus den vielen Recheneinheiten einfach nicht mehr viel rausholen kann. (bilde ich mir das nur ein, oder sehe ich bei der HD2k-HD5k Parallelen zur CineFX-Reihe? NV30/R600 viel zu spät, zu langsam und zu hungrig, NV35/RV670 kleine Nachbesserung, NV40/RV770 ordentliches Speed-Up, dennoch sehr energiehungrig, G70/RV870 Beseitigung vieler Schwächen, aber nicht so schnell wie erhofft)

dildo4u
2009-09-23, 14:35:51
Die Seite testet nur mit AA/AF ;) Aber manche der Spiele die sie genommen haben sind schon extrem CPU limitiert, ja.
Viel mher als Core i7 3.8Ghz geht zur Zeit aber nicht.

Exxtreme
2009-09-23, 14:38:31
Irgendwie erinnert mich diese Karte ein wenig an G70 vs R480. Der G70 kam zwar auch vor R520, hat sich aber vom R480 nicht so stark absetzen können, wie man es für eine neue Generation erwartet. Langsam wird es wohl Zeit für eine neue Architektur, da man aus den vielen Recheneinheiten einfach nicht mehr viel rausholen kann. (bilde ich mir das nur ein, oder sehe ich bei der HD2k-HD5k Parallelen zur CineFX-Reihe? NV30/R600 viel zu spät, zu langsam und zu hungrig, NV35/RV670 kleine Nachbesserung, NV40/RV770 ordentliches Speed-Up, dennoch sehr energiehungrig, G70/RV870 Beseitigung vieler Schwächen, aber nicht so schnell wie erhofft)
Man kann die Performance nicht jede Generation verdoppeln. =) Jede Exponentialfunktion findet ihr Ende.

RoNsOn Xs
2009-09-23, 14:40:37
ich finde die leistung der 5870 tiptop! (und ich bin nvidia-nutzer und hatte noch nie ne ati).
verstehe auch gar wieso viele eingeschworene user immer ihre marke verteidigen müssen.

ati did well :smile:

Armaq
2009-09-23, 14:41:04
Ziemlich indifferent meine Meinung zu der Karte.

Alle Benchmarks sind eindeutig und eindeutig zu schlecht. 25% im Mittel in ultrahohen Auflösungen ist unter allen Erwartungen (zur 285). 40% hätten es schon sein müssen.

Die Stromsparfunktion ist über jeden Zweifel erhaben. Über 2 Watt mehr oder weniger braucht man sich hier nicht streiten, Nvidia wird ähnlich gut liegen müssen.

Die Bildqualität ist jetzt um ein kleines bisschen besser (wenn man SSAA als offiziell implementiert zu inoff. implementiert betrachtet), wo sie vorher leicht schlechter war. Auch gut gelöst, aber nicht herausragend.

Preislich liegt sie vom UVP genau richtig. Denn sie ist 25% schneller und hat mehr Features.

Das Problem ist die Differenz theoretische zu praktischer Leistung. Sollte ATI doch genauso an Raster und Textur hängen, dann sind die 2,7 GFlop einfach nur verschenkt. Wir werden auf Jahre keine Spiele haben, die die reine Rechenleistung ausnutzen, denn unsere Lieblingskonsolen limitieren hier einfach. Man muss sich mal den Unterschied von xbox und ps-Grafikeinheit zur 5870 verdeutliche, um zu verstehen, dass wir leider kaum Vorteile daraus ziehen können. BQ-Features sind hier natürlich gut für den versierten Nutzer, aber wir wollen nicht nur 8xSSAA geglätte Bilder.

Labberlippe
2009-09-23, 14:41:11
Eine 4870 1GB kostet 115€. Der Unterschied zu 330€ beträgt mehr als 66%. Aber das ist es eben: Dumm rumlabern.

hi

Toll, dann muss ich 2x 4870er kaufen, habe kaum mehr Leistung und häheren Stromverbrauch.

Da lege ich lieber den Hunderter drauf, (wobei die Preise ja fallen werden) habe dann Eyefinity, DX11, offizielles Supersampling besseres AF (zur 4870er) und kann jederzeit dann noch eine 2te 5870er reinhängen.

Fast alle Kritikpunkte hat AMD auf einen Schlag weggeblassen mit einen deutlichen Performanceschub.
Wunder braucht man sich nicht erwarten es war von Anfang an klar das die Leistung so ausfallen wird.



Nur mal nebenbei, nVIDIA war auch nicht zimperlich was deren Preisgestaltung angeht.

http://geizhals.at/?fs=gtx+285&in=

http://geizhals.at/?fs=gtx+295&in=

Preise in Österreich.

so und jetzt sag mir nochmal wo genau die 5870 teuer sein soll.

Ich habe das Gefühl das hier wieder versucht wird auf gewalt zu meckern.
Seien wir ehrlich AMD hat mit dieser Karte eine sehr solide Arbeit abgeliefert.

Für mich wird zu Weinachten die 5850 in meinen Rechner einzug halten.


Gruss Labberlippe

Labberlippe
2009-09-23, 14:43:08
Nein, hat sie nicht. Das scheint auch nVidia zu begreifen und liefert wohl schon seit Wochen kaum GTX285 Karten aus. Jedenfalls ist die Verfügbarkeit stark eingrenzt im Vergleich zur GTX260/275. Ist im Grunde auch logisch, haben GTX260 und GTX275 einfach das bessere P/L Verhältnis.
Ich könnte mit vorstellen, dass man den Preis der GTX275 auf GTX260 und den der GTX285 auf GTX275 Niveau senkt. Mehr können sie auch nicht machen.

Hi

Besseres PL?

http://geizhals.at/?fs=gtx+275&in=

Gruss LAbberlippe

Gast
2009-09-23, 14:43:21
http://www.abload.de/img/weak35p1.jpg


Core i7 3.8Ghz 1900*1200 20% wow.:rolleyes:

http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/30.html
HD5870 ist 43% schneller als HD4890; wie groß war noch mal der Sprung von 8.800Ultra auf GTX280 im Schnitt?

desert
2009-09-23, 14:45:01
Durch die Bank sicherlich nicht. Aber gibt schon Tests wo das so ist:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_95/7/#abschnitt_crysis_warhead

Und hier ein Plus von 12% im Schnitt:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_95/10/#abschnitt_performancerating

wie gesagt bugfixes bei bestimmten spielen aber nichts von wegen das "wahre potenzial" freischalten.

Und zulegen konnten sie eigentlich auch nur bei af, das spricht nicht für freischaltungen, sondern eher für versteckte a.i. spielereien.

Damit wird doch meine aussagen nur noch mehr untermauert denn die treiberentwicklungen fangen ja auch nicht erst 2 wochen vorher an. Vorallem bei den benchspielen da werden die treiber doch darauf ausgerichtet. Dann leisten die sich doch keine schwäche die sie einfach per treiber beheben könnten.

Ne ne die leistung steht schon vorher zu einem guten teil fest und kann kann eben nicht einfach so per treiber erhöht werden weder bei ati noch bei nvidia.

Das ist bugfixing oder shaderreplacements aber keine effienzentfaltung von vorher brachliegenden oder nicht optimal ausgelasteten rechnenwerken.

MartinRiggs
2009-09-23, 14:46:50
Was richtig nervig ist das sie die wirklich nen Paperlaunch vom feinsten hingelegt haben.

Bei den ganzen letzten Launches konnten die Leute ohne Probleme bestellen auch wenn die Kontingente teilweise schnell erschöpft waren.
Aber diesmal gibt es erst gar nix zu bestellen:mad:

Spasstiger
2009-09-23, 14:47:45
Gibts schon Benchmarks zur Skalierung der HD 5870 mit verschiedenen CPUs im Vergleich zur HD 4890 und GTX 285?

Blacksoul
2009-09-23, 14:51:10
Was richtig nervig ist das sie die wirklich nen Paperlaunch vom feinsten hingelegt haben.

Bei den ganzen letzten Launches konnten die Leute ohne Probleme bestellen auch wenn die Kontingente teilweise schnell erschöpft waren.
Aber diesmal gibt es erst gar nix zu bestellen:mad:

Der Karten werden auch in 2 Wochen nicht langsamer sein.


t.b.d

Tarkin
2009-09-23, 14:51:20
HD5870 ist 43% schneller als HD4890; wie groß war noch mal der Sprung von 8.800Ultra auf GTX280 im Schnitt?

um die 40, 50 (max 60%)

mapel110
2009-09-23, 14:51:29
Was richtig nervig ist das sie die wirklich nen Paperlaunch vom feinsten hingelegt haben.

Bei den ganzen letzten Launches konnten die Leute ohne Probleme bestellen auch wenn die Kontingente teilweise schnell erschöpft waren.
Aber diesmal gibt es erst gar nix zu bestellen:mad:
http://forum.beyond3d.com/showpost.php?p=1338805&postcount=52
hab mal bei Beyond3D den Finger in die Wunde gelegt direkt hinter Dave Baumann. Vielleicht gibts ja eine gute Antwort.
Der Karten werden auch in 2 Wochen nicht langsamer sein.


t.b.d
Aber man hat 2 Wochen weniger Nutzdauer bis G300 kommt.

desert
2009-09-23, 14:52:42
Was richtig nervig ist das sie die wirklich nen Paperlaunch vom feinsten hingelegt haben.

Bei den ganzen letzten Launches konnten die Leute ohne Probleme bestellen auch wenn die Kontingente teilweise schnell erschöpft waren.
Aber diesmal gibt es erst gar nix zu bestellen:mad:

Finde ich ehrlich gesagt garnicht so schlimm. Hatte mir zwar schon das geld zurückgelegt, aber jetzt warte ich doch erstmal auf g300 und was die gpu leistet bevor ich mich entscheide.

War schon ganz heiss auf ssaa, aber ist ja auch nur so halbgar implementiert und dann kann ich auch beim beim hypridmodus bleiben. Da flimmert wenigstens nichts.

Gast
2009-09-23, 14:52:56
ja kein wunder ein Paperlaunch, AMD hat wohl recht führ geschnallt das der RV870 im Vergleich zum GT300 wahrscheinlich nichts taugen wird und somit hauen sie die Karten so schnell wie möglich auf den Tisch....

Es gibt derzeit sonst abolut keinen grund für einen Paperlaunch, weil die Konkurenz gar nichts mit DX11 vorweisen kann, bis jetzt... AMD hat wohl also angst vom GT300 und nach den ersten Benchmarkwerten ist das doch SEHR verständlich...

MartinRiggs
2009-09-23, 14:55:26
Da bin ich mal auf die Antwort gespannt.
Denke ATI hat arschbackenflattern bekommen und hat dann wohl lieber nen Paperlaunch hingelegt, hauptsache man ist vor NV.

Ob der GT300 vielleicht doch näher ist als mancher denkt, oder die ATI-Karten viel "rarer" als gedacht:uponder:

Finde ich ehrlich gesagt garnicht so schlimm. Hatte mir zwar schon das geld zurückgelegt, aber jetzt warte ich doch erstmal auf g300 und was die gpu leistet bevor ich mich entscheide.

War schon ganz heiss auf ssaa, aber ist ja auch nur so halbgar implementiert und dann kann ich auch beim beim hypridmodus bleiben. Da flimmert wenigstens nichts.

Klar ist das schlimm, Paperlaunches waren schon früher das letzte(siehe X850XT PE und 6800 Ultra).
Hoffe die Hersteller kommen nicht wieder aus so eine Schiene, was hat man von Grakas die nicht kaufbar sind?

Der_Korken
2009-09-23, 14:55:43
Man kann die Performance nicht jede Generation verdoppeln. =) Jede Exponentialfunktion findet ihr Ende.

Ich will ja gar nicht sagen, dass der Chip schlecht ist, denn er schlägt den Vorgänger quasi in allen Belangen. Aber nach den Benches, die ich bisher gesehen hab, kommt es mir so vor als hätte die R6xx-Architektur nun ihr Ende erreicht. Man will ja schließlich alles verdoppelt haben und kommt trotzdem nur auf 50% Mehrleistung. Ich bin mal gespannt auf die Skalierungstests mit getrenntem Chip- und Speicher-OC.

Labberlippe
2009-09-23, 14:56:39
ja kein wunder ein Paperlaunch, AMD hat wohl recht führ geschnallt das der RV870 im Vergleich zum GT300 wahrscheinlich nichts taugen wird und somit hauen sie die Karten so schnell wie möglich auf den Tisch....

Es gibt derzeit sonst abolut keinen grund für einen Paperlaunch, weil die Konkurenz gar nichts mit DX11 vorweisen kann, bis jetzt... AMD hat wohl also angst vom GT300 und nach den ersten Benchmarkwerten ist das doch SEHR verständlich...


Hi

Was ist den das für ein Wunschdenken?
Wovor sollte AMD Angst vor dem G300 haben?

Bis nVIDIA die komplette Produktline rausgebracht hat, da hat AMD schon einiges an Boden gutgemacht.
Beide Hersteller hatten nie die gleichen Zyklen, mal war AMD vorne dann wieder nVIDIA.

Warten wir mal ab wie sich der GT 300 präsentiert zur Zeit weiss man gar nichts.


Gruss Labberlippe

Alexander
2009-09-23, 15:01:26
Hi

Besseres PL?

http://geizhals.at/?fs=gtx+275&in=

Gruss LAbberlippe
Lesen, denken, posten (und nicht nur verlinken, damit man raten kann was du meinst).

Er schrieb, dass die gtx 260/275 ein besseres P/L haben als die GTX 285.

LovesuckZ
2009-09-23, 15:01:32
Man kann die Performance nicht jede Generation verdoppeln. =) Jede Exponentialfunktion findet ihr Ende.

Warum nicht jeder?
Immerhin schafften sie es auf dem selben Fertigungsprozeß bei nur ca. 45% Mehrtransistoren. Jetzt sind sie auf 40nm, haben über doppelte soviele und am Ende kommt ca. 66% unter <D3D11 raus.
Da stellt sich die Frage, wo die ganzen Transistoren hingewandert sind. :confused:

Gast
2009-09-23, 15:02:30
Man muss sich mal den Unterschied von xbox und ps-Grafikeinheit zur 5870 verdeutliche, um zu verstehen, dass wir leider kaum Vorteile daraus ziehen können.
naja, laptopgrafikkarten haben endlich die chance aufzuholen :P

Aquaschaf
2009-09-23, 15:04:18
Da stellt sich die Frage, wo die ganzen Transistoren hingewandert sind. :confused:

D3D11, größere Caches für Compute Shader / OpenCL, vermutlich auch etwas mehr pro TMU, Verbesserungen an den ALUs die sich nicht in Performance bei Spielen niederschlagen.

Exxtreme
2009-09-23, 15:07:07
wie gesagt bugfixes bei bestimmten spielen aber nichts von wegen das "wahre potenzial" freischalten.

Und zulegen konnten sie eigentlich auch nur bei af, das spricht nicht für freischaltungen, sondern eher für versteckte a.i. spielereien.

Damit wird doch meine aussagen nur noch mehr untermauert denn die treiberentwicklungen fangen ja auch nicht erst 2 wochen vorher an. Vorallem bei den benchspielen da werden die treiber doch darauf ausgerichtet. Dann leisten die sich doch keine schwäche die sie einfach per treiber beheben könnten.

Ne ne die leistung steht schon vorher zu einem guten teil fest und kann kann eben nicht einfach so per treiber erhöht werden weder bei ati noch bei nvidia.

Das ist bugfixing oder shaderreplacements aber keine effienzentfaltung von vorher brachliegenden oder nicht optimal ausgelasteten rechnenwerken.
12% finde ich trotzdem durchaus ordentlich. Würde man das auf die jetzigen Ergebnisse draufrechnen dann würden diese sehr gut aussehen.

Sonyfreak
2009-09-23, 15:07:41
um die 40, 50 (max 60%)Allerdings musste die GTX 280 nur gegen ihre eigenen Vorgängerinnen und nicht gegen die Konkurrenz kämpfen. :wink:

Meiner Meinung nach hat AMD mit der 5870 eine sehr schöne Performancekarte vorgestellt. Sie übertrifft die alten High-End Karten meist um ein ganzes Stück, und kann sich zusätzlich noch bei Bildqualität, Stromverbrauch und Lautstärke (im Gegensatz zur 48xxer-Serie) deutlich verbessern. So solls sein. :)

mfg.

Sonyfreak

dildo4u
2009-09-23, 15:09:19
Gesammelte Reviewergebnisse
We collected several thousand benchmark and game results into a single result chart which shows the relative performance of the various graphics card out there, compared to the newly arrived Radeon HD 5870.

http://www.abload.de/img/587007zj.png

http://www.madshrimps.be/vbulletin/f22/amd-radeon-hd-5870-hd-5850-performance-chart-66465/

Labberlippe
2009-09-23, 15:11:13
Lesen, denken, posten (und nicht nur verlinken, damit man raten kann was du meinst).

Er schrieb, dass die gtx 260/275 ein besseres P/L haben als die GTX 285.


Hi

Ups das habe ich glatt übersehen.

Kann passieren.

Nur zur Info.
Das Lesen denken posten kannste Dir sparen Fehler darf man ja wohl auch mal machen.

Gruss Labberlippe

Sonyfreak
2009-09-23, 15:11:54
http://www.madshrimps.be/vbulletin/attachments/f22/2940d1253710465-amd-radeon-hd-5870-hd-5850-performance-chart-clipboard01.pngWarum ist ein GTX 275 SLI-System fast 20% langsamer als eine GTX 295? :confused: Das kann nicht ganz korrekt sein.

EDITH: Oder 8800GT vs. 9800GT. XD

mfg.

Sonyfreak

desert
2009-09-23, 15:13:53
12% finde ich trotzdem durchaus ordentlich. Würde man das auf die jetzigen Ergebnisse draufrechnen dann würden diese sehr gut aussehen.

Aber das ist doch nicht bei jedem spiele 12 %. Bei crysis haben sie z.b. kein af berechnet und kamen von 12 fps auf 17 fps.

wie gesagt es sind keine generellen effienzsteigerungen, sondern nur bugfixing/ a.i spielerein. Mehr nicht, und sie haben ja nicht generell 12 % zugelegt, sondern z.b. in einem spiel einen bug behoben und schon steigt die leistung um 12 % an, aber halt nur in diesem fall. Die anderen spielen bleiben halt gleich, und wenn es effienzsteigerungen wären müssten sie ja auch profitieren. Tun sie aber nicht.

dildo4u
2009-09-23, 15:14:04
Warum ist ein GTX 275 SLI-System fast 20% langsamer als eine GTX 295? :confused: Das kann nicht ganz korrekt sein.

mfg.

Sonyfreak
Wird vermutlich nur ein Wert aus einer Review sein hat ja nicht Jeder getestet dort war vieleicht die CPU zu schwach kein Plan.Öfter vertreten und wichtig sind whol GTX 275/285,5870,GTX 295 und X2 4870

AnarchX
2009-09-23, 15:14:59
Die Software-Anpassung der Spannung (bei allen HD 5800) könnte wohl interessant sein:
The ASUS EAH5870/2DIS/1GD5 and EAH5850/2DIS/1GD5 are equipped with Voltage Tweak technology, as part of the SmartDoctor application. It enables users to raise GPU voltages from 1.15V to 1.35V and from 1.088V to 1.4V respectively, boosting GPU and memory clock performance from 850 / 725 MHz to 1035 / 1050 MHz and from 4800 / 4000 MHz to 5200 / 5200 MHz respectively. Such extreme performance upgrades raise the EAH5870 and EAH5850’s 3DMark Vantage Extreme Preset score from 8,087 to 9,252 and from 6501 to 8987—an unbelievable 17% and 38% improvement compared to other reference designed boards*.
http://www.tweak.dk/nyheder2.php?id=21610&title=ASUS_Launches_EAH5800_Series_with_Voltage_Tweak_Technology

30% mehr Spannung für 38% Mehrleistung. :D

Gast
2009-09-23, 15:15:00
Die 58xx holen aber auch gerade dort gegenüber der nvidia-Knkurenz auf, wo die 48xx besonders schwach war, hier z.B. 100%
http://tpucdn.com/reviews/ATI/Radeon_HD_5870/images/wic_1920_1200.gif
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/24.html

Erstaunlich und sehr gute Entwicklung! :up:

derguru
2009-09-23, 15:15:13
es gibt ja auch fälle wo eine 5870 deutlich schneller ist als eine 4890 wie hier,da kommt es mal fast zu einer verdopplung.bei aa und af fällts dann wieder ab,ich glaub bandbreite ist das größte manko bei der karte.
http://www.abload.de/img/maxmvuu.gif

Gast
2009-09-23, 15:21:38
Hi
Was ist den das für ein Wunschdenken?
Wovor sollte AMD Angst vor dem G300 haben?


sag mir nur EINEN andern grund der ein Paperlaunch vom RV870 rechtfertigen würde??? es gibt keinen...

AMD wollte so früh wie möglich die erste DX11 GPU haben, egal um welchen Preis!

Der RV870 ist ja nur Dank 40nm wirklich besser, die mehr Leistung wurde doch nur durch 40nm erst möglich... es ist einfach ein schnell "zusammen geflickter doppelter RV790 mit DX11" und das sieht man den Benchmarkwerten auch deutlich an!

Also ich bin richtig vom RV870 Entäuscht! Die Technische Daten verblassen im anbetracht der Benchmarkwerte doch deutlich...

Ich hoffe ja das der wahre DX11 Chip von AMD schon bald kommt.

reunion
2009-09-23, 15:21:58
Außerdem sind nicht gerade wenige Benchs CPU-limitiert. Man kann bei definitiv nicht CPU-limitierten Settings von ca. 50% Mehrleistung ggü. einer GTX285 sprechen IMO.

desert
2009-09-23, 15:23:19
es gibt ja auch fälle wo eine 5870 deutlich schneller ist als eine 4890 wie hier,da kommt es mal fast zu einer verdopplung.bei aa und af fällts dann wieder ab,ich glaub bandbreite ist das größte manko bei der karte.
http://www.abload.de/img/maxmvuu.gif

und wie sieht es bei einer realistischen Auflösung aus? Wieso muss immer Rosinenpickerei betrieben werden, wie z.b. auflösungen die kein schwein benutzt.?

reunion
2009-09-23, 15:23:25
Ein Blog von Dave Baumann:
http://blogs.amd.com/play/2009/09/22/ati-radeon-hd-5800-series-graphics-cards-designed-by-the-community/

reunion
2009-09-23, 15:23:41
und wie sieht es bei einer realistischen Auflösung aus? Wieso muss immer Rosinenpickerei betrieben werden, wie z.b. auflösungen die kein schwein benutzt.?

Weil es sonst CPU limitiert ist. Das gleiche Problem wird NV auch haben. Das hat nichts mit Rosinenpickerei zu tun.

Gast
2009-09-23, 15:30:57
Weil es sonst CPU limitiert ist. Das gleiche Problem wird NV auch haben. Das hat nichts mit Rosinenpickerei zu tun.

Ja klar, deswegen nimmt man eine Auflösung von 2560 aber OHNE AA / AF um der CPU Limite aus dem weg zu gehen, alles klar!

Tarkin
2009-09-23, 15:31:40
und die erten OC Versionen kommen auch schon daher...

http://www.hexus.net/content/item.php?item=20377

For those wanting to save a few pennies, ASUS' Voltage Tweak-packing Radeon HD 5850 can raise voltage from 1.088V to 1.4V. That'll increase GPU clock speed from 725MHz to 1,050MHz and memory clock speed from 4,000MHz to 5,200MHz.

*hust* :eek: Die Karte ist ein feuchter OC-Traum!

and we're told the Voltage Tweak'd Radeon HD 5870 provides a 38 per cent boost in 3DMark Vantage.

Radeon 5890 anyone? :tongue:

Wird wohl bald die ersten Mod-Biose geben wo das CCC OC Limit fällt. 1GHz dürften wohl nicht unrealistisch sein =)

Ist wohl dann auch relativ fix anzunehmen, dass der G300 Gegner HD5890 heißen wird.

Gast
2009-09-23, 15:33:24
Weil es sonst CPU limitiert ist. Das gleiche Problem wird NV auch haben. Das hat nichts mit Rosinenpickerei zu tun.

Ich dachte dass Grafikkarten irgendwann dazu gemacht wurden der CPU Arbeit abzunehmen? T&L als Anfang, Unified Shader, Drawcalls etc..bis zum heutigen.
Warum brauchen wir nun noch schnellere CPUs als 4Ghz Quadcores?

AnarchX
2009-09-23, 15:34:43
@ Tarkin
Schau mal weiter oben. ;)

Aber den Verbrauch bei 1,4V ausgehend von 1,08V bei der HD 5850 will man dann wohl eher doch nicht sehen.
Denn dabei verdoppelt sich schnell mal der Verbrauch:: http://ht4u.net/reviews/2009/asus_radeon_eah_4770/index9.php :ugly:

reunion
2009-09-23, 15:36:26
Ja klar, deswegen nimmt man eine Auflösung von 2560 aber OHNE AA / AF um der CPU Limite aus dem weg zu gehen, alles klar!

Ich habe mich nicht explizit auf das vorherige Ergebnis bezogen sondern auf deserts Aussage warum man so hohe Auflösungen nimmt.

Gast
2009-09-23, 15:39:36
Weil es sonst CPU limitiert ist. Das gleiche Problem wird NV auch haben. Das hat nichts mit Rosinenpickerei zu tun.

habe gerade noch mal die computerbase werte angeschaut, es ist genau das gegenteil der fall!!! bei 2560x1600 8xAA/16xAF ist die 5870 nur noch 29% schneller als die 4890 dafür setzt sich die 4870X2 bei dieser Einstellung am meisten von der 5870 ab!

I

derguru
2009-09-23, 15:42:35
Ja klar, deswegen nimmt man eine Auflösung von 2560 aber OHNE AA / AF um der CPU Limite aus dem weg zu gehen, alles klar!

sollte nur eine verdeutlichung sein das die karte von der rohperformance ganz gut skaliert.hab auch dazu geschrieben das unter aa und af die karte prozentual stärker einbricht als z.b. die 4890 weil anscheinend nicht genug bandbreite vorhanden ist.mit aa und af sind es immernoch 70%.

Tarkin
2009-09-23, 15:42:39
@ Tarkin
Schau mal weiter oben. ;)

Aber den Verbrauch bei 1,4V ausgehend von 1,08V bei der HD 5850 will man dann wohl eher doch nicht sehen.
Denn dabei verdoppelt sich schnell mal der Verbrauch:: http://ht4u.net/reviews/2009/asus_radeon_eah_4770/index9.php :ugly:

Ah! schon wieder.. verdammt!! :wink:

Anyway... das mit der Spannung finde ich auch etwas übertrieben... aber witzig ist, dass es überhaupt geht. Normalerweise muss man für solche Sprünge den Lötkolben anwerfen ;)

Exxtreme
2009-09-23, 15:42:51
Aber das ist doch nicht bei jedem spiele 12 %. Bei crysis haben sie z.b. kein af berechnet und kamen von 12 fps auf 17 fps.

wie gesagt es sind keine generellen effienzsteigerungen, sondern nur bugfixing/ a.i spielerein. Mehr nicht, und sie haben ja nicht generell 12 % zugelegt, sondern z.b. in einem spiel einen bug behoben und schon steigt die leistung um 12 % an, aber halt nur in diesem fall. Die anderen spielen bleiben halt gleich, und wenn es effienzsteigerungen wären müssten sie ja auch profitieren. Tun sie aber nicht.
Sind nicht nur Bugfixes. Es gibt Effizienzsteigerungen, die nur bei bestimmten Engines höhere Ergebnisse bringen. Oder Effizienzsteigerungen, die nur im CF-Verbund wirken etc.

Ich denke schon, daß 10% mehr Leistung bei grafikkartenlimitierten Szenarien drinne sind.

desert
2009-09-23, 15:42:53
Ich habe mich nicht explizit auf dieses Ergebnis bezogen sondern auf deserts Aussage warum man so hohe Auflösungen nimmt.

Dann hätte ich es wohl besser klarmachen sollen. Es gibt ja genug test in diesem review in denen sich 5870 nicht mal von der gtx 285 unter superhohen auflösungen absetzen kann. Und die 295 teilweise 20 fps schneller ist, nur halt in diesem fall nicht.

Ich bin irgendwie massiv enttäuscht von der karte, hatte mich schon damit angefreundet mir wieder mal eine ati zukaufen, aber das ist weder fisch noch fleisch.

Vorallem wen ich mir die technischen daten anschaue. Sie hat fast die 3-fache rechenpower einer gtx285 und es kommt sowenig leistung am Bildschirm an. Und richtig angepisst bin ich davon das sie immer noch gammelaf anbieten und mir als user immer noch keine volle kontrolle über die bq geben.


Ich bin von ati und ihren profilen abhängig was sie als ausreichende Bildqualität definieren

Aquaschaf
2009-09-23, 15:43:00
habe gerade noch mal die computerbase werte angeschaut, es ist genau das gegenteil der fall!!! bei 2560x1600 8xAA/16xAF ist die 5870 nur noch 29% schneller als die 4890 dafür setzt sich die 4870X2 bei dieser Einstellung am meisten von der 5870 ab!

I

Da limitiert dann die Bandbreite.

Chris2CB
2009-09-23, 15:43:57
Ich habe mich nicht explizit auf das vorherige Ergebnis bezogen sondern auf deserts Aussage warum man so hohe Auflösungen nimmt.


Naja......habe mir gerade eben den CB test kurz angeschaut. Beim kleinen Artikel um AF Qualität folgendes : Einzig mit SSAA zieht ATi vorbei, was aber aufgrund des Geschwindigkeitsverlusts keine Lösung sein kann.

Test mit SSAA habe ich auf CB aber nicht gesehen.

mapel110
2009-09-23, 15:45:05
Test mit SSAA habe ich auf CB aber nicht gesehen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/7/#abschnitt_skalierungstests
Hier runterscrollen.

Ph0b0ss
2009-09-23, 15:46:37
Aber den Verbrauch bei 1,4V ausgehend von 1,08V bei der HD 5850 will man dann wohl eher doch nicht sehen.
Denn dabei verdoppelt sich schnell mal der Verbrauch:: http://ht4u.net/reviews/2009/asus_radeon_eah_4770/index9.php :ugly:

In Kombination mit ATIs Spannungswandlerpolitik könnte es bei dem einen oder anderen zu einem hübschen Feuerchen kommen.:biggrin:

Exxtreme
2009-09-23, 15:49:56
In Kombination mit ATIs Spannungswandlerpolitik könnte es bei dem einen oder anderen zu einem hübschen Feuerchen kommen.:biggrin:
Was ist an AMDs Spannungswandlern denn falsch?

desert
2009-09-23, 15:53:46
Sind nicht nur Bugfixes. Es gibt Effizienzsteigerungen, die nur bei bestimmten Engines höhere Ergebnisse bringen. Oder Effizienzsteigerungen, die nur im CF-Verbund wirken etc.

Ich denke schon, daß 10% mehr Leistung bei grafikkartenlimitierten Szenarien drinne sind.

Dagegen spricht ja auch nichts das bei ausgewählten fällen noch etwas rausgeholt werden kann. Das stelle ich auch nicht in abrede.

Was ich bezweifele sind sind die aussagen das man die nächsten treiber abwarten soll, da dann erst das wahre potenzial freigesetzt wird.

Wenn die grafikkarten beim release 35 fps produzieren dann werden da nach einem halben jahr nicht 50 fps von. Vielleicht wenn es gut läuft 40 fps aber dann ist es schon ein besonderer fall.

Wenn ich mir die treibertests anschaue dann gewinnen die meisten titeln nach release nicht mehr dazu.

Viele bleiben einfach auf dem niveau das sie seit release der grafikkarten schon hatten. Vereinzelte spiele gewinnen dazu, ja. Mehr aber auch nicht. Bei release sehen wir schon das wahre potenzial der karten

Gast
2009-09-23, 15:59:56
Erste Listings:
http://geizhals.at/eu/?cat=gra16_512&asuch=radeon%20hd58

ShadowXX
2009-09-23, 16:02:57
Sind nicht nur Bugfixes. Es gibt Effizienzsteigerungen, die nur bei bestimmten Engines höhere Ergebnisse bringen. Oder Effizienzsteigerungen, die nur im CF-Verbund wirken etc.

Ich denke schon, daß 10% mehr Leistung bei grafikkartenlimitierten Szenarien drinne sind.
Nur das 10% bei den Games wo es wichtig ist eben nur 2, 3 oder vielleicht 4 FPS mehr bedeuten.
Und das ist dann immer noch zu wenig.

Gast
2009-09-23, 16:05:33
Dann hätte ich es wohl besser klarmachen sollen. Es gibt ja genug test in diesem review in denen sich 5870 nicht mal von der gtx 285 unter superhohen auflösungen absetzen kann. Und die 295 teilweise 20 fps schneller ist, nur halt in diesem fall nicht.

Ich bin irgendwie massiv enttäuscht von der karte, hatte mich schon damit angefreundet mir wieder mal eine ati zukaufen, aber das ist weder fisch noch fleisch.

Vorallem wen ich mir die technischen daten anschaue. Sie hat fast die 3-fache rechenpower einer gtx285 und es kommt sowenig leistung am Bildschirm an. Und richtig angepisst bin ich davon das sie immer noch gammelaf anbieten und mir als user immer noch keine volle kontrolle über die bq geben.


Ich bin von ati und ihren profilen abhängig was sie als ausreichende Bildqualität definieren

Kann denn das "Gammel AF" nicht noch geändert werden ? Neue Treiber ? oder ist Hardwaremäßig das Flimmern nicht wegzubekommen ?

Grüße

Gast
2009-09-23, 16:24:09
Was ist an AMDs Spannungswandlern denn falsch?Teils zu knapp dimensioniert/gekühlt.

mictasm
2009-09-23, 16:30:02
An die High-Quality-Einstellung einer Nvidia-GPU kommt die Radeon HD 5870 leider immer noch nicht heran.

Schade, ansonsten doch ordentliche Karten. Ich lese hier teilweise eine gewisse Enttäuschung heraus, was genau fehlt euch denn?

Tarkin
2009-09-23, 16:30:44
Weil es sonst CPU limitiert ist. Das gleiche Problem wird NV auch haben. Das hat nichts mit Rosinenpickerei zu tun.

*doppeltunterstreichundunterschreib*

Ebensogut könnte man die Ergebnisse rauspicken bei denen die 5870 DOPPELT so schnell wie eine 285er GTX ist.. die gibts nämlich auch.

http://www.hardware.fr/medias/photos_news/00/26/IMG0026860.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026855.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026873.gif

(durchschnitt)
http://www.hardware.fr/medias/photos_news/00/26/IMG0026922.gif

http://images.hardwarecanucks.com/image//skymtl/GPU/HD5870/HD5870-85.jpg

Armaq
2009-09-23, 16:31:10
Schade, ansonsten doch ordentliche Karten. Ich lese hier teilweise eine gewisse Enttäuschung heraus, was genau fehlt euch denn?
Mehrperformance zur GTX 285/275. Ehrlich.

Ansonsten ne schöne Karte. Die 5850 werde ich einem Freund empfehlen.



Edit: Der HAWX Benchmark sieht so aus, als ob man ihn für Tests gebrauchen könnte. Da scheint die 5870 echt gut zu sein und der Vorteil ist bei spielbaren Frameraten zustande gekommen.

desert
2009-09-23, 16:33:14
*doppeltunterstreichundunterschreib*

Ebensogut könnte man die Ergebnisse rauspicken bei denen die 5870 DOPPELT so schnell wie eine 285er GTX ist.. die gibts nämlich auch.

http://www.hardware.fr/medias/photos_news/00/26/IMG0026860.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026855.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026873.gif

(durchschnitt)
http://www.hardware.fr/medias/photos_news/00/26/IMG0026922.gif

http://images.hardwarecanucks.com/image//skymtl/GPU/HD5870/HD5870-85.jpg


AF gibt es bei ati nicht mehr oder wieso ist es nur ein 8aa bench?. Aber steht ja für BQ das 8aa, af braucht man nicht mehr.

Gast
2009-09-23, 16:33:22
Ich habe jetzt ein paar Seiten durchgelesen aber habe den entscheidenden Post nicht gefunden:
Im Anandtech review heißt es, dass die Radeon 5k ein perfektes, winkelunabhängiges AF bietet aber jeder zweite schreibt hier "enttäuschung! Weiterhin Gammel-AF!" - Kann das mal bitte jemand erklären?

cipoint
2009-09-23, 16:33:34
und die erten OC Versionen kommen auch schon daher...

http://www.hexus.net/content/item.php?item=20377

For those wanting to save a few pennies, ASUS' Voltage Tweak-packing Radeon HD 5850 can raise voltage from 1.088V to 1.4V. That'll increase GPU clock speed from 725MHz to 1,050MHz and memory clock speed from 4,000MHz to 5,200MHz.

*hust* :eek: Die Karte ist ein feuchter OC-Traum!

and we're told the Voltage Tweak'd Radeon HD 5870 provides a 38 per cent boost in 3DMark Vantage.

Radeon 5890 anyone? :tongue:

Wird wohl bald die ersten Mod-Biose geben wo das CCC OC Limit fällt. 1GHz dürften wohl nicht unrealistisch sein =)

Ist wohl dann auch relativ fix anzunehmen, dass der G300 Gegner HD5890 heißen wird.

Das ist doch nur MArketing-Gelabber von Asus. Wenn es aber stimmt, pack ich sofort eine Wakü auf den RV870 und seine Spannungswandler (wenn ich sie endlich mal habe ...) und dann kann der GT300 kommen. :D

dildo4u
2009-09-23, 16:33:56
*doppeltunterstreichundunterschreib*

Ebensogut könnte man die Ergebnisse rauspicken bei denen die 5870 DOPPELT so schnell wie eine 285er GTX ist.. die gibts nämlich auch.

http://www.hardware.fr/medias/photos_news/00/26/IMG0026860.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026855.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026873.gif

(durchschnitt)
http://www.hardware.fr/medias/photos_news/00/26/IMG0026922.gif

http://images.hardwarecanucks.com/image//skymtl/GPU/HD5870/HD5870-85.jpg
Kein AF.

http://www.abload.de/img/cefzigerunz3qvtd6.png

mictasm
2009-09-23, 16:35:08
Hab ich jetzt erst gesehen, gibts keine Version mit mehr als 1GB Speicher?

mapel110
2009-09-23, 16:35:34
Hab ich jetzt erst gesehen, gibts keine Version mit mehr als 1GB Speicher?
Nein, offenbar noch nicht.

dildo4u
2009-09-23, 16:35:50
Hab ich jetzt erst gesehen, gibts keine Version mit mehr als 1GB Speicher?
Kommt später das ist auch die,die 6 TFT's unterstützt.

Gast
2009-09-23, 16:36:57
Kein AF.

http://www.abload.de/img/cefzigerunz3qvtd6.png

Und AF drosselt die karte auf fast die hälfte?:-D

die tests bei cb haben doch gezeigt das der AF verlusst +- ein paar % der selbe ist wie bei der konkurrenz

Iceman346
2009-09-23, 16:37:16
Ich habe jetzt ein paar Seiten durchgelesen aber habe den entscheidenden Post nicht gefunden:
Im Anandtech review heißt es, dass die Radeon 5k ein perfektes, winkelunabhängiges AF bietet aber jeder zweite schreibt hier "enttäuschung! Weiterhin Gammel-AF!" - Kann das mal bitte jemand erklären?

Das AF ist zwar perfekt winkelunabhängig aber soll wohl immer noch stärker flimmern als Nvidia HQ. Aber insgesamt trotzdem besser sein als das AF der 48XX Reihe.

ShadowXX
2009-09-23, 16:38:10
*doppeltunterstreichundunterschreib*

Ebensogut könnte man die Ergebnisse rauspicken bei denen die 5870 DOPPELT so schnell wie eine 285er GTX ist.. die gibts nämlich auch.

http://www.hardware.fr/medias/photos_news/00/26/IMG0026860.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026855.gif

http://www.hardware.fr/medias/photos_news/00/26/IMG0026873.gif

(durchschnitt)
http://www.hardware.fr/medias/photos_news/00/26/IMG0026922.gif

http://images.hardwarecanucks.com/image//skymtl/GPU/HD5870/HD5870-85.jpg


Edit: Der HAWX Benchmark sieht so aus, als ob man ihn für Tests gebrauchen könnte. Da scheint die 5870 echt gut zu sein und der Vorteil ist bei spielbaren Frameraten zustande gekommen.
Na dann schalt mal bei HAWX das AF mit ein, dann gehen die Frames bei ATI aber sowas in den Keller das sogar ne GTX 275 schneller ist als die 5870.....

Und AF drosselt die karte auf fast die hälfte?:-D

die tests bei cb haben doch gezeigt das der AF verlusst +- ein paar % der selbe ist wie bei der konkurrenz
Bei HAWX aber eben nicht, deshalb ist das Ding zum vergleich sinnlos.


Ich habe jetzt ein paar Seiten durchgelesen aber habe den entscheidenden Post nicht gefunden:
Im Anandtech review heißt es, dass die Radeon 5k ein perfektes, winkelunabhängiges AF bietet aber jeder zweite schreibt hier "enttäuschung! Weiterhin Gammel-AF!" - Kann das mal bitte jemand erklären?
Weil ATI immer noch unterfiltert....das war der (Haupt)Kritikpunkt am AF, nicht das es nicht 100% WInkelunabhängig ist.

Auf deutsch: es flimmert immer noch, wenn auch nicht mehr ganz so stark wie bei den 4er Karten.

LovesuckZ
2009-09-23, 16:38:42
Und AF drosselt die karte auf fast die hälfte?:-D

die tests bei cb haben doch gezeigt das der AF verlusst +- ein paar % der selbe ist wie bei der konkurrenz

Nein. (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_die_qualitaet_filters/11/#abschnitt_hawx)

cipoint
2009-09-23, 16:38:49
In Kombination mit ATIs Spannungswandlerpolitik könnte es bei dem einen oder anderen zu einem hübschen Feuerchen kommen.:biggrin:

Das Referenzdesign bietet Platz für fünf Spannungswandler, nur vier sind davon besetzt. Vielleicht kommt ja die Asus-OC-Karte mit fünf daher?

derguru
2009-09-23, 16:40:16
ja und dann hat es halt kein af,das gilt ja auch für die 285gtx.so ein quatsch,es kann nur ein bug sein anders ist die performance gar nicht erklärbar bei der 5870 da die karte ein gutes stück mehr füllrate hat.

desert
2009-09-23, 16:44:28
ja und dann hat es halt kein af,das gilt ja auch für die 285gtx.so ein quatsch,es kann nur ein bug sein anders ist die performance gar nicht erklärbar bei der 5870 da die karte ein gutes stück mehr füllrate hat.

hmm betrifft ja nicht nur die 5870, sondern alle ati karten, Sie verlieren einfach massig leistung wenn af bei hawx dazugeschaltet wird.

Ist es ein bug wenn es alle karten gleichmässig betrifft?

Tarkin
2009-09-23, 16:48:35
Schade, ansonsten doch ordentliche Karten. Ich lese hier teilweise eine gewisse Enttäuschung heraus, was genau fehlt euch denn?

Manche leben eben im nvidia PLEM-PLEM Land... sorry, aber es ist so!

Wenn mal bei ein paar Games nicht min. 80% an Leistungszuwachs rauskommt, wird gleich herumgeheult, dass sich ganze Seen bilden... was soll das? Ihr müsst die Karte nicht kaufen ... zum kotzen ist das!

derguru
2009-09-23, 16:49:27
hmm betrifft ja nicht nur die 5870, sondern alle ati karten, Sie verlieren einfach massig leistung wenn af bei hawx dazugeschaltet wird.

Ist es ein bug wenn es alle karten gleichmässig betrifft?

warum nicht?ist doch wohl lächerlich das eine 275gtx mit aa und af schneller ist als eine 5870.(in cb z.b.)
aber bitte wenn du das nachvollziehen kannst.