PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13

reunion
2009-09-30, 13:57:59
Wir haben von AMD übrigens zwei HD-5850-Muster (für Crossfire-Tests) bekommen. Beide verhalten sich auf 0,1 Sone identisch: 21 Prozent Lüfterdrehzahl im Leerlauf und 30 unter Spielelast. Die Drehzahl hat echt enorme Auswirkungen auf die Lautheit, IIRC hat das Teil mit 100 Prozent weit über 15 Sone rausgeblasen ...

MfG,
Raff

Reserven sind nie ein Nachteil. Solange es in Spielen nicht lauter wird...

PCGH_Raffael
2009-09-30, 14:27:14
Von einem Nachteil hat auch niemand gesprochen. :) Ich wollte mit dieser Anmerkung nur bekräftigen, dass der vermeintlich geringe Drehzahl-Zuwachs alleinig schuld ist. Nach 5.000 Sekunden im Furmark (83 Minuten :D) ergaben sich übrigens die Werte 4,9 Sone und maximal 83 Grad Celsius. Heißer geht nicht. Die HD 5870 dreht ab 85 Grad noch weiter auf und gipfelt bei 6,4 Sone.

MfG,
Raff

Hübie
2009-09-30, 14:30:21
Was erwartet ihr eigentlich davon, wenn ein Phenom II zum Einsatz kommt? Stets dieselben Fps-Werte, weil die CPU deutlich schneller limitiert als z. B. unser i7-920 @ 3,5 GHz? Genau das tritt nämlich ein. Gerade Crossfire-Tests auf einem unübertakteten Phenom II sind völlig witzlos, sofern man nicht die Supersample-Keule schwingt.

MfG,
Raff

Naja aber überleg doch mal wieviele hier draussen einen PII haben. Und so fast garkeiner lässt den @stock laufen.
Deshalb spiegelt das eben auch Werte wieder, die ich z.B. zuhause nachempfinden kann.
Sonst muss ich dich fragen: Lohnt ein wechsel für mich oder nicht :freak::confused:
Soll ich mir nun eine neue Graka+Intel System zulegen oder was bedeutet die Aussage?

bye Hübie
ps: System siehe Button :tongue:

y33H@
2009-09-30, 15:07:42
Sonst muss ich dich fragen: Lohnt ein wechsel für mich oder nichtZockst du CPU-lastige Titel in 1.280 ohne AA oder eher GPU-lastige in 1.680/1.920 mit 4x AA? Ist letzteres der Fall, reißt der i7 nicht sooo viel.

Henroldus
2009-09-30, 15:16:52
Test: ATi Radeon HD 5850 (CrossFire) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/)
Nun hat auch CB nen Test rausgebracht

mapel110
2009-09-30, 15:24:03
Test: ATi Radeon HD 5850 (CrossFire) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/)
Nun hat auch CB nen Test rausgebracht
Ca. 5 % schneller als im Preview zuvor. Also nicht gerade gut simmuliert. ^^

reunion
2009-09-30, 15:39:26
XFX 5870 um nur 324,58 € bei Hardwareversand:
http://www3.hardwareversand.de/_/articledetail.jsp?aid=28599&agid=1004&ref=13

Schlammsau
2009-09-30, 15:43:12
Also ich finde die 5850 Super....ist gekauft! :)

Die Leistung, die Leistungsaufnahme und die Lastlautstärke sind einfach nur ein Traum bei diesem Preis!

mapel110
2009-09-30, 15:50:20
Also bei 1680x1050 mit 4xAA hat man ausgehend von Radeon 4870 gerade mal 38% mehr Performance. Und bei 1920x1200 mit 4xAA sind es 34%.
Mir wäre das viel zu wenig.

Iceman346
2009-09-30, 15:50:40
XFX 5870 um nur 324,58 € bei Hardwareversand:
http://www3.hardwareversand.de/_/articledetail.jsp?aid=28599&agid=1004&ref=13

Ordentlicher Preis und der Dirt2 Gutschein ist da auch drin. Ich hab sie mal bestellt, mal schauen ob ich eine abkriege.

reunion
2009-09-30, 15:52:52
Ist schon ausverkauft. :)

Iceman346
2009-09-30, 15:53:48
Als ich bestellen gedrückt hab war die Anzeige noch auf "Auf Lager", also mal abwarten ;)

dildo4u
2009-09-30, 15:54:56
Also bei 1680x1050 mit 4xAA hat man ausgehend von Radeon 4870 gerade mal 38% mehr Performance. Und bei 1920x1200 mit 4xAA sind es 34%.
Mir wäre das viel zu wenig.
Jup ab 180€ wirds interresant,wenn man eine 4850 hat wie ich.Die Leistungsaufnahme der 5850 gefällt mir sher gut.

Psychopat
2009-09-30, 16:53:51
Interessant am 5850 Test von PCGH: Der Overclockingteil.
Hier wurde die 5850 mit gleichem Speichertakt wie die 5870 betrieben. Trotz der geringeren Shaderleistung ist die 5850 damit praktisch gleichschnell wie die 5870. Leider wurde nur ein Spiel getestet, aber ein erster Hinweis darauf das die 5870 deutlich an der Speicherbandbreite hängt.

http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=4

y33H@
2009-09-30, 16:57:05
Ca. 5 % schneller als im Preview zuvor. Also nicht gerade gut simmuliert.Tja, Wolle hat die ROPs vergessen ;)

reunion
2009-09-30, 17:00:54
Er hat das Setup vergessen. Es liegt IMO weder an den ROPs, noch am Speichertakt. Wenn man sich einige Benchs ansieht kommt man zwangsläufig zum Schluss dass das entscheidende der Chiptakt ist. Die zwei deaktivierten Cluster auf der 5850 sind fast irrelevant. Die simulierte 5850 hat natürlich deutlich weniger Chiptakt da man die Cluster nicht deaktivieren konnte.

Superheld
2009-09-30, 17:03:02
Interessant am 5850 Test von PCGH: Der Overclockingteil.
Hier wurde die 5850 mit gleichem Speichertakt wie die 5870 betrieben. Trotz der geringeren Shaderleistung ist die 5850 damit praktisch gleichschnell wie die 5870. Leider wurde nur ein Spiel getestet, aber ein erster Hinweis darauf das die 5870 deutlich an der Speicherbandbreite hängt.

http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=4

und mit mehr Chiptakt :)

Gast
2009-09-30, 17:21:14
Jede Wette, daß bei der 5870 noch nicht die wahre Performance "freigegeben" wurde. Bandbreitenlimit macht imo keinen Sinn, da sich die 5870 selbst unter 1280x1024 nicht von einer OC-5850 absetzen kann.

RoNsOn Xs
2009-09-30, 17:34:15
paar seiten zuvor wurde doch schon ein link präsentiert, dass selbst die 5870 prozentual mehr zulegt, wenn der chip übertaktet wird, statt dem speicher.
einzig batman war eine ausnahme.

Gast
2009-09-30, 17:37:19
eben :)

Der_Korken
2009-09-30, 17:53:46
Er hat das Setup vergessen. Es liegt IMO weder an den ROPs, noch am Speichertakt. Wenn man sich einige Benchs ansieht kommt man zwangsläufig zum Schluss dass das entscheidende der Chiptakt ist.

Definitiv. Der Bench von PCGH untermauert das nochmals.

Wie haben es eigentlich die Tester von techpowerup geschafft, die SIMDs zu deaktivieren? Ich finde da keine Hinweise zu. Wenn das ganz einfach per Software geht, dann könnte man ohne großen Aufwand ja einen "SIMD-Skalierungstest" machen, um mal zu sehen, ob auch bei 16 SIMDs (oder noch weniger) die Leistung kaum einbricht.

HarryHirsch
2009-09-30, 17:55:49
übers bios oder?

CompuJoe
2009-09-30, 18:48:29
So, meine Karte ist auf dem Weg, Alternate hat 16:45 verschickt, ist auf dem weg zu meinem Zustell-Paketzentrum.
Dürfte Morgen da sein.

Edit: Habe heute früh gegen 7:30 Uhr bestellt.

Iceman346
2009-09-30, 19:06:51
Ich befürchte ich hab beim Hardwareversand keine mehr abbekommen, zumindestens tut sich nix. In meiner Bestellbestätigung steht aber noch "Auf Lager" drin. Na jo, mal abwarten.

Gast
2009-09-30, 19:24:54
Findet ihr, dass ein Ahtlon II X4 620 (vielleicht leicht übertaktet auf max. 3 GHZ) zu einer 5850 passt oder ist der zu schwach und man sollte besser zu einem Phenom II 945 3 GHZ greifen?

Schlammsau
2009-09-30, 19:27:02
Findet ihr, dass ein Ahtlon II X4 620 (vielleicht leicht übertaktet auf max. 3 GHZ) zu einer 5850 passt oder ist der zu schwach und man sollte besser zu einem Phenom II 945 3 GHZ greifen?
Ich würde zu einem Phenom II greifen!

Der_Korken
2009-09-30, 19:32:33
Findet ihr, dass ein Ahtlon II X4 620 (vielleicht leicht übertaktet auf max. 3 GHZ) zu einer 5850 passt oder ist der zu schwach und man sollte besser zu einem Phenom II 945 3 GHZ greifen?

Das sind immer schwierige Fragen. Ich persönlich würde eher zur größeren CPU greifen, denn sonst ärgerst du dich im Nachhinein, wenn die schwache CPU die teure Graka ausbremst. Gerade der fehlende L3-Cache kann sich in Spielen sehr negativ bemerkbar machen.

w0mbat
2009-09-30, 19:42:04
Findet ihr, dass ein Ahtlon II X4 620 (vielleicht leicht übertaktet auf max. 3 GHZ) zu einer 5850 passt oder ist der zu schwach und man sollte besser zu einem Phenom II 945 3 GHZ greifen?

Gerade der L3-Cache mach viel aus in Spielen.

Cpl. Dwayne Hicks
2009-10-01, 01:32:32
Yep, lieber einen Phenom II... auf jeden Fall.

CompuJoe
2009-10-01, 11:19:02
Post ist da ^^

reunion
2009-10-01, 11:20:38
Post ist da ^^

Na dann schildere doch mal ein bisschen: :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=465936

CompuJoe
2009-10-01, 11:30:18
Nur blöde das ich gleich auf Arbeit muss und erst 21 Uhr testen kann wie sie läuft.
Mal sehen wie es bei Herr der Ringe Online ausschaut, @ DX10 habch meine 4870 in die Knie gezwungen xD

Und Herr der Ringe Online bekommt kommendes Jahr nen DX11 Update, einfach Geil.

Jetzt habe ich hier 3 x 24 Zoll @ 1920x1200 und kann sie trotzdem nicht mit Eyefinity nutzen.

Hübie
2009-10-01, 13:08:26
Zockst du CPU-lastige Titel in 1.280 ohne AA oder eher GPU-lastige in 1.680/1.920 mit 4x AA? Ist letzteres der Fall, reißt der i7 nicht sooo viel.

Also ich zocke alles ausser Sport- und Rennspiele. Native Auflösung ist 1680x1050. 4xAA und AF auf max sind in jedem Spiel das Ziel um flüssig zocken zu können.
Die Differenz vom 3.5Ghz PII zum 3.5Ghz i7 interessiert mich brennend. Leider habe ich aber kein Gelddrucker daheim :freak:

y33H@
2009-10-01, 13:11:28
Die Differenz vom 3.5Ghz PII zum 3.5Ghz i7 interessiert mich brennend. Im CPU-Limit ist ein i7 bis zu 50% flotter, meist "nur" 10-30%. Im GPU-Limit sind beide gleich schnell, in Anno 1404 und FC2 knickt der i7 aus einem unbekannten Grund ein, der PII liegt vorne (aber hinter dem C2Q 12M).

S940
2009-10-01, 13:34:03
Im CPU-Limit ist ein i7 bis zu 50% flotter, meist "nur" 10-30%. Im GPU-Limit sind beide gleich schnell, in Anno 1404 und FC2 knickt der i7 aus einem unbekannten Grund ein, der PII liegt vorne (aber hinter dem C2Q 12M).
Was ist mit den schwed. HAWX Ergebnissen mit der 5870 ? Hast Du dafür eine Erklärung (Settings, Testmethode)? Oder ist das Spiel No. 3 auf der "Kuriositätenliste" ?

Danke

Alex

y33H@
2009-10-01, 13:36:24
kA, was die Schweden treiben - Link? Wie man bei PureOC (http://www.pureoverclock.com/review.php?id=794&page=9) sieht, sind i7 und PII im GPU-Limit (im Rahmen der Messungenauigkeit) exakt gleich schnell. Alles andere wäre auch "kurios".

S940
2009-10-01, 13:39:10
kA, was die Schweden treiben - Link? Wie man bei PureOC (http://www.pureoverclock.com/review.php?id=794&page=9) sieht, sind i7 und PII im GPU-Limit (im Rahmen der Messungenauigkeit) exakt gleich schnell. Alles andere wäre auch "kurios".
Sorry, dachte Du hättest den schon gesehen, war schon auf der letzten Seite, egal hier nochmal:
http://mikrodatorn.idg.se/2.1030/1.253738/sa-bra-ar-radeon-hd-5870---vart-test-ger-dig-svaret

Da bleiben wohl als 2 Möglichkeiten
a) Mülltest,
b) AMD + 5870 Optimierungen. (fällt weg siehe unten)
neues b:
b) Mysterium ^^

Edit:
Hmm die Schweden testen aber ja auch Nvidias mit, die die gleichen Unterschiede zeigt .. komisch. Am 4xAA wird es ja wohl auch kaum liegen, pureoverclock nimmt 8xAA.

Edit2:
Hauptunterschied ist auf den ersten Blick das OS, die Schweden haben da Win7, sollte aber ja eher dem i7 helfen ... bleibt mysteriös ...

Thx

Alex

y33H@
2009-10-01, 13:45:44
a)

Die nutzen auch den internen Test - und ich habe noch keinen Test gesehen, bei dem so was raus kam. Die restlichen Werte passen ja ... u.a. auch FC2, das leidet nicht am "Nehalem-Bug" ;D Das müsste man eigentlich gleich mal den Fanboys im Luxx drücken ...

S940
2009-10-01, 13:50:55
a)

Die nutzen auch den internen Test - u
Die anderen doch auch:
Our suite runs the gamut of synthetics and in-game tests,
http://www.pureoverclock.com/review.php?id=794&page=3

Oder gibts mehrere In Game Tests ?

Edit/FC2:
Naja der i7 ist doch (wie üblich) mit single Karten 3-5 fps langsamer. Nur mit der 295 ist der i7 schneller, das ist aber nichts Neues, mit CF/SLI verschwindet der Bug ja. Wieso auch immer ...

ciao

Alex

Hübie
2009-10-01, 13:51:07
Also kann ich in der Praxis sagen, dass ich keinen i5/i7/i9 brauche um das Potenzial zu entfalten, da die meisten Spiele eh nicht sauber geschrieben sind von den Möglichkeiten mehrerer Kerne nicht profitiert.
Was versteh ich denn unter Nehalem-Bug? Den Preis meinste sicher nicht ;D

y33H@
2009-10-01, 14:00:40
@ S940

Deswegen ja. Alle nutzen "Ranch Small" und nur bei den Schweden kommt in HAWX so ein Schrott bei rum.Naja der i7 ist doch (wie üblich) mit single Karten 3-5 fps langsamer. Oha, die GTX285 - voll übersehen. Heftig.

dass ich keinen i5/i7/i9 brauche um das Potenzial zu entfaltenNein, die bessere Pro/MHz-Leistung hast du (meist) auch bei Titeln, die nur mit 1 oder 2 Kernen laufen. Etwa bei Dawn of War II oder SupCom.

Hübie
2009-10-01, 14:05:11
Dann frage ich mich warum jeder auf den i5/i7 setzt?
Wie gesagt haben doch auch sehr viele einen PII. Ich Dussel habe auch noch (preisbewusst wie ich bin) auf einen 3-Kerner gesetzt, was den Programmierern ja nun völlig fremd ist.
Ich Dummerchen:redface:

bye Hübie

w0mbat
2009-10-01, 14:08:22
Dann frage ich mich warum jeder auf den i5/i7 setzt?
Wie gesagt haben doch auch sehr viele einen PII. Ich Dussel habe auch noch (preisbewusst wie ich bin) auf einen 3-Kerner gesetzt, was den Programmierern ja nun völlig fremd ist.
Ich Dummerchen:redface:

bye Hübie

Ne, ein Triple-Core ist eine gute Wahl da die ganzen XBOX Spiele auf 3 Kerne optimiert sind und die paar Spiele die von einem 4. profitieren sind nicht wirklich relevant.

y33H@
2009-10-01, 14:10:18
Dann frage ich mich warum jeder auf den i5/i7 setzt?Weils nichts schnelleres gibt, ganz einfach.

Hübie
2009-10-01, 14:30:16
Ja aber das ist kein wirklicher Grund. Der Audi A6 wird auch nicht ausschließlich mit der größten Maschine getestet.
Bei aller Ehre aller Reviewschreiber muss ich das echt einfach bemängeln. Mich interessiert natürlich auch die maximal mögliche Leistung aber primär (und da spreche ich doch für sehr viele) interessiert mich ob ein reiner Grafikkartenwechsel ausreicht oder nicht.
Denn sonst sagt der Warenkorb 650€ statt 320€. Und das ist nicht wenig in der Differenz!
Du verstehst worauf ich hinaus möchte?
Immer wieder ist es an den Erstbesitzern solcher Karten gescheite Ergebnisse zu liefern. Aber nun gut Presse ist gleich Masse...

S940
2009-10-01, 14:47:42
@ S940

Deswegen ja. Alle nutzen "Ranch Small" und nur bei den Schweden kommt in HAWX so ein Schrott bei rum.
Ok, wenns noch mehr Tests gibt, dann sinds die Schweden ^^
Aber kennst Du denn noch andere Tests ? Sooo riesig scheint der Unterschied auf alle Fälle nicht zu sein, selbst bei pureoc ist der i7 bei 1280 nur 2 fps schneller als der Phenom2 jeweils @standard.

Unterschiede die mir noch auffielen:
Die Schweden haben einen i7 940 mit DDR3-1333
PureOC einen i7 920 mit DDR3-1600.

Solange es keine ~5 anderen Tests mit ähnlichen Ergebnissen gibt, kann man darüber spekulieren, ob HAWX vielleicht ein Spiel mit starker Cache Nutzung ist. Mit DDR3-1600 haben wir ja wieder 3,2 GHz L3 Takt beim i7 920er.

Aber dass der i7 940 trotzdem so weit zurückliegt ... komisch. Gibts im Bench Nachladevorgänge ? Der AMD hatte anscheinend noch ne SSD, beim i7 Sys steht da nichts, aber das sollte normalerweise ja nichts machen :freak:

ciao

Alex

y33H@
2009-10-01, 15:07:16
Du verstehst worauf ich hinaus möchte?Die Intension ist mir klar. Wie bei CPU-Tests ists bei Grafikkarten-Tests aber eben so, dass man nur die jeweilige Komponente testet - ergo eine Limitierung zu vermeiden versucht.

PCGH etwa bringt des Öfteren CPU-VGA-Skalierungsbenchmarks (gerade print). Da sieht man, was die CPU ausmachen kann. So Tests sind leider ziemlich selten, im Netz etwa kenne ich (abseits von gelegentlich CB und öfters mal PCGH) kaum welche.

@ S940

http://www.abload.de/thumb/_hawx_cpus_1680_dx10_1n23o.png (http://www.abload.de/image.php?img=_hawx_cpus_1680_dx10_1n23o.png)

Hübie
2009-10-01, 15:30:06
Wahrscheinlich weil sich der Kosten-/Nutzenfaktor nicht rentiert. So ein Review ist aufwendig zu produzieren und braucht Zeit. Zeit ist gleich Geld. Daher wohl oft als gedruckte Variante.
Naja wir alle müssen von was leben. Trotzdem würde ich mich freuen wenn sich mal einer (vertrauenswürdigerweise) erbarmt und die neue 5800er-Reihe auf einem PhenomII mit gleichen Settings wie auf dem i7 laufen lässt.

bye Hübie

S940
2009-10-01, 15:46:22
@ S940

http://www.abload.de/thumb/_hawx_cpus_1680_dx10_1n23o.png (http://www.abload.de/image.php?img=_hawx_cpus_1680_dx10_1n23o.png)
Danke, aber das hatte ich schon gefunden, das gibts auch online:
http://www.pcgameshardware.de/aid,678724/15-CPUs-im-Test-mit-Tom-Clancys-HAWX/Action-Spiel/Test/

Aber da ist nur ein X4 940 mit DDR2 drin. Ein 955 mit je 200 MHz mehr Kern und L3 Takt sowie DDR3 könnte die paar Frames auf den i7 940 aufholen, zumindest falls die Annahme der Bandbreitenlimitierung stimmt.

Aber gut selbst wenn, dann wären das ein paar 5-10 Frames und keine 50... soooviel sollte der Phenom2 vom schwedischen auf Euren Test dann auch wieder nicht einbrechen ...

Lassen wirs mal, und buchen es unter Win7 Bug/Feature.

ciao

Alex

SGT.Hawk
2009-10-01, 16:32:18
Es gab doch mal die Theorie, daß der i7 bei hohen Auflösungen stark einbricht gegenüber dem Phenom? Wie sieht jetzt die Lage aus?

y33H@
2009-10-01, 16:46:32
Nach wie vor Unfug, sieht man von FC2 und Anno 1404 ab.

Spasstiger
2009-10-01, 18:44:07
Wieviel L2-Cache hat denn der Cypress insgesamt? 512 KiB? /EDIT: Ok, hab jetzt mehrfach von den 512 KiB gelesen, wird schon stimmen.

Gast
2009-10-01, 21:10:17
wenn es einen interessiert es gibt jetzt ein Tool von MSI um die Karten anständig zu ocen, zumindest die XFX laufen unter Luft 1000/13000 und skalieren mit einem i7 ~4.4 gig wie die Hölle.

http://www.hardwareluxx.de/community/showthread.php?t=646005&page=64
http://www.hardwareluxx.de/community/showthread.php?t=648128&page=6

Gast
2009-10-01, 22:07:01
Sind denn schon HD5850 mit alternativem Kühler in Sicht?

Azubi
2009-10-01, 22:30:59
Sind denn schon HD5850 mit alternativem Kühler in Sicht?

Ja, sind sie. :smile:

von der sapphire homepage

SAPPHIRE plant, weitere Special Editions dieser Grafikkarten Serie mit verbesserten Kühlsystemen und verschiedenen Speicher-Variationen in den folgenden Wochen vorzustellen.

Gast
2009-10-02, 00:55:33
http://www.iamxtreme.net/andre/E762-Test/3.JPG
http://www.xtremesystems.org/forums/showthread.php?t=235767
Vantage Performance:
39426 :up:

Noebbie
2009-10-02, 01:31:51
Irgendwie dachte ich gerade: "Wie sollen die Lüfter da noch Luft ziehen" ... und da habe ich mich plötzlich an die seltsamen Lufteinlässe am hinteren Ende der Karte erinnert.

Ziehen die dann Luft an? Geht das überhaupt?

anddill
2009-10-02, 01:56:10
Irgendwo hatte einer ein Bild des zerlegten Kühlers gepostet, da konnte man erkennen, daß die Ansaugstutzen mit flachen Kanälen mit der Unterseite des Lüfters verbunden sind. So ähnlich wie bei den NV-Karten, wo der Lüfter Luft durch sichelförmige Schlitze im PCB ziehen kann. Hier strömt die Luft zwischen Kühlkörper und PCB von unten zum Lüfter.

edit: Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7554277#post7554277). Die falschen Schlußfolgerungen daraus bitte ignorieren.

Gast
2009-10-02, 02:11:55
Nebenbei, hier das "Über-Brett" :up:
http://www.evga.com/products/moreinfo.asp?pn=170-BL-E762-A1

Hübie
2009-10-02, 09:58:12
Scheiß hier. Bin im KH und kann den link nicht öffnen. Der DNS blockiert. Poste hier mal bitte ein Bild :)

AnarchX
2009-10-02, 10:04:21
Bit-Tech mit allerhand synthetischen Benchmarks:
ATI Radeon HD 5870 Architecture Analysis (http://www.bit-tech.net/hardware/graphics/2009/09/30/ati-radeon-hd-5870-architecture-analysis/1)

Hier bricht Cypress bei 16xAF mal wieder ungewöhnlich stark ein:
http://img42.imageshack.us/img42/1899/texaf.png

reunion
2009-10-02, 10:09:08
Tja, steht ja auch im Text das die 5870 als einzige vollständig trilinear filtert und nicht bloß "bri". Das kostet natürlich erheblich Füllrate.

We've applied trilinear filtering in all cases here, but it's important to remember that only the Radeon HD 5870 is using 'true' trilinear filtering - the others are using a combination of bilinear and trilinear filtering to achieve better performance. As a result, the Radeon HD 5870 is doing more work, so it's understandable to see it fall behind slightly.

Hübie
2009-10-02, 10:10:03
Und erreicht trotzdem nicht das ...wieviel Jahre alte nVidia-Niveau? ;)

reunion
2009-10-02, 10:12:35
Und erreicht trotzdem nicht das ...wieviel Jahre alte nVidia-Niveau? ;)

Ja, wir beachten ja nur noch die Flimmerneigung und alles andere ist völlig gleichgültig. Wen stört schon eine Bugwelle? NV kann auch gerne wieder Point Samplen, Hauptsache es flimmert nicht. AMD sollte einfach das LoD standardmäßig auf +1 setzen, dann flimmert auch nichts mehr.

Hübie
2009-10-02, 10:16:55
Und wo setzt man das? :smile:

puntarenas
2009-10-02, 10:27:00
Tja, steht ja auch im Text das die 5870 als einzige vollständig trilinear filtert und nicht bloß "bri". Das kostet natürlich erheblich Füllrate.
Im Filtertester ja, aber für A.I. in Spielen würde ich meine Hand nicht ins Feuer legen:

In den von uns getesteten Spielen ist A.I. Standard gleichwertig zu Nvidias Standard (Qualität + Trilineare "Optimierung"), aber nicht besser. In Crysis (Warhead) gibt's definitiv noch Bri-Banding bei Ati – das haben wir in einem 4er-Splitscreen-Vergleich in einem Video festgehalten. Das gibt's aber nur auf unserer Heft-DVD der kommenden Ausgabe 11/2009.

Marodeur
2009-10-02, 10:33:33
Kann man den Filtertester nicht auch wie Spiele einfach mal umbenennen ob sich dadurch was ändert?

reunion
2009-10-02, 10:38:35
Im Filtertester ja, aber für A.I. in Spielen würde ich meine Hand nicht ins Feuer legen:

Nicht nur im Filtertester, auch die Füllratenmessungen von mehreren Seiten bestätigen das. Wenn PCGH angeblich was anderes nachweisen kann dann sollte man das auch öffentlich darlegen.

Gast
2009-10-02, 10:40:28
Irgendwie dachte ich gerade: "Wie sollen die Lüfter da noch Luft ziehen" ... und da habe ich mich plötzlich an die seltsamen Lufteinlässe am hinteren Ende der Karte erinnert.

Ziehen die dann Luft an? Geht das überhaupt?

Deshalb sind die Löcher bei der 5850 auch "zugebaut" weil da Luft angesaugt werden soll, klar, ne...

reunion
2009-10-02, 10:58:02
Und wo setzt man das? :smile:

Geht mit fast jeden Grafiktool. zB die TrayTools. Ob du damit glücklich wirst wage ich allerdings zu bezweifeln.

puntarenas
2009-10-02, 10:58:35
Wenn PCGH angeblich was anderes nachweisen kann dann sollte man das auch öffentlich darlegen.
Drei Dinge finde ich schade:

dass PCGH den AF-Teil des HD5870-Reviews so wachsweich formuliert hat und zum Bri-Banding dort garnichts schreibt
dass PCGH noch immer das sterbende Pferd Printmagazin reitet, sonst wären entsprechende Analysen und Artikel auch Online verfügbar :devil:
dass es keine Möglichkeit gibt, wenigstens einzelne Heftartikel/Beilagen Online zu erwerben, so wie Heise das beispielsweise anbietet


Wohlgemerkt, wir reden immer noch von einem Qualitätsniveau, das Nvidia Q entspricht, weder diesbezüglich noch in Sachen Bri-Banding habe ich Grund, an Raffs scharfem Blick und der Seriosität und Kompetenz der PCGH zu zweifeln. Allerdings hat AMDs Marketingabteilung ganze Arbeit geleistet, wachsweiche und sogar euphorische Artikel zusammen mit Jubelpersern in den Foren ergeben "A.I. done right".

Ich bin raus, das Thema hatten wir ja zu Genüge. :)

Gast
2009-10-02, 11:00:48
Hmmm... Da ich noch nie ne ATI Karte hatte aber mit dem Gedanken spiele mir die 5850 zuzulegen...

Wo um Himmels Willen kann ich das berühmte "Flimmern" sehen, gibts da Videos oder sonstwas zu wo das sichtbar ist?

Mag ned böse überrascht werden...

puntarenas
2009-10-02, 11:15:36
Wo um Himmels Willen kann ich das berühmte "Flimmern" sehen, gibts da Videos oder sonstwas zu wo das sichtbar ist?

Vielleicht sind auf der Heft-CD der PCGH 11/2009 nicht nur das Bri-Banding-Video, sondern auch noch Flimmervergleiche. Ansonsten hat HT4U Videos Online, aber nur vom 3DCenter Filter Tester (Coda :massa:), keine In-Game-Vergleiche: http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

ShadowXX
2009-10-02, 11:16:20
Tja, steht ja auch im Text das die 5870 als einzige vollständig trilinear filtert und nicht bloß "bri". Das kostet natürlich erheblich Füllrate.
Naja...um ordentlich zu testen was Trilineare Filterung so bei nV Kostet hätte man einfach auch noch einmal mit HQAF bei nV mitbenchen können.

Nicht nur im Filtertester, auch die Füllratenmessungen von mehreren Seiten bestätigen das. Wenn PCGH angeblich was anderes nachweisen kann dann sollte man das auch öffentlich darlegen.
Tun Sie doch (liess doch den gequoteten Test von "PCGH_Raffael")...leider nur im Heft.

Hmmm... Da ich noch nie ne ATI Karte hatte aber mit dem Gedanken spiele mir die 5850 zuzulegen...

Wo um Himmels Willen kann ich das berühmte "Flimmern" sehen, gibts da Videos oder sonstwas zu wo das sichtbar ist?

Mag ned böse überrascht werden...
Ja...hier: http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

Gast
2009-10-02, 11:35:36
Lieferbar für 317€ http://www4.hardwareversand.de/_/articledetail.jsp;jsessionid=y9rz6iktaq69?aid=28673&agid=1004&ref=13

ShadowXX
2009-10-02, 12:05:17
Lieferbar für 317€ http://www4.hardwareversand.de/_/articledetail.jsp;jsessionid=y9rz6iktaq69?aid=28673&agid=1004&ref=13
Die "Lieferbar"-Links bringen nichts. Die Shops bekommen momentan immer mal hier und da zufällig ne Karte, die dann nach 2-3 Minuten weg ist.

Ich hab jetzt mal direkt im B2B-Bereich (also über die Firma) bei Alternate bestellt und hoffe das Geschätskunden etwas bevorteilt gegenüber "normalen" Kunden behandelt werden....

Interessant dabei ist das im B2B-Bereich nur die Powercolor-Karten geführt werden und sonst keine (das Sortiment unterscheidet sich im B2B immer etwas vom normalen Bereich, aber so extrem das es heißt 1 gegen 6 Hersteller ist es selten).

Zatoichi
2009-10-02, 12:28:20
Jo, die Verfügbarkeit ist mehr als mau. So wie ich das sehe hat auch noch kein Shop eine 5850er bekommen. Mein Händler meinte, das laut dem Ansprechpartner vom Großhandel keine Ausreichende verfügbarkeit vor Mitte/Ende November gegeben ist. Das muß doch doof für ATI sein. Da wollen die Leute die Karten und sie können nicht liefern:freak:

Gast
2009-10-02, 13:38:01
besser als wenn man liefern kann und keiner will sie kaufen.
Knappe Verfügbarkeit fördert den Hype und kurbelt eher den Verkauf an als das er ihn verhindert.

Jake Dunn
2009-10-02, 13:41:10
Jo, die Verfügbarkeit ist mehr als mau. So wie ich das sehe hat auch noch kein Shop eine 5850er bekommen. Mein Händler meinte, das laut dem Ansprechpartner vom Großhandel keine Ausreichende verfügbarkeit vor Mitte/Ende November gegeben ist. Das muß doch doof für ATI sein. Da wollen die Leute die Karten und sie können nicht liefern:freak:

Die 70iger gibt es doch hier und da :) bei der 50iger ist es schon sehr schlecht ja.

ATI hat auch gesagt das die HD58xx Serie im verhältnis 1:4 kommen soll, also auf vier HD5870 kommt eine HD5850.

Gast
2009-10-02, 13:41:47
Die "Lieferbar"-Links bringen nichts. Die Shops bekommen momentan immer mal hier und da zufällig ne Karte, die dann nach 2-3 Minuten weg ist.

Ich hab jetzt mal direkt im B2B-Bereich (also über die Firma) bei Alternate bestellt und hoffe das Geschätskunden etwas bevorteilt gegenüber "normalen" Kunden behandelt werden....

Interessant dabei ist das im B2B-Bereich nur die Powercolor-Karten geführt werden und sonst keine (das Sortiment unterscheidet sich im B2B immer etwas vom normalen Bereich, aber so extrem das es heißt 1 gegen 6 Hersteller ist es selten).
hier noch 4 (vier) ;)
http://www.pcking.de/eshop.php?action=article_detail&s_supplier_aid=1402057&rid=geizhals
Wer sucht, der findet...

Gast
2009-10-02, 14:12:20
Knappe Verfügbarkeit fördert den Hype und kurbelt eher den Verkauf an als das er ihn verhindert.

Huh? Wenn ich nichts zum Verkaufen habe kurbelt das den Verkauf an?

Jo, überzeugende Logik, in der Tat.

LolekDeluxe
2009-10-02, 14:21:11
Sind denn schon HD5850 mit alternativem Kühler in Sicht?
Wozu die original Kühler sind doch Gut.:confused:

Gast
2009-10-02, 14:23:53
Naja, bissi laut sind sie schon, so ne Vapor-X Version wäre schick.

PCGH_BenchMarc
2009-10-02, 14:27:54
Vielleicht sind auf der Heft-CD der PCGH 11/2009 nicht nur das Bri-Banding-Video, sondern auch noch Flimmervergleiche.Es ist ein Vergleich auf der DVD, ja.Wenn PCGH angeblich was anderes nachweisen kann dann sollte man das auch öffentlich darlegen. Heft und so ;)Wo um Himmels Willen kann ich das berühmte "Flimmern" sehen, gibts da Videos oder sonstwas zu wo das sichtbar ist?*hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7305727&postcount=700)*

Hübie
2009-10-02, 14:44:54
Huh? Wenn ich nichts zum Verkaufen habe kurbelt das den Verkauf an?

Jo, überzeugende Logik, in der Tat.

Naja langfristig betrachtet hast du Recht, aber AMD liefert ja. Aber eben nur in kleinen Häppchen ;)

Gast
2009-10-02, 15:31:19
Erste Bilder und Benchmark der HD5750 aufgetaucht:

http://www.mymypc.com/vbp/forum/showthread.php?t=6903

Es handelt sich dabei um die Osterei-Edition.

Jake Dunn
2009-10-02, 16:36:27
Erste Bilder und Benchmark der HD5750 aufgetaucht:

http://www.mymypc.com/vbp/forum/showthread.php?t=6903

Es handelt sich dabei um die Osterei-Edition.

Der Kühler lol :freak:

Jetzt gibt es wohl fast überall ein Schwarzes PCB, die Leistung müßte um HD4850/9800GTX liegen imho :)

E: Sind ja mit gebencht worden ^^

AnarchX
2009-10-02, 16:53:50
Erste Bilder und Benchmark der HD5750 aufgetaucht:

http://www.mymypc.com/vbp/forum/showthread.php?t=6903

Es handelt sich dabei um die Osterei-Edition.
Hier wird darüber diskutiert: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7569495#post7569495

derguru
2009-10-02, 17:20:35
durch die geringe verfügbarkeit hauen die händler einiges drauf,
HIS 5870 379 lagernd (http://shop.vv-computer.de/shop/article/503138-PCIe-1024MB-HD5870-MSI-R5870-PM2D1G-aktiv%2CDP%2C2xDVI%2CHDMI) :ufinger:
Powercolor 5870 349 euro lagernd (http://www.mindfactory.de/product_info.php/info/p622652_1024MB-PowerColor-Radeon-HD5870-GDDR5-PCIe.html)
VTX3D Radeon HD 5870 359 Euro lagernd (http://www.csv.de/artinfo.php?artnr=A0620360)

Blaire
2009-10-02, 17:21:23
Jup können sie gerne behalten. Ich würde sowieso die 2GB Varianten abwarten die 1GB sind schon etwas knapp gerade bei SSAA Spielerein.

derguru
2009-10-02, 17:41:31
werde ich eh machen,2gb ist pflicht vorallem bei 2 karten.vielleicht gar nicht so schlecht das es noch was dauert.vielleicht gibt es bis dahin auch schon infos zur gt300 und ihrer spieleleistung,preisvorstellung +launchtermin.

Raff
2009-10-02, 17:54:29
Bis hinauf zu 1.920 x 1.200 sind 8 Samples pro Pixel gar kein Problem für eine 1G-Radeon. Mal von Ausnahmen wie Texturmods abgesehen. Es ist dem Speicher Wurstsalat, ob's nun acht Multi- oder acht supertolle Samples sind. Also ich für meinen Teil organisiere mir die Tage eine HD 5870/1G, da mein 30-Zöller noch auf sich warten lässt ...

MfG,
Raff

DrFreaK666
2009-10-02, 18:32:55
Bis hinauf zu 1.920 x 1.200 sind 8 Samples pro Pixel gar kein Problem für eine 1G-Radeon. Mal von Ausnahmen wie Texturmods abgesehen. Es ist dem Speicher Wurstsalat, ob's nun acht Multi- oder acht supertolle Samples sind. Also ich für meinen Teil organisiere mir die Tage eine HD 5870/1G, da mein 30-Zöller noch auf sich warten lässt ...

MfG,
Raff

Kannst mir ja auch einen organisieren :wink:

Jake Dunn
2009-10-02, 21:19:49
werde ich eh machen,2gb ist pflicht vorallem bei 2 karten.vielleicht gar nicht so schlecht das es noch was dauert.vielleicht gibt es bis dahin auch schon infos zur gt300 und ihrer spieleleistung,preisvorstellung +launchtermin.

Da stimm ich dir zu :)

Bis hinauf zu 1.920 x 1.200 sind 8 Samples pro Pixel gar kein Problem für eine 1G-Radeon.
MfG,
Raff

Das unterschreibe ich aber nicht ! ;)

Kannst mir ja auch einen organisieren :wink:

Lol, wer unbedingt ein Kärtchen brauch bekommt auch eine, mit etwas Glück sogar unter 300€ :D

|-Sh0r7y-|
2009-10-02, 21:56:30
Shattered Horizon das ich grade Spiele verbraucht allein für die Texturen (Hoch) schon 1GB... bei allem respekt aber sich jetzt noch eine 1GB Karte kaufen ist dumm meine ich!
GTA, HL Cinematic Mod und das was jetzt als nächstes kommt frisst Ram ohne Ende.
Ich will mit meiner nächsten Karte am besten auch gleich GTA 5 und Crysis 2 Spielen können möglichst mit Max. Settings und ich denke mit einer neuen Nvidia oder ATI mit 2GB Ram wird das klappen :-)
Otto Normalverbraucher kommt vielleicht mit 1GB aus aber wir bald nicht mehr.
Und wirklich gutes AA und sehr hohe Auflösung Kostet ohne ende Ram.

w0mbat
2009-10-02, 22:18:38
Shattered Horizon? Woher?!

mapel110
2009-10-02, 22:28:33
Shattered Horizon? Woher?!
Betatester. Aber das Game ist iirc eh ein reiner MP-Shooter. Für mich jetzt schon eine Totgeburt. Wohin hohe Systemanforderungen bei MP führt, sieht man immer wieder.

|-Sh0r7y-|
2009-10-02, 22:47:21
Betatester. Aber das Game ist iirc eh ein reiner MP-Shooter. Für mich jetzt schon eine Totgeburt. Wohin hohe Systemanforderungen bei MP führt, sieht man immer wieder.

Stimme ich dir zu, auf mein Rechner siehe Sig läuft es ohne aa mit max. 20 fps... und mit 8-15 damit es eine ordentliche Grafik bekommt.
Und selbst diese Grafik ist kein vergleich zum leistungsverbrauch... totgeburt trifft es ganz gut.

@w0mbat
Ja genau betatester

Tenobal
2009-10-02, 23:18:55
Ist eigentlich etwas näheres zu diesem Problem bekannt?

http://www.hardwareluxx.de/community/showthread.php?t=648935

Ich habe vor mir das Asus P7P55D mit entsprechender CPU und eine HD 5870 zuzulegen. Allerdings muss es wohl Probleme mit der Halterung und der Grafikkarte geben soll. Dieser verlängerte "Haltenase" der Grafikkarte soll wohl ein Einrasten in den Slot verhindern. Kann das jemand bestätigen?

xiao didi *
2009-10-02, 23:38:53
Ist eigentlich etwas näheres zu diesem Problem bekannt?

http://www.hardwareluxx.de/community/showthread.php?t=648935
Ui, da hat wohl eine der beiden Seiten geschlampt. ;(
Ich fürchte, da hilft nur auf neuere Revisionen zu warten.
:ulol:

http://www.abload.de/img/58xxfehler0055gq1ssfz.jpg (http://www.abload.de/image.php?img=58xxfehler0055gq1ssfz.jpg)

y33H@
2009-10-03, 00:37:10
Shattered Horizon das ich grade Spiele verbraucht allein für die Texturen (Hoch) schon 1GBRivatuner-Shot? =)

CompuJoe
2009-10-03, 01:00:04
Ui, da hat wohl eine der beiden Seiten geschlampt. ;(
Ich fürchte, da hilft nur auf neuere Revisionen zu warten.
:ulol:

http://www.abload.de/img/58xxfehler0055gq1ssfz.jpg (http://www.abload.de/image.php?img=58xxfehler0055gq1ssfz.jpg)

Meine HIS hat es nicht.

Gast
2009-10-03, 01:01:26
Naja, besser mit der Feile wegfeilen. Mit der Zange hätte ich Schiss dass es splittert...

mapel110
2009-10-03, 08:20:34
http://www.pcgameshardware.de/aid,696419/Ati-Radeon-HD-5850/5870-Crossfire-vs-Nvidia-Geforce-GTX-285-SLI-im-Test-Multi-GPU-Shootout/Grafikkarte/Test/
Crossfire Test.
Kann sich nicht richtig absetzen von GTX285-SLI. CPU-Limit und mangels herausfordernde Spiele.

IVN
2009-10-03, 08:44:08
Bei CoD, und unter 2,5k*1,6k, hat das SLI-Setup mehr Mini-FPS als das CF-5850-Setup an Average-FPS hat. :freak:

Hmmm, die Unterschiede sind generell sehr klein. Für so viele Transis sinde die 5800er wahrlich keine Über-GPUs.

Gast
2009-10-03, 08:57:51
Treiberproblem (s. Min-FPS einer 5870).

Hübie
2009-10-03, 09:15:43
Eben. Liegt doch auf der Hand. Aber AMD muss sich mit einem gescheiten Treiberteam an die Arbeit machen und das Stotterproblem (oft fälschlicherweise unter dem Begriff Mikroruckler bekannt) in den Griff bekommen. So langsam hat auch der letzte DAU davon gehört/gelesen ;)

pest
2009-10-03, 09:45:18
ich habe die Vermutung die HD58xx brauchen enorm viel CPU-Leistung um sich zu entfalten, und damit meine ich nicht x-Cores bei 3Ghz
bei StalkerCS sieht man fast als Einziges wozu so ein Team in der Lage ist, da stimmen auch die Abstände (ist auch nicht so ein Spiel wo eine HD4870 die GTX285 platt macht)

Gast
2009-10-03, 11:38:46
ich habe die Vermutung die HD58xx brauchen enorm viel CPU-Leistung um sich zu entfalten, und damit meine ich nicht x-Cores bei 3Ghz

Huh? Wie meinen? Bitte weiter ausführen.

Calypso
2009-10-03, 12:05:57
ich hätte da mal ne Frage:
früher hieß es immer bei Netzteilen müssen bestimmte Ampere-Werte auf der 12Volt Leitung für die entsprechenden GraKas zur Verfügung stehen - gilt das auch huete noch und wenn ja, wie sind denn diese Werte bei den entsprechenden GraKas hier? Weil ich les überall bloß immer die Aufnahme des System und so, aber solche Netzteilangaben les ich gerade nirgends mehr...

derguru
2009-10-03, 12:14:39
naja wer so ein Gespann von 5870 CF hat wird bestimmt nicht beim normalen MSAA Modi bleiben abgesehen von Spielen wie Stalker oder Crysis.
unter den Tent Modi und sicherlich auch unter SSAA ist die Skalierung so wie es sein sollte.

Tarkin
2009-10-03, 12:21:03
HIS Radeon HD 5850 1 GB (http://www.techpowerup.com/reviews/HIS/HD_5850/1.html)

geradezu traumhafte OC Ergebnisse!

Slipknot79
2009-10-03, 12:33:24
---

AnarchX
2009-10-03, 12:33:40
1GHz bei 20% mehr Spannung, was dann mit der Taktsteigerung wohl ~50% mehr Verbrauch ergeben könnte, wenn da nicht etwas kippt.

Mit einem besseren Kühler wohl auch praxistauglich.

Daredevil
2009-10-03, 12:39:08
Da sieht man mal wieder wie krüppelig beschnittene Karten sind beim OC.

Radeon
HD 5850 @ 725 MHz/1000 MHz 112FPS
HD 5850 @ 1000 MHz/1200 MHz 128FPS
HD 5870 @ 850 MHz/1200Mhz 133FPS

Die HD5850 hat einen 17% höheren Core Takt und ist immernoch 4% langsamer als eine HD5870.

Was limitiert da eigentlich bei der HD5850?
Die ist um knapp 38% Core und 20% Memory übertaktet und bringt lächerliche 15% mehr Leistung? :(
Irgendwas stimmt da doch nicht, CPU Limit kann ja wegen dem GTX295 Ergebnis ja ausgeschlossen werden, nech?

AnarchX
2009-10-03, 12:43:18
Die FPS beziehen sich wohl eher auf den OC auf 835/1250MHz ohne Spannungserhöhung.

Ph0b0ss
2009-10-03, 12:43:33
1GHz bei 20% mehr Spannung, was dann mit der Taktsteigerung wohl ~50% mehr Verbrauch ergeben könnte, wenn da nicht etwas kippt.

Mit einem besseren Kühler wohl auch praxistauglich.

1Ghz bei 1,3V bedeutet, zumindest für die GPU, knapp 100% mehr Verbrauch gegenüber 0,725Ghz @1,09V. Dazu hat die 5850 nur 3 Phasen für die GPU. Ob das lange hält ist die Frage.

Der_Korken
2009-10-03, 12:48:25
Wieso knickt die 2GB VRAM-Karte so schnell ein in Clear Sky 2560x1600. Sind schon 2GB zu wenig? Oo

Tut sie doch gar nicht. Sie schlägt bei 2560x1600 sogar 2 5870er, da letzteren mit 1 GB der VRAM ausgeht.

Slipknot79
2009-10-03, 13:12:20
Tut sie doch gar nicht. Sie schlägt bei 2560x1600 sogar 2 5870er, da letzteren mit 1 GB der VRAM ausgeht.


Yo stimmt, habe den falschen Balken verglichen :(

Gast
2009-10-03, 13:47:01
1Ghz bei 1,3V bedeutet, zumindest für die GPU, knapp 100% mehr Verbrauch gegenüber 0,725Ghz @1,09V. Dazu hat die 5850 nur 3 Phasen für die GPU. Ob das lange hält ist die Frage.

Hat die 5er Serie nicht eine Hardwareüberwachung der Spannungswandler? Oder hat das nur die 5870?

|-Sh0r7y-|
2009-10-03, 15:39:49
Rivatuner-Shot? =)
Beim Rivatuner ladet das plugin vidmem (Hardware Monitor) nicht unter Windows 7.
Habs probiert geht nicht.

y33H@
2009-10-03, 20:34:02
Treiberproblem (s. Min-FPS einer 5870). In CoD5? Nein, das ist ein bekanntes CF-Problem ;) Btw gibts derzeit keine besseren Treiber ...Hat die 5er Serie nicht eine Hardwareüberwachung der Spannungswandler? Oder hat das nur die 5870? Beide.

mboeller
2009-10-03, 21:17:10
na bitte:


Subjectively the card is very quiet in both idle and load. While it is not noiseless in either, it is the quietest high-performance card available today and I would install it in my personal work system any time.


Allerdings nur subjektiv, da:

Unfortunately our sound level meter is out for calibration right now, but I will add the fan noise numbers as soon as the meter is back.


Link: http://www.techpowerup.com/reviews/HIS/HD_5850/28.html


Bei normalen Games scheinen die 58x0 leise zu sein, nur wer laufend Furmark "spielt" wird anscheinend mit einer vollen Dröhnung belohnt. ;)

y33H@
2009-10-03, 21:19:34
Leise ist relativ. Seit der der 7800GTX/512 bzw. 7900GTX gab es keine wirklich leise Highend-Karte mehr. Auch die HD5k hört man unter Last deutlich aus dem System raus. Leider.

Gast
2009-10-03, 21:26:22
Radeon
HD 5850 @ 725 MHz/1000 MHz 112FPS
HD 5850 @ 835 MHz/1260 MHz 128FPS
HD 5870 @ 850 MHz/1200Mhz 133FPS



So ists richtig ;)

katana69
2009-10-03, 21:46:37
Ich finde die 5870 schon sehr leise auch unterlast. Habe extra mal wieder Cyrsis installiert und auch wenn die da ein bissl gefordet ist. Ich kann die Karte nicht hören. Evtl sieht es beim übertakten der Karte ja anders aus.

y33H@
2009-10-03, 21:50:32
Ihr habt wohl alle laute Rechner ;( Bei mir ist die idle bereits überdeutlich hörbar ...

katana69
2009-10-03, 21:54:02
So laut ist mein Rechner eigentlich nicht, aber Lautstärke ist ja eh subjektiv:smile:

Evtl liegt es auch daran das ich miten in der Stadt wohne und das der normale Geräuschpegel generell höher liegt.

Mr. Lolman
2009-10-03, 22:04:10
Ihr habt wohl alle laute Rechner ;( Bei mir ist die idle bereits überdeutlich hörbar ...

Bei 0.5 Sone?

HarryHirsch
2009-10-03, 22:06:35
Ihr habt wohl alle laute Rechner ;( Bei mir ist die idle bereits überdeutlich hörbar ...

mir sind die auch zu laut, ich hab schon voll kopfaua :freak:
nur ein plätschern im Ausgleichsbehälter hat so was entspannendes

horn 12
2009-10-03, 22:10:22
Nun, wer diese Karte besaß (http://geizhals.at/a447556.html)
kann die Lautstärke der HD5870 1GB sicherlich weitaus besser beurteilen!!

Mein FAZIT der HD4870 Sapphire Design.
Unter 2D sehr Leise bis unhörbar und unter Last kaum wahrnehmbar, mit seltenem Aufheulen für 1-2 Sekunden alle guten 30 Minuten mal. :cool:
Besitze selbst die HD4870 1GB Sapphire Design (schwarzer Lüfter und Blende)und möchte nicht einen Schritt zurückgehen bei der HD5870-er Karte.:confused:

Armaq
2009-10-03, 22:16:20
VaporX. Das ist die "simple" Lösung für die grundlegenden Anforderungen. Die 4870 sind einfach top, die 4890 sind unter Load schon schwieriger. Aber ein Toxic-Design sollte durchaus alle Kunden zufriedenstellen.

y33H@
2009-10-03, 22:23:18
@ Mr. Lolman

Bei 0,5 Sone, ja. Mein Rechner macht nur 0,1 Sone, 2D wie 3D (man sieht nur an den LEDs, dass er an ist. Ausnahme: Die Raptor wird hart rangenommen). Da sind 0,5 Sone halt "laut" ;D

@ HarryHirsch

Silent FTW ;)

horn 12
2009-10-03, 23:33:46
Also komplett wassergekühlter PC, da bsit sicherlich eine grüßere Ausnahme.
Denke wenn es für StandardNutzer im Idle bei 0,5 Sone ist, schon Top Ergebnis für eine "HighEnd" Karte, zudem diesemal das funktionierende Powerplay sicher seines dazu beiträgt.

Was hat die HD4870 1GB "Sapphire Design" welche IDLE/ LAST Soneangaben erhalten ? Kann dies bitte einer hier noch reinstellen,- um die Unterschiede zur HD5870 auszumachen. Danke!

y33H@
2009-10-03, 23:49:09
Also komplett wassergekühlter PC, da bsit sicherlich eine grüßere Ausnahme.Äh - du hast schon mal in meine Signatur geklickt? ;) Nix Wasser.Was hat die HD4870 1GB "Sapphire Design" welche IDLE/ LAST Soneangaben erhalten?PCGH hat nur die VaporX und Toxic vermessen. Die VaporX macht macht 0,4 in 2D und 1,2 in 3D.

horn 12
2009-10-04, 00:03:04
Ja, danke!
Und der Referenz Lüfter der HD5870 hat Idle magere 0,5 Sone, beim Zocken, sprich Last 1,6 Sone oder wie?
Furmark allerdings xx Sone, spiel ich aber nie:wink:

y33H@
2009-10-04, 00:07:20
Die HD5870 macht 0,5/3,1 Sone (Furmark 6,4). Die HD5850 ist aufgrund des deutlich schwächeren Kühlers leider hörbar lauter: 0,8/4,0 Sone (Furmark 4,9).

Allerdings muss man hier dazu sagen, dass AMD seit dem 9.7 die FurMark-Bremse offenbar hardgecodet hat, die ist immer aktiv. Sprich, die Karten wären wohl noch lauter im Fur ;)

RoNsOn Xs
2009-10-04, 04:34:47
durch die lautsärke merkt man doch erst die power ;) meine meinung.
mitn ferrari möcht man auch was hören. leistung kommt nun mal durch kraft. und kraft muss man spüren.

silent bei highend? völlig überbewertet!

Gast
2009-10-04, 04:43:01
Ohja wieder Geforce FX als Standard; ach was sag ich als Minimum selbst für passive ( :ugly-irre: ) Karten. :ugly:

y33H@
2009-10-04, 04:58:33
silent bei highend? völlig überbewertet! Highend ist das technisch bestmöglich Machbare. Auch in Sachen Lautheit. Eine Grafikkarte, die schnell und leise ist, ist Highend. Eine Grafikkarte, die schnell und laut ist, ist ein Ärgernis.

Gast
2009-10-04, 10:11:38
Sehr schön gesagt!

RoNsOn Xs
2009-10-04, 11:17:28
sehe ich anders. ich brauch nicht die eierlegende wollmilchsau.

Slipknot79
2009-10-04, 13:26:41
Mich geilt es auf wenn mein System in Spielen aufdreht ;), das ist wie ein V8 Motor den Mann hören MUSS :redface:

DrFreaK666
2009-10-04, 13:32:02
Ich brauche auch eine leise Karte in meinem Rechner.
Mir ist sogar die GTX260 von edel-Grafikkarten manchmal zu laut :rolleyes:
Ich hoffe, dass es bis Weihnachten eine leise 2G-HD5870 gibt.
Dazu noch ein schneller 4-Kerner und ich bin zufrieden

Gast
2009-10-04, 13:32:31
Wäre doch mal ein ganz neues Marktfeld: Extralaute Nachrüstlüfter für Leute die auch Sportauspuff an ihren 1.0l Polo schrauben. Der neue EKL Alpenwand Sturmflut, jetzt mit 12.000 Umdrehungen pro Minute und Turbomodus.

Komisch daß noch keiner auf diese grandiose Idee gekommen ist.

MadManniMan
2009-10-04, 13:36:42
EKL Alpenwand Sturmflut :ulol: Zu geil!

Es ist aber wirklich so: schöne neue Leistung, keine Frage. Ich mit meinem 3D-Display brauche eigentlich immer gleich die doppelte Performance, die ich sonst kaufen würde... aber mich nervt schon mein 3850-Lüfter im 3D-Modus :usad:

Slipknot79
2009-10-04, 14:16:00
Wäre doch mal ein ganz neues Marktfeld: Extralaute Nachrüstlüfter für Leute die auch Sportauspuff an ihren 1.0l Polo schrauben. Der neue EKL Alpenwand Sturmflut, jetzt mit 12.000 Umdrehungen pro Minute und Turbomodus.

Komisch daß noch keiner auf diese grandiose Idee gekommen ist.


Ich wäre hier wohl der einzige Kunde :(

Noebbie
2009-10-04, 14:22:09
Ich wäre hier wohl der einzige Kunde :(

Erstell dir doch ne MP3 mit lauten Lüftergeräuschen und lass diese im Loop laufen! :freak:

Edit:

Falls jemand im Saarland wohnt: In 66538 Neunkirchen ist heute Verkaufsoffener Sonntag; Vllt kann man sich da ja irgendwo 'ne Karte ergattern!

LolekDeluxe
2009-10-04, 16:35:51
Highend ist das technisch bestmöglich Machbare. Auch in Sachen Lautheit. Eine Grafikkarte, die schnell und leise ist, ist Highend. Eine Grafikkarte, die schnell und laut ist, ist ein Ärgernis.
5850 und 5870 sind keine Highend.
Übrigens wenn soooo ein Silent fetischist bist klemm doch einfach den Lüfter ab.:freak:

w0mbat
2009-10-04, 16:49:14
5850 und 5870 sind keine Highend.
[...]

Der RV870 ist vielleicht kein High-end, aber HD5870 & HD5850 sehr wohl. Oder was sind die zwei schnellsten Single-GPU Karten denn dann?

Gast
2009-10-04, 17:06:00
Der RV870 ist vielleicht kein High-end, aber HD5870 & HD5850 sehr wohl. Oder was sind die zwei schnellsten Single-GPU Karten denn dann?

Laut den NV-Indianern ein Ärgernis. ;)

|-Sh0r7y-|
2009-10-05, 03:32:43
Für jeden Topf gibt es den paßenden Deckel!
PCGH im Test. EKL Alpenwand Sturmflut Lüfter:D
http://www.youtube.com/watch?v=YfXF161Ov50

siegemaster
2009-10-05, 04:13:21
Hat die 5850/5870 den gleichen Lochabstand (für die Kühlermontage) wie die 4850? (Bitte, Bitte, Bitte, Bitte, Bitte, Bitte, Bitte, Bitte, Bitte! )

y33H@
2009-10-05, 08:48:03
Ja. Aber achte auf die SpaWas.

Gast
2009-10-05, 09:34:05
Ich wäre hier wohl der einzige Kunde :(
Laute Lüfter gibt es bereits, der Name Delta steht oft als Beispiel dafür.
Also husch husch, ab in den Laden. ;)

Gast
2009-10-05, 09:36:12
Der RV870 ist vielleicht kein High-end, aber HD5870 & HD5850 sehr wohl. Oder was sind die zwei schnellsten Single-GPU Karten denn dann?
Nach AMD ist Quad CF High-End.

Kann man dennoch Single Karten zu High-End zählen?
Ich meine ja, weil CF bzw AFR schrott ist. AMD meint nein, siehe oben.

RoNsOn Xs
2009-10-05, 10:56:30
warum sollte cf und afr schrott sein?

y33H@
2009-10-05, 10:59:36
µRuckler, Input-Lag, Skalierung, im CPU-Limit langsamer als SGPU, Profilabhängigkeit.

Iceman346
2009-10-05, 11:04:13
www.hoh.de hat übrigens die XFX und die MSI 5870er wieder auf Lager bekommen für 359/349 Euro.

Eine der XFX Karten ist mir ;) Vorraussichtlicher Versand noch heute laut Angabe im Bestellsystem.

Gast
2009-10-05, 11:07:40
µRuckler, Input-Lag, Skalierung, im CPU-Limit langsamer als SGPU, Profilabhängigkeit.
Dazu noch scheiss Treiber, flimmerndes AF und irre laute (0,5-0,8 sone) Karten.

Alles scheisse was ATI da baut. Du wirst langsam peinlich.

Noebbie
2009-10-05, 11:09:44
Wann gehen denn die Preise mal auf die vorgestellten 300 Euro?
Der Launch liegt doch nun schon fast 2 Wochen zurück?

Iceman346
2009-10-05, 11:12:45
Wann gehen denn die Preise mal auf die vorgestellten 300 Euro?
Der Launch liegt doch nun schon fast 2 Wochen zurück?

Die Karten sind ja immer noch nur in geringsten Mengen verfügbar. Bevor sich das nicht ändert wird sich an den Preisen auch nicht viel ändern. Darum hab ich extra darauf geachtet eine Karte von einem der Hersteller zu kaufen die nen Dirt 2 Gutschein beilegen ;)

Grestorn
2009-10-05, 11:16:05
Dazu noch scheiss Treiber, flimmerndes AF und irre laute (0,5-0,8 sone) Karten.

Alles scheisse was ATI da baut. Du wirst langsam peinlich.

Komisch nur dass die von y33H@ angeführten Nachteile genau so auch für nVidia SLI gelten...

Ihr Fanboys mit Euren vorgefassten Feindbildern...

Iceman346
2009-10-05, 11:18:16
Komisch nur dass die von y33H@ angeführten Nachteile genau so auch für nVidia SLI gelten...

Ihr Fanboys mit Euren vorgefassten Feindbildern...

Wobei man Nvidia ja zu Gute halten muss, dass sie was gegen Mikroruckler getan haben, gab ja vor einigen Treibern Erkenntnisse, dass diese dort mittlerweile deutlich geringer sind als bei ATi Multigpu Konfigurationen.

Noebbie
2009-10-05, 11:18:23
Die Karten sind ja immer noch nur in geringsten Mengen verfügbar. Bevor sich das nicht ändert wird sich an den Preisen auch nicht viel ändern. Darum hab ich extra darauf geachtet eine Karte von einem der Hersteller zu kaufen die nen Dirt 2 Gutschein beilegen ;)

Hm, gibts eigentlich 'ne Liste wo man sieht welche Spiele bei welchem Hersteller dabei liegen? Oder sind die Pakete immer gleich nackt?

y33H@
2009-10-05, 11:20:00
Alles scheisse was ATI da baut. Du wirst langsam peinlich. Du ist bewusst, das die genannten Probleme für NV genauso gelten? Wenn, dann bist du peinlich, weil du unfähig bist zu denken. Elende Fanboys ...

Iceman346
2009-10-05, 11:25:14
Hm, gibts eigentlich 'ne Liste wo man sieht welche Spiele bei welchem Hersteller dabei liegen? Oder sind die Pakete immer gleich nackt?

Ich weiß nur von 3 Versionen die was drinliegen haben:
- XFX (Dirt 2)
- Sapphire (Dirt 2 und Battlestations:Irgendwas)
- Powercolor Dirt 2 Edition (Dirt 2, hat ne andere Packung, meist wird hier nur die normale Version ohne Beigabe angeboten)

Die anderen Hersteller haben meines Wissens nach nichts in der Packung liegen.

RoNsOn Xs
2009-10-05, 11:26:54
ähh ich fragte doch was an cf und afr schrott sei, natürlich mit dem hintergrund was bei sli und afr anders wäre. eben nix..



Wobei man Nvidia ja zu Gute halten muss, dass sie was gegen Mikroruckler getan haben, gab ja vor einigen Treibern Erkenntnisse, dass diese dort mittlerweile deutlich geringer sind als bei ATi Multigpu Konfigurationen.
gibts dazu tests? das glaub ich nicht recht.

Gast
2009-10-05, 11:31:03
Wie schaut's eigentlich bezüglich DVD/BR-Wiedergabe aus? Hat ATI das ohnehin schon gute AVIVO nochmals verbessert?

Irgendwie dreht sich bei den neuen Karten alles um die Spielegeschwindigkeit. Natürlich ist das die entscheidende Komponente bei solchen Karten, aber die Reviews dürften gerne etwas mehr in die Breite gehen.

Bei mir wird es wahrscheinlich eine 5770, sofern die sich merklich (40% und mehr) von meiner aktuellen HD 4850 absetzen wird.

y33H@
2009-10-05, 11:32:14
eben nixDoch. Bei SLI hast du mehr Möglichkeiten in Sachen Profile und Render-Modi. nHancer FTW.das glaub ich nicht recht.Ist aber so.

Iceman346
2009-10-05, 11:32:25
gibts dazu tests? das glaub ich nicht recht.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/#abschnitt_mikroruckler_auf_der_gtx_295

Bei ATi sind die Frametimes deutlich stärker abweichend.

RoNsOn Xs
2009-10-05, 11:41:34
was heißt deutlich? bei ati heißts die mikroruckler wären bei unter 40fps zu spüren. bei nv bei unter 30. ist nun keine so löbliche besserung finde ich.

Iceman346
2009-10-05, 11:46:16
Wann die Mikroruckler zu spüren sind ist vor allem eine Sache des persönlichem Empfindens. Und wenn man sich die Frametimes von Stalker auf der 5850 anschaut:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/19/#abschnitt_mikroruckler_auf_der_radeon_hd_5800
sieht man, dass da bei ATi deutlich mehr im Argen ist.

Grundsätzlich ist das aber ein Problem welches man bei AFR nicht ganz loswird. Ich hab zwar selbst noch nie ein MultiGPU System gehabt bzw. sehen können, aber mir wär das zu gefährlich, da bleib ich lieber bei starken Single GPU Karten.

AnarchX
2009-10-05, 12:05:24
Eine brauchbare Alternative zum problematischen AFR bietet die HD 5800 Serie in Form von Crossfire Supersampling, wo beide Karten jeweils die Häfte der Samples berechnen und dann in einer sinnvollen Maske kombinieren:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7573174#post7573174

raffa
2009-10-05, 12:15:42
Und die rechnen dann gemeinsam an einem Bild (am gleichen Frame) und Mikroruckler sind damit hinfällig?

AnarchX
2009-10-05, 12:17:21
Und die rechnen dann gemeinsam an einem Bild (am gleichen Frame) und Mikroruckler sind damit hinfällig?
Ja, das gibt es schon seit Anbeginn von Crossfire, nur mit der Einführung von Supersampling ist das ganze deutlich interessanter.
Bleiben natürlich die Einschränkungen, dass SSAA nur unter D3D9 und OGL läuft und eben auch nicht in Titeln die kein AA-Support haben.

raffa
2009-10-05, 12:18:48
Prima Sach.

Gast
2009-10-05, 13:04:38
Und die rechnen dann gemeinsam an einem Bild (am gleichen Frame) und Mikroruckler sind damit hinfällig?Nicht nur die Mikroruckler, auch der (IMHO weit schlimmere) Inputlag. Wegen AFR halte ich ja eigentlich nix von MultiGPU. Wegen Crossfire-SSAA und Eyefinity juckts mir aber schon gewaltig in den Fingern, evtl. später ein CF-System mit 4 günstigen Mainstream-Kärtchen bzw. 2 DoppelGPU-Karten zu basteln...

Schoof
2009-10-05, 13:07:25
kann mir jemand sagen, ob eine 5850 oder 5870 auf meinem Board Abit IP35 läuft?
Da Abit ja schon länger Pleite ist, wirds in Zukunft keine neuen Bios geben.
Bios ist das letzte Beta wegen der CPU(E0). Das letzte offizielle Bios erkannte meinen Qaud nicht richtig.
HW siehe Sig

Danke

N0Thing
2009-10-05, 14:15:02
kann mir jemand sagen, ob eine 5850 oder 5870 auf meinem Board Abit IP35 läuft?
Da Abit ja schon länger Pleite ist, wirds in Zukunft keine neuen Bios geben.
Bios ist das letzte Beta wegen der CPU(E0). Das letzte offizielle Bios erkannte meinen Qaud nicht richtig.
HW siehe Sig

Danke


Es gibt keinen Grund, warum die Karten nicht auf deinem Mainboard laufen. Solange sich ATI an die PCI Spezifikationen hält, brauchst du kein BIOS-Update für dein Mainboard.
Bei CPUs ist es notwendig, daß das BIOS die CPU ansprechen kann und dafür werden auf BIOS-Updates für neue CPUs nötig. Bei Grafikkarten ist dies nicht notwendig.

Raff
2009-10-05, 14:19:12
Ich sehe da auch kein Problem. Lediglich im Falle eines ASRock 4CoreDual-SATA2 4CoreDual-VSTA würde ich mir ernsthafte Sorgen machen, da diese Boards über einen zickigen, abgespeckten PCIe-Slot (x4) verfügen. Dieser wurde in der Vergangenheit für diverse PCIe-2.0-Karten wie die HD 3800 und 8800 GT gepatcht – eine GTX 285 macht aber nach wie vor Probleme, wenn die PCIe Downstream Pipeline aktiv ist.

MfG,
Raff

Gast
2009-10-05, 14:48:52
Gibts eigentlich auch 5850 mit Dirt-2 Gutschein?

Tigershark
2009-10-05, 15:10:07
kann mir jemand sagen, ob eine 5850 oder 5870 auf meinem Board Abit IP35 läuft?
Da Abit ja schon länger Pleite ist, wirds in Zukunft keine neuen Bios geben.
Bios ist das letzte Beta wegen der CPU(E0). Das letzte offizielle Bios erkannte meinen Qaud nicht richtig.
HW siehe Sig

Danke


Ich hab das IP35 PRO, und es läuft einwandfrei. Wie schon gesagt wurde gibt es ja auch keinen Grund, wieso NICHT. Lediglich das "nur" PCIe 1.1 könnte unter extremen Umständen ein wenig limitieren, aber im normalen Betrieb sicher nicht.

Iceman346
2009-10-05, 15:21:21
Wobei ich irgendwo Benchmarks gesehen hab wo die Karte in nem PCIe 2.0 Slot mit unterschiedlich vielen Lanes angesprochen wurde. Zwischen 16 Lanes und 8 Lanes (würde ja PCIe 1.1 entsprechen) lag ein gemittelter Unterschied von 1%, also völlig zu vernachlässigen. Erst ab 4 Lanes wurds dann deutlich langsamer.

Vor dem Hintergrund werd ich dann die CPU/Mainboard Aufrüstung bei mir wohl auch noch etwas rausschieben. Nen i7 860 oder so mag meinem hochgetakteten Dualcore auch bei Anwendungen die nur 2 Kerne nutzen gleichweritig bis überlegen sein, aber Spiele die wirklich massiv CPU limitiert sind spiele ich momentan eigentlich keine und da ich sowieso so viel AA/AF anschalte wie möglich hänge ich meist im Grafikkartenlimit.

RoNsOn Xs
2009-10-05, 16:25:16
Wobei ich irgendwo Benchmarks gesehen hab wo die Karte in nem PCIe 2.0 Slot mit unterschiedlich vielen Lanes angesprochen wurde. Zwischen 16 Lanes und 8 Lanes (würde ja PCIe 1.1 entsprechen) lag ein gemittelter Unterschied von 1%, also völlig zu vernachlässigen. Erst ab 4 Lanes wurds dann deutlich langsamer.

Vor dem Hintergrund werd ich dann die CPU/Mainboard Aufrüstung bei mir wohl auch noch etwas rausschieben. Nen i7 860 oder so mag meinem hochgetakteten Dualcore auch bei Anwendungen die nur 2 Kerne nutzen gleichweritig bis überlegen sein, aber Spiele die wirklich massiv CPU limitiert sind spiele ich momentan eigentlich keine und da ich sowieso so viel AA/AF anschalte wie möglich hänge ich meist im Grafikkartenlimit.
PCIe 1.1/2.0 hat afaik nix mit den lanes zu tun.
beim unterschied pci1.1/2.0 lag die differenz irgendwo bei 5-8%

Iceman346
2009-10-05, 16:34:41
PCIe 1.1/2.0 hat afaik nix mit den lanes zu tun.
beim unterschied pci1.1/2.0 lag die differenz irgendwo bei 5-8%

PCIe 1.1 hat etwa die halbe Bandbreite gegenüber PCIe 2.0. Dementsprechend kann man mit der Halbierung der Lanes bei PCIe 2.0 einen PCIe 1.1 Anschluss simulieren. Das meinte ich.

DrumDub
2009-10-05, 16:56:52
Wobei ich irgendwo Benchmarks gesehen hab wo die Karte in nem PCIe 2.0 Slot mit unterschiedlich vielen Lanes angesprochen wurde. Zwischen 16 Lanes und 8 Lanes (würde ja PCIe 1.1 entsprechen) lag ein gemittelter Unterschied von 1%, also völlig zu vernachlässigen. Erst ab 4 Lanes wurds dann deutlich langsamer. http://www.techpowerup.com/reviews/AMD/HD_5870_PCI-Express_Scaling/

Iceman346
2009-10-05, 17:42:08
http://www.techpowerup.com/reviews/AMD/HD_5870_PCI-Express_Scaling/

Danke, genau den Test meinte ich.

Schlammsau
2009-10-05, 21:21:49
Neuer Rekord in 3DMark mit drei HD 5870 (http://www.computerbase.de/news/software/benchmarks/2009/oktober/neuer_rekord_3dmark_hd_5870/)
In 3DMark 03 wurde der alte Rekord von etwas über 180.000 Punkte mit vier Radeon HD 4890 mit 183.959 Zählern deutlich geschlagen. Der Prozessor war dabei ein auf 5,23 GHz getakteter Xeon W3540 auf Basis der Nehalem-Architektur, die drei Grafikkarten im CrossFire-Verbund arbeiteten mit 1.200 MHz Chiptakt ebenfalls deutlich über der eigentlichen Spezifikation. Sowohl beim Prozessor als auch bei den Grafikchips kam flüssiger Stickstoff zum Einsatz.


http://www.abload.de/thumb/186ot.jpg (http://www.abload.de/image.php?img=186ot.jpg)

Gast
2009-10-05, 21:37:30
ähh ich fragte doch was an cf und afr schrott sei, natürlich mit dem hintergrund was bei sli und afr anders wäre. eben nix..

Es ist ein AMD Fred, weiter vorne wurde behaupted was High-End ist.

In dem Falle sehe ich keinen Sinn SLI zu schreiben und lang und breit zu erklären was Nvidias Topmodell ist. Das ist Offtopic.
Deshalb schrieb ich CF bwz AFR.

CF ist nicht exakt gleich SLI, das ist ebenso Offtopic, aber Tatsache. Diese 3 Sätze passen demnach auch in einem Nvidia Fred Wunderbar.
3x GTX 385 oder 2x GTX 295 sind aus nvidia Sicht High-End, aus meiner Sicht 1x GTX 285.

MR2
2009-10-05, 22:54:04
Ich hab zwar schon mal gefragt...

Ich hatte immer eine Karte mit TV Out. Was meint ihr, wirds das weiterhin geben? Wenn ich mir die jetzigen 5800er Karten so anschaue...die 4870iger hatten wohl alle einen.

Oder kann ich vom displayport, HDMI oder was weis ich auf einen Röhrenfernseher gehen?

Noebbie
2009-10-05, 22:56:00
Mal was anderes, MR2s Post brachte mich auf die Idee:

Vielleicht gibt's ja mal wieder 'ne neue All-In-Wonder in der 5000er Generation!

MR2
2009-10-05, 22:57:01
Das kam mir beim Schreiben grad auch in den Sinn, glaube ich aber nicht. Die letzte war die mit HD3650 vom Juni 2008.

DrFreaK666
2009-10-06, 06:11:15
Hm, in der aktuellen PCGH wurde ein HD5870 übertaketet und mit Hilfe eines zusätzlichen 120mm-Lüfters auf der Rückseite gekühlt.
Sollte es also damit nicht möglich sein die HD5870 kühler und damit auch leiser zu bekommen?
Man verliert ja keine Garantie wenn man den LÜfter nur per Kabelbinder befestigt, oder?
Wenn das gut funktioniert dann ist ne HD5870 gekauft :smile:

Gast
2009-10-06, 09:18:54
Haste davon mal ein Bild?

Azubi
2009-10-06, 10:07:07
Hilfe,

ich suche/warte auf einen speziellen Test der HD5850 von unseren hiesigen und bekannten hardware-sites. Ich suche eigentlich folgendes. Einen Ratgeber für "Aufrüster".

Welchen Prozessor sollte man wenigstens für eine HD5850 haben. Welche alten GraKas kann man bedenkenlos bei gleichem Netzteil austauschen. Welche Kühllösungen sind empfehlenswert.

Mal ein praktisches Beispiel:

Nutzer hat noch einen z.B. E4300 auf Standardtakt oder leicht übertaktet im System gepaart mit einer z.B. Geforce 9800 GT. Würde die CPU mit einer HD5850 gut gehen? Würde ein Netzteiltausch fällig? Was bringt die neue HD5850 an Mehrleistung in games? Mit wieviel zusätzlicher Leistungsaufnahme muss bei dem neuen System gerechnet werden? Ist das neue System aufgrund der niedrigen Idle-Werte der HD5850 evtl. kostensparend?

So einen Test suche ich in etwa. Gibt es da schon was? Die bisherigen Tests alá HD5870 gegen GTX285 oder 2x 5870 gegen XY und so weiter sind lesenswert. Aber für mich auf Dauer nicht mehr sooooo interessant.

y33H@
2009-10-06, 10:30:56
Unterhalb eines 3,0-GHz-Quads bremst du die oft aus. Es sei denn du zockst durchgehend mit SSAA. Gegenüber einer 88GT hast du rund das Doppelte an Fps, die idle-Leistungsaufnahme geht leicht runter, load gut 25 Watt hoch.

Schnitzl
2009-10-06, 15:14:48
Unterhalb eines 3,0-GHz-Quads bremst du die oft aus. Es sei denn du zockst durchgehend mit SSAA. Gegenüber einer 88GT hast du rund das Doppelte an Fps, die idle-Leistungsaufnahme geht leicht runter, load gut 25 Watt hoch.
hi

wie ist es mit nem E8600 (nicht übertaktet / 3,3Ghz)?
Auflösung ist 1280*1024 :)

RoNsOn Xs
2009-10-06, 15:27:09
bei der auflösung kannste ne 9800gt behalten.

Gast
2009-10-06, 15:37:51
bei der auflösung kannste ne 9800gt behalten.
Nicht wenn er SSAA will.
Aber würd auch eher erstmal in nen Moni investieren *gg*

y33H@
2009-10-06, 15:54:24
bei der auflösung kannste ne 9800gt behalten.Wenn der der Speicher ausgrht ... zB Crysis oder ArmA2 oder Clear Sky oder FC2. Neee ...

RoNsOn Xs
2009-10-06, 16:32:54
Aber würd auch eher erstmal in nen Moni investieren *gg*
sehe ich auch so.

Schnitzl
2009-10-06, 16:37:17
definitiv SSAA, falls damit Supersampling gemeint ist.
SGAAGGOOGSSSAAA ich blick da nicht mehr durch - ich hoffe im Treibermenü kann man das leicht einstellen :redface:
Weiterhin hoffe ich dass hardwareversand.de gut ist da ist nun eine bestellt =)

/EDIT: ok, das mit dem Monitor ist auch interessant, nur hab ich kein Bock auf Breitbild...
P.S.: bei Mindfactory gibts noch eine einzige 5850 :D

Gast
2009-10-06, 21:16:15
http://translate.google.com/translate?hl=en&sl=ro&u=http://lab501.ro/placi-video/hd-5870-performanta-in-configuratii-multi-card-pe-x58-si-p55&ei=6nzJSrXfM5CeMb6dpfMH&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://lab501.ro/placi-video/hd-5870-performanta-in-configuratii-multi-card-pe-x58-si-p55%26hl%3Den%26rls%3Dcom.microsoft:en-ca:IE-SearchBox%26rlz%3D1I7GPCK_en

Sehr miese Skalierung wieder mal bei Crossfire-X- mit mehreren Karten.

Finch
2009-10-06, 21:28:48
Naja das Quad CF gespann muss man erstmal auslasten können. ich glaube da reichen die 2560 4AA nicht;)

gibt es da keine SSAA tests für 4 karten?

PCGH_Raffael
2009-10-06, 21:31:47
definitiv SSAA, falls damit Supersampling gemeint ist.
SGAAGGOOGSSSAAA ich blick da nicht mehr durch - ich hoffe im Treibermenü kann man das leicht einstellen :redface:

SG = Sparse Grid (gestreute Abtastmaske für AA, die macht das Beste aus den verfügbaren Samples)
OG = Ordered Grid (geordnete Abtastmaske für AA, glättet bei gleicher Sample-Zahl weniger Winkel als SG)
SSAA = Super-Sampling-Anti-Aliasing (Glättung auf Basis mehrfacher Abtastung/Berechnung des ganzen Bildes)
CCC = Catalyst Control Center ;) (ja, dort kann man einfach "Super-Sampling-AA" auswählen, dann ist selbiges aktiv)

Mehr? Guckst du: http://alt.3dcenter.org/artikel/anti-aliasing/

MfG,
Raff

Gast
2009-10-06, 21:34:45
Naja das Quad CF gespann muss man erstmal auslasten können. ich glaube da reichen die 2560 4AA nicht;)


LOL 2560x1600 4xAA sind bei Crysis Warhead ganz sicher nicht, das ist 100% GPU Limitiert wenn da nichts beschleunigt ist an den Profilen etwas faul.

deekey777
2009-10-06, 21:35:43
RGSSAA fehlt. ;(
Die Erklärung des SGSSAA findet sich auch im Voodoo-Artikel, http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/anti-aliasing

N0Thing
2009-10-06, 22:23:40
Wenn der der Speicher ausgrht ... zB Crysis oder ArmA2 oder Clear Sky oder FC2. Neee ...

In den Spielen reichen bei einer Auflösung von 1280x1024 die 512MB nicht mehr aus?

MR2
2009-10-06, 22:41:53
Keinesfalls. Schau dir mal Tests an. 4870/512 gegen die 1GB. Dazwischen liegen Welten, auch bei kleiner Auflösung.
Ich bin schon gespannt auf die 5870, hoffentlich kommt die Vapor-x bald, scheiß onboard Grafik!

y33H@
2009-10-06, 22:59:05
In den Spielen reichen bei einer Auflösung von 1280x1024 die 512MB nicht mehr aus? Spätestens mit 2x MSAA und max. Details reichen 512M nicht mehr. "Nicht ausreichen" meint, die 1G ist schneller (+20% und mehr) und gerade die Min-Fps sind deutlich höher.

tombman
2009-10-06, 23:10:51
http://translate.google.com/translate?hl=en&sl=ro&u=http://lab501.ro/placi-video/hd-5870-performanta-in-configuratii-multi-card-pe-x58-si-p55&ei=6nzJSrXfM5CeMb6dpfMH&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://lab501.ro/placi-video/hd-5870-performanta-in-configuratii-multi-card-pe-x58-si-p55%26hl%3Den%26rls%3Dcom.microsoft:en-ca:IE-SearchBox%26rlz%3D1I7GPCK_en

Sehr miese Skalierung wieder mal bei Crossfire-X- mit mehreren Karten.
1.) AMD hat keine Ahnung von Multi-GPU
2.) Die Tester sind noobs (kein SSAA, kein Stalker CS, kein Vantage Extreme usw...)

Da haben die schon mal ein P6T7 und Quad HD5870 CF- und versagen :ugly:

Die benchen 3DMark03 usw....ne, ich sag nix mehr, sonst reg ich mich auf....

PulsarS
2009-10-06, 23:25:55
Spätestens mit 2x MSAA und max. Details reichen 512M nicht mehr. "Nicht ausreichen" meint, die 1G ist schneller (+20% und mehr) und gerade die Min-Fps sind deutlich höher.
So siehts aus.
Bei einer Nvidia geht es sogar noch schneller bergab.
512 MiB sind heute einfach zu wenig.
Die Rechenleistung reicht ja teilweise noch aus.

N0Thing
2009-10-07, 01:16:14
Hat einer von euch mal nen Link zu einem Test parat? Ich kenne bisher nur Versuchsreihen, in denen 1024MB erst ab 1920x1200 oder höher einen messbaren Vorteil gebracht haben. Crysis mal außen vor, afaik hat das auch schon bei 1680x1050 und 4xMSAA von mehr als 512MB profitiert.

mapel110
2009-10-07, 03:23:49
http://www.beyond3d.com/content/reviews/53/1
Beyond3D-Technik-Artikel

Coda
2009-10-07, 03:59:43
Nichts neues, aber sehr interessant für die, die sich wirklich dafür interessieren ;)

reunion
2009-10-07, 07:46:44
http://translate.google.com/translate?hl=en&sl=ro&u=http://lab501.ro/placi-video/hd-5870-performanta-in-configuratii-multi-card-pe-x58-si-p55&ei=6nzJSrXfM5CeMb6dpfMH&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://lab501.ro/placi-video/hd-5870-performanta-in-configuratii-multi-card-pe-x58-si-p55%26hl%3Den%26rls%3Dcom.microsoft:en-ca:IE-SearchBox%26rlz%3D1I7GPCK_en

Sehr miese Skalierung wieder mal bei Crossfire-X- mit mehreren Karten.

Schau dir mal die PCGH-SSAA Tests an. Skalierung praktisch immer an die 100%. Wenn natürlich die CPU limitiert sieht das anders aus.

PulsarS
2009-10-07, 09:07:30
Hat einer von euch mal nen Link zu einem Test parat? Ich kenne bisher nur Versuchsreihen, in denen 1024MB erst ab 1920x1200 oder höher einen messbaren Vorteil gebracht haben. Crysis mal außen vor, afaik hat das auch schon bei 1680x1050 und 4xMSAA von mehr als 512MB profitiert.
Schau mal:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4770/6/#abschnitt_call_of_duty_5

Es gibt schon einige Spiele, die von mehr als 512 Mib profitieren.
Siehe die 4870.
Und das wirklich schon ab 1280x1024. Siehe auch z.B. FC2.

Schnitzl
2009-10-07, 12:16:24
SG = Sparse Grid (gestreute Abtastmaske für AA, die macht das Beste aus den verfügbaren Samples)
OG = Ordered Grid (geordnete Abtastmaske für AA, glättet bei gleicher Sample-Zahl weniger Winkel als SG)
SSAA = Super-Sampling-Anti-Aliasing (Glättung auf Basis mehrfacher Abtastung/Berechnung des ganzen Bildes)
CCC = Catalyst Control Center ;) (ja, dort kann man einfach "Super-Sampling-AA" auswählen, dann ist selbiges aktiv)

Mehr? Guckst du: http://alt.3dcenter.org/artikel/anti-aliasing/

MfG,
Raff
Vielen Dank :)
Meine XFX 5850 von hardwareversand ist wohl heute doch eingetroffen, bin gespannt auf heute Abend *zappel*

Gast
2009-10-07, 13:53:42
http://www.beyond3d.com/content/reviews/53/1
Beyond3D-Technik-Artikel


Die Bandbreite limitiert wirklich sehr viel weniger als ich gedacht habe. Seltsam! Nur bei der Pixelfillrate (FP64 /und oder blending) merkt man bei den theoretischen Benchmarks wirklich was.

Der Einfluss der (vergleichsweise) geringen Bandbreite auf die Leistung sollte also wirklich zu verschmerzen sein. Damit habe ich nicht gerechnet. Die 5870 scheint also doch ein "balanced part" zu sein.

_DrillSarge]I[
2009-10-08, 14:34:34
kurze frage: wann ist denn eigentlich mit den 2GiB modellen zu rechnen?

igg
2009-10-08, 14:50:30
Fudzilla (http://www.fudzilla.com/content/view/15882/34/)
Hundreds of thousands HD 5870 cars sold
...
ATI has shipped tens of thousands of HD 5870 cards at launch, as the whole point was to launch them in last days of Q3. Since the card was launched in September they could simply please their investors by claiming that this was a Q3 launch not a Q4 launch.
Ja, da steht cars. Und ein Nvidia Logo :)

Gipsel
2009-10-08, 14:55:40
http://www.beyond3d.com/content/reviews/53/1
Beyond3D-Technik-Artikel
Ein paar Anmerkungen noch zu dem Artikel, da doch einige Sachen auch von AMD selber teilweise unklar dargestellt werden, die sich also auch in vielen Artikeln dieser Art finden.

Der Texture L1-Cache (read only) wurde offensichtlich nicht auf 8kB halbiert. Seine Größe beträgt weiterhin wie bei RV770 16kB pro SIMD. Das haben zumindest Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=3643&p=5) als auch Carsten Spille (das hat er irgendwo im B3D-Forum gepostet) auf Nachfrage erfahren. Ich habe auch schon irgendwo einen Test gesehen, der die 16kB Texture-Cache-Größe beim Cypress nachgemessen hat. Sowohl Carsten Spille (von pcgh) als auch anandtech berichten übereinstimmend, daß sich die 8kB Angabe von AMD auf einen zusätzlich mit RV870 eingeführten L1-Cache bezieht, der als vollwertiger Cache mit Lese und Schreibzugriff funktioniert (für Compute Shader).
The actual size of the L1 texture cache has stayed at 16KB. Meanwhile a separate L1 cache has been added to the SIMDs for computational work, this one measuring 8KB.
Eine Verkleinerung des L1 Texture-Caches wäre auch kontraproduktiv für Cypress, wenn man an die Bandbreitenbegrenzung denkt. Eine Verkleinerung des L1 würde zu einer noch stärkeren Belastung des zwar verdoppelten L2 Caches führen, dessen Bandbreite zu den L1-Caches allerdings nicht angestiegen ist (4 Bänke mit je 128Byte pro Takt).

Zum Global Data Share (GDS) schreibt B3D, daß es unklar ist, wie/ob auf ihn zugegriffen werden kann. Nun, es kommt darauf an, womit man darauf zugreifen will. Für OpenCL wird es wohl eine entsprechende Extension geben, wie ja auch B3D schreibt. Für die Ebene darunter, die sogenannte Intermediate Language (IL, ATIs Äquivalent zu nvidias PTX) gibt es eine ganze Reihe (noch undokumentierter) Befehle zum Lesen/Schreiben bzw. zur Manipulation der darin befindlichen Werte:
ds_global_read, ds_global_write, gds_atomic_ordered_alloc, gds_ushort_read_ret gds_short_read_ret, gds_ubyte_read_ret, gds_byte_read_ret, gds_readwrite_ret, gds_read2_ret, gds_read_rel_ret, gds_read_ret, gds_cmp_xchg_spf_ret, gds_cmp_xchg_ret, gds_xchg2_ret, gds_xchg_rel_ret, gds_xchg_ret, gds_mskor_ret, gds_xor_ret gds_or_ret, gds_and_ret gds_max_uint_ret, gds_min_uint_ret, gds_max_int_ret, gds_min_int_ret, gds_dec_ret, gds_inc_ret, gds_rsub_ret, gds_sub_ret, gds_add_ret, gds_short_write, gds_byte_write, gds_cmp_store_spf, gds_cmp_store, gds_write2, gds_write_rel, gds_write, gds_mskor, gds_xor, gds_or, gds_and, gds_max_uint, gds_min_uint, gds_max_int, gds_min_int, gds_dec, gds_inc, gds_rsub, gds_sub, gds_add
Das sind ziemlich die gleichen, die auch zum Zugriff auf den LocalDataShare existieren (die haben nur ein lds vorne), insofern kann man sich denken, was die tun und auch schon benutzen (aktuelle Treiber unterstützen die Befehle bereits).

Der letzte Punkt betrifft mal wieder die DP-Fähigkeiten. B3D schreibt, ein Shadercore könne zwei Additionen oder eine Multiplikation oder ein FMA. Cypress kann aber (im Gegensatz zu RV770) zwei Additionen oder zwei Multiplikationen (oder auch eine Addition und eine Multiplikation) oder ein FMA. Eine Multiplikation belegt also nur noch 2 Slots statt 4 wie RV670 und RV770. Dies ist den aufgebohrten ALUs zu verdanken, die jetzt alle SP-FMA können. Außer bei FMAs ist das SP zu DP Rechenleistungsverhältnis jetzt also 5:2 und nicht 5:1. Insofern wird in dem Bereich auch kein übergroßer Nachteil gegenüber nvidias Fermi existieren. Falls überhaupt einer existiert, ich bin ja vom 2:1 Verhältnis bei Fermi noch nicht zu 100% überzeugt. Eventuell ist es ja auch nur bei Additionen und Multiplikationen 2:1 und bei FMAs 4:1, also äquivalent zur ATI-Lösung. FMAs auch mit 2:1 zu machen lohnt nämlich meiner Meinung eventuell den Aufwand nicht, da man zusätzliche Hardware investieren muß, die nur sehr selten genutzt wird.

Coda
2009-10-08, 15:24:52
Wie genau willst du denn auf Fermi 4:1 ausführen? Noch nen nächsten Cluster dazuschalten ;)

AnarchX
2009-10-08, 16:24:19
HT4u mit einem wirklich tollen Test, der sich mit Leistungaufnahme (mit mehr als einem Monitor), Crossfire und SSAA beschäftigt:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/

Hier ist auch noch die Erklärung von Dave Baumann, warum der Idle-Verbrauch bei mehr als einem Display deutlich ansteigt:
This has always been the case with PowerPlay. To change memory speeds you do it within a VBLANK of the panel, but to do that with two panels is difficult as the panels can be timed differently and hence you'll see flickering on at least one when the speed changes.

I'm not sure where you are getting that it consumes more than RV790 (with dual panel) in this case - the memory PHY's are actually more efficient.
http://forum.beyond3d.com/showpost.php?p=1340257&postcount=203

Schlammsau
2009-10-08, 17:11:46
HT4u mit einem wirklich tollen Test, der sich mit Leistungaufnahme (mit mehr als einem Monitor), Crossfire und SSAA beschäftigt:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/

Hier ist auch noch die Erklärung von Dave Baumann, warum der Idle-Verbrauch bei mehr als einem Display deutlich ansteigt:

http://forum.beyond3d.com/showpost.php?p=1340257&postcount=203

Na sch*biep*, mit 2 Monitoren also fast schon HD4890 Idle Verbrauch. :eek:
Ich könnt kotzen! Somit hat sich die HD5000 Serie vorerst für mich erledigt! :P

Gipsel
2009-10-08, 17:14:14
Wie genau willst du denn auf Fermi 4:1 ausführen? Noch nen nächsten Cluster dazuschalten ;)
Habe ich doch schon im anderen Thread gesagt, ein Fermi-SM macht zwar 32 SP-FMAs, aber vielleicht nur 8 DP-FMAs pro Takt. Man benötigt alle 32 Cores, und zusätzlich ist die issue rate nur halb so hoch (4 Takte pro Warp statt 2). Das ist bei Integer-Multiplies ja wohl auch so, daß man da 4 Takte pro Warp benötigt statt nur zwei (die belegen aber nicht den kompletten SM, sondern kommen mit den 16 Cores ihrer Hälfte aus). Für Additionen und Multiplikationen benötigt man ja nicht so viele Bits, da kommt man dann sicher auf die beworbene Faktor 8 Steigerung zu GT200 und auf eine 2:1 Rate, nur DP-FMAs schafft man nur mit einem Viertel der SP-Rate (praktisch die Verhältnisse wie Cypress). Wäre zumindest hardwaretechnisch die effizienteste Lösung.

samm
2009-10-08, 17:18:56
Hier ist auch noch die Erklärung von Dave Baumann, warum der Idle-Verbrauch bei mehr als einem Display deutlich ansteigt:

http://forum.beyond3d.com/showpost.php?p=1340257&postcount=203Das Problem dürfte ja dann nicht auftreten, wenn man nur Display-Ports bentutzt, da die laut dem HT4U-Artikel alle am gleichen Taktgeber hängen, richtig?

AnarchX
2009-10-08, 17:22:57
Mit dem Taktgeber für den Ausgang hat es wohl nichts zu tun, sondern mit dem Speicherzugriff, der bei einer gleichzeitigen Taktänderung wohl für Probleme sorgt.

Wohlmöglich kann man hier wie bei HD4000 mit einem BIOS oder Software nachhelfen, wenn einen das kurze Flackern nicht stört.

Aber für ein GraKa die gerade mit ihren Multi-Monitor-Fähigkeiten ist das doch schon etwas ärmlich, dass man hier keine Lösung gefunden hat.

Coda
2009-10-08, 17:56:09
Habe ich doch schon im anderen Thread gesagt, ein Fermi-SM macht zwar 32 SP-FMAs, aber vielleicht nur 8 DP-FMAs pro Takt. Man benötigt alle 32 Cores, und zusätzlich ist die issue rate nur halb so hoch (4 Takte pro Warp statt 2).
Sehr unwahrscheinlich, dass eine Instruction einen anderen Durchsatz hat. Das würde sehr viel andere Sachen deutlich verkomplizieren.

Und überhaupt glaube ich immer noch nicht dass man für ein FMA die doppelte Mantisse braucht. Das würde ich gerne mal irgendwie belegt haben. Meiner Meinung nach reichen da sehr wohl ein paar Bits mehr um am Ende nach der Rundung die gleichen Resultate zu haben. Wenn die Ergebnisse groß genug werden nach dem Mul spielt die Addition ja nur noch bei höherwertigen Bits überhaupt eine Rolle, wieso sollte ich also bei dem Mul jedes letzte Bit ausrechnen müssen?

Oder was übersehe ich dabei?

Menace
2009-10-08, 18:51:30
Na sch*biep*, mit 2 Monitoren also fast schon HD4890 Idle Verbrauch. :eek:
Ich könnt kotzen! Somit hat sich die HD5000 Serie vorerst für mich erledigt! :P

Ich hoffe, dass es beim 5770 etwas besser wird. Ehrlicherweise muss man sagen, dass andere im Multimonitorbetrieb auch mehr verbrauchen. Man müsste eher sagen, dass im Singlemonitorbetrieb der 4890 NICHT weniger verbraucht.

Schlammsau
2009-10-08, 18:57:22
Ich hoffe, dass es beim 5770 etwas besser wird. Ehrlicherweise muss man sagen, dass andere im Multimonitorbetrieb auch mehr verbrauchen. Man müsste eher sagen, dass im Singlemonitorbetrieb der 4890 NICHT weniger verbraucht.
Das liegt höchstwahrscheinlich daran, dass die 4890 den Speichertakt unter 2D gar nicht senkt.

Gipsel
2009-10-08, 19:11:45
Sehr unwahrscheinlich, dass eine Instruction einen anderen Durchsatz hat. Das würde sehr viel andere Sachen deutlich verkomplizieren.
Wie ich ja bereits sagte, ist das bei Integer Multiplies ja wohl auch so (laut David Kanter und seinem Artikel, wenn ich jetzt nicht daneben liege).

Und überhaupt glaube ich immer noch nicht dass man für ein FMA die doppelte Mantisse braucht. Das würde ich gerne mal irgendwie belegt haben. Meiner Meinung nach reichen da sehr wohl ein paar Bits mehr um am Ende nach der Rundung die gleichen Resultate zu haben. Wenn die Ergebnisse groß genug werden nach dem Mul spielt die Addition ja nur noch bei höherwertigen Bits überhaupt eine Rolle, wieso sollte ich also bei dem Mul jedes letzte Bit ausrechnen müssen?

Oder was übersehe ich dabei?
Na dann machen wir für Dich mal ein Beispiel im Dezimalen. Angenommen wir haben 3 signifikante Stellen und wollen Folgendes ausrechnen:

7,99 * 6,01 - 48,0

FMA:
7,99 * 6,01 = 48,0199 (6 signifikante Stellen, keine Rundung!)
48,0199 - 48.0 = 1,99 * 10^-2 (exaktes Ergebnis)

Dein Vorschlag mit sagen wir mal 2 zusätzlichen Stellen (was schon 2/3 des vollen Aufwands sind):
7,99 * 6,01 = 48,019 (oder auch 48,020, je nachdem ob gerundet oder abgeschnitten wird)
48,019 - 48,0 = 1,9 * 10^-2

Ups, da fehlt wohl eine Stelle! ;)

Überzeugt?

Coda
2009-10-08, 19:46:26
Ja.

S940
2009-10-08, 19:52:37
Na sch*biep*, mit 2 Monitoren also fast schon HD4890 Idle Verbrauch. :eek:
Ich könnt kotzen! Somit hat sich die HD5000 Serie vorerst für mich erledigt! :P
Na dann hoff mal auf Fermi .. die aktuellen Nvidias können das nämlich auch nicht großartig besser:
Unbedingt verteufeln mag man diesen Umstand dann auch nicht, denn wie unser Diagramm zeigt: bei NVIDIA sieht es kaum einen Deut besser aus.http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index4.php
;-)

Coda
2009-10-08, 20:04:36
Es ist schon ein Unterschied ob man mal eben 151% mehr Leistung verbraucht als 62%.

Wobei das ganze natürlich allgemein ärgerlich ist. Da lohnt es sich ja schon fast für den zweiten Monitor einfach eine kleine Karte einzubauen.

LovesuckZ
2009-10-08, 20:06:01
Na dann hoff mal auf Fermi .. die aktuellen Nvidias können das nämlich auch nicht großartig besser:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index4.php
;-)

Daran ist nichts tolles zu finden - vorallen, wenn man Multi-Monitor-Betrieb aggressiv vermarktet. Aber halbe Sachen scheinen für AMD ausreichend sein...

Menace
2009-10-08, 20:27:40
Daran ist nichts tolles zu finden - vorallen, wenn man Multi-Monitor-Betrieb aggressiv vermarktet. Aber halbe Sachen scheinen für AMD ausreichend sein...
Halbe Sachen bei nvidia dafür akzeptabel? Doppelmoral.

Menace
2009-10-08, 20:33:37
Es ist schon ein Unterschied ob man mal eben 151% mehr Leistung verbraucht als 62%.

Wobei das ganze natürlich allgemein ärgerlich ist. Da lohnt es sich ja schon fast für den zweiten Monitor einfach eine kleine Karte einzubauen.

Das ist doch jetzt ein unseriöses %-Rechnen für Statistiker. ;)

Die 5870 braucht im Single-Modus extrem wenig; im Doppelmonitorbetrieb braucht sie immer noch WENIGER als eine GeForce GTX 275, die leistungsmäßig nicht mit der 5870 konkurriert. Somit wird auf einmal der extrem geringe Verbrauch bei der Single-Monitor-Nutzung ihr zum Vorwurf gemacht, dass sie im Multimonitorbetrieb dort nicht mehr mithalten kann?

Nicht falsch verstehen, ich kritisiere auch, dass sie im Multimodus mehr verbraucht, aber die Werte sind immer noch besser, als die gesamte Konkurrenz. Da braucht man schon viel Fantasie das als wirklich schlimmes Merkmal hinzustellen.

Coda
2009-10-08, 20:46:11
Tu ich auch nicht. Mich wundert nur der extreme Anstieg.

horn 12
2009-10-08, 20:51:20
Nun, wo bleiben denn die 2GB Modelle der HD5870, bzw. die eigenen Kühllösungen wie Sapphire Toxic, VaporX und Co.
Nicht die Wucherpreise und Wolkenkratzer von Edelgrafikkarten. Die möchte ich umgehenst meiden!!

Oder verbietet ATI Ihnen diese Karten schon jetztzu releasen, bis zum Weihnachtsgeschäft Anfang Dezember durchhalten, NEIN danke!
Wie man sieht ist die HD5870 auch gut OC und doch immer nocht recht leise, daher braucht man die AlternativLüfter zwar nicht zwingend, aber dennoch wäre es ne feine Sache!

y33H@
2009-10-08, 20:52:30
Die möchte ich umgehenst meiden!Du wirst keine HD5870 seitens Sapphire usw. finden, die leiser ist als eine per S1 gemoddete.

AnarchX
2009-10-08, 20:54:50
Tu ich auch nicht. Mich wundert nur der extreme Anstieg.
Der Speicherkontroller braucht für wohl für die 1.2GHz auch eine höhere Spannung, sodass der VCore erhöht werden muss.

Das ganze scheint nicht wirklich das technisch Mögliche darzustellen.

Nvidia zeigt, dass es mit der G210 (589/499MHz Referenztakt) auch anders geht.
Hier wird der Takt für zwei Monitore nur auf 405/405MHz angehoben und der Verbrauch steigt gegenüber Single-Monitor nur um 7%:
http://www.pcgameshardware.de/aid,694172/Geforce-G210-Nvidias-erste-DirectX-101-Karte-mit-GT218-Chip-im-Test/Grafikkarte/Test/

Menace
2009-10-08, 21:04:33
Nvidia zeigt, dass es mit der G210 (589/499MHz Referenztakt) auch anders geht.


Könnte man doch auch sagen, dass die Absenkung mit einem Monitor nicht so stark ist wie bei der 5870. :confused:

Und kann man diese zwei Modelle wirklich vergleichen? Ich denke, dass bei der 5850 der Anstieg auch weit darunter liegen wird, weil die hochgetaktete Karte einfach weniger verbraucht.

AnarchX
2009-10-08, 21:59:09
Da scheint es wohl doch noch einen Unterschied zwischen zwei Transmittern für ein Display und zwei Transmitter für zwei Displays zu geben, bei letzerem laufen beide wohl asynchron und man kann die Taktänderung nicht in eine Schaltpause einschieben, da in diesem Moment möglicherweise gerade das 2. Display auf den VRAM zugreift.

This is the case irrespective of the RAM and has always been the case. MCLK switching is timed to be done within a VBLANK of the LCD; more than one LCD you can have different timing between them so you end up with one of them flashing whenever an MCLK switch occurs.

horn 12
2009-10-08, 22:13:57
Äusserst guter und echt umfangreicher Test, mit allen Angaben: Last/Idle Temperaturen und Verbrauch, AF und AA Qualitätskurve, ... sowie auch den prozentualen Unterschieden einer:
HD5870 zur HD5850
und gar einer
GTX 285 zur HD5850

http://www.hwupgrade.it/articoli/skvideo/2298/ati-radeon-hd-5850-rv870-in-formato-ridotto_index.html

Da muss man die Italiener (mich eingeschlossen) mal echt loben!

HarryHirsch
2009-10-08, 22:16:25
Äusserst guter und echt umfangreicher Test, mit allen Angaben: Last/Idle Temperaturen und Verbrauch, AF und AA Qualitätskurve, ... sowie auch den prozentualen Unterschieden einer:
HD5870 zur HD5850
und gar einer
GTX 285 zur HD5850

http://www.hwupgrade.it/articoli/skvideo/2298/ati-radeon-hd-5850-rv870-in-formato-ridotto_index.html

Da muss man die Italiener (mich eingeschlossen) mal echt loben!

dürfte ja ziemlich subjektiv sein

LovesuckZ
2009-10-08, 22:21:12
Halbe Sachen bei nvidia dafür akzeptabel? Doppelmoral.

Ja, seit über einem Jahr. :rolleyes:
Aber zum Glück wird Eyefinity nicht als Officelösung angepriesen. Sonst könnte man meinen, dass nur bis zur Hälfte gedacht wurde. :)

Gast
2009-10-08, 22:25:20
dürfte ja ziemlich subjektiv sein
Minderwertige Filterqualität ist objektiv vorhanden.

HarryHirsch
2009-10-08, 22:26:57
Minderwertige Filterqualität ist objektiv vorhanden.

Wer hat das Gegenteil behauptet?