PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870 X2: (P)Review-Thread


Seiten : 1 2 [3]

L233
2008-08-13, 01:18:45
Kurze Frage...


Kann jemand das hier bestätigen:


*click (http://forum.beyond3d.com/showpost.php?p=1203066&postcount=233)*

MEDIC-on-DUTY
2008-08-13, 09:49:49
Kurze Frage...
Kann jemand das hier bestätigen:
*click (http://forum.beyond3d.com/showpost.php?p=1203066&postcount=233)*

Nice. Leider taugt diese Thematik nicht einmal mehr für eine gegnerische Pressemeldung, weil diese Vorgehensweise leider schon gang und gäbe ist.

Die Länge der Balken in Benchmarks wird immer uninteressanter. Man sollte sich wieder auf die wirklichen Werte besinnen: Bild-/Signalqualität und HD-Tauglichkeit. FPS um jeden Preis ist der falsche Weg.

Das ganze CF/SLI-Geschmarre taugt doch nur zum Werbeaufdruck auf der Packung.

Raff
2008-08-13, 09:57:04
Ach wie schön, dass Raff auf einmal so ruhig ist :| Naja, schließlich müsste er sich hier entweder outen, oder den zuständigen Redi bloß stellen - lieber nix sagen? :D

Sorry, aber wir haben weder Zeit noch Lust, jeden Vorwurf in jedem Forum 3x zu erläutern. Einfach mal in den verlinkten Artikel inklusive "Benchmark-Offensive" schauen, da konstruktiv reinsenfen und uns allen ist geholfen. Und ganz nebenbei gehen viele von uns ab und an einem Privatleben nach ...

MfG,
Raff

derwalde
2008-08-13, 10:17:06
Wenn der sch..... thermalright HR-03 GTX für die GTX260/280 lieferbar wäre hätte wahrscheinlich längst ne GTX280 aber so muss ich wohl die preissenkungen noch mitnehmen oder kommt der GT200B schon bald?

wie wahr, wie wahr .... :redface:

Schlammsau
2008-08-13, 10:20:01
Das ganze CF/SLI-Geschmarre taugt doch nur zum Werbeaufdruck auf der Packung.

Bei CPU´s gilt doch auch, je mehr Kerne desto besser, warum sollte es bei Grakas anders sein. Multi GPU ist die Zukunft und es kann nur besser werden! :)

Mr. Lolman
2008-08-13, 10:20:03
Also ist das die offizielle Erklärung, für die Kaufempfehlung...

Wir würfeln sicherlich nicht aus, welche Grafikkarte bei uns im Einkaufsführer ganz vorne steht. Das passiert sogar völlig automatisch mit komplexen Excels. Hier werden Werte wie Benchmarks eingetragen und am Ende kommt dann eine Note raus. Allerdings fließt in diese Wertung nicht nur die 3D-Leistung. Lautstärke, Eigenschaften und Ausstattung tragen auch einen Teil zur Wertung bei. Uns ist also völlig egal, ob auf einer Grafikkarte ein AMD- oder Nvidia-Chipsatz ist, über Wertungen entscheidet nur das Excel und die Redakteure können hier nichts manipulieren, selbst wenn das so gewollt wäre. So wie ich das beurteilen kann schaltet weder Nvidia noch AMD in der PCGH Anzeigen - der Spruch wir wären gekauft entspricht vielleicht den Phantasien vieler AMD-Fanboys - mehr aber auch nicht.

...oder gibts noch irgendwo ne andere, die ich bisher übersehen hab?

reunion@work
2008-08-13, 10:22:20
Also ist das die offizielle Erklärung, für die Kaufempfehlung...

...oder gibts noch irgendwo ne andere, die ich bisher übersehen hab?

Hat ja niemand behauptet das hier jemand gekauft wurde. Die Benchauswahl war bei dem Test nur verdammt "unglücklich" für die AMD-Karten.

Schlammsau
2008-08-13, 10:22:57
Also ist das die offizielle Erklärung, für die Kaufempfehlung...

...oder gibts noch irgendwo ne andere, die ich bisher übersehen hab?

da ist irgendwo gewaltig der wurm drinn!

derwalde
2008-08-13, 10:26:03
da ist irgendwo gewaltig der wurm drinn!

ich finds ehrlich gesagt auch komisch. andererseits weiß mittlerweile jeder hier die stärken und schwächen der jeweiligen karten und muss sich (gottseidank?!) nicht an irgendwelchen tabellen orientieren.

wenn man aber als jemand der keine ahnung hat sich so die tabelle anschaut, könnte man schon meinen, dass ganze wirke evtl. ein wenig "suggestiv".

ShadowXX
2008-08-13, 10:40:00
ich finds ehrlich gesagt auch komisch. andererseits weiß mittlerweile jeder hier die stärken und schwächen der jeweiligen karten und muss sich (gottseidank?!) nicht an irgendwelchen tabellen orientieren.

wenn man aber als jemand der keine ahnung hat sich so die tabelle anschaut, könnte man schon meinen, dass ganze wirke evtl. ein wenig "suggestiv".
Speziell da es eine Kaufempfehlung für Grafikkarten ist.
Da spielen Faktoren abseits der Leistung meist nur eine Untergeordnete Rolle.

Und gerade aus diesem Grund finde ich auch das sich die PCGHW mit diese Liste mehr als unglaubwürdig macht.

Ich sehe gerade das eine 9800GTX im durchschnitt bei 8xMSAA + 16xAF (@ 1680*1050) schneller sein soll als ne 4870 (OC sogar). Was wurde denn da bitte als Benchmarks genommen?
Und ne 280GTX soll im Durchschnitte 20-30FPS bei den Settings sein....das wird immer besser.
War da bei ATI EdgeDetect anstatt des Box-Filters an?

HD-Ronny
2008-08-13, 11:19:23
Kann man die Kaufempfehlung nicht in einem gesondeten Thread diskuttieren,oder vielleicht sogar im Forum der PCGH selber ? Hier in diesem Thread geht es mir nämlich völlig am Arsch vorbei welche Empfehlungen PCGH ausspricht und ob das seine Richtigkeit hatt.

MadManniMan
2008-08-13, 12:55:28
Ein Extrathread hier im Forum wurde schonmal geschlossen...

AnarchX
2008-08-13, 13:05:08
Ein Extrathread hier im Forum wurde schonmal geschlossen...
Weil es, wie Raff schon sagt, hier keinen Sinn macht euch kollektiv über das Rating von PCGH aufzuregehen, wo die Adressaten der Kritik nur teilweise anwesend sind und PCGH die Möglichkeit gibt in ihren Foren entsprechende Kritik abzugeben.

Deshalb bitte ich darum weitere Diskussionen an dieser Stelle einzustellen.

MEDIC-on-DUTY
2008-08-13, 13:25:11
Hat jetzt eigentlich schon nV verlauten lassen, dass man eine X2 auf 260er Basis bauen will? :D

L233
2008-08-13, 13:46:45
Nice. Leider taugt diese Thematik nicht einmal mehr für eine gegnerische Pressemeldung, weil diese Vorgehensweise leider schon gang und gäbe ist.

Jap, aber das interessante an der FurMark-Sache ist doch, wenn es denn stimmt, dass AMD den Benchmark drosselt....

Schlammsau
2008-08-14, 18:08:27
was mir an den ganzen Reviews gar nicht gefällt, bei dem einen verbraucht die X2 weniger als eine einzelne 4870 im Idle, bei dem anderen wieder mehr. Bei der einen Seite läuft Crysis super, bei einer anderen Seite wieder überhaupt nicht, usw..... Unterschiede waren von Seite zu Seite schon immer da, aber bei den 4870X2 Reviews fällt es mir besonders stark auf!

tombman
2008-08-15, 00:11:54
Unterschiede waren von Seite zu Seite schon immer da, aber bei den 4870X2 Reviews fällt es mir besonders stark auf!
Jo, da gehts drunter und drüber, kann man echt nix mehr glauben...

Ich hoffe, Xbitlabs bekommen mal alle Karten und benchen mal ganz genau nach....

Leider siehts auch nicht danach aus, als ob sich 2x R700 hier im Forum wer kaufen wird. Gibts wenigstens Luxxer die das kaufen werden? ;D

Fetza
2008-08-15, 00:14:21
Jo, da gehts drunter und drüber, kann man echt nix mehr glauben...

Ich hoffe, Xbitlabs bekommen mal alle Karten und benchen mal ganz genau nach....

Leider siehts auch nicht danach aus, als ob sich 2x R700 hier im Forum wer kaufen wird. Gibts wenigstens Luxxer die das kaufen werden? ;D

Ich finde, du solltest dir beides kaufen, dann könntest du auch jederzeit, für jeden neuen treiber, sli vs crossfire-x tests hier liefern. :D

tombman
2008-08-15, 00:32:55
Ich finde, du solltest dir beides kaufen, dann könntest du auch jederzeit, für jeden neuen treiber, sli vs crossfire-x tests hier liefern. :D
Na daß das vielen gefallen würde kann ich mir vorstellen- die Zeiten sind aber definitiv vorbei ;D

AnarchX
2008-08-15, 18:04:24
Bei HKEPC sieht der Idle-Verbrauch der 4870X2 ziemlich gut aus:
http://translate.google.ch/translate?u=http%3A%2F%2Fhkepc.com%2F%3Fid%3D1583%26page%3D3%26fs%3Didn%23view&sl=zh-CN&tl=en&hl=de&ie=UTF-8

Radeon HD 4870 X2 Radeon HD 4870 GeForce GTX 280
Idle 139.5W 133.4W 131.9W
3D Rendering (Max) * 397.1W 255.2W 301.6W

Im Gegensatz zu manch anderem Testsystem scheint das 1200W Gigabyte-NT bei dem Lastverbrauch der 4870X2 auch nicht am Ende zu sein und liefert noch eine entsprechend gute Effizienz.

Schlammsau
2008-08-15, 18:11:04
Bei HKEPC sieht der Idle-Verbrauch der 4870X2 ziemlich gut aus:
http://translate.google.ch/translate?u=http%3A%2F%2Fhkepc.com%2F%3Fid%3D1583%26page%3D3%26fs%3Didn%23view&sl=zh-CN&tl=en&hl=de&ie=UTF-8

Radeon HD 4870 X2 Radeon HD 4870 GeForce GTX 280
Idle 139.5W 133.4W 131.9W
3D Rendering (Max) * 397.1W 255.2W 301.6W

Im Gegensatz zu manch anderem Testsystem scheint das 1200W Gigabyte-NT bei dem Lastverbrauch der 4870X2 auch nicht am Ende zu sein und liefert noch eine entsprechend gute Effizienz.

welcher Treiber? seit wann verbraucht eine 4870 im Idle das gleiche wie eine GTX280?

AnarchX
2008-08-15, 18:15:21
welcher Treiber? seit wann verbraucht eine 4870 im Idle das gleiche wie eine GTX280?

Steht doch da:
Driver
Forceware 177.79
ATI Catalyst 8.8

Wohlmöglich läuft PP nun hier auch auf der HD4870, denn ein Idle-Verbrauch von <150W, zusammen mit einem QX9770, sieht ja nicht unbedingt danach aus, dass bei der GTX 280 am Stromsparmodus etwas nicht stimmte.

Schlammsau
2008-08-15, 18:34:14
Retail-Wakü für HD 4870 X2 von CoolIT (http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2008/august/retail-wakue_hd_4870_x2_coolit/)

http://pics.computerbase.de/2/2/5/3/6/1.jpg

Gast
2008-08-15, 19:17:28
Mein Gott, die solten mal ein paar Designer einstellen, hässlicher gehts kaum.

Und für produktofots hätte eine echte Karte wohl auch einen besseren eindruck hinterlassen.

Fetza
2008-08-15, 20:15:28
Bei HKEPC sieht der Idle-Verbrauch der 4870X2 ziemlich gut aus:
http://translate.google.ch/translate?u=http%3A%2F%2Fhkepc.com%2F%3Fid%3D1583%26page%3D3%26fs%3Didn%23view&sl=zh-CN&tl=en&hl=de&ie=UTF-8

Radeon HD 4870 X2 Radeon HD 4870 GeForce GTX 280
Idle 139.5W 133.4W 131.9W
3D Rendering (Max) * 397.1W 255.2W 301.6W

Im Gegensatz zu manch anderem Testsystem scheint das 1200W Gigabyte-NT bei dem Lastverbrauch der 4870X2 auch nicht am Ende zu sein und liefert noch eine entsprechend gute Effizienz.

Verstehe ich da was falsch? Ein gutes 600er markennetzteil sollte doch auch mit der x2 keine probleme haben. 1200 scheint mir da absoluter, derber, unbegreiflicher overkill. Ich habe aber auch von elektrotechnik keine ahnung, also falls mich da wer aufklären kann. :D

AnarchX
2008-08-16, 21:11:41
Hier gibt es noch ein paar interessante Folien von AMD zur X2 ink. Video "Clash of the titans", wo die X2 gegen eine OC GTX 280 antritt:
http://forum.donanimhaber.com/m_25688835/tm.htm
(Die erste, "lustige" Folie wird hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=428614) besprochen.;))

deekey777
2008-08-20, 00:30:19
ATI RADEON HD 4870 X2 2x1024MB (http://www.digit-life.com/articles3/video/rv770-3-part1-p1.html)@Digit-Life


http://www.digit-life.com/articles3/video/rv770-3-part1-p6.html

RightMark3D 2.0 hat manchmal einen Dachschaden

Tarkin
2008-08-20, 00:54:40
http://www.overclock3d.net/reviews.php?/gpu_displays/asus_hd_4870_x2_eah4870x2_2gb_pci-e/1


X2 vs. GTX 280

"Cost per Frame" ist interessant... mal was anderes!

AnarchX
2008-08-23, 08:18:36
http://img262.imageshack.us/img262/4691/4870x2power2213598ys3.gif (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0

clockwork
2008-08-23, 08:32:26
Alternate hat heute in ihrem "ZACKZACK!" Angebot eine 4870x2 für 329€ rausgehaun. (gibt keine mehr :P)

http://www.alternate.de/html/zackzack/detail.html?tn=ZACKZACK&l1=#tabTech

AnarchX
2008-08-23, 10:04:39
NT-Frage: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=429277

Alternate hat heute in ihrem "ZACKZACK!" Angebot eine 4870x2 für 329€ rausgehaun. (gibt keine mehr :P)

http://www.alternate.de/html/zackzack/detail.html?tn=ZACKZACK&l1=#tabTech
ca. 100€ unter dem Listenpreis, da scheint Alternate noch eine mächtige Spanne zu haben, wenn auch es natürlich eine Werbeaktion ist.

*Meeep-meeep! FIIIIICHUUuuuuuuuu....* So richtig Roadrunner-like können Sie ab sofort in Spielen abgehen. Wie das? Naja, die Daten dieser Grafikkarte lassen es erahnen: Zwei auf 750 MHz getaktete HD4870er-Chips und insgesamt 2 GB GDDR5-RAM bringen den Rechner so richtig auf Schwung. Na, hoffen wir mal, dass Ihnen der böse Kojote keine Steine in den Weg legt!
;D

HD-Ronny
2008-08-23, 12:10:36
:eek: 329,- !!

Als alternate mal als Zackzack eine 8800GT für 99Euro brachte dachte ich auch das kann nicht sein, jetzt ist die 88GT auch woanders dauerhaft zu Preis lieferbar.Vielleicht wird das mit der 4870X2 auch so sein? Das ist ja ein Hammerpreis für die Karte,sollte der sich etablieren ist man bei Nvidia wieder sicher extrem geplättet.

Botcruscher
2008-08-23, 12:19:40
Der Preis ist böse. Da sieht man mal wieviel Spielraum AMD bei der 4870 noch hätte.

anddill
2008-08-23, 12:40:31
Heilige Scheiße! Dumm nur, daß man noch 130€ für das passende Netzteil dazurechnen muß.

Cherubim
2008-08-23, 12:54:47
So, habe diese Nacht bei nem Kumpel die Gainward 4870 X2 mit eingebaut und werde warscheinlich Morgen wieder da sein um weiterzutesten.

Haben nur noch Devil may Cry 4 angetestet, weil er es gerade auf dem Schreibtisch liegen hatte. Mehr kommt morgen.
MR sind mir keine aufgefallen! Kenne die von meiner 7950GX2 mehr als genug ;(

Sein Sys:

- 9850 BE @ IFX-14 (noch kein OC, da gestern neu)
- Gigabyte MA790X - DS4
- 8GB TeamGroup Elite DDR2 1066
- Gainward 4870 X2
- Enermax Modu82+ 525Watt

bin mal sehr gespannt...aber der ersteindruck war...... "do want"


edit:
Lautstärke im idel bei geschlossenem Gehäuse: GraKa nicht heraushörbar
Lautstärke nach 45min DmC4: Lüfterdrehzahl der GraKa nicht gestiegen, ergo nicht geraushörbar

horn 12
2008-08-23, 14:20:00
Der Preis bei Alternate der X2-er Karte wird wohl bald zum Standard werden. Wenn die 260 GTX kommt mit dem Update auf 216 wird wohl der Preis der HD4870 auf die 170 Euro fallen und auch die HD4870 X2 wird dann auf Alternate Preis um die 330-340 Euro zu liegen kommen.
Die HD4870 hielt sich schon fast zu stabil im letzten Monat, da wird sicher was gehen in 1-2 Wochen.
Wahrscheinlich sogar früher um die Käuferschicht der HD4870 zu beflügeln, ehe die "Neue" GTX260 daherkommt, denn dies dürfte auch AMD/ATI nicht gut schmecken.

Hacki_P3D
2008-08-26, 08:10:11
Der Preis bei Alternate der X2-er Karte wird wohl bald zum Standard werden. Wenn die 260 GTX kommt mit dem Update auf 216 wird wohl der Preis der HD4870 auf die 170 Euro fallen und auch die HD4870 X2 wird dann auf Alternate Preis um die 330-340 Euro zu liegen kommen.
Die HD4870 hielt sich schon fast zu stabil im letzten Monat, da wird sicher was gehen in 1-2 Wochen.
Wahrscheinlich sogar früher um die Käuferschicht der HD4870 zu beflügeln, ehe die "Neue" GTX260 daherkommt, denn dies dürfte auch AMD/ATI nicht gut schmecken.



Die günstigste 4870 mit 1GB Ram kostet derzeit 230€, diese sollte zum Vergleich genommen werden.

Raff
2008-08-26, 09:40:41
So, habe diese Nacht bei nem Kumpel die Gainward 4870 X2 mit eingebaut und werde warscheinlich Morgen wieder da sein um weiterzutesten.

Haben nur noch Devil may Cry 4 angetestet, weil er es gerade auf dem Schreibtisch liegen hatte. Mehr kommt morgen.
MR sind mir keine aufgefallen! Kenne die von meiner 7950GX2 mehr als genug ;(

Es ist übelst schwer, bei ~700 Fps noch MR wahrzunehmen. ;) Will sagen: Das Spiel fluppt super, deswegen ist das Problem dort kein ernsthaftes.

MfG,
Raff

Cherubim
2008-08-26, 10:07:16
jo, dass ist mir schon klar, dass DmC4 kein problem darstellt :D
Da wir beide keine Benchmark kings sind, gibts halt nur subjektive "brichte" ;)

BioShock läuft grandios, Oblivion (mit den bekannten "besser aussehen lass mods" ebenfalls, HL2 Episode2 ohne probleme.....Vantage kommt noch, erachten wir beide als nicht so wichtig.

Bin auch nach dem 2. Testabend immer noch begeistert :D

Brudertac
2008-08-26, 10:27:29
Gibt es eigentlich Hoffnung das sich die Performance mit weiteren Treibern noch verbessert ?
Also zb. bei Crysis sieht die Karte ja irgendwie immer noch ziemlich schlecht aus.

Mr. Lolman
2008-08-26, 10:37:18
Gibt es eigentlich Hoffnung das sich die Performance mit weiteren Treibern noch verbessert ?
Also zb. bei Crysis sieht die Karte ja irgendwie immer noch ziemlich schlecht aus.


Kommt anscheinend sehr auf den jew. Test draufan. Hier zB. ist sie ja wunderbar flott: http://www.hardwarezone.com/articles/view.php?id=2653&cid=3&pg=8

Gast
2008-08-26, 10:52:04
Gibt es eigentlich Hoffnung das sich die Performance mit weiteren Treibern noch verbessert ?
Also zb. bei Crysis sieht die Karte ja irgendwie immer noch ziemlich schlecht aus.

68-106% Mehrleistungs als bei der Single HD4870, was ist daran "ziemich schlecht"? Eine 280er wird richtig verblasen in dem Nvidia Optinmierten Crap Game.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/20/#abschnitt_crysis

Cherubim
2008-08-26, 11:29:24
bis jetzt war es bei ati immer so, dass die treiber immer besser wurden. imo (!) wird das sicher auch jetzt noch der fall sein.

beos
2008-08-26, 11:38:08
ca. 100€ unter dem Listenpreis, da scheint Alternate noch eine mächtige Spanne zu haben, wenn auch es natürlich eine Werbeaktion ist.

;D

Die Karte war ja nach 2 Minuten ausverkauft - ich hab Alternate mal eine "Rückmeldung" diesbezüglich geschrieben ;(

Brudertac
2008-08-26, 12:18:13
Hm, so schlechts siehts anscheinend wirklich nicht mehr aus. Irgendwie hatte ich da
andere Messwerte im Kopf...

dutchislav
2008-08-26, 15:10:35
Hab mir jetzt eine 280GTX bestellt, und der Lieferant sagte mir, dass es sich von 335 auf 365 verteuert hat ... toll

Jetzt bin ich am überlegen, ob ich anstatt der 280GTX eine 4870X2 nehmen soll *grübel und verzweifel*

Mumins
2008-08-26, 15:35:44
Hab mir jetzt eine 280GTX bestellt, und der Lieferant sagte mir, dass es sich von 335 auf 365 verteuert hat ... toll

Jetzt bin ich am überlegen, ob ich anstatt der 280GTX eine 4870X2 nehmen soll *grübel und verzweifel*

Möglich, da Dollar wieder stärker.

Brudertac
2008-08-26, 15:36:54
Wo ist das Problem ? Es sind doch noch genug mit ca. 330 Euro gelistet ?

dutchislav
2008-08-26, 15:47:18
in österreich sind die Preise immer heftiger als in Deutschland. wenn ich in Deutschland bestellen würde, zahle ich erst wieder 20€ porto ;)

naja, egal. werds wohl bei der 280gtx belassen. wenn ich jetzt auf die 4870X2 umspringe, muss ich wohl das Netzteil wieder retour senden

HD-Ronny
2008-08-26, 16:44:15
Wieso ? Ein Netzteil welches die GTX280 versorgen kann sollte doch auch für die 4870X2 reichen ?
Welches Netzteil haste denn bestellt ?

Gast
2008-08-26, 17:48:43
Wird es auch, diese Netzteil angst ist meiner meinung nach deutlich überbewertet!

dildo4u
2008-08-26, 17:51:14
Wieso ? Ein Netzteil welches die GTX280 versorgen kann sollte doch auch für die 4870X2 reichen ?
Welches Netzteil haste denn bestellt ?
Nicht wirklich für eine X2 muss man ca 100Watt mher einplanen.

http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0

Palpatin
2008-08-26, 19:47:50
Nicht wirklich für eine X2 muss man ca 100Watt mher einplanen.

http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0

Eher 150 Watt mehr:
http://www.anandtech.com/video/showdoc.aspx?i=3372&p=10
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme

AnarchX
2008-08-26, 20:00:40
Eher 150 Watt mehr:
http://www.anandtech.com/video/showdoc.aspx?i=3372&p=10
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme
Hast du den Link von dildo4u überhaupt geöffnet? Denn dort wird die Karte einzeln gemessen, während Anand und CB das gesamte System messen und dort der Wirkungsgrad der NTs entsprechend leidet unter der hohen Last und die Werte bei weitem nicht so repräsentativ wie die von Xbit-Labs sind.

dildo4u
2008-08-26, 20:00:58
Eher 150 Watt mehr:
http://www.anandtech.com/video/showdoc.aspx?i=3372&p=10
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme
Xbitlabs misst als einzige Seite nur die Karte von daher sind die Werte schon sher genau.

http://www.pcgameshardware.de/aid,657322/News/xbitlabs_HD_4870_X2_schluckt_263_Watt/

reunion
2008-08-26, 20:31:47
Nicht wirklich für eine X2 muss man ca 100Watt mher einplanen.

http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0

85.9W um genau zu sein.

Palpatin@work
2008-08-27, 08:18:02
Hast du den Link von dildo4u überhaupt geöffnet? Denn dort wird die Karte einzeln gemessen, während Anand und CB das gesamte System messen und dort der Wirkungsgrad der NTs entsprechend leidet unter der hohen Last und die Werte bei weitem nicht so repräsentativ wie die von Xbit-Labs sind.
Ja ich hab den Link gelesen, sicherlich ist es genauer, aber was ist Praxisnäher?

AnarchX
2008-08-27, 08:24:04
Ja ich hab den Link gelesen, sicherlich ist es genauer, aber was ist Praxisnäher?
Natürlich, da wir doch wissen wollen wieviel Leistung das benötigte Netzteil haben soll und damit hat die Wirkungsgrad abhängige Eingangsleistung weniger zu tun.
Vielleicht nochmal lesen:
http://www.3dcenter.org/artikel/zieht-mein-600w-netzteil-immer-600w-aus-der-steckdose

Unyu
2008-08-27, 12:36:20
Nicht wirklich für eine X2 muss man ca 100Watt mher einplanen.

http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0
Wobei 3Mark06 nicht unbedingt die höchste Auslastung erzeugt.

Gast
2008-08-27, 13:26:58
Natürlich, da wir doch wissen wollen wieviel Leistung das benötigte Netzteil haben soll und damit hat die Wirkungsgrad abhängige Eingangsleistung weniger zu tun.
Vielleicht nochmal lesen:
http://www.3dcenter.org/artikel/zieht-mein-600w-netzteil-immer-600w-aus-der-steckdose

Erklärt leider trozdem nicht die extrem stakren Differenzen bei den Messungen selbst wenn ich den miteinberechne, das x-bits 3dmark06 genommen hat erklärt das schon eher.

Tarkin
2008-09-08, 08:38:04
http://www.driverheaven.net/reviews.php?reviewid=622&pageid=1

Asus 4870 X2 TOP (GPU 790MHz, MEM 3.66GHz)
vs default X2 (GPU 750, MEM 3.6GHz)
und 280 GTX OC (GPU 665MHz, MEM 1.2GHz, Shader 1.458GHz)

Palpatin@work
2008-09-08, 12:45:48
http://www.driverheaven.net/reviews.php?reviewid=622&pageid=1

Asus 4870 X2 TOP (GPU 790MHz, MEM 3.66GHz)
vs default X2 (GPU 750, MEM 3.6GHz)
und 280 GTX OC (GPU 665MHz, MEM 1.2GHz, Shader 1.458GHz)

Ui die geht ja ab, nur die load Temps von 78 Grad kauf ich ihnen nicht ab.

4 Vitamins
2008-09-08, 13:02:47
http://www.driverheaven.net/reviews.php?reviewid=622&pageid=1

Asus 4870 X2 TOP (GPU 790MHz, MEM 3.66GHz)
vs default X2 (GPU 750, MEM 3.6GHz)
und 280 GTX OC (GPU 665MHz, MEM 1.2GHz, Shader 1.458GHz)

gtx oc wird krass weggebombt.
Ich denke noch 2 treiber von ati und es reicht auch eine 4870 um 280gtx um 10-15% zu schlagen.


gruss

nagus
2008-09-08, 13:22:55
die OC werte der 4870X2 sind auch beeindruckend 850Mhz Coretekt :eek:

Grindcore
2008-09-08, 13:27:42
Ich denke noch 2 treiber von ati und es reicht auch eine 4870 um 280gtx um 10-15% zu schlagen.

Das ist echt ne äußerst realistische Einschätzung, wenn man sieht, dass selbst die eine GTX schon reicht um die X2 in einigen Benchmarks zu schlagen. ;D

Nakai
2008-09-08, 13:39:36
Das ist echt ne äußerst realistische Einschätzung, wenn man sieht, dass selbst die eine GTX schon reicht um die X2 in einigen Benchmarks zu schlagen. ;D

Ja, wenn mal das schlechte CF nicht greift. :(

ATI sollte echt mal mehr Kraft in die Optimierng vom CF verwenden. Vorallem mal ein paar Profile erstellen.


mfg Nakai

tombman
2008-09-08, 22:02:48
Ja, wenn mal das schlechte CF nicht greift. :(

ATI sollte echt mal mehr Kraft in die Optimierng vom CF verwenden. Vorallem mal ein paar Profile erstellen.


mfg Nakai
Jo, vorallem sollten sie mal QUAD-CF zum Laufen kriegen, und zwar nicht nur in ner handvoll games. Um Nvidia zu schlagen brauchen sie mehr als 2 Gpus ;)

Gast
2008-09-08, 22:09:08
Wozu...Microrucker gibts ja immer noch, bringt doch nix!

Megamember
2008-09-08, 22:56:19
Ihr immer mit euren Mikrorucklern. Ich würde die Karte ja zu gerne mal live erleben und gucken ob das mit den Rucklern wirklich so schlimm ist. Wahrscheinlich nicht. Das nervt doch bestimmt wenn überhaupt nur bei schnellen online-Shootern wo extrem hohe fps gewünscht sind.

tombman
2008-09-08, 23:03:58
Ihr immer mit euren Mikrorucklern.
[ ] Du weißt wovon du sprichst

;)

Gast
2008-09-08, 23:04:49
Grade da ja nicht.
Solange die Karte(n) ein mindestmaß an Fps erreicht haben, stören diese kaum noch. Zumindest vom hören/sagen her.
Ich würd auch gern mal ein Video dazu sehn wie sich das bei vielen Fps auswirkt.
Vielleicht ist ja ein Member mal dazu bereit ein Video für die Community upzuloaden:)

dr_mordio
2008-09-09, 02:33:45
ja die karte hat ja gut zugelegt mit den treibern.

aber in einigen tests wo CF nicht funktioniert ist eine X2 ja sogar minimal langsamer als eine singel 4870.

ich hab ja eine 4870.
ginge das, das ich eine X2 zusätzliche reinpacke (hab ein X38 board mit 32 lanes, beide PCIe2.0)

kann ich dann tripple-CF fahren und die singelcard als master konfigurieren, falls CF mal nicht geht?

und wie ist die performance von einem tripple gespann? das sieht man ja leider sehr selten.

MfG
Alex

tombman
2008-09-09, 03:05:48
ja die karte hat ja gut zugelegt mit den treibern.

aber in einigen tests wo CF nicht funktioniert ist eine X2 ja sogar minimal langsamer als eine singel 4870.

ich hab ja eine 4870.
ginge das, das ich eine X2 zusätzliche reinpacke (hab ein X38 board mit 32 lanes, beide PCIe2.0)

kann ich dann tripple-CF fahren und die singelcard als master konfigurieren, falls CF mal nicht geht?

und wie ist die performance von einem tripple gespann? das sieht man ja leider sehr selten.

MfG
Alex
Du brauchst da gar nix konfigurieren, falls cf ned geht, rennt eh nur 1 chip, und welcher das dann ist, ist völlig egal.

Palpatin@work
2008-09-09, 09:57:36
ja die karte hat ja gut zugelegt mit den treibern.

aber in einigen tests wo CF nicht funktioniert ist eine X2 ja sogar minimal langsamer als eine singel 4870.

ich hab ja eine 4870.
ginge das, das ich eine X2 zusätzliche reinpacke (hab ein X38 board mit 32 lanes, beide PCIe2.0)

kann ich dann tripple-CF fahren und die singelcard als master konfigurieren, falls CF mal nicht geht?

und wie ist die performance von einem tripple gespann? das sieht man ja leider sehr selten.

MfG
Alex

Triple CF ist doch imo genauso sinnlos wie QuadCF, am besten ne normale 4870 hinzu und gut ist.
Zu den Microrucklern die sind mehr vom Spiel abhänig als von den Frames.
Bei vielen merkt man gar nix. Mir persönlich ist da nur Crysis negativ aufgefallen, und das hab ich nur ganz kurz angezockt .

Unyu
2008-09-09, 10:04:28
Ihr immer mit euren Mikrorucklern. Ich würde die Karte ja zu gerne mal live erleben und gucken ob das mit den Rucklern wirklich so schlimm ist. Wahrscheinlich nicht. Das nervt doch bestimmt wenn überhaupt nur bei schnellen online Games wo extrem hohe fps gewünscht sind.
[ ] Du kennst den Mikroruckler Simulator.

Triple CF ist doch imo genauso sinnlos wie QuadCF
Warum eigentlich? Wo bleibt hier der Kunden Support?

Nakai
2008-09-09, 12:07:14
Du brauchst da gar nix konfigurieren, falls cf ned geht, rennt eh nur 1 chip, und welcher das dann ist, ist völlig egal.

Solangs keine Profile gibt, kann mans eh vergessen.

Um Nvidia zu schlagen brauchen sie mehr als 2 Gpus

Aus der Sicht des nicht Harwaregeilen GPU-Fetischisten, wurde NV wirklich geschlagen, von der Performance in nahezu allen Segmenten.


mfg Nakai

deekey777
2008-09-09, 12:18:37
Du brauchst da gar nix konfigurieren, falls cf ned geht, rennt eh nur 1 chip, und welcher das dann ist, ist völlig egal.
Das ist der optimistische Fall. Der pessimistische ist...
http://www.ixbt.com/video/itogi-video/test/0807_4870x2.shtml
Einfach Bildchen und Zahlen anschauen, den Text zu verstehen, ist nicht nötig, da die Zahlen für sich sprechen.

Gast
2008-09-10, 00:04:10
hallo

ich steh grad vor der entscheidung mit ne hd4870 1gb zu holen pder für knapp 150 € mehr eine hd4870 x2.

dazu hätte ich noch ein paar fragen:

1) wäre eine hd4870 für eine auflösung von 1920*1200 + aa;af ausreichen oder sollte es schon die x2 sein?

2) die restlichen komponenten wären ein x3350 @ 3,2 ghz, 1 lw, 4 hdds, und 4 lüfter. würde mein be qiute dark power p7 550w ausreichen oder braüchte man für die x2 ein stärkeres nt?

3) gibt es noch irgendwelche anderen nachteile ausser dem hohen stromverbrauch im 3d modus und der angeblichen mikroruckler? im idle verbraucht sie ja nur geringfügig mehr als ne non x2

4) wie sehr würde pcie 1.1 die karte bremsen, oder würde es überhaupt bremsen?

and last but not least

würdet ihr lieber zur hd4870 1gb greifen oder die 150€ aufpreis in kauf nehmen und direkt die x2 holen?

wäre euch dankbar wenn ihr mir weiterhelfen könntet

Jake Dunn
2008-09-10, 12:41:32
Im aktuellen Print-Artikel visualisierten wir den Frame-Versatz einer Geforce 9800 GX2, Radeon HD 4870 X2 und eine SLI-Paarung aus zwei Geforce GTX 260. Letztere zeigte tendenziell das deutlichste Mikroruckeln. Das ist in Stalker: Clear Sky nicht anders.

Im Rahmen unseres DX10-Benchmark-Tests nahmen wir auch Multi-GPU-Lösungen unter die Lupe. Während die Radeon HD 4870 X2 eine hervorragende Vorstellung ablegt, bei der nur ganz dezentes Mikroruckeln auftritt, zeigt GTX-260-SLI abermals das Problem unregelmäßiger Frameausgabe.


http://www.pcgameshardware.de/aid,659348/News/Stalker_Clear_Sky_-_Mikroruckeln_mit_Geforce-GTX-260-SLI/


Da sieht man ganz klar das MR nicht gleich MR sind, bei den Verschiedenen Herstellern.:D

Und deshalb ist auch dieses MR-Simulations-Tool nicht zu gebrauchen.

dildo4u
2008-09-10, 12:58:18
http://www.pcgameshardware.de/aid,659348/News/Stalker_Clear_Sky_-_Mikroruckeln_mit_Geforce-GTX-260-SLI/


Da sieht man ganz klar das MR nicht gleich MR sind, bei den Verschiedenen Herstellern.:D

Der Test ist eigentlich unbrauchbar uralter SLI Chipsatz und PCI-E 2.0 Karten auf einem PCI-E 1.1 Board.Da der Traffic zwischen den GPUs beim SLI Sytsem ja über den Chipsatz geht ist das natürlich ein Nachteil für das GTX 260 SLI System.Ich hab mich schon bei den anderen Tests gefragt warum die PCGH nicht schon lange es möglich war für SLI Tests 790 Boards nutzt.

Schlammsau
2008-09-10, 13:12:28
Der Test ist eigentlich unbrauchbar uralter SLI Chipsatz und PCI-E 2.0 Karten auf einem PCI-E 1.1 Board.Da der Traffic zwischen den GPUs beim SLI Sytsem ja über den Chipsatz geht ist das natürlich ein Nachteil für das GTX 260 SLI System.Ich hab mich schon bei den anderen Tests gefragt warum die PCGH nicht schon lange es möglich war für SLI Tests 790 Boards nutzt.
Hab irgendwo mal gelesen, dass die Anbindung (Chipsatz) keine Rolle bei den µR spielt. Im schlimmsten Fall bringt das SLi Gespann nicht die volle Leistung. Das hat aber nichts mit unregelmässigen Frametimes zu tun!

tombman
2008-09-10, 13:36:46
Das ist der optimistische Fall. Der pessimistische ist...
http://www.ixbt.com/video/itogi-video/test/0807_4870x2.shtml
Einfach Bildchen und Zahlen anschauen, den Text zu verstehen, ist nicht nötig, da die Zahlen für sich sprechen.
lol, thx. das klassische cf non-mainstream-problem...eine 280er macht da imo den besten Eindruck...

Gast
2008-09-12, 22:57:45
Hier ein Test der Sapphire HD 4870 X2 mit Catalyst 8.8. Andere AMD-Karten (HD 4850, HD 4870) leider mit etwas älteren Catalyst 8.6.

http://www.hardware-infos.com/tests.php?test=46

Gast
2008-09-21, 03:13:30
Crysis Warhead Usertest die 4870X2 sieht kein Land gegen die GTX280
http://forums.nvidia.com/index.php?showtopic=77745&pid=442305&st=0&#entry442305

http://img156.imageshack.us/img156/564/14870x2nu8.png
http://img171.imageshack.us/img171/9032/1280gtxth6.png
http://img522.imageshack.us/img522/9936/1280slift9.png

dildo4u
2008-09-21, 03:16:54
Der User sollte mal DX9 gegentesten da dürfte die X2 richtig skalieren.Alle Effekte sind diesmal auch ohne extra Config unter Dx9 bei Warhead möglich.

Raff
2008-09-21, 03:23:11
Crossfire spackt wohl mal wieder herum. Eine Solo-4870 mit 512 MiB ist bereits in der Lage, eine GTX 280 zu überholen.

http://www.pcgameshardware.de/aid,660362/Test/Benchmark/Crysis_Warhead_Grosses_Benchmark-Special_plus_Informationen_zum_Spiel_selbst/?article_id=660362&page=3

http://www.pcgameshardware.de/screenshots/original/2008/09/Crysis_Warhead_GPU_2.JPG

MfG,
Raff

Gast
2008-09-21, 03:30:22
Crossfire spackt wohl mal wieder herum. Eine Solo-4870 mit 512 MiB ist bereits in der Lage, eine GTX 280 zu überholen.

http://www.pcgameshardware.de/screenshots/original/2008/09/Crysis_Warhead_GPU_2.JPG


Möchte ich bezweifeln.
Das eine GTX260 bei den Minimumfps schneller als ne GTX280 sein soll ist garnicht möglich und sollte nochmal nachgetestet werden.

Gast
2008-09-21, 03:36:23
Und warum wird ein alten 177.42 Treiber genommen , es gibt doch bereits 177.98 wie auch beim Link getestet wurde? Und gleich nochwas Raff, warum testet ihr nicht 3 verschiedene Timedemos und errechnet daraus einen Mittelwert das ist wesentlich aussagekräftiger als sich auf eine Timedemo zu versteifen. Das die Werte so nicht stimmen ist doch klar ersichtlich eine GTX260 kann unmöglich schneller sein als eine GTX280...eher war die Festplatte mit dem swappen beschäftigt und daher die Unterschiede.

Gast
2008-09-21, 10:13:45
Möchte ich bezweifeln.
Das eine GTX260 bei den Minimumfps schneller als ne GTX280 sein soll ist garnicht möglich und sollte nochmal nachgetestet werden.

Und daß die 9800GTX+ die höchsten minfps aller Karten haben soll kann eigentlich auch nicht sein.

Gast
2008-09-21, 11:48:26
Und daß die 9800GTX+ die höchsten minfps aller Karten haben soll kann eigentlich auch nicht sein.

Warum sollte das nicht möglich sein? Die frage ist doch was bei der min-fps angabe ausgewertet wird. Größter Abstand zwischen 2 Frames? Geringste Anzahl ausgegebener Frames während bestimmten Zeitabschnittes der Messung?

Es ist durchaus denkbar das eigentlich stärkere Karten trotzdessen eine stärkere Schwankung aufweisen.

Chris2CB
2008-09-21, 12:14:52
Warum sollte das nicht möglich sein? Die frage ist doch was bei der min-fps angabe ausgewertet wird. Größter Abstand zwischen 2 Frames? Geringste Anzahl ausgegebener Frames während bestimmten Zeitabschnittes der Messung?

Es ist durchaus denkbar das eigentlich stärkere Karten trotzdessen eine stärkere Schwankung aufweisen.


Es ist nicht möglich da mehr Einheiten zur Verfügung stehen, siehe 9800GTX und 8800GTS dazu noch 8800GT.

Es sei denn es gab bei den Modellen eine höhere Last und das würde dann auch das absacken erklären.

HD 3870 und 4870 skalieren relativ gut.

Währe da auch der Meinung aus einem Spiel 3 Level a 10min. zu benchen

Gast
2008-09-21, 12:53:11
Es ist nicht möglich da mehr Einheiten zur Verfügung stehen, siehe 9800GTX und 8800GTS dazu noch 8800GT.

Es sei denn es gab bei den Modellen eine höhere Last und das würde dann auch das absacken erklären.

HD 3870 und 4870 skalieren relativ gut.

Währe da auch der Meinung aus einem Spiel 3 Level a 10min. zu benchen


Sicher ist es möglich, egal wieviele "Einheiten" hat. Oder kennt sich hier einer auch nur ansatzweise mit Treiberprogammierung/Loadbalancing usw aus?

BlackBirdSR
2008-09-21, 12:56:29
das mit diesen komischen, unstimmigen Werten habe ich jetzt schon ein paar mal bei PCGHW gesehen. Müsste man dringend mal nachsehen was da schief geht.
So ist das Diagramm jedenfalls Bockmist. Heisst das z.B, dass die GTX+ nur einmal kurz die besseren minfps aufweist, oder ist das konstant so? wer ist besser spielbar? Das Ganze verwirrt und verunsichert mehr, als es Ergebnisse bringt. Siehe 4850 vs GT260

2B-Maverick
2008-09-21, 13:22:12
Na ja... Min-FPS sind Min-FPS... im Grunde genommen FPS hochgerechnet aus dem größten Abstand zweier Einzelframes.
Und wenn eine Karte theoretisch einmal kurz zuckelt, gehen die Min-FPS direkt in den Keller...

Es sei denn man definiert so was wie "Average Min-FPS"...
Aber damit erfasst man dann ja eben nicht mehr die kurzen Extrem-Ruckler.

Alles Ansichtssache.

Schön finde ich daher die Frameratenverläufe bei z.B. HardOCP (die ja sonst teils komische Reviews haben). Da sieht man genau obs ein einmaliger Ruckler ist oder dauerhaft Ausreisser nach unten gibt.

CU
Markus

Chris2CB
2008-09-21, 13:32:09
Sicher ist es möglich, egal wieviele "Einheiten" hat. Oder kennt sich hier einer auch nur ansatzweise mit Treiberprogammierung/Loadbalancing usw aus?


Schau dir doch das Diagramm nochmal an, ein und die selbe Karte mit nur leicht abweichender Taktrate, haben bei min. fps eine Abweichung von über 100 Prozent.

Ein nicht reproduzierbares Ergebnis bzw. ein ungeregelter Testablauf ist als solcher völlig ungeeignet.

Anhand eines solchen Ergebnis erkennt man auch das der Tester über sein System keine Kontrolle hat und es besser sein lassen sollte, oder mehrmals den jeweiligen Abschnitt testet.

Gast
2008-09-21, 15:44:57
Na ja... Min-FPS sind Min-FPS... im Grunde genommen FPS hochgerechnet aus dem größten Abstand zweier Einzelframes.
Und wenn eine Karte theoretisch einmal kurz zuckelt, gehen die Min-FPS direkt in den Keller...

Es sei denn man definiert so was wie "Average Min-FPS"...
Aber damit erfasst man dann ja eben nicht mehr die kurzen Extrem-Ruckler.

Alles Ansichtssache.

Schön finde ich daher die Frameratenverläufe bei z.B. HardOCP (die ja sonst teils komische Reviews haben). Da sieht man genau obs ein einmaliger Ruckler ist oder dauerhaft Ausreisser nach unten gibt.

CU
Markus

Richtig, da kommt man ja auch zu dem Schluss das Crysis eine GTX280 gleichschnell wie eine 4870X2 ist , da wurde rein nach Spielbarkeit getestet.

reunion
2008-11-04, 17:03:50
Palit mit einer 3-Slot-Kühlung für die 4870 X2:
http://www.vr-zone.com/articles/palit-self-designed-4870x2-card--revolution-700-deluxe/6169.html

reunion
2008-11-06, 17:16:23
Gainward Rampage700 "Golden Sample":
http://www.vr-zone.com/articles/gainward-unveiled-rampage700-golden-sample-goes-like-hell-edition/6175.html

Spasstiger
2008-11-06, 20:16:56
Kann mir jemand mal eine mit Fraps erzeugte frametime.csv von einem Benchmark mit einer HD 4870 X2 zukommen lassen? Crysis wäre als Testobjekt gerne gesehen, es ist aber auch jedes andere fordernde Spiel willkommen, bei dem Crossfire tut. Gewünschter avg-fps-Bereich: Irgendwo zwischen 30 und 60.

Zum Begriff der min.fps: Ich finde es recht sinnvoll, wenn man den Begriff wörtlich nimmt und einfach die Sekunde raussucht, in der die wenigsten Frames gerechnet werden. Um auch auf krumme Framezahlen pro Sekunde zu kommen, muss man die Framezahlen linear interpolieren. Ich habe sowas selbst für Fraps-Messungen implementiert, allerdings nur in Matlab.

Gast
2008-11-07, 23:03:05
Das mit Abstand beste Review CrossfireX vs. 3WAY-SLI: Spielen auf dem Intel Core i7 (Nehalem)

http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/

Gast
2008-11-08, 14:54:53
Denn die reinen Bilder pro Sekunde mit vier RV770-GPUs sind durchaus beeindruckend. Das, was man auf dem Bildschirm angezeigt bekommt, aber eher weniger. Mikroruckler sehen wir zwar nur selten, die Bildwiedergabe stockt in vielen Spielen vor allem in höheren Qualitätseinstellungen aber sichtbar
So dolle funktioniert CF wohl noch nicht.
Neben der miesen Skalierung noch das...

Schlammsau
2008-11-08, 15:18:31
Wer sich 4 GPU´s ins System baut, dem ist eh nicht mehr zu helfen! Mehr als 2 ist mit AFR schon höchst bedenklich!

Gast
2008-11-08, 15:22:07
Mehr als eine ist schon eine Zumutung.

Schlammsau
2008-11-08, 15:25:33
Mehr als eine ist schon eine Zumutung.

Nur für Leute, die sich nicht auskennen! ;)

Tarkin
2008-11-11, 22:19:27
Palit Revolution 700 Deluxe - HD 4870 X2 2048 MB (http://www.techpowerup.com/reviews/Palit/Revolution_R700/1.html)

Die "Dicke Berta" unter den 4870X2 :biggrin:

ROXY
2008-11-30, 00:30:26
die palit sieht gut aus.
guter kühlkörper und lüfter.

vor allem kann man die lüfter und das plastik ding abnehmen und durch andere lüfter ersetzen - sofern man das will.


sauber!

http://www.techpowerup.com/reviews/Palit/Revolution_R700/images/cooler3.jpg

Dr.Dirt
2008-11-30, 10:21:14
LOL, 3 Slot Kühler, wo soll das noch hinführen? :hammer:

ZÜNDELholz
2008-11-30, 10:48:39
Wer sich 4 GPU´s ins System baut, dem ist eh nicht mehr zu helfen! Mehr als 2 ist mit AFR schon höchst bedenklich!

Wenn Du keine Kohle hast, um Dir mehr als 2 GPUs in das System zu integrieren, dann spar Dir solche Kommentare .
Krücke mit Deinen 17" Monitor weiter rum und sei zufrieden. ;)

Gast HITCHER
2008-11-30, 10:51:54
da es ein X2 Karte ist, und 3 Plätze verbraucht ...

Warum nicht gleich 2x normale kürzere und flachere 4870'er nehmen?

Dürfte im Gehäuse auch leichter Platz haben.

Gast
2008-11-30, 11:01:42
die palit sieht gut aus.
guter kühlkörper und lüfter.

naja, die richtung der kühlrippen ist nicht gerde sinnvoll, umn 90° gedreht wäre wesentlich besser, dann kann man die warme luft schön hinten rausblasen.

ROXY
2008-12-01, 04:49:27
wenn du das richtige gehäuse hast (klein - grosse lüfter - viel unterdruck - guter durchzug) dann ist die karte optimal.

diese geschlossene nach hinten raus föhnkonstruktion von grakas hat in einem tower mit gutem durchzug eher nachteile.
ausserdem haben die föhnlüfterkonstruktionen bei verstaubten lamellen extrem schlechten luftdurchsatz.

wenn du bei der palit die lamellen um 90° drehst bringt das nichts - ist ja kein radialüfter mit schacht

Gast
2008-12-01, 19:50:10
diese geschlossene nach hinten raus föhnkonstruktion von grakas hat in einem tower mit gutem durchzug eher nachteile.

der vorteil ist ja gerade, dass man wesentlich weniger durchzug und damit wesentlich weniger bzw. langsamere gehäuselüfter einsetzen kann, was insgesamt deutlich leiser ist.

Gast
2008-12-01, 19:53:16
Wenn Du keine Kohle hast, um Dir mehr als 2 GPUs in das System zu integrieren, dann spar Dir solche Kommentare .
Krücke mit Deinen 17" Monitor weiter rum und sei zufrieden. ;)

Ich denke das hat nichts mit Geld zu tun! ;)

Sven77
2008-12-01, 22:02:05
lol, VGA?

Fetza
2008-12-01, 23:13:36
Wenn Du keine Kohle hast, um Dir mehr als 2 GPUs in das System zu integrieren, dann spar Dir solche Kommentare .
Krücke mit Deinen 17" Monitor weiter rum und sei zufrieden. ;)

Sehr qualifizierter kommentar, leuten denen es um die qualität beim gaming geht, können meist schon mit 2 gpus nichts anfangen, mr anyone? ;)

Raff
2008-12-02, 12:19:57
Wenn Du keine Kohle hast, um Dir mehr als 2 GPUs in das System zu integrieren, dann spar Dir solche Kommentare .
Krücke mit Deinen 17" Monitor weiter rum und sei zufrieden. ;)

Du hast eine sehr "interessante" Einstellung, das fiel mir schon im Benchforum auf. "Kauf dir doch mal teure Hardware, anstatt günstige OC-Tipps über das Niveau der Topmodelle zu takten" ist der Tenor. Das ergibt recht wenig Sinn, selbst wenn man zu viel Geld hat.

MfG,
Raff

Mr. Lolman
2008-12-02, 13:00:24
Doch. Wenn man zuviel Geld hat, will man seine wertvolle Zeit nicht mit Dingen verschwenden, die man auch ganz leicht haben könnte, indem man nur noch ein bisschen mehr Geld ausgibt.

Mir gefällt die Einstellung zwar auch nicht, aber nachvollziehbar ist sie imo durchaus...

ZÜNDELholz
2008-12-02, 20:49:39
Du hast eine sehr "interessante" Einstellung, das fiel mir schon im Benchforum auf. "Kauf dir doch mal teure Hardware, anstatt günstige OC-Tipps über das Niveau der Topmodelle zu takten" ist der Tenor. Das ergibt recht wenig Sinn, selbst wenn man zu viel Geld hat.

MfG,
Raff


Na, dann game mal z.B. Quake 4 in Ultradetails mit 24EdgeAA, Auflösung 2048x1536,-Da macht selbst eine 4870X2 mit GPUTakt von 830Mhz mehr als schlapp, bei diesen Spielenstellungen gibts schon bei 1600x1200 Ruckelorgien.
Und da will mir die Overclockfraktion von Billighardware erzählen, dass mehr als 2 GPUs zu betreiben , wenig Sinn ergibt :confused:
Ich spiels mit meinen Triplecrossfire wunderbar "sähmig"

Schau mal die Thread nach , wo einkäufer von BilligCpus rumjammern, dass es ihr Board zerschossen hat.
Ich takte mit meiner freien MultiCpu locker auf 4200Mhz, ohne das Board zu stressen, kann alle RamSlots belegen und stelle nach einer gewissen Zeit keine Hilferufe in Foren, weil plötzlich das Board versagt.. ;)



Schlammsau hat null Erfahrungen mit aktuellen 3GPU-Systemen , sondern plappert irgendwelche aufgeschnappten "SLI/Crossfire ist Scheisse-Gülle" nach. :D:D

Coda
2008-12-02, 21:08:40
Das Problem bei 3 Karten mit AFR ist, dass man bei 30FPS schon 10ms Latenz allein von den Karten hat. Dazu kommt dann noch das Prebuffern und evtl. Overdrive vom Monitor. Das ist für viele nicht mehr akzeptabel.

Schlammsau
2008-12-02, 21:11:09
Schlammsau hat null Erfahrungen mit aktuellen 3GPU-Systemen , sondern plappert irgendwelche aufgeschnappten "SLI/Crossfire ist Scheisse-Gülle" nach. :D:D

LOL ´....dann kennst du mich aber schlecht Junge! ;)

ZÜNDELholz
2008-12-02, 21:22:58
Das Problem bei 3 Karten mit AFR ist, dass man bei 30FPS schon 10ms Latenz allein von den Karten hat. Dazu kommt dann noch das Prebuffern und evtl. Overdrive vom Monitor. Das ist für viele nicht mehr akzeptabel.

Ich bin CRT-User.


Frage: macht es einen Unterschied bei den Latenzen, ob ich 3 Einzelkarten oder eine X2+Single laufen lasse?
Ausserdem, ich bemerke Microruckler schon bei knapp 50 FPs.Von daher gesehen,
wenn ich mit der zusätzlichen Einzelkarte nicht zufrieden wäre, hätte ich sie schon längst verscherbelt bzw. zurückgegeben.

ZÜNDELholz
2008-12-02, 21:24:28
LOL ´....dann kennst du mich aber schlecht Junge! ;)

LOL, LOL, bei Dem Board und der 512er karte ist der Grund des Rumjammerns über MultiGPus geklärt! :D

Warst damit bestimmt über Crossfire enttäuscht...Lachkrampf

Coda
2008-12-02, 21:41:14
Ich bin CRT-User.
Das ändert am AFR-Lag rein gar nichts.

Frage: macht es einen Unterschied bei den Latenzen, ob ich 3 Einzelkarten oder eine X2+Single laufen lasse?
Nein.

Ausserdem, ich bemerke Microruckler schon bei knapp 50 FPs.Von daher gesehen,
Mikroruckler haben mit dem Lag auch nichts zu tun.

Schlammsau
2008-12-02, 21:42:06
LOL, LOL, bei Dem Board und der 512er karte ist der Grund des Rumjammerns über MultiGPus geklärt! :D

Warst damit bestimmt über Crossfire enttäuscht...Lachkrampf

Komm mal wieder runter Junge!
Ich war noch nie von CF enttäuscht! ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417785

ROXY
2008-12-03, 01:42:46
der vorteil ist ja gerade, dass man wesentlich weniger durchzug und damit wesentlich weniger bzw. langsamere gehäuselüfter einsetzen kann, was insgesamt deutlich leiser ist.


also ein gehäuselüfter hat gegenüber zentralen lüftern mehr vorteile.
er saugt überhaupt gleich die gesamte warme luft aus dem tower die sich bei verbauten mainboardkomponenten so anstaut.

ein guter gehäuselüfter mit 120x120 und 60^m3 ist mehr oder weniger aus 1 meter entfernung lautlos bzw. kaum warnehmbar.

ich verwende zentral grosse kühlkörper mit langsamen lüftern und einen stärkeren gehäuselüfter auf der rückseite.

ist superleise und effektiv > sofern man den richtigen kompakten tower hierzu hat > der aufgrund der bauweise und seiner kompakten form genug unterdruck entwickelt.


update:
ich bin dafür das grafikkarten nur einen SLOT in anspruch nehmen.
von mir aus sollen auf der platine 4 GPUs verbaut sein - aber dieses mainboards mit 2-3-4 PCI-E steckplätzen sind keine elegante lösung auf dauer.
vor allem dann nicht wenn 4 karten idlen für ICQ oder winamp ... haha.

wenn man ein "ein/aus - schaltsystem" auf einer GRAKA platine unterbringen würde (zb.: nvidia 666 GTX³) und sie GPU2 und GPU3 ein und ausschalten kann je nach situation (desktop oder game) dann wäre das viel sinnvoller, einfacher, unproblematischer, eleganter.
da würde auch ich mir ein SLI oder CF system bzw. grafikkarte zulegen.

Gast
2008-12-03, 11:10:20
ist superleise und effektiv > sofern man den richtigen kompakten tower hierzu hat > der aufgrund der bauweise und seiner kompakten form genug unterdruck entwickelt.

unterdruck ist garnicht gut, unterdruck bedeutet geringere dichte der luft und damit geringere wärmeaufnahmefähigkeit bei gleichem volumen.

dass du dann auch keine lüfter magst die hinten rausblasen ist klar, unterdruck ist für diese tödlich.

2B-Maverick
2008-12-03, 11:43:05
unterdruck ist garnicht gut, unterdruck bedeutet geringere dichte der luft und damit geringere wärmeaufnahmefähigkeit bei gleichem volumen.

Du glaubst doch wohl selber nicht, dass die paar mbar Druckunterschied einen messbaren Unterschied machen? :rolleyes:
Wenn Überhaupt ein Druckunterschied im Gehäuse messbar ist.

Gast
2008-12-03, 12:07:12
Wenn Überhaupt ein Druckunterschied im Gehäuse messbar ist.

das schlimme ist bei den blow-out-lüftern, dass der luftstrom gegen die lüfterrichtung geht und dieser erst überwunden werden muss.

wenn der lüfter im idle langsam dreht kann es im extremfall sogar passieren, dass der luftstrom nicht wie gewünscht über den luftkanal hinten rausbläst sondern umgekehrt von hinten in den luftkanal eindringt und damit gegen den lüfter arbeitet.

der grafiklüfter muss dann deutlich stärker aufdrehen um überhaupt gegen den luftstrom anzukommen.

Schlammsau
2008-12-18, 07:10:16
Kurztest: Gainward Rampage 700 GS GLH (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_gainward_rampage_700_gs_glh/#abschnitt_einleitung)
Mit der Rampage 700 GS GLH spricht Gainward die absoluten Enthusiasten an, die nicht nur die höchste Leistung, sondern auch etwas Besonderes beziehungsweise Einzigartiges in der Hand halten möchten. Und beides ist die Grafikkarte alleine durch das erstmals eingesetzte Triple-Slot-Kühlsystem. Zusätzlich erhöht Gainward die Taktraten, womit man die schnellste, aktuell erhältliche Grafikkarte auf dem Markt hat.

Der Vorsprung zu einer Radeon HD 4870 X2 im Referenzdesign ist aber nur marginal, da man die Taktraten nur geringfügig angehoben hat – mehr macht die Architektur ohne noch aufwendigere Kühlung anscheinend einfach nicht her. So liegt die Rampage 700 GS GLH gerade einmal durchschnittlich drei Prozent vor dem Referenzdesign. Der höchste von uns festgestellte Vorsprung liegt bei fünf Prozent. Die schnellste Single-GPU-Karte in Form der GeForce GTX 280 lässt die Gainward-Karte um genau 50 Prozent hinter sich, jedoch hat man auf dieser nicht mit den typischen Multi-GPU-Problemen (CF-Profile, Mikroruckler) zu kämpfen.




Kurztest: Sapphire Radeon HD 4870 X2 Atomic (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_4870_x2_atomic/)
Sapphire hat sich mit der Radeon HD 4870 X2 Atomic viel vorgenommen und möchte nicht weniger als die beste Radeon-HD-4870-X2-Karte auf dem Markt abliefern. Gesagt, getan, möchte man meinen, wenn man sich den 3D-Beschleuniger anschaut. Eine Wasserkühlung inklusive Kühlkörper für die CPU, höhere Taktraten, eine sehr gute Ausstattung und schlussendlich einen großen Koffer als Verpackung – dies alles klingt vielversprechend. Ist es aber auch gut genug?

Bei der Performance weiß die Radeon HD 4870 X2 Atomic zu überzeugen. Die Taktraten liegen für eine Radeon HD 4870 X2 recht hoch, da sich die RV770-Architektur auf dem Flaggschiff von ATi nicht allzu gut übertakten lässt. Somit kann man die Performance immerhin durchschnittlich um sieben Prozent gegenüber dem Referenzdesign anheben, womit man nun um 55 Prozent vor einer einzelnen GeForce GTX 280 liegt. Als Nachteil muss man bei der Radeon HD 4870 X2 Atomic jedoch mit den Multi-GPU-Problemen wie den CF-Profilen sowie den Mikrorucklern leben.

Hübie
2009-01-02, 04:38:29
Kann mir eigentlich mal jemand erklären, wieso die X² 2x1GB VRAM hat aber nur 1x1GB VRAM nutzt?
Hätte man nicht die Datenleitungen beider Chips zu 1x1GB legen können? Eine RAM-Bank muss ja anscheinend immer leer sein. Oder wie funktioniert das technisch?
Afaik werden die Bilder doch abwechseln berechnet.
Also erst Chip1-->Bild1 in VRAM1, dann Chip2-->Bild2 in VRAM2. Mein Gedanke wäre eben Chip1-->Bild1 in VRAM1 und dann Chip2-->Bild2 in VRAM1. Dann müsste man halt nur die Speicherbereiche aufteilen oder belegte schützen/reservieren.

bye Hübie

Hübie
2009-01-02, 16:37:08
Keiner? :( Gerade hier wo die Gurus rumrennen bekomm ich keine Antwort???

AnarchX
2009-01-02, 16:41:11
Vielleicht weil es schon hundertfach hier im Forum diskutiert wurde? ;)

Das AFR-Verfahren sieht eben nunmal je GPU den gleichen Speicherinhalt vor, positiver Nebeneffekt ist, dass die effektive Speicherbandbreite sich dadurch erhöht/verdoppelt, was bei deiner Überlegung nicht der Fall wäre.

Hübie
2009-01-02, 17:11:25
Ich weiß ja, dass das so ist, aber könnte man das net ändern? Das würde doch Geld sparen, da man nur noch 1x1GB verbauen müsste...

_DrillSarge]I[
2009-01-02, 17:25:46
die chips berechnen weitesgehend unabhängig voneinander verschiedene bilder (abwechselnd). da können die abgelegten daten nicht identisch sein.

davidzo
2009-01-02, 17:30:33
würden die daten nicht doppelt im speicher vorhanden sien, sondenr nur jeweils, hätte man in vielen Fällen trotzdem 2x 256bit, außer im fall, dass dieselben Daten gleichzeitig von beiden GPUs angefordert werden. RV770 kommt ja relativ gut mit wenig bandbreite klar. Mit Hyper-transport hat AMD auch eine gute (sparsame) punkt zu punkt-verbindung. würde man diese statt 16 oder 32bit in 64bit ode rmehr auslegen, könnte die bandbreite zwischen beiden Seiten reichen. und da ATI auch HT3.0 Chipsätze baut, weiß ich nicht wieso diese Technik hier nicht adaptiert wird. Der rv770 siedeport scheint ja daneben geangen zu sein, sonst würde man ihn nutzen, schade auch. Naja, RV870 wirds zeigen...

Hübie
2009-01-02, 17:37:37
Deswegen müsste ja der aktuell genutzte Speicherbereich auch für den 2. Chip temporär gesperrt sein... oder?

Captain Future
2009-01-02, 23:57:29
Super, dann hättest du statt 2x1 GByte nur noch die Hälfte, aber statt 2x1 GPU in so einem Falle auch nur noch die Hälfte... Da ist's billiger, gleich eine Single-GPU-Karte zu nehmen.

Hübie
2009-01-03, 00:16:32
Sicher das du meinen Gedankengang verstanden hast?
2 GPUs greifen auf 1GB VRAM gleichermaßen zu. Nur bestimmte Bereiche in denen die andere GPU gerade schreibt werden temporär gesperrt.

bye Hübie

Captain Future
2009-01-03, 00:22:19
Ganz sicher. GPU1 braucht auch diesen Bereich und muss in der Zugriffszeit warten. Da Bildinhalte und Vertexbuffer zweier direkt aufeinanderfolgender Bilder große Ähnlichkeiten aufweisen, passiert das häufiger.

Ergo: Es arbeitet nur eine GPU einen großen Teil der Zeit.

HarryHirsch
2009-01-03, 00:44:58
sehr schön erklärt! :up:

Spasstiger
2009-01-03, 01:47:05
Einen gemeinsamen VRAM für beide Chips vorzusehen, wäre eine reine Kostensenkungsmaßnahme. Die Recheneffizienz leidet darunter in jedem Fall gegenüber der jetzigen Lösung.

HarryHirsch
2009-01-03, 02:00:17
ich sag mal 2x chip 1x ram wär ja mal nur geil!
wenn de verstehst wie ich mein!

reunion
2009-10-29, 19:51:48
Einen gemeinsamen VRAM für beide Chips vorzusehen, wäre eine reine Kostensenkungsmaßnahme. Die Recheneffizienz leidet darunter in jedem Fall gegenüber der jetzigen Lösung.

Bei AFR sicher, bei anderen Modi ist ein gemeinsamer VRAM ein großer Vorteil, denn gerade das notwendige synchronisieren ist es, dass alles andere außer AFR so langsam macht.