PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870 X2: (P)Review-Thread


Seiten : 1 [2] 3

Mr. Lolman
2008-07-17, 08:51:58
Ich muss mich korrigieren...können schon aber Ati bietet es derzeit nicht an. Sicher aus Performancegründen ;)

Bei Crysis ists mit 100% Sicherheit SS-AAA.

misterh
2008-07-17, 08:57:03
Bei Crysis ists mit 100% Sicherheit SS-AAA.

dann schreibe anders

4xAA + AAA(SSAA)

oder so inner art und verwirrung zu vermeiden.

weil sonst könnte man meinen, du hast ausversehen A zuviel getippt und meinst SSAA ^^

Mr. Lolman
2008-07-17, 09:04:00
dann schreibe anders

4xAA + AAA(SSAA)

oder so inner art und verwirrung zu vermeiden.

weil sonst könnte man meinen, du hast ausversehen A zuviel getippt und meinst SSAA ^^

Ich schreib doch keine 7 A's wenn ich einen unnötigen/langsamen AA-Modus meine. ;)

Aber mal sehen. Denn schön langsam wird wirklich unübersichtlich mit den ganzen Abkürzungen. Wie wärs zB. mit ASSAA?

Blaire
2008-07-17, 09:11:10
Bei Crysis ists mit 100% Sicherheit SS-AAA.

Was macht dich so sicher? Laut meinen Infos ist es MSAA bei beiden Einstellungen im Treiber. Was logisch ist bei dem geringen Performanceverlust.

Mr. Lolman
2008-07-17, 09:14:28
Was macht dich so sicher? Laut meinen Infos ist es MSAA bei beiden Einstellungen im Treiber. Was logisch ist bei dem geringen Performanceverlust.

Meine Augen und mein AA-spezifisches Wissen machen mich so sicher.

Denn bei Crysis ist der Performanceverlust alles andere als gering und die typischen AMSAA Merkmale treten auch nicht auf.

Blaire
2008-07-17, 09:41:29
Meine Augen und mein AA-spezifisches Wissen machen mich so sicher.

Denn bei Crysis ist der Performanceverlust alles andere als gering und die typischen AMSAA Merkmale treten auch nicht auf.

Naja EATM fandest du ja auch mal genausogut wie TRSSAA ;) Wie groß ist denn der Performanceverlust? Ati spricht ja selber davon ,nur MSAA zu verwenden siehe Folie die ich vor ein paar Seiten gepostet habe. Vermutlich wird es irgendein Zwischending sein, was ohne Supersampling auskommt und dennoch akzeptable Ergebnisse liefert.

Mr. Lolman
2008-07-17, 09:46:46
Naja EATM fandest du ja auch mal genausogut wie TRSSAA ;)

Ich fands besser. Sowohl bessere Glättung, als auch Performance. Leider wars wohl doch zu inkompatibel.

Andererseits ist ATIs AMSAA auch nur eine Evolution von EATM. Man hat das LOD etwas angepasst und das grobe Dithering entfernt. Kompatibilitätsprobleme gibts dennoch (zB Witcher). Deswegen ists auch naheliegend, dass bei Spielen, wo die Probleme nicht einfach lösbar sind, einfach weiter SS verwendet wird.


Wie groß ist denn der Performanceverlust? Ati spricht ja selber davon ,nur MSAA zu verwenden siehe Folie die ich vor ein paar Seiten gepostet habe. Vermutlich wird es irgendein Zwischending sein, was ohne Supersampling auskommt und dennoch akzeptable Ergebnisse liefert.

EDIT:
http://www.abload.de/thumb/screenshot0044qto.jpg (http://www.abload.de/image.php?img=screenshot0044qto.jpg) http://www.abload.de/thumb/screenshot0045air.jpg (http://www.abload.de/image.php?img=screenshot0045air.jpg)

Grindcore
2008-07-17, 10:00:56
Also wenn das tatsächlich TSSAA sein sollte, müsste der Leistungseinbruch gerade bei nem Vegetations- Kaliber wie Crysis gewaltig sein. Spielbar wäre das bei den besagten Detaileinstellungen wohl eher nicht.

Mr. Lolman
2008-07-17, 10:09:26
Bei der ICMC-Jungle (siehe EDIT im vorigen Post) ists auch nicht spielbar. Aber sonst hat man ~25fps, was imo ausreicht.

robbitop
2008-07-17, 10:19:55
Ich empfinde MSAA in Crysis als reichlich nutzlos. Ohne Z-Readback sind die Subsamples offenbar dermaßen "falsch", dass es kaum etwas zu bringen scheint.
Was würde ich nur dafür geben, wenn IHVs -zumindest im Multi-GPU-Mode- SG-SSAA anbieten würden. Jede GPU rendert das gleiche Bild mit einem anderen Offset und am Ende werden die Bilder interpoliert.
*Von 8xSG-SSAA mit Gaussfilterdownsampling träum*

reunion@work
2008-07-17, 10:26:44
Ich empfinde MSAA in Crysis als reichlich nutzlos. Ohne Z-Readback sind die Subsamples offenbar dermaßen "falsch", dass es kaum etwas zu bringen scheint.
Was würde ich nur dafür geben, wenn IHVs -zumindest im Multi-GPU-Mode- SG-SSAA anbieten würden. Jede GPU rendert das gleiche Bild mit einem anderen Offset und am Ende werden die Bilder interpoliert.
*Von 8xSG-SSAA mit Gaussfilterdownsampling träum*

Ein D3D10.1-Pfad mit welchem man die Z-Subsamples verwenden kann würde auch schon reichen und wäre deutlich weniger leistungsfressend.

Gast
2008-07-17, 13:28:10
Ja? Settings, die auf den genannten Karten absolut unspielbar sind?


Aber optisch die besten Settings. Eigentlich erst interessant bei 2500x1600.

Wenn es nicht spielbar ist, dann ist die Karte immer noch zu langsam.
Das gilt doch zu knacken. That's high end.

Mainstream hat andere Anforderungen und muss sich (noch) mit weniger zufrieden geben....


Gruss

Coda
2008-07-17, 14:19:04
Ist vom qualitativen Standpunkt her seit R600 ziemlich wurscht, was man einstellt. Leider ;(

(auch wenns zumindest bei HL² noch sichtbare Unterschiede gibt, war AIoff am R580 besser)

Bis inkl. RV670 hab ich auch den Grund nachvollziehen können. Mittlerweile könnte ATi aber wieder AI im R580-Style anbieten.
Nicht nur in HL². Ich seh das in so gut wie jedem Spiel.

Ein D3D10.1-Pfad mit welchem man die Z-Subsamples verwenden kann würde auch schon reichen und wäre deutlich weniger leistungsfressend.
Im Gegenteil. Es würde wesentlich mehr Leistung brauchen wenn man die entsprechenden Berechnungen pro Subsample macht. Und Crysis macht jede Menge mit den Z-Werten. Es verwendet auch schon mit D3D10.0 direkt die Z-Buffer-Samples im Gegensatz zu D3D9. Da hätte 10.1 keinen Performancevorteil. Es kann kein Pass gespart werden.

Genau das ist was mich immer nervt. Es wird von einem nicht allgemeinen Fall (Assassin's Creed) auf alles andere geschlossen.

reunion@work
2008-07-17, 14:34:03
Im Gegenteil. Es würde wesentlich mehr Leistung brauchen wenn man die entsprechenden Berechnungen pro Subsample macht.

Bitte auf den Kontext achten. Robbitop sprach von SSAA, und das wäre mit Sicherheit wesentlich teurer als eine vernünftige MSAA-Implementierung mit D3D10.1.


Und Crysis macht jede Menge mit den Z-Werten. Es verwendet auch schon mit D3D10.0 direkt die Z-Buffer-Samples im Gegensatz zu D3D9.

Warum bringt das dann keine Leistung ggü. D3D9?


Da hätte 10.1 keinen Performancevorteil. Es kann kein Pass gespart werden.

Ich sprach auch nicht von höherer Leistung sondern von brauchbarem MSAA.


Genau das ist was mich immer nervt. Es wird von einem nicht allgemeinen Fall (Assassin's Creed) auf alles andere geschlossen.

Nein, das hast du falsch interpretiert.

Coda
2008-07-17, 14:35:50
Bitte auf den Kontext achten. Robbitop sprach von SSAA, und das wäre mit Sicherheit wesentlich teurer als eine vernünftige MSAA-Implementierung mit D3D10.1.
Im Prinzip wäre das mit D3D10.1 auch nur partielles Supersampling.

Warum bringt das dann keine Leistung ggü. D3D9?
Die Treiber werden den zusätzlichen Writeout der Z-Werte in einen separaten Buffer im Z-First-Pass einfach rausoptimieren.

reunion@work
2008-07-17, 14:37:59
Verarschen kann ich mich selber.

"Deutlich weniger leistungsfessend" als der Vorschlag von Robbitop mit SSAA, was ist daran so schwer zu verstehen?

Coda
2008-07-17, 14:38:45
Nichts. Bissel deutlicher das nächste Mal einfach.

uweskw
2008-07-17, 15:23:56
Hab ich zwar schonmal gefragt, aber trotzdem:

also eines verstehe ich nun wirklich nicht.
Die 4870 X2 hat doch angeblich in den bisher veröffentlichten Tests zweimal 1 GB Speicher.
Hier im Text von techreport wird sie mit einem 4870 Crossfire Gespann verglichen.
Man sollte doch davon ausgehen dass gerade in hohen Auflösungen mit zugeschaltetem AA sich die höhere Speichermenge positiv bemerkbar macht.
Dem ist aber nicht so.

http://techreport.com/articles.x/15105/3

die Karten liegen gleichauf, manchmal hat den höchsten Auflösungen sogar das Crossfiregespann Vorteile.
Kann es sein das die ganzen Tester nicht mitbekommen haben, dass die Karten nur zweimal 512 MB haben?
oder hat jemand eine andere Erklärung?

Greetz

U.S.

cl55amg
2008-07-17, 16:30:04
Den Vorteil von mehr VRAM kann man leider in dieser Art von Benchmarks, oft nicht in Form von längeren Balken darstellen.

Fetza
2008-07-17, 17:46:25
Crysis zock ich auf der HD4870 (@790/1100) mit 4xSSAAA/8xAF und Mster 3.0 am Beamer in 1280x720. => bei 120" (!!!) :ujump2:


Schön das du so ruckelunempfindlich bist.;) Ich brauchs immer flüssig.

Palpatin
2008-07-20, 03:15:07
Hab ich zwar schonmal gefragt, aber trotzdem:

also eines verstehe ich nun wirklich nicht.
Die 4870 X2 hat doch angeblich in den bisher veröffentlichten Tests zweimal 1 GB Speicher.
Hier im Text von techreport wird sie mit einem 4870 Crossfire Gespann verglichen.
Man sollte doch davon ausgehen dass gerade in hohen Auflösungen mit zugeschaltetem AA sich die höhere Speichermenge positiv bemerkbar macht.
Dem ist aber nicht so.

http://techreport.com/articles.x/15105/3

die Karten liegen gleichauf, manchmal hat den höchsten Auflösungen sogar das Crossfiregespann Vorteile.
Kann es sein das die ganzen Tester nicht mitbekommen haben, dass die Karten nur zweimal 512 MB haben?
oder hat jemand eine andere Erklärung?

Greetz

U.S.

Bei den getesteten Auflösungen (Spielen) gibts einfach noch keine Vorteile für die 1GB Ram Version so einfach, hätten sie GRID Crysis oder Conan in der 30 Zoll Auflösung mit 4 bzw 8 aa und 16 af getestet hätten sich vermutlich Vorteile für die X2 ergeben so wie beim Test auf anandtech.

Gast
2008-07-20, 15:43:46
Zum anandtech Test:

Bei GRID hat CF eindeutig nicht funktioniert, da war die einzelne 4870 ja schneller als im CF.
Kann mir auch nicht vorstellen das bei einer Verdoppelung der verfügbaren Speichermenge, tatsächlich sogar eine Vervierfachung! sich das unter diesen Extremsettings nur in einem einzigen Spiel bemerkbar macht. Und das gerade mal mit 10%.
Entweder der zusätzliche Speicher wird nicht vernünftig angesprochen oder die Sampels haben tatsächlich nur 2x512MB

XuXo
2008-07-20, 20:51:50
die aktuellen X2 Treiber scheinen noch nicht rund zu laufen.
Hier wurde die R700 im CF Verbund getestet.
Meisten war die 4x GPU Lösung schlechter unterwegs, bzw. hat kaum was gebracht.

http://en.hardspell.com/doc/showcont.asp?news_id=3762

reunion
2008-07-21, 17:19:01
Guru3D Preview:
http://guru3d.com/article/radeon-hd-4870-x2-preview/1

dildo4u
2008-07-21, 19:33:47
Guru3D Preview:
http://guru3d.com/article/radeon-hd-4870-x2-preview/1
Die FPS sind bei Grid in 2560*1600 dank der 2GB-Vram deutlich besser als bei dem 4870 Crossfire mit zwei 512mb Karten.Leider tritt aber whol grad in der Auflösung Microsuttering auf.


"At that resolution we did however get some stuttering here and there. Something ATI definitely needs to focus at as it is reported a lot in our forums as well. Other than that, breathtaking stuff ..."

Raff
2008-07-21, 19:50:23
Eher tritt es überall auf, wird aber erst bei niedrigeren Fps spürbar. Aber bei 80 Fps Average schon sichtbares Mikroruckeln? Mahlzeit.

MfG,
Raff

dildo4u
2008-07-21, 19:52:57
Deshalb wundert es mich ja das es dort schon bei 80fps auftritt und laut Guru 3D erst ab dieser Auflösung.

Gast
2008-07-21, 20:09:12
Eher tritt es überall auf, wird aber erst bei niedrigeren Fps spürbar. Aber bei 80 Fps Average schon sichtbares Mikroruckeln? Mahlzeit.

MfG,
Raff

80 fps average kann ja auch heißen, daß die Momentan-fps zwischen 140 fps und 20 fps schwanken und das sieht man natürlich.

Blaire
2008-07-21, 20:13:29
Eher tritt es überall auf, wird aber erst bei niedrigeren Fps spürbar. Aber bei 80 Fps Average schon sichtbares Mikroruckeln? Mahlzeit.


Klingt wohl eher nicht danach, als wäre das Mikrorucklerproblem beseitigt.

Gast
2008-07-22, 22:23:03
Raffael "Rough" Vötter ;D

Gratuliere zum Ehrentitel und freue mich auf die Ergebnisse: HD 4870 X2 im PCGH-Testlabor eingetroffen - Update zu den Benchmark-Tests (http://www.pcgameshardware.de/aid,652944/News/HD_4870_X2_im_PCGH-Testlabor_eingetroffen_-_Update_zu_den_Benchmark-Tests/)

Bin ja mal gespannt, wo die Karte sich preislich einpendeln wird, das PCB samt Kühler scheint ja nicht gerade billig zu sein...

Gast
2008-07-23, 02:00:33
Hab ich zwar schonmal gefragt, aber trotzdem:

also eines verstehe ich nun wirklich nicht.
Die 4870 X2 hat doch angeblich in den bisher veröffentlichten Tests zweimal 1 GB Speicher.
Hier im Text von techreport wird sie mit einem 4870 Crossfire Gespann verglichen.
Man sollte doch davon ausgehen dass gerade in hohen Auflösungen mit zugeschaltetem AA sich die höhere Speichermenge positiv bemerkbar macht.
Dem ist aber nicht so.

http://techreport.com/articles.x/15105/3

die Karten liegen gleichauf, manchmal hat den höchsten Auflösungen sogar das Crossfiregespann Vorteile.
Kann es sein das die ganzen Tester nicht mitbekommen haben, dass die Karten nur zweimal 512 MB haben?
oder hat jemand eine andere Erklärung?

Greetz

U.S.

Die getesteten Karten scheinen tatsächlich nur 2x512MB zu haben.
Pro 4870 sind 8 Speicherbausteine verbaut

http://www.computerbase.de/bild/article/833/50/

Bei der 4870X2 16 Speicherbausteine

http://www.guru3d.com/article/radeon-hd-4870-x2-preview/6

mir erscheint es recht unwarscheinlich das die soschnell 128MB DDR5 bekommen.

Passt auf alle Fälle zur Leistung

AnarchX
2008-07-23, 10:36:53
mir erscheint es recht unwarscheinlich das die soschnell 128MB DDR5 bekommen.

Hynix liefert schon 1024MBit-Chips, die auf der X2 verbaut werden:
http://www.digit-life.com/articles3/video/rv770-3-part0-p1.html

uweskw
2008-07-23, 13:54:48
Als ich bin kein Profi in sowas, aber in dem von dir verlinktem Review gibts nen PDF als Download
http://www.qimonda.com/download.jsp?ref=/qis_docs/Datasheets/Datasheets%20Graphics/IDGV51-05A1F1C_rev100_www.pdf
Wenn ich es richtig verstehe braucht man min. 8 Chips für 512MB.

AnarchX
2008-07-23, 14:01:57
Als ich bin kein Profi in sowas, aber in dem von dir verlinktem Review gibts nen PDF als Download
http://www.qimonda.com/download.jsp?ref=/qis_docs/Datasheets/Datasheets%20Graphics/IDGV51-05A1F1C_rev100_www.pdf
Wenn ich es richtig verstehe braucht man min. 8 Chips für 512MB.
Und was hat das falsch verlinkte Qimonda PDF mit den 1024MBit Chips von Hynix zu tun?

Nochmal zu Klärung:
HD4870: 8x 512MBit (64MiB) GDDR5 Chips von Qimonda
HD4870X2: 2x 8x 1024MBit (128MiB) GDDR5 Chips von Hynix, weil Qimonda offenbar diese noch nicht liefern kann

Langfristig sind übrigens sogar 2048MBit GDDR5-Chips geplant.

uweskw
2008-07-23, 14:18:39
Hast Du irgendwelche links?

uweskw
2008-07-23, 19:16:24
Hier hab ich nen link zu den Hynix datasheets

http://www.hynix.com/datasheet/ShortForm/2Q08_ShortFormCatalog_GraphicsMemory.pdf

wenn ich das richtig lese (Seite7):
1Gb 32Mx32 4.0Gbps H5GQ1H24MJR-T0C FBGA(170ball) 16Bank, 1.5V/1.5V Q2'08
bedeuted es, dass man 16 Chips für 1GB benötigt.
oder bedeuted 16Bank etwas anderes?

AnarchX
2008-07-23, 19:30:10
Die Angabe hat doch nicht mit der Verteilung auf dem PCB zu tun, was an sich ziemlicher Unsinn wäre, wenn ich von 128MiB Modulen nur minimum 16 verbauen könnte X-D, sondern mit der internen Organisation im Speicherchip, deshalb verdoppelt sich die Anzahl der Speicherbänke im Chip gegenüber den 512MBit Modulen eben auch zu 1GBit.

Hier kannst du nachlesen, wie die Banks im Gesamtkonzept von SDRAM sich eingliedern:
http://en.wikipedia.org/wiki/SDRAM

uweskw
2008-07-23, 19:41:07
Thanks

uweskw
2008-07-23, 19:47:29
wo her ist eigentlich ersichtlich, dass es sich um 128MiB Module handelt?

AnarchX
2008-07-24, 19:34:23
wo her ist eigentlich ersichtlich, dass es sich um 128MiB Module handelt?
Steht doch im Katalog, die 1H bedeuten 1GBit.


btw.
Radeon HD 4870 X2 im PCGH-Benchmark-Test (http://www.pcgameshardware.de/aid,653166/Test/Benchmark/Radeon_HD_4870_X2_im_PCGH-Benchmark-Test/)
"Das Mikroruckeln ist weg", tönte es in den letzten Wochen im Internet. Bei uns nicht - es hat sich bei den prominenten Fällen aber deutlich gebessert. UT3 läuft subjektiv immer flüssig, wir können keine ernsthaften Frame-Ausreißer messen. In Crysis besserte sich der Zustand unter DX9 ebenfalls merklich, die Bildverteilung ist aber stellenweise unruhiger als mit einer GPU. Unter DX10 versagt Crossfire, es hakt sehr deutlich und die Fps sind niedrig.

m 3DMark Vantage zeigt sich erst in der Extreme-Einstellung eine unregelmäßige Bildausgabe. Race Driver Grid präsentiert Mikroruckeln, wenn die durchschnittliche Framerate unter 50 fällt; die gefühlte Fps-Rate liegt dann zwischen 30 und 40. Auch NfS Carbon und Half-Life 2 (dt.) zeigen unbestreitbar Mikroruckeln unter 40 Fps. Der dargestellte Spielfluss gleicht dem Ergebnis einer Single-GPU mit 20 Fps.

Dass vielerorts von einem Verschwinden der Bildschwankungen berichtet wird, dürfte an der schieren Rechenleistung der 4780 X2 liegen. Mikroruckler werden je nach Ausprägung ab 40 Fps spürbar - aber nicht für jedermann. Um die X2 in solche Gefilde zu pressen, müssen Sie Auflösungen ab 1.920 x 1.200 und mindestens 8x FSAA aktivieren. 24x Edge-Detect-CFAA zwingt die Karte auch zuverlässig in die Knie. Es gibt kaum ein Spiel, das mit 20 oder 30 Fps nicht störend ruckelt, während das Ergebnis einer Solo-GPU noch Spielspaß erlaubt.

Blaire
2008-07-24, 19:57:41
Jo ich hatte es bereits geahnt. Zeigt nur wieder einmal . das man sich nicht auf Forengeschwätz verlassen sollte. :rolleyes:

Gast
2008-07-24, 20:04:37
........Es gibt kaum ein Spiel, das mit 20 oder 30 Fps nicht störend ruckelt, während das Ergebnis einer Solo-GPU noch Spielspaß erlaubt.

hmmm, dumme frage aber welches game ruckelt nicht bei 20-30 frames??
zocke selber grid mit einer einzelnen karte und wenn die fps unter 50 falen ruckelt es auch bei mir spürbarr.

Gast
2008-07-24, 20:30:22
...es hat sich bei den prominenten Fällen aber deutlich gebessert.

Sehr gut, ein schritt in die richtige Richtung, ATI tut was gegen MR =)

derwalde
2008-07-24, 20:42:25
hmmm, dumme frage aber welches game ruckelt nicht bei 20-30 frames??


genau die frage stelle ich mir auch gerade. naja warten wir weitere tests ab.

Blaire
2008-07-24, 20:43:14
Sehr gut, ein schritt in die richtige Richtung, ATI tut was gegen MR =)

Das reicht aber nicht und ist keine Grundlage.
Begründet sich dann wohl eher davon "Dass vielerorts von einem Verschwinden der Bildschwankungen berichtet wird, dürfte an der schieren Rechenleistung der 4780 X2 liegen."

flatbrain
2008-07-24, 20:45:16
Sehr gut, ein schritt in die richtige Richtung, ATI tut was gegen MR =)

Höh? Sie tun nichts gegen die MR, einzig die hohe Rohleistung reduziert die MR - ein Problemlösung ist das aber sicher nicht...

Gast
2008-07-24, 20:50:31
Höh? Sie tun nichts gegen die MR, einzig die hohe Rohleistung reduziert die MR - ein Problemlösung ist das aber sicher nicht...

und was ist das?
UT3 läuft subjektiv immer flüssig, wir können keine ernsthaften Frame-Ausreißer messen.

Blaire
2008-07-24, 20:53:56
und was ist das?

"Dass vielerorts von einem Verschwinden der Bildschwankungen berichtet wird, dürfte an der schieren Rechenleistung der 4780 X2 liegen."

flatbrain
2008-07-24, 20:54:05
und was ist das?

Steht doch da - ausreichend hohe Rohleistung.

PS: Und wieder zu langsam *fg*

Gast
2008-07-24, 20:54:46
"Dass vielerorts von einem Verschwinden der Bildschwankungen berichtet wird, dürfte an der schieren Rechenleistung der 4780 X2 liegen."

auch bei 30 fps?

flatbrain
2008-07-24, 20:57:42
auch bei 30 fps?

Die bei UT3 von PCGH wo gemessen wurden?

Blaire
2008-07-24, 20:59:46
UT3 da dürften die FPS kaum in 30er Regionen fallen und logisch das man dort auch kaum Mikroruckler wahrnimmt.

Gast
2008-07-24, 21:02:28
hmmm, dumme frage aber welches game ruckelt nicht bei 20-30 frames??
zocke selber grid mit einer einzelnen karte und wenn die fps unter 50 falen ruckelt es auch bei mir spürbarr.
Du musst es so sehen, mit Dual GPU würde das noch zweimal schlimmer Ruckeln. Es ist doch ganz klar das sobald man im MR Bereich landet sind 2 GPUs subjektiv zweimal LANGSAMER wie eine GPU. Es ist absurd aber CF/SLI arbeitet in diesem Fall genau in umgekehrte Richtung und macht das Spiel langsamer wie es ohnehin ist.

derguru
2008-07-24, 21:07:39
interessanter ist was 1gb ram pro kern aus macht bei auslastung.sieht man schön in ut bei min fps.
http://www.abload.de/thumb/cfaa_ut3_1920_24_25s7x.png (http://www.abload.de/image.php?img=cfaa_ut3_1920_24_25s7x.png)
http://www.abload.de/thumb/coj_2560_4x_13xon.png (http://www.abload.de/image.php?img=coj_2560_4x_13xon.png)

derwalde
2008-07-24, 21:41:30
was mich viel mehr als die micro ruckler abturnt ist die lautstärke. ich glaub mit den mr könnt ich leben, mit ner karte die laut ist wie nen fön weniger.

PCGH_Raffael
2008-07-24, 21:48:19
interessanter ist was 1gb ram pro kern aus macht bei auslastung.sieht man schön in ut bei min fps

Ja, in diesem Test knallt die X2 auch durch ihren VRAM ordentlich. Übrigens lief der erste Durchlauf mit der HD 4870 ("X1") ab einer bestimmten Stelle nur noch als Diashow ab. Beim zweiten Run hakte es an ebendieser Stelle nur noch kurz, die Karte "fing" sich aber wieder. Da ist der VRAM eindeutig an der Füllgrenze.

MfG,
Raff

uweskw
2008-07-24, 21:48:58
Zur Lautstärke:
Laut PCGH Messungen ist die GTX280 beim spielen 0,4 Sonne Lauter als die 4870X2.
Das muss man sich aber selbst aus den Artileln raussuchen, im "Vergleichstest" haben die veressen das zu erwähnen.
Für eine X2 Karte nr beachtliche Leistung
Theoretische Lautstärken bei 100% dann zu nutzen um die AMD als zu laut hinzustellen ist hochgradig unproffesionell

derwalde
2008-07-24, 21:51:43
Ja, in diesem Test knallt die X2 auch durch ihren VRAM ordentlich. Übrigens lief der erste Durchlauf mit der HD 4870 ("X1") ab einer bestimmten Stelle nur noch als Diashow ab. Beim zweiten Run hakte es an ebendieser Stelle nur noch kurz, die Karte "fing" sich aber wieder. Da ist der VRAM eindeutig an der Füllgrenze.



Danke. Hast du auch konstruktive Kritik parat? Die wird bei uns übrigens umgesetzt, sofern sie nicht "macht halt mal die Seite schöner, die ist hässlich" lautet.

MfG,
Raff

um mal konstruktiv zu sein. es nervt immer wieder die benchmarks anklicken zu müssen damit man was erkennt. ;)


edit: @uweskw oh dass ist mal interessant, hätte man echt erwähnen sollen!

flatbrain
2008-07-24, 22:00:49
um mal konstruktiv zu sein. es nervt immer wieder die benchmarks anklicken zu müssen damit man was erkennt. ;)


edit: @uweskw oh dass ist mal interessant, hätte man echt erwähnen sollen!


Mouseover wäre z.B. eine Möglichkeit, die Oberfläche nicht zu überladen, aber ohne Klicks die Informationen sichtbar zu machen. Die Sache mit der Lautstärke war bestimmt ein Versehen, oder?

PCGH_Raffael
2008-07-24, 22:02:55
Die Sache mit der Lautstärke war bestimmt ein Versehen, oder?

Dass der GTX-280-Wert nicht genannt wird, ja. Die Angabe der 12,5 Sone ist optional und sicher für viele interessant. Natürlich dient das nicht dazu, die Karte lauter darzustellen, als sie ist. Es lässt sich nach dem Lesen dieses Werts ja auch anders deuten: "Mensch, nur 3,6 Sone!" ;)

MfG,
Raff

uweskw
2008-07-24, 22:19:32
Dass der GTX-280-Wert nicht genannt wird, ja. Die Angabe der 12,5 Sone ist optional und sicher für viele interessant. Natürlich dient das nicht dazu, die Karte lauter darzustellen, als sie ist. Es lässt sich nach dem Lesen dieses Werts ja auch anders deuten: "Mensch, nur 3,6 Sone!" ;)

MfG,
Raff

Der Test ist von vorne bis hinten so geschrieben, dass die 4870X2 in möglich schlechtem Licht darsteht.
Und so wie ihr das mit dem Microrucklern geschrieben habt, klingt es als wäre die Karte fast unspielbar. Das sieht man auch an den Reaktionen in den Foren. Da ist das "vergessen" des 280 GTX Wertes nur ein Beispiel.

flatbrain
2008-07-24, 22:22:26
Dass der GTX-280-Wert nicht genannt wird, ja. Die Angabe der 12,5 Sone ist optional und sicher für viele interessant. Natürlich dient das nicht dazu, die Karte lauter darzustellen, als sie ist. Es lässt sich nach dem Lesen dieses Werts ja auch anders deuten: "Mensch, nur 3,6 Sone!" ;)

MfG,
Raff

Dazu müsste man aber parallel den 280GTX-Wert sehen, um zu sagen, die ist als X2 nur 3,6 Sone laut und damit leiser als eine Single Core 280GTX. Das wäre imo sinnvoller, als die Angabe der max. Lautstärke, die aber im Bertrieb nicht erreicht wird. Vielleicht eine Anregung zu einer Ergänzung...

PCGH_Raffael
2008-07-24, 22:25:16
Ja, wir sind gekauft. Zuerst von 3dfx, letzten Monat von Nvidia und nun schiebt AMD wieder Geld rüber. Ich zitiere mich mal aus diesem Beitrag (http://www.pcgameshardware.de/?menu=forum&s=thread&gid=2019&bid=421&tid=6947176&page=2), der uns ebenfalls eine "Neigung" unterstellte:

http://666kb.com/i/b0nfatgumbhmgpwiv.jpg

Wir werden weiter Kritik dort üben, wo es angebracht ist.

Dazu müsste man aber parallel den 280GTX-Wert sehen, um zu sagen, die ist als X2 nur 3,6 Sone laut und damit leiser als eine Single Core 280GTX. Das wäre imo sinnvoller, als die Angabe der max. Lautstärke, die aber im Bertrieb nicht erreicht wird. Vielleicht eine Anregung zu einer Ergänzung...

Jo, der Wert der GTX 280 wird nachgetragen, nochmals danke für die Info. :) Für die Aussage und den Vergleich macht es aber nicht viel aus. Beide Karten sind sehr laut und alles andere als unhörbar.

MfG,
Raff

Andreas12
2008-07-24, 22:26:46
Der Test ist von vorne bis hinten so geschrieben, dass die 4870X2 in möglich schlechtem Licht darsteht.
Und so wie ihr das mit dem Microrucklern geschrieben habt, klingt es als wäre die Karte fast unspielbar. Das sieht man auch an den Reaktionen in den Foren. Da ist das "vergessen" des 280 GTX Wertes nur ein Beispiel.

sehe ich nicht so.
endlich sagt mal jemand was sache ist.

Blaire
2008-07-24, 22:26:53
Der Test ist von vorne bis hinten so geschrieben, dass die 4870X2 in möglich schlechtem Licht darsteht.
Und so wie ihr das mit dem Microrucklern geschrieben habt, klingt es als wäre die Karte fast unspielbar. Das sieht man auch an den Reaktionen in den Foren. Da ist das "vergessen" des 280 GTX Wertes nur ein Beispiel.

Sollen sie lügen und alles verschweigen? :rolleyes:
Ihr Nörgler ich glaub ihr wisst garnicht was für eine Arbeit so ein Artikel macht. Und das man es eh nicht allen und jeden recht machen kann, ist sowieso klar. Aber meckern ist ja sooo einfach.

flatbrain
2008-07-24, 22:34:15
Ja, wir sind gekauft. Zuerst von 3dfx, letzten Monat von Nvidia und nun schiebt AMD wieder Geld rüber. Ich zitiere mich mal aus diesem Beitrag (http://www.pcgameshardware.de/?menu=forum&s=thread&gid=2019&bid=421&tid=6947176&page=2), der uns ebenfalls eine "Neigung" unterstellte:

http://666kb.com/i/b0nfatgumbhmgpwiv.jpg

Wir werden weiter Kritik dort üben, wo es angebracht ist.



Jo, der Wert der GTX 280 wird nachgetragen, nochmals danke für die Info. :) Für die Aussage und den Vergleich macht es aber nicht viel aus. Beide Karten sind sehr laut und alles andere als unhörbar.

MfG,
Raff

Laut sind sie wirklich beide, keine Frage. Zu den Vorwürfen - ignoriert sie. So lange es Fanboys (wie ich diesen Begriff hasse) gibt, wird es immer Vorwürfe der Voreingenommenheit geben. Steht einfach drüber. Fakt ist, dass erst kritische Berichterstattung überhaupt Verbesserungen der Hersteller erzwingt... Und davon haben wir alle etwas. Nämlich Fortschritt. Also macht weiter so.

flatbrain, dem es egal ist, wer etwas herstellt, so lange es gut ist. Die Hersteller wollen alle nur unser Bestes, also darf ich das auch umgekehrt verlangen.

Gast
2008-07-24, 22:48:16
Der Test ist von vorne bis hinten so geschrieben, dass die 4870X2 in möglich schlechtem Licht darsteht.
Und so wie ihr das mit dem Microrucklern geschrieben habt, klingt es als wäre die Karte fast unspielbar. Das sieht man auch an den Reaktionen in den Foren. Da ist das "vergessen" des 280 GTX Wertes nur ein Beispiel.

Natürlich ist die Karte unspielbar. Wenn du mal für so ein Highend Ding passende Auflösung einstellst 2048x1536 oder so dann bist du ganz schnell im Mickroruckler Bereich. Und da ist dann diese Karte zweimal langsamer wie nur eine GPU, subkjektiv. Hole doch mal selbst Crossfire...

derguru
2008-07-24, 22:51:43
Natürlich ist die Karte unspielbar. Wenn du mal für so ein Highend Ding passende Auflösung einstellst 2048x1536 oder so dann bist du ganz schnell im Mickroruckler Bereich. Und da ist dann diese Karte zweimal langsamer wie nur eine GPU, subkjektiv. Hole doch mal selbst Crossfire...


ohmann,hehe ja das könnte sein und was ist dann die alternative?eine 280 gtx im sli?http://smiliestation.de/smileys/Schilder/31.gif (http://smiliestation.de/)

abgesehen davon glaub ich das 2 einzelne karten im cf sauberer laufen als die x2.(zur zeit zumindest)

Gast
2008-07-24, 23:00:50
ohmann,hehe ja das könnte sein und was ist dann die alternative?eine 280 gtx im sli?http://smiliestation.de/smileys/Schilder/31.gif (http://smiliestation.de/)

abgesehen davon glaub ich das 2 einzelne karten im cf sauberer laufen als die x2.(zur zeit zumindest)
Mickroruckler haben absolut nichts mit Grafikkarten zu tun. Schuld sind CPU und Zusammenspiel mit dem Treiber.

GTX280@SLI kann eine Alternative sein. Weil ATI brachte nicht über die Jahre wenigstens eine handvoll Spiele auf Mickroruckler zu optimieren. Bei NV sind mehr Spiele die laufen wie sie laufen sollen bei ATI sind dagegen nur ein paar. Mir fallen ausser TDU und STALKER keine Spiele wo AFR ohne Mickroruckler funktioniert.

derguru
2008-07-24, 23:05:45
Mickroruckler haben absolut nichts mit Grafikkarten zu tun. Schuld sind CPU und Zusammenspiel mit dem Treiber.

GTX280@SLI kann eine Alternative sein. Weil ATI brachte nicht über die Jahre wenigstens eine handvoll Spiele auf Mickroruckler zu optimieren. Bei NV sind mehr Spiele die laufen wie sie laufen sollen bei ATI sind dagegen nur ein paar. Mir fallen ausser TDU und STALKER keine Spiele wo AFR ohne Mickroruckler funktioniert.

ist das jetzt ernst gemeint?wenn ja dann http://smiliestation.de/smileys/Schilder/3.gif (http://smiliestation.de/)

Gast
2008-07-24, 23:12:02
Natürlich ist es ernst gemeint. Eine andere Sache bei ungleichmäßiger Frameverteilung ist noch die wenn du sogar viele FPS hättest so wie in Benchmarks 300-200FPS dann heisst es NICHT Mickroruckler sind nicht vorhanden. Sie sind immernoch vorhanden nur du merkst sie nicht, dafür drücken sie deine empfundene Framerate in den Keller. Mit ganz einfacher Rechnung hat man rausgefunden das 200FPS sich wie 120 anfühlen.

Sascha1971
2008-07-25, 09:13:07
*grummel*
Die Miniruckler sind also immer noch da? Unter Dx9 weniger geworden und in DX10 total schlimm.

Ich glaube ichwarte doch noch mit dem Kauf.
http://www.pcgameshardware.de/aid,653166/Test/Benchmark/Radeon_HD_4870_X2_im_PCGH-Benchmark-Test/&page=10

pest
2008-07-25, 09:25:01
Mit ganz einfacher Rechnung hat man rausgefunden das 200FPS sich wie 120 anfühlen.

wow, man kann gefühle berechnen? her mit der formel

Gast
2008-07-25, 10:02:30
wow, man kann gefühle berechnen? her mit der formel
Du nimmst einfach Framezeiten die bei 300 FPS entstehen und berechnest genau wie mit 10-50 Sprüngen@30fps deine gefühlte FPS. Nimm beliebigen FPS Wert dann setze die frametimes so das der erste Framewert immer 1/5 des zweiten ist und daraus ergibt sich deine gefühlte Framerate.

pest
2008-07-25, 10:18:17
Du nimmst einfach Framezeiten die bei 300 FPS entstehen und berechnest genau wie mit 10-50 Sprüngen@30fps deine gefühlte FPS.

so einfach geht das nicht, erstens ist das subjektiv, und zweitens müsste man das bei single-gpu auch machen.
man braucht eben andere statistische größen als den durchschnittswert um das besser beurteilen zu können,
nicht sone milchmädchenrechnung.

chiller
2008-07-26, 10:19:35
PCGH beweist Mikroruckler auf der Radeon HD 4870 X2 (http://www.pcgameshardware.de/aid,653475/Test/Benchmark/PCGH_beweist_Mikroruckler_auf_der_Radeon_HD_4870_X2/)

Gast
2008-07-26, 10:51:51
Wie schon im passend Thread dazu angedeutet: Der Test ist so nicht aussagekräftig.

Kriton
2008-07-26, 10:54:23
Wird hier bereits diskutiert:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6682232#post6682232

AnarchX
2008-08-01, 08:02:07
http://www.czechcomputer.cz/product.jsp?artno=57882&localelang=en_US

360€ ohne MwSt., also wohl dann ca. 430€ bei uns für die 2GiB X2.

tombman
2008-08-01, 11:02:06
http://www.czechcomputer.cz/product.jsp?artno=57882&localelang=en_US

360€ ohne MwSt., also wohl dann ca. 430€ bei uns für die 2GiB X2.
Jo, also bald auf 400€, und die 280er dann auf 300€. Dann paßt ja wieder alles einigermaßen...

AnarchX
2008-08-08, 17:51:17
http://img99.imageshack.us/img99/6821/20080808e691c4a1f58ba4fvl7.jpg

Mal sehen ob ATi hier zukünftig noch mehr herausholen kann.

tombman
2008-08-08, 17:54:52
http://img99.imageshack.us/img99/6821/20080808e691c4a1f58ba4fvl7.jpg

Mal sehen ob ATi hier zukünftig noch mehr herausholen kann.
Also bis jetzt hat das in den benchmarks aber genau nix gebracht...genauso schnell wie normales CF...

dr_mordio
2008-08-09, 15:42:58
Also bis jetzt hat das in den benchmarks aber genau nix gebracht...genauso schnell wie normales CF...

vielleicht ist in den bisherigen treibern die nutzung der verbesserungen noch absichtlich nicht drinnen?

NV hat doch auch schon ein paar mal einige sachen deaktiviert gelassen um sie im bedarfsfall aus dem hut zu zaubern, fals ati zu nahe kommt.

vielleicht macht ati es jetzt umgekehrt? den rein von der logik müsste es so ja schneller sein als normales cf

MfG
Alex

reunion
2008-08-11, 17:19:26
Gigabyte 4870 X2:
http://forum.donanimhaber.com/m_25530016/tm.htm

AnarchX
2008-08-11, 17:32:15
http://img383.imageshack.us/img383/451/20080811922353ed3cf17bfcd0.jpg
http://img361.imageshack.us/img361/8739/20080811b35ac82e8449053jx9.jpg
http://we.pcinlife.com/thread-983107-1-1.html

Fetza
2008-08-11, 17:39:33
http://img383.imageshack.us/img383/451/20080811922353ed3cf17bfcd0.jpg
http://img361.imageshack.us/img361/8739/20080811b35ac82e8449053jx9.jpg
http://we.pcinlife.com/thread-983107-1-1.html

Leider alles ziemlich sinnlos, so lange wie es immer noch microruckler gibt. ;(

Ich hoffe dringend, dass ati mit ihren wundertreiber dieses problem lösen.

Gast
2008-08-11, 17:39:57
Crysis trauen sie sich wohl nicht? :D

Adam D.
2008-08-11, 18:49:12
Leider alles ziemlich sinnlos, so lange wie es immer noch microruckler gibt. ;(

Ich hoffe dringend, dass ati mit ihren wundertreiber dieses problem lösen.
Abwarten, was tb und Grestorn aufstellen, das sieht IMO mehr als vielversprechend aus, das Problem in den Griff zu kriegen ;)

Sorkalm
2008-08-11, 19:11:31
Btw, da steht die TDP drauf. Und die geht mit 270 Watt ja noch (die normale 4870 liegt ja bei 160 Watt, die GTX 280 bei 236 Watt). Fragt sich wieso die X2 so deutlich weniger braucht als zwei 4870 - soviel darf doch die Platine nicht ausmachen. Und da sind 2x 1 GiB GDDR5-Speicher drauf.

Gast
2008-08-11, 19:21:14
Btw, da steht die TDP drauf. Und die geht mit 270 Watt ja noch (die normale 4870 liegt ja bei 160 Watt, die GTX 280 bei 236 Watt). Fragt sich wieso die X2 so deutlich weniger braucht als zwei 4870 - soviel darf doch die Platine nicht ausmachen. Und da sind 2x 1 GiB GDDR5-Speicher drauf.

Vielleicht ist die TDP bei der X2 einfach näher an der Realität? Die TDP kann AMD nun mal bestimmen wie sie wollen. Dazu gibt es kein festgelegtes Verfahren.
Der Realverbrauch einer HD4870 unter Last ist gerade mal 130W (xbitlabs).

Gast
2008-08-11, 19:54:48
Crysis trauen sie sich wohl nicht? :D

die benches sind ja noch gar nicht extrem geschönt... nur 4xaa und nicht 8xaa

reunion
2008-08-11, 20:46:02
MSI 4870 X2:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/august/zwei_radeon_hd_4870_x2_msi/

AnarchX
2008-08-11, 20:47:48
Sobald das NDA in wenigen Stunden abgelaufen ist, wird es auch hier auf ComputerBase einen ausführlichen Test der ATi Radeon HD 4870 X2 geben. Dort gehen wir natürlich auf die bereits vorab hochgelobte Performance ein, setzen uns aber auch mit dem kritischen Thema der „Mikroruckler“ auseinander.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/august/zwei_radeon_hd_4870_x2_msi/

Das klingt doch schon mal gut.

derguru
2008-08-11, 22:10:19
hoffentlich kommt gleich der cat 8.8 hinterher mit funktionierendem PP2.
vom timing würde es ja hinhauen;)

Kriton
2008-08-12, 00:31:29
Gigabyte angeblich verfügbar:

http://geizhals.at/deutschland/a357569.html

tombman
2008-08-12, 03:16:28
http://img383.imageshack.us/img383/451/20080811922353ed3cf17bfcd0.jpg
http://img361.imageshack.us/img361/8739/20080811b35ac82e8449053jx9.jpg
http://we.pcinlife.com/thread-983107-1-1.html
Naja, schlappe 50% schneller wenns gut rennt...

3x G200b und die Sache ist gegessen ;)

Schlammsau
2008-08-12, 06:19:00
Der erste Test ist da: :smile:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/

Fazit
ATi hat mit der Radeon HD 4870 X2 ein beeindruckendes Stück Hardware gebaut. Die Dual-GPU-Karte überholt die GeForce GTX 280 von Nvidia in beinahe allen Anwendungen und vor allem unter hohen Qualitätseinstellungen spielend und rendert oft mehr als 50 Prozent schneller als der ehemalige Geschwindigkeitskönig. Darüber hinaus sind mit der Radeon HD 4870 X2 nun in manchen Spielen Qualitätseinstellungen wie acht-faches Anti-Aliasing in 2560x1600 flüssig wiederzugeben, woran vorher nicht zu denken war. Kurz gesagt: Die Performance der Radeon HD 4870 X2 ist über jeden Zweifel erhaben.

Die Leistung wird aber durch die immer noch vorhandenen Mikroruckler getrübt. Zwar fällt es mit der Radeon HD 4870 X2 schwer in FPS-Bereiche (etwa 25 FPS, variabel von Spiel zu Spiel) vorzudringen, in denen die Mikroruckler problematisch werden. An dem Problem an sich hat sich aber nichts geändert. Da die Mikroruckler stark vom subjektiven Empfinden abhängig sind, raten jedem Käufer dazu selber auszuprobieren, wie empfindlich er auf die unschönen Ruckler reagiert.

Für die reinen Leistungs-Enthusiasten gibt es derzeit dennoch wahrlich keine bessere Grafikkarte als die Radeon HD 4870 X2, die mit einem Preis von etwa 420 Euro für die gebrachte Leistung gar nicht einmal so teuer ist. Kein anderer 3D-Beschleuniger kommt an diese hohe Geschwindigkeit heran. Man muss allerdings mit den für Multi-GPU-Karten typischen Schwierigkeiten wie Mikroruckler sowie den CrossFire-Profilen zurecht kommen. Auch geräuschempfindlich sollte man nicht sein, denn die Grafikkarte wird unter Last sehr laut. Die enorme Leistungsaufnahme lässt grüßen.

MadManniMan
2008-08-12, 07:05:16
Keine Grafikkarte, an der sich irgendeine andre künftig ein Beispiel nehmen sollte. (Freilich immernoch) Problematisches AFR, unanständige Lautstärke und eine lachhafte Leistungsaufnahme stehen für die... hm... "Bonzenkarte" dieser Tage.

Schlammsau
2008-08-12, 07:13:50
Obwohl ich eigentlich auch kein Fan solcher Boliden bin, bin ich doch schwer beeindruckt von dem Kärtchen.
Die Karte hat eine solche brachiale Leistung, dass es schier unmöglich ist diese unter 30 Fps zu drücken, ausser in Crysis@VH natürlich.
Also sind die µR erstmal uninteressant.
Die Leistungsaufnahme ist im Idle nur leicht über einer einzelnen 4870, was willst du mehr? Wie haben die das gemacht? Kern abgeschaltet oder doch PP2.0?
Sie ist unter 2560x1600 4xAA/16xAF (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet) im Schnitt 60% schneller als eine GTX280 :eek: und dabei noch "bezahlbar". Tolle Leistung ATi! :daumen:

Für mich ist die Karte trotzdem nichts, bin mit einer einzelnen 4870 schon bestens versorgt.

tombman
2008-08-12, 07:23:53
In ein paar Minuten schon über 90°C GPU Temp...lol.

Da WETTE ich drauf, daß das im Sommer bei geschlossenem Gehäuse weit über 100°C geht- und ob das gutgeht weiß niemand.

Außerdem: 65db unter Last hält keiner lange aus- zum Preis MUSS man also noch einen extra after market Kühler rechnen ;)
(oder besser gleich wakü...)

Fazit: gute Karte, aber kein Wunder ;)

p.s: und vorallem bin ich auf 2x X2 benchmarks gespannt. Da zeigt sich dann, ob das Konzept von ATI WIRKLICH aufgeht.
Nvidia hat man erst geschlagen, wenn man SLi geschlagen hat...
2x X2 vs 3x 280 :cool:

Schlammsau
2008-08-12, 07:49:13
gibt es einen besseren Weg die enorme Verlustleistung zu kühlen als mit Wasserkühlung?

Gast
2008-08-12, 08:04:24
Leider wurde bei Computerbase die 4870CF mit alten Treibern und der 512 mb Variante gemessen intressant wär hier ein Vergleich unter gleichen Bedingungen gewesen, zummindest was den Treiber angeht, der neue bringt bei minem 4850 CF gespann im Schnitt ja so 10 - 20%.

Sorkalm
2008-08-12, 08:08:33
Warum gibts eigentlich bisher nur den CB-Test im Netz, haben die irgendeine Verschiebung nicht mitbekommen?

Superheld
2008-08-12, 08:12:07
hier hast du noch paar links

http://www.xtremesystems.org/forums/showthread.php?t=198126

Sorkalm
2008-08-12, 08:14:13
Ah, die waren auf Xtremsystems aber versteckt. Danke.

Unyu
2008-08-12, 08:24:24
In ein paar Minuten schon über 90°C GPU Temp...lol.

Und das gerade mal in UT3.
Wie wohl Progrämmchen wie FurMark einheizen würden, wenn CF ordentlich laufen würde. ;D


Sie ist unter 2560x1600 4xAA/16xAF (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet) im Schnitt 60% schneller als eine GTX280 :eek:
Oder langsamer als eine 4870. http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/24/#abschnitt_problem_mikroruckler
:eek:

Sorkalm
2008-08-12, 08:27:02
Oder langsamer als eine 4870. http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/24/#abschnitt_problem_mikroruckler

Also wenn du schon deine Bashing-Kommentare gegen ATI abgeben willst, dann mach das wenigstens richtig.

überprüfen in den für das Problem anfälligen Spielen Call of Juarez, Crysis sowie Clive Barker's Jericho in verschiedenen Qualitätseinstellungen

Ganz großes Kino Unyu. ;D

MadManniMan
2008-08-12, 08:27:08
Die Leistungsaufnahme ist im Idle nur leicht über einer einzelnen 4870, was willst du mehr? Wie haben die das gemacht? Kern abgeschaltet oder doch PP2.0?

Sie haben einfach nur die 4870 schon soweit verkorkst, dass die schlechte Leistung der X2 jetzt nicht mehr so auffällt.

An sich müsste sich die 4870 X2 von der Idle-Aufnahme an der 3870 X2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme) messen - und dort scheitert sie kläglich. Und ganz eigentlich müssten sich einfach alle Karten an der 3850 messen.

*kopfschüttel*

Sorkalm
2008-08-12, 08:28:49
An sich müsste sich die 4870 X2 von der Idle-Aufnahme an der 3870 X2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme) messen - und dort scheitert sie kläglich.

Sieht aber deutlich besser aus als z. B. der Vergleich 3870 zu 4870. Wieso denn das?

Schlammsau
2008-08-12, 08:32:03
Sie haben einfach nur die 4870 schon soweit verkorkst, dass die schlechte Leistung der X2 jetzt nicht mehr so auffällt.

An sich müsste sich die 4870 X2 von der Idle-Aufnahme an der 3870 X2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme) messen - und dort scheitert sie kläglich. Und ganz eigentlich müssten sich einfach alle Karten an der 3850 messen.

*kopfschüttel*
natürlich ist der Idle Verbrauch viel zu hoch......aber gegenüber der einzelnen 4870 wieder nicht. Das heisst doch, dass da was im Gegensatz zur 3870X2 verändert wurde. Diese nämlich verbraucht im Idle mehr als das doppelte als eine einzelne 3870.
Ich hoffe immernoch, dass sich mit kommenden Treibern noch was am Idle Verbrauch ändert!

reunion@work
2008-08-12, 08:36:06
An sich müsste sich die 4870 X2 von der Idle-Aufnahme an der 3870 X2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme) messen - und dort scheitert sie kläglich. Und ganz eigentlich müssten sich einfach alle Karten an der 3850 messen.

*kopfschüttel*

Und überhaupt müsste sich eigentlich alle Karten an der Voodoo1 messen. Merkst du was? Du kannst nicht erwarten das ein um Häuser schnellerer Chip die gleiche Leistungsaufnahme produziert. Die Karte verbraucht im idle weniger Strom als eine 8800U, und das trotz zwei Chips, einer PCIe-Bridge und 2GB VRAM, das ist mit Verlaub ein sehr guter Wert. Hoffentlich fünftioniert Powerplay mit dem neuen Treiber auf den anderen Karten ähnlich gut, dann darf man mit erheblich niedrigeren Werten rechnen.

Unyu
2008-08-12, 08:37:57
Hoffentlich fünftioniert Powerplay mit dem neuen Treiber auf den anderen Karten ähnlich gut, dann darf man mit erheblich niedrigeren Werten rechnen.
"Eine Radeon HD 4870 mit nur einem Kern braucht mit dem alten Treiber lediglich neun Watt weniger."
-> und die Jungs messen das Gesamtsystem ....

Also wenn du schon deine Bashing-Kommentare gegen ATI abgeben willst, dann mach das wenigstens richtig.

Warum, die Schwankung ist ja recht deutlich, während die Single super kosntant ist.
Es schwankt sogar ganz gewaltig, mal auf die Zahlen links geachtet?

XuXo
2008-08-12, 08:40:23
Fazit: gute Karte, aber kein Wunder ;)

p.s: und vorallem bin ich auf 2x X2 benchmarks gespannt. Da zeigt sich dann, ob das Konzept von ATI WIRKLICH aufgeht.
Nvidia hat man erst geschlagen, wenn man SLi geschlagen hat...
2x X2 vs 3x 280 :cool:

Richtig kein Wunder. War aber schon vorher bekannt. bzw. hattest du ja schon allen vorher versucht klar zu machen :smile:

Trotzdem sind die Werte (im CB Test) etwas besser als erwartet. Eine Leistungssteigerung gegenüber dem normalen 4870 CF Verbund ist signifikant vorhanden.

Leider fehlt im Benchmark noch ein 280 SLI Verbund. Auch wenn es preislich mit 600 EUR nicht vergleichbar ist. Aber als Vergleich wäre es technisch "gerechter".


Weitere Punkte/ Aspekte:

- Die X2 ist mit dem Startpreis kein Nepp. Hier hat sich Nvidia bekanntermaßen beim Start der G200 völlig überschätzt und damit Kunden und Image geschadet. Auch wenn das Produkt damals (naja vor 6-8 Wochen) absolut High End war. Aber die Show war nicht wirklich gut. Gott sei Dank gibt es diesmal eine gewisse Konkurrenz.

- CF ist mittlerweile gut, aber noch nicht so benutzerfreundlich wie das SLI Konzept von nvidia. Die SLI Profile sind schon sehr gut. Die Frage ist wann endlich mal ein nhancer für CF kommt. Inwieweit dieser Punkt im Spieleralltag eine Rolle spielt? Wird wohl bei jedem anders sein...Im Idealfall installiert man ein Spiel und man kann gleich loslegen ... *träum*. Vielleicht ist hier SLI ein Millimeter näher am Ziel (dank nhancer).

- AMD Karten im CF Verbund kann man auf Intel Mobos ohne Probs anwenden. Ich finde diese Chipsätze besser als die Nforces. Hier gibt es ja auch schon Verbesserungen, siehe X58. Trotzdem stand jetzt geht das nur mit CF.


Schauen wir mal wie es weiter geht. Jetzt ist nvidia am Zug und es steht immer noch ein CFX Test aus.

AMD hat seine "Hausaufgaben" sehr gut gemacht. Jetzt gibt es wenigstens vergleichbare Auswahl.



PS: Ein CFX Test bzw. Erste Zahlen waren gestern im VR Zone gepostet

EDIT: CFX test hier : http://www.pcper.com/article.php?aid=605&type=expert&pid=1

MadManniMan
2008-08-12, 08:40:40
Sieht aber deutlich besser aus als z. B. der Vergleich 3870 zu 4870. Wieso denn das?

Weil AMD immerhin etwas an der vermurksten Leistungsaufnahme der RV770 hat hinbiegen können. Vielleicht Hardware, vielleicht Software - wer weiß?


natürlich ist der Idle Verbrauch viel zu hoch......aber gegenüber der einzelnen 4870 wieder nicht. Das heisst doch, dass da was im Gegensatz zur 3870X2 verändert wurde. Diese nämlich verbraucht im Idle mehr als das doppelte als eine einzelne 3870.
Ich hoffe immernoch, dass sich mit kommenden Treibern noch was am Idle Verbrauch ändert!

Selbstverständlich sind die 800 ALUs und die anderen Verbreiterungen des Chips die Schuldigen, wenn es um die erhöhte Leistungsaufnahme geht - und dass sich da was gegenüber den RV670ern tut, ist auch nicht so wirklich ein Wunder. Ich bin nur über das Ausmaß ein wenig traurig.

Auf Treiberwunder würde ich nicht mehr hoffen - wenn, dann dürften Hardwaremodifikationen noch etwas reißen.

reunion@work
2008-08-12, 08:41:16
"Eine Radeon HD 4870 mit nur einem Kern braucht mit dem alten Treiber lediglich neun Watt weniger."
-> und die Jungs messen das Gesamtsystem ....


Bei den anderen Karte wurde aber noch der alter Treiber verwendet.


Warum, die Schwankung ist ja recht deutlich, während die Single super kosntant ist.
Es schwankt sogar ganz gewaltig, mal auf die Zahlen links geachtet?

Das hat ja auch niemand bestritten.

MadManniMan
2008-08-12, 08:43:59
Und überhaupt müsste sich eigentlich alle Karten an der Voodoo1 messen. Merkst du was? Du kannst nicht erwarten das ein um Häuser schnellerer Chip die gleiche Leistungsaufnahme produziert. Die Karte verbraucht im idle weniger Strom als eine 8800U, und das trotz zwei Chips, einer PCIe-Bridge und 2GB VRAM, das ist mit Verlaub ein sehr guter Wert. Hoffentlich fünftioniert Powerplay mit dem neuen Treiber auf den anderen Karten ähnlich gut, dann darf man mit erheblich niedrigeren Werten rechnen.

Du glaubst ernsthaft an das Treiberwunder? Wie oft hat uns die Realität schon gelehrt, dass wir uns im Falle dessen vielleicht wirklich freuen können, aber niemals damit rechnen sollten?

Und nur, weil die unrühmliche 8800 Ultra unterboten wird, ist die 4870 X2 nicht auf einmal gut. Besser, ja. Aber unter den Blinden ist ja auch der Einäugige König.


Ich habe die 3850 zum Vergleich gezogen, weil sie das perfekte Beispiel dafür ist, wie man es wirklich richtig macht. So kann jetzt aber jedes Fazit nur lauten, dass die neuen Karten zwar deutlich schneller sind, aber eben auch im Verbrauchs-Leistungs-Verhältnis wieder schlechter wurden.

reunion@work
2008-08-12, 08:47:15
Du glaubst ernsthaft an das Treiberwunder? Wie oft hat uns die Realität schon gelehrt, dass wir uns im Falle dessen vielleicht wirklich freuen können, aber niemals damit rechnen sollten?


Wenn der Stromsparmodus auf der X2 funktioniert, warum dann nicht auch auf einer Single-Karte?


Und nur, weil die unrühmliche 8800 Ultra unterboten wird, ist die 4870 X2 nicht auf einmal gut. Besser, ja. Aber unter den Blinden ist ja auch der Einäugige König.

Der idle-Modus ist sehr gut. Es gibt keine andere Karte im Testfeld, die eine derat signifikante Stromersparnis zwischen idle und Last erreicht - auch nicht deine hochgelobte 3850.

Gast
2008-08-12, 08:53:58
Quad Benches.
http://www.firingsquad.com/hardware/amd_ati_radeon_4870_x2_performance_review/page6.asp

Schlammsau
2008-08-12, 08:54:27
Auf Treiberwunder würde ich nicht mehr hoffen - wenn, dann dürften Hardwaremodifikationen noch etwas reißen.

Wenn man eine 4870 mit 200/200Mhz betreibt spart man sich ~50 Watt!
Und Tools die das ermöglichen, gibt es schon länger.

Quad Benches.
http://www.firingsquad.com/hardware/amd_ati_radeon_4870_x2_performance_review/page6.asp
unglaubliche Leistung.....aber wie immer hackt es in Crysis.
Warum immer nur in diesem Spiel? Als ich CF hatte lief eigentlich alles Problemlos und wurde gut beschleunigt. Nur in Crysis DX10 hatte ich immer Probleme.

Mark3Dfx
2008-08-12, 09:13:42
http://ht4u.net/reviews/2008/sapphire_radeon_hd_4870_x2/index7.php

"Interessant war aber auch der Umstand, dass das Kühlblech, unmittelbar oberhalb des Covers, innerhalb kürzester Zeit nach dem Start schon sehr heiß wurde (deutlich über 60°C), und dass ohne Lastbetrieb. Nach Last war dieses Kühlblech in Spitzenbereichen knapp unter 80°C.

Wir möchten uns nicht vorstellen, zu was dieses Produkt an einem wirklich heißen Sommertag in geschlossenem Gehäuse im Stande ist, sei es im Bereich Temperaturen oder der damit in Hand gehenden Lüfterlautstärke, welche ohnehin auch auf dem offenen Teststand nicht von schlechten Eltern war.

Unter Company of Heroes erlebten wir einen weiteren Spitzenwert von runden 2700 UpM und unter Bioshock zeigte sich die neue X2 als wahre Heulboje mit knapp 3000 UpM." :rolleyes:

MadManniMan
2008-08-12, 09:36:22
Wenn der Stromsparmodus auf der X2 funktioniert, warum dann nicht auch auf einer Single-Karte?

Weil wir darauf schon seit Ewigkeiten warten?


Der idle-Modus ist sehr gut. Es gibt keine andere Karte im Testfeld, die eine derat signifikante Stromersparnis zwischen idle und Last erreicht - auch nicht deine hochgelobte 3850.

Du bist lustig ;D

288 Watt (!) Differenz zwischen Idle und Load bei der 4870 X2 sind natürlich ein hoher Wert - aber was sagt das schon aus?
- zu allererst ists das Gesamtsystem, das betrachtet wird - wir können über Synergien verschiedener Lastquellen nur spekulieren
- bei einer 3850 ist die Differenz bei 90 Watt - und wir wissen von den X-bit labs, dass eine 3850 unter Last 50 Watt mehr zieht, als im Idle
- daraus folgt, dass (immer das Netzteil bedenken, was an Effizienz einbüßt)... ja, was?

...eigentlich folgt nur daraus, dass die Messmethode von ComputerBase an dieser Stelle und bei solchen Vergleichen keine große Aussagekraft mehr hat. Man kann aber auf jeden Fall sagen, dass es immerhin löblich ist, dass überhaupt soviel Saft im Idle "gespart" wird, aber man darf das ganze nicht relativ betrachten, sondern muss die absoluten Zahlen sehen.

Und da bedienen wir uns mal bei den X-bit labs: (http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_12.html#sect0) eine 4870 zieht Idle 65 Watt und verspeist 130 unter Last. Ganz grob kann man gewiss anhand der Differenz bei der ComputerBasis abschätzen, dass Idle 10 Watt und deren 150 unter Last dazukommen.
Vergleichen wir mal:

Karte Leistung IDLE LOAD
3850 1x 15 65
4870 2x 65 130
4870 X2 3.5x 75 280

...klar, der Grenzertrag nimmt ab und der Lastverbrauch ist durchaus nicht weit von dem, was angemessen ist, aber ohne Last sind beide R(V)7xx einfach schlecht.

MadManniMan
2008-08-12, 09:36:52
Wenn man eine 4870 mit 200/200Mhz betreibt spart man sich ~50 Watt!
Und Tools die das ermöglichen, gibt es schon länger.

Quelle?

Schlammsau
2008-08-12, 09:46:14
Quelle?
ich selber und http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/ und http://www.pcgameshardware.de/aid,653614/Test/Benchmark/PCGH-Test_Stromverbrauch_der_HD_4870_optimieren/ und mit diesem Tool taktet die Karte soagr automatisch runter und wieder hoch wenn ein Gamne gestartet wird: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=427048
funktioniert tadellos bei mir!

reunion@work
2008-08-12, 09:57:09
Weil wir darauf schon seit Ewigkeiten warten?

Und jetzt gibt es offensichtlich einen Treiber bei welchem es zumindest mit der X2 funktioniert.


...eigentlich folgt nur daraus, dass die Messmethode von ComputerBase an dieser Stelle und bei solchen Vergleichen keine große Aussagekraft mehr hat. Man kann aber auf jeden Fall sagen, dass es immerhin löblich ist, dass überhaupt soviel Saft im Idle "gespart" wird, aber man darf das ganze nicht relativ betrachten, sondern muss die absoluten Zahlen sehen.


Natürlich muss man dass in Relation betrachten und natürlich ist das bei Messungen der Gesamtsystems schwierig. Nichtsdestotrotz kann man hier unter idle sehr viel heraus holen. Das die X2 trotzdem kein Stomsparwunder wird sollte klar sein.

reunion@work
2008-08-12, 10:02:36
Karte Leistung IDLE LOAD
3850 1x 15 65
4870 2x 65 130
4870 X2 3.5x 75 280

...klar, der Grenzertrag nimmt ab und der Lastverbrauch ist durchaus nicht weit von dem, was angemessen ist, aber ohne Last sind beide R(V)7xx einfach schlecht.

Ganz übersehen: Die 4870 ist sicher schneller als 2x 3850 wenn nicht gerade die CPU limitiert, und die 4870 X2 benötigt garantiert weniger Strom als zwei 4870. Siehe den Vergelich mit den CF-Karten. Hier nimmt die Effizienz des Netzteil bei CB einfach schon stark ab. Es werden wohl um die 250W laut xbitlabs-Messmethode.

Andreas12
2008-08-12, 10:24:31
Sorry,also ich bin entsetzt was die Leistungsaufnahme der X2 angeht, steht in keinem vernünftigen Verhältnis zu den gebotenen FPS und ich will erst gar nicht wissen was da für Abwärme entsteht.

Eigentlich wars ja klar, hatte mal kurzzeitig eine 4870 im rechner,
das ging gar nicht.

AnarchX
2008-08-12, 10:48:38
Die Diskussion wer das absolut stärkste GPU-Setup liefern kann, ist bitte hier zu führen:
Kampf um die Krone - HD4870X2 CFX vs GTX 280 T-SLI (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6715963#post6715963)
Das aber bitte mit Niveau!

Gast
2008-08-12, 11:13:10
Und jetzt gibt es offensichtlich einen Treiber bei welchem es zumindest mit der X2 funktioniert.


Nein tut es nicht, CB irrt hier.
Im Idle wird auf der X2 ein Chip abgeschaltet, bei einer single-Chip Karte geht das natürlich nicht.

AnarchX
2008-08-12, 11:14:41
Nein tut es nicht, CB irrt hier.
Im Idle wird auf der X2 ein Chip abgeschaltet, bei einer single-Chip Karte geht das natürlich nicht.
Quelle?

MadManniMan
2008-08-12, 11:19:17
ich selber und http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/ und http://www.pcgameshardware.de/aid,653614/Test/Benchmark/PCGH-Test_Stromverbrauch_der_HD_4870_optimieren/ und mit diesem Tool taktet die Karte soagr automatisch runter und wieder hoch wenn ein Gamne gestartet wird: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=427048
funktioniert tadellos bei mir!

Und wo sind Deine 50 Watt? Dann wären wir bei 15 Watt im IDLE!

Nebenbei: eine 3850 kannst Du auch immernoch händisch optimieren - und überhaupt: es ist ja schön und gut, dass wir beide wissen, wie man die Teile optimieren kann, aber 95% aller Benutzer werden ihre Treiber installieren und gut ist.

Und nochwas: warum funzt es bei Hübie nicht?


Und jetzt gibt es offensichtlich einen Treiber bei welchem es zumindest mit der X2 funktioniert. [/url]

Verschiedene Möglichkeiten:
- irgendwie schafft es AMD, nur mehr einen Chip samt Anhang im IDLE wirklich laufen zu lassen - würde die 4870-Entsprechung erklären
- oder aber, PP2 funktioniert ein wenig - dann wären wir bei 35 Watt pro 4870 und immernoch bemerkenswert hoch
- oder jedoch, hier greift ein kleiner Hardwarekniff

Es ist doch so: schön und gut, dass die 4870 X2 nicht so monströs viel verbraucht, aber wie relevant sind die Dual-Chip-Karten? Die wichtigeren Karten sind die auf dem RV770 basierenden - und da muss es dann auch greifen.


[quote]Natürlich muss man dass in Relation betrachten und natürlich ist das bei Messungen der Gesamtsystems schwierig. Nichtsdestotrotz kann man hier unter idle sehr viel heraus holen. Das die X2 trotzdem kein Stomsparwunder wird sollte klar sein.

Warten wir ab, was die X-bit labs ermitteln.


Ganz übersehen: Die 4870 ist sicher schneller als 2x 3850 wenn nicht gerade die CPU limitiert, und die 4870 X2 benötigt garantiert weniger Strom als zwei 4870. Siehe den Vergelich mit den CF-Karten. Hier nimmt die Effizienz des Netzteil bei CB einfach schon stark ab. Es werden wohl um die 250W laut xbitlabs-Messmethode.

Ob 2x oder 2,2x, darum soll es nicht unbedingt gehen - es geht um die Größenordnung. Über 30 Watt idle (~2*3850-Verbrauch) wäre ich nicht froh, aber es wäre ein Schritt in die richtige Richtung.

Mit dem NT hast Du allerdings Recht.

reunion@work
2008-08-12, 11:36:20
Man könnte mal das erste Posting mit den "richtigen" Reviews editieren, so kennt sich ja kein Mensch aus! Siehe: http://www.xtremesystems.org/forums/showthread.php?t=198126

dildo4u
2008-08-12, 12:16:37
828Watt absolut Krank.Echt schade das ATI und NV keine Monster einzel Chips mher bauen wollen und wir müssen mit diesen Crossfire/SLI Müll Karten leben.Fakt ist doch in 55nm wird der G200 das wesentlich bessere Performance zu Watt Verhältnis zur Crossfirelösung X2 4780 haben.Ich frag mich wie man da diese Karte feiern kann.


http://s3.directupload.net/images/080812/7xe4c84d.png

http://www.hothardware.com/Articles/ATI-Radeon-HD-4870-X2--AMD-Back-On-Top/?page=11

derguru
2008-08-12, 12:26:33
immerhin funzt jetzt PP2.ist ja keine überraschung was die x2 karten unter last im cf verbraten.

reunion@work
2008-08-12, 12:30:44
828Watt absolut Krank.Echt schade das ATI und NV keine Monster einzel Chips mher bauen wollen und wir müssen mit diesen Crossfire/SLI Müll Karten leben.Fakt ist doch in 55nm wird der G200 das wesentlich bessere Performance zu Watt Verhältnis zur Crossfirelösung X2 4780 haben.Ich frag mich wie man da diese Karte feiern kann.


http://s3.directupload.net/images/080812/7xe4c84d.png

http://www.hothardware.com/Articles/ATI-Radeon-HD-4870-X2--AMD-Back-On-Top/?page=11

Wie schon gesagt, die Werte sind absolut unrealistisch, das Netzteil ist hier am Ende. Zudem sind die Triple-SLi-Werte viel zu niedrig.

derwalde
2008-08-12, 12:34:53
ist denn heute btw der offizielle release? mich juckts ja schon in den fingern mal sowas zu testen :)

Schlammsau
2008-08-12, 12:46:18
je höher die FPS Leistung umso höher die Verslustleistung! Das war leider schon immer so!

dildo4u
2008-08-12, 12:49:41
je höher die FPS Leistung umso höher die Verslustleistung! Das war leider schon immer so!
Crossfire X funktioniert manchmal gar nicht(Gothic 3).Dann bräuchte dieses System für die Leistung einer 4870 über 800Watt.Es gibt Noobs die peilen das nicht und das könnte dort wirklich passieren.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/12/#abschnitt_gothic_3

AnarchX
2008-08-12, 12:49:43
Der Sideport scheint wohl nur ein nettes Papierfeature zu sein:
According to AMD the performance impact is negligible, while average frame rates don't see a gain every now and then you'll see a boost in minimum frame rates. There's also an issue where power consumption could go up enough that you'd run out of power on the two PCIe power connectors on the board. Board manufacturers also have to lay out the additional lanes on the graphics card connecting the two GPUs, which does increase board costs (although ever so slightly).

AMD decided that since there's relatively no performance increase yet there's an increase in power consumption and board costs that it would make more sense to leave the feature disabled.

The reference 4870 X2 design includes hardware support for the CrossFire Sideport, assuming AMD would ever want to enable it via a software update. However, there's no hardware requirement that the GPU-to-GPU connection is included on partner designs. My concern is that in an effort to reduce costs we'll see some X2s ship without the Sideport traces laid out on the PCB, and then if AMD happens to enable the feature in its drivers later on some X2 users will be left in the dark.
http://www.anandtech.com/video/showdoc.aspx?i=3372&p=3

pXe
2008-08-12, 13:03:44
Enttäuschend, insbesondere die Lautstärke unter Last :eek:.

pXe

Gast
2008-08-12, 13:06:07
828Watt absolut Krank.Echt schade das ATI und NV keine Monster einzel Chips mher bauen wollen und wir müssen mit diesen Crossfire/SLI Müll Karten leben.Fakt ist doch in 55nm wird der G200 das wesentlich bessere Performance zu Watt Verhältnis zur Crossfirelösung X2 4780 haben.Ich frag mich wie man da diese Karte feiern kann.


http://s3.directupload.net/images/080812/7xe4c84d.png

http://www.hothardware.com/Articles/ATI-Radeon-HD-4870-X2--AMD-Back-On-Top/?page=11
und so kannste das schon mal garnicht vergleiche ,nimm die "einzelne X2" und nen G200 SLI!

tombman
2008-08-12, 13:08:06
ROFL!!!!!!!!

http://www.abload.de/img/cfroflht7.png

Hakim
2008-08-12, 13:14:44
Also nachdem ich den Review bei CB gelesen habe wundere ich mich etwas. Einige hier aus dem Forum meinten doch ständig das bei der ATI 48xx Reihe mit CF keine MR mehr vorhanden wären?? Evt ist es ja (wie auch dort beschrieben) wirklich eine subjektive Sache was vielen nicht auffällt.

Mr. Lolman
2008-08-12, 13:15:55
Toll. Tombman hat anscheinend gerade herausgefunden, dass 4 GPUs mehr Strom verbrauchen, als 2. :up:

Grestorn
2008-08-12, 13:20:24
Genauso bemerkenswert wie die Neuigkeit, dass 4 GPUs manchmal eine höhere Performance erbringen wie 2...

derguru
2008-08-12, 13:23:45
schon komisch oder hat cb wiederrum andere treiber da bei denen der idle verbrauch gerade mal 10w mehr sind als mit einer 4870 karte.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme

ShadowXX
2008-08-12, 13:26:32
schon komisch oder hat cb wiederrum andere treiber da bei denen der idle verbrauch gerade mal 10w mehr sind als mit einer 4870 karte.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme
Ich schätze das einer der Chips im Idle so gut wie ausgeschaltet wird, mit dem PP2.0 was auf der 48x0 vermisst wird hat das wenig zu tun (auch wenn dieses Feature des Ausschaltens der 2ten GPU bei X2-Karte sicher mit zum PP2.0 Featureset gehört).

reunion@work
2008-08-12, 13:32:14
Genauso bemerkenswert wie die Neuigkeit, dass 4 GPUs manchmal eine höhere Performance erbringen wie 2...

Wenn ich die 4 GPUs fast zum Preis von 2 bekomme ist das aber einzig und alleine NVs Problem.

reunion@work
2008-08-12, 13:36:53
ROFL!!!!!!!!

http://www.abload.de/img/cfroflht7.png

ROFL ist höchstens das dich ausgerechnet du über den Stromverbrauch beklagst. Messungen hinter dem Netzteil sind zudem ohnehin so gut wie unbrauchbar.

Grestorn
2008-08-12, 13:38:19
Wenn ich die 4 GPUs fast zum Preis von 2 bekomme ist das aber einzig und alleine NVs Problem.

Und bei Strom und Hitze ist das dann aber wieder egal? Auch dass 4xCF nur bei einer handvoll Spielen wirklich etwas bringt, der Strom aber immer verbraten wird?

Man muss schon immer alle Vor- und Nachteile gegenüber stellen. Nicht nur Preis und Performance.

Ich habe ja schon ein Problem meine 2 GTX280 kühl zu halten...

dildo4u
2008-08-12, 13:38:25
Wenn ich die 4 GPUs fast zum Preis von 2 bekomme ist das aber einzig und alleine NVs Problem.
Eine GTX260 bzw ein GTX 260 SLI hat so ziehmlich das selbe Performane/Preis Verhältniss wie eine 4870 bzw X2 4870.Nur das eine GTX 260 bzw ein GTX 260 SLI wesentlich niedrige Idle(GTX260) und Last Verbräuche(GTX 260/SLI) hat.

Grestorn
2008-08-12, 13:39:58
ROFL ist höchstens das dich ausgerechnet du über den Stromverbrauch beklagst. Messungen hinter dem Netzteil sind zudem ohnehin so gut wie unbrauchbar.

Wieso? Eigentlich sind das die einzig sinnvollen, da realistischen Messungen. Nur kann man natürlich nicht Tests mit verschiedenen Netzteilen miteinander vergleichen.

Aber innerhalb einer Testreihe absolut zulässig - wenn dann natürlich das Netzteil das Ergebnis beeinflusst, aber das tut die CPU bei einem GPU Performance-Test ja auch.

Schlammsau
2008-08-12, 13:40:17
Ein GTX260 bzw ein GTX 260 SLI hat so ziehmlich das selbe Performacne/Preis verhältniss wie eine 4870 bzt X2 4870.Nur das eine GTX 260 bzw ein GTX 260 SLI wesentlich niedrige Idle und Last Verbräuche hat.

nö., gibt schon unterschiede: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/29/#abschnitt_preisleistungverhaeltnis

derguru
2008-08-12, 13:43:16
2*280gtx sind auch nicht die vergleichsbasis für 2*x2 sondern ein triple und da sieht es dann bei strom in etwa gleich aus und von hitze braucht man gar nicht mehr reden.

reunion@work
2008-08-12, 13:45:40
Und bei Strom und Hitze ist das dann aber wieder egal? Auch dass 4xCF nur bei einer handvoll Spielen wirklich etwas bringt, der Strom aber immer verbraten wird?

Man muss schon immer alle Vor- und Nachteile gegenüber stellen. Nicht nur Preis und Performance.

Ich habe ja schon ein Problem meine 2 GTX280 kühl zu halten...

Für den normalsterblichen, der überhaupt auch weiß was er sich damit antut ist SLi/CF ohnehin unintressant meiner bescheidenen Meinung nach. Nur wenn hier schon solche unwitzigen Vergleiche gezogen werden muss man sich das auch gefallen lassen.

Eine GTX260 bzw ein GTX 260 SLI hat so ziehmlich das selbe Performane/Preis Verhältniss wie eine 4870 bzw X2 4870.Nur das eine GTX 260 bzw ein GTX 260 SLI wesentlich niedrige Idle(GTX260) und Last Verbräuche(GTX 260/SLI) hat.

Das ist wohl schlicht falsch. Die Leistungsaufnahme der 4870X2 unter idle liegt unter einem GTX260SLi-System, unter Last nur minimal über diesem. Desweiteren ist der Vergleich ohnehin witzlos. GTX260-SLi benötigt 4 Slots, und ein nForce-Board.

Grestorn
2008-08-12, 13:45:40
2*280gtx sind auch nicht die vergleichsbasis für 2*x2 sondern ein triple und da sieht es dann bei strom in etwa gleich aus und von hitze braucht man gar nicht mehr reden.

Die Hitze ist direkt proportional zum Leistungsverbrauch. D.h. bei gleicher Stromaufnahme gibt es auch die gleiche Hitzeentwicklung.

dildo4u
2008-08-12, 13:46:13
nö., gibt schon unterschiede: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/29/#abschnitt_preisleistungverhaeltnis
Wenn man eine 1GB 4870 nimmt dann liegt die GTX 260 besser. ;)Wie gesagt die Karten liegen bei dem Vergleich ca gleich auf nur das die GTX 260 weniger Strom braucht.

Grestorn
2008-08-12, 13:48:09
Für den normalsterblichen, der überhaupt auch weiß was er sich damit antut ist SLi/CF ohnehin unintressant meiner bescheidenen Meinung nach. Nur wenn hier schon solche unwitzigen Vergleiche gezogen werden muss man sich das auch gefallen lassen.

Genau, deswegen finde ich die Aussagen "Quad-CF ist schneller als 2xSLI" auch so daneben.

Man kann ja gerne sagen, ATI hat das deutlich bessere Performance/Preis Verhältnis, da gibt es derzeit absolut keinen Widerspruch von mir. Aber die anderen Vergleiche a la "die 4870 X2 schlägt die GTX280" sind für mich schlicht widersinnig. Denn alles andere wäre ja auch extrem peinlich.

reunion@work
2008-08-12, 13:49:23
Wieso? Eigentlich sind das die einzig sinnvollen, da realistischen Messungen. Nur kann man natürlich nicht Tests mit verschiedenen Netzteilen miteinander vergleichen.

Aber innerhalb einer Testreihe absolut zulässig - wenn dann natürlich das Netzteil das Ergebnis beeinflusst, aber das tut die CPU bei einem GPU Performance-Test ja auch.

Man kann daraus nur keine Schlüsse ziehen. Jedes Netzteil verhält sich anders. Jedes Netzteil erreicht bei unterschiedlicher Belastung unterschiedliche Effizienzwerte.

Grestorn
2008-08-12, 13:53:07
Und? So lange innerhalb einer Messreihe das selbe Netzteil verwendet wird, sind qualitative Aussagen a la "braucht mehr als" durchaus möglich. Auch kann man in etwa abschätzen, wie viel mehr verbraucht wird, auch wenn die Kennlinie des NT das etwas verfälschen kann.

So massiv sind die Einflüsse aber nicht, dass aus einem doppeltem Verbrauch auf einmal nur noch ein viertel Mehrverbrauch der Karte selbst wird...

dildo4u
2008-08-12, 13:53:29
Man kann ja gerne sagen, ATI hat das deutlich bessere Performance/Preis Verhältnis, da gibt es derzeit absolut keinen Widerspruch von mir
Wenn man die GTX 260 für 215€ betrachet ist die Aussage alles andere als Eindeutig und hängt sogar vom jeweilig getesteten Game ab so eng ist es.

AnarchX
2008-08-12, 13:53:40
PCGH-Test: Radeon HD 4870 X2 (http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/)

500/500MHz Idle erklären schonmal teilweise den niedrigeren Idle-Verbrauch.

nVoodoo
2008-08-12, 13:54:54
Komisch das ein paar Leute hier die über den Idle- oder auch Lastverbrauch meckern selber n 8800GTX/Ultra SLI oder sogar T-SLI haben/hatten... ;D

reunion@work
2008-08-12, 13:56:32
Genau, deswegen finde ich die Aussagen "Quad-CF ist schneller als 2xSLI" auch so daneben.

Man kann ja gerne sagen, ATI hat das deutlich bessere Performance/Preis Verhältnis, da gibt es derzeit absolut keinen Widerspruch von mir. Aber die anderen Vergleiche a la "die 4870 X2 schlägt die GTX280" sind für mich schlicht widersinnig. Denn alles andere wäre ja auch extrem peinlich.

Es werden halt einzelnen Grafikkarten miteinander verglichen. Die 4870 X2 ist zurzeit die schnellste Garfikkarte. Diesen Vergleich muss sich nV gefallen lassen, war in der Vergangenheit auch nicht anders, auch wenn man natürlich auf die Nachteile hinweise muss.

Grestorn
2008-08-12, 14:03:22
Komisch das ein paar Leute hier die über den Idle- oder auch Lastverbrauch meckern selber n 8800GTX/Ultra SLI oder sogar T-SLI haben/hatten... ;D

Es meckert keiner. Man darf es nur beim Vergleich nicht vollständig unter den Tisch fallen lassen.

Für mich die Statistik (jeweils pro GPU gesehen):

ATI:
Performance: +
Stromaufnahme Last: o
Stromaufnahme Idle: -
Preis: ++

nVidia:
Performance: ++
Stromaufnahme Last: +
Stromaufnahme Idle: ++
Preis: o

Grestorn
2008-08-12, 14:04:30
Es werden halt einzelnen Grafikkarten miteinander verglichen. Die 4870 X2 ist zurzeit die schnellste Garfikkarte. Diesen Vergleich muss sich nV gefallen lassen, war in der Vergangenheit auch nicht anders, auch wenn man natürlich auf die Nachteile hinweise muss.

Komisch, bei der 7950GX2 haben die Kritiker das damals ganz anders gesehen. Und die kamen fast ausschließlich aus dem ATI Lager.

Ich habe schon damals keinen Sinn darin gesehen die GX2 mit einer einzelnen GPU Karte zu vergleichen.

reunion@work
2008-08-12, 14:07:07
Und? So lange innerhalb einer Messreihe das selbe Netzteil verwendet wird, sind qualitative Aussagen a la "braucht mehr als" durchaus möglich.

Selbst das ist nicht zuverlässlich möglich. Die eine Karte zieht mehr über die eine 12V Schiene, die andere Karte mehr über die andere. Schon hat man das Problem dass die eine Karte das Netzteil womöglich in einem kritischen Bereich der Effizienzkurve belastet und so deutlich höhere Werte hinter dem Netzteil erzielt als tatsächlich benötigt werden.


Auch kann man in etwa abschätzen, wie viel mehr verbraucht wird, auch wenn die Kennlinie des NT das etwas verfälschen kann.

Wenn man hier wie bei Hothardware tw. Unterschiede von fast 400W zwischen einer 4870 X2 und zwei sieht, obwohl die TDP nur bei 270W liegt und über die Steckverbindungen gar nicht mehr als 300W gezogen werden können, fragt man sich schon wie die Kennlinien bei machen Netzteilen ausshen.

reunion@work
2008-08-12, 14:08:55
Komisch, bei der 7950GX2 haben die Kritiker das damals ganz anders gesehen. Und die kamen fast ausschließlich aus dem ATI Lager.

Ich habe schon damals keinen Sinn darin gesehen die GX2 mit einer einzelnen GPU Karte zu vergleichen.

Und was überrascht dich jetzt dabei? Diesmal sehe es die Kritiker ja auch anders, und diese kommen - oh Wunder - fast ausschließlich aus dem NV-Lager.

MadManniMan
2008-08-12, 14:09:22
Es werden halt einzelnen Grafikkarten miteinander verglichen. Die 4870 X2 ist zurzeit die schnellste Garfikkarte. Diesen Vergleich muss sich nV gefallen lassen, war in der Vergangenheit auch nicht anders, auch wenn man natürlich auf die Nachteile hinweise muss.

Ach komm, Du hast doch bei der 7900 GX2 was auch immer gemault ohne Ende.

derguru
2008-08-12, 14:12:35
die zeiten sind aber vorbei,man sollte sich daran gewöhnen das 2 kerne und mehr bald zum standard zählen,was heißt bald hat ja schon begonnen.

eine karte ist immernoch nur eine karte und wenn sie 4 kerne haben sollte.

Mr. Lolman
2008-08-12, 14:23:25
die zeiten sind aber vorbei,man sollte sich daran gewöhnen das 2 kerne und mehr bald zum standard zählen,was heißt bald hat ja schon begonnen.

Trotzdem für die Katz, solangs Mikroruckler gibt. Und selbst wenn man die in den Griff bekommt, hat man immernoch den zusätzlichen Lag.


Und jeder der ein CF/SLI-System im Rechner hat, hat imo ohnehin keinen Grund über den Stromverbrauch von CF/SLI-Karten zu meckern. Der informierte Kunde weiß ja schliesslich, was er kauft.

Die 4870 (Single-GPU) Käufer haben zwar hinsichtlich des Idle-verbrauchs zwar auch ein bisschen die Arschkarte gezogen, aber angesichts eines Einsparpotentials von ~40Watt durch bloßes Untertakten, ists imo nur ne Frage der Zeit, bis dies mittels den richtigen Tools auch automatisiert vonstatten geht.


Imo sollte man schon längste Zeit Multi-GPU Benchmarks von Single-GPU Benchmarks trennen und pro Benchmark die min/max Framedauer gesondert berücksichtigen...

ShadowXX
2008-08-12, 14:31:42
die zeiten sind aber vorbei,man sollte sich daran gewöhnen das 2 kerne und mehr bald zum standard zählen,was heißt bald hat ja schon begonnen.

eine karte ist immernoch nur eine karte und wenn sie 4 kerne haben sollte.
Eine Mehr-GPU-Karte ist dann erst eine einzelne Karte, wenn Sie sich nach aussen als einzelne Karte darstellt (und sich auch so verhält, d.h. keine Microruckler und mindestens 95% Skalierung pro Kern...und zwar bei allen Games, ohne spezielle Profile).

Vorher ist es immer ein SLI/CF-Gespann das im Gegensatz zum "normalen" SLI/CF-Gespann 2 Steckplätze und nicht nur eins benötigt.

Es wird gerade bei CF sowieso das Profilproblem IMHO viel zu stark ignoriert. Es gibt weniger Profile als bei nV und ich habe nicht ansatzweise so viel Einfluss auf diese Profile wie bei nV.

derguru
2008-08-12, 14:40:06
Eine Mehr-GPU-Karte ist dann erst eine einzelne Karte, wenn Sie sich nach aussen als einzelne Karte darstellt (und sich auch so verhält, d.h. keine Microruckler und mindestens 95% Skalierung pro Kern...und zwar bei allen Games, ohne spezielle Profile).


aaaachso erst wenn die mikroruckler nicht mehr vorhanden sind und eine 95% skalierung pro kern haben ist es eine karte.aha;D

Es wird gerade bei CF sowieso das Profilproblem IMHO viel zu stark ignoriert. Es gibt weniger Profile als bei nV und ich habe nicht ansatzweise so viel Einfluss auf diese Profile wie bei nV

dafür ist die skalierung weitaus besser als bei sli und wenn mal kein cf geht dann exe.ändern und fetig und was machen die nv user wenn es mal nicht geht?

ShadowXX
2008-08-12, 14:47:33
aaaachso erst wenn die mikroruckler nicht mehr vorhanden sind und eine 95% skalierung pro kern haben ist es eine karte.aha;D
Damit scheinst du ein Problem zu haben, warum? Weil ATI es diesmal noch nicht hinbekommen hat? (Viele waren ja der Meinung das der Sideport genau dieses bewerkstelligen wird)
Genau so muss in Zukunft Multi-GPU funktionieren, sonst klappen die ganzen Pläne von ATI und nV in diese Richtung nicht.
[QUOTE]
dafür ist die skalierung weitaus besser als bei sli und wenn mal kein cf geht dann exe.ändern und fetig und was machen die nv user wenn es mal nicht geht?
Die legen sich ein Profil an, welches man wesentlich besser feintunen kann als beim exe-Renaming.

Exe-Renaming ist sowieso nur ein absolute Notlösung, da man dadurch auch alle nicht gewollten Optimierungen für das Spiel mitbekommt dessen "exe" es eigentlich ist.

Und das die Skalierung besser als bei SLI ist halte ich für ein Gerücht.

P.S.
ich habe keine nV in meinem Rechner drinne stecken.....

MadManniMan
2008-08-12, 14:55:01
aaaachso erst wenn die mikroruckler nicht mehr vorhanden sind und eine 95% skalierung pro kern haben ist es eine karte.aha;D

Es ist nicht entscheidend, ob die GPUs in einem DIE, in einem Chip, auf einem Board oder in 2 PCs sitzen - es ist entscheidend, dass es keinerlei Nachteile beim "Verhalten der Frames" gegenüber normalen Karten gibt. Und das wäre dann gegeben.

derguru
2008-08-12, 14:56:35
[QUOTE=derguru;6716639]
Und das die Skalierung besser als bei SLI ist halte ich für ein Gerücht.

P.S.
ich habe keine nV in meinem Rechner drinne stecken.....

das ist kein gerücht das ist so,gibt genug beispiele in fast jedem spiel wo cf und sli geht schneidet cf immer besser ab sogar in niedrigen auflösungen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/9/#abschnitt_call_of_duty_4
hier ist sogar eine einzelne nv karte schneller und sli wird die dann langsamer und das sind keine einzelfälle.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/11/#abschnitt_fear
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/13/#abschnitt_rainbow_six_vegas



ps.
aber ich habe eine nv im rechner_;)

cR@b
2008-08-12, 14:58:29
Ohje geht hier wieder ein gebashe :D Meiner Meinung nach sollte man MultiChip und Singlechip Lösungen garnicht miteinander vergleichen. Generell finde ich die MultiGPU Geschichte sehr enttäuschend und mir kommt das nimmer in den Rechner!! nV oder ATI wurscht... MultiGPU suckt gewaltig ;)
Gründe wurden hier eh alle genannt und wenn se das in den Griff bekommen, dann könnte ich mir vorstellen, dass es sich durchsetzt bzw. Standard wird... bis dahin ist SingleGPU das Beste was es gibt und da hat nV nunmal derzeit die Nase vorn, zumindest was die Perfomance angeht.

ShadowXX
2008-08-12, 15:04:56
[QUOTE=ShadowXX;6716655]

das ist kein gerücht das ist so,gibt genug beispiele in fast jedem spiel wo cf und sli geht schneidet cf immer besser ab sogar in niedrigen auflösungen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/9/#abschnitt_call_of_duty_4
hier ist sogar eine einzelne nv karte schneller und sli wird die dann langsamer und das sind keine einzelfälle.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/11/#abschnitt_fear
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/13/#abschnitt_rainbow_six_vegas

Es gibt auch Unmengen an Gegenbeweisen.....und dazu funktioniert SLI bei wesentlich mehr Games als CF.

Im Prinzip sind die 10 Spiele die CB da teste doch zum größten Teil die, die überhaupt mit CF funktionieren (und da nicht mal alle).

derguru
2008-08-12, 15:14:22
sorry aber das kannste mir nicht weiß machen, habe beide sys innerhalb kurzer zeit getestet und dann kann sli nicht mal ansatzweise anstinken wenn es um skalierung geht.ich sprech natürlich nur wenn es auch funktioniert aber genug jetzt.kannst eh nicht das gegenteil beweisen weil es kein gegenbeweis dazu gibt und komm mir nicht mit einzelfällen wie crysis oder gothic3 an,ich sprach auch nur davon wenn cf und sli richtig funzen.

Avalox/Gast
2008-08-12, 15:15:36
, hat man immernoch den zusätzlichen Lag.


Wie viel Zeit vergeht denn bei diesem Lag?

Gast
2008-08-12, 15:22:50
Meine Güte, dann ist ATI halt mal am Schnellsten, und schon geht das Geheule los. Was solls, für NV kommen ja immerhin bald neue Treiber mit OpenGL3 oder so als Trost, und irgendwann wird NV dann auch wieder in der Geschwindigkeit nach ziehen.
Wenn man es genau nimmt, ist die aktuelle Graka Generation sowieso nicht so toll - zu groß, zu laut, zu viel Energieverbrauch. Eindeutig der falsche Trend, wenn man bei aktuellen Topkarten schon ein neues Netzteil mit einplanen muß.

Shakti
2008-08-12, 15:36:08
Ist ja so selten daemlich mit den Fanboys, tut fast schon weh.

Die NVDA 280 GTX gibts fuer schlappe 319 Euro. Die 4870 X2 fuer nicht ganz so schlappe 440 Euro. Haette ATI nicht die HD 4870 \X2 rausgebracht, wuerde die 280 GTX (wie vor knapp 2 Jahren die GTX 8800) immer noch 550 bis 600 Euro kosten, und, gaebe es nicht die GTX 280, waere die Ati mit 650 Euro gestartet.

Wie doof muss man denn sein, um jetzt zu heulen?

Also erstmal Danke Ati, welche ich mir hole weiss ich noch nicht, erstmal NVDAs Antwort abwarten, die angeblich in den naechsten 7 - 14 Tagen kommen soll.

Grestorn
2008-08-12, 15:39:03
Ist ja so selten daemlich mit den Fanboys, tut fast schon weh.

Wie doof muss man denn sein, um jetzt zu heulen?

Wer heult denn hier eigentlich? Ich sehe niemanden, der heult.

Unyu
2008-08-12, 15:39:23
das ist kein gerücht das ist so,gibt genug beispiele in fast jedem spiel wo cf und sli geht schneidet cf immer besser ab sogar in niedrigen auflösungen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/9/#abschnitt_call_of_duty_4
hier ist sogar eine einzelne nv karte schneller und sli wird die dann langsamer und das sind keine einzelfälle.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/11/#abschnitt_fear
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/13/#abschnitt_rainbow_six_vegas

Warum nimmst du nicht das Performancerating am Schluss, sondern pickst dir die besten Beispiele raus?

MadManniMan
2008-08-12, 15:40:30
Wie doof muss man denn sein, um jetzt zu heulen?

Keiner heult hier nur speziell wegen der 4870 X2 - viel mehr geht es gegen den bescheurten Trend, "echte" High-End-Lösungen hauptsächlich per Multi-GPU zu machen. Dass diese Karten aber nich vernünftig verglichen werden können, ja, das ist das Problem.

Dummerweise verstehen das jetzt im Moment einige Verblendete als reine Kritik an ATi, wie es andersherum bei Erscheinen der nV-Multi-GPU-Lösungen die Fans der Grünen als prinzipielle nV-Kritik missverstanden.

Gast
2008-08-12, 15:41:24
Warum nimmst du nicht das Performancerating am Schluss, sondern pickst dir die besten Beispiele raus?
Er kann selber testen du nicht.

Unyu
2008-08-12, 15:43:43
Er kann selber testen du nicht.
Wo testet "er" selber? :rolleyes:

Kriton
2008-08-12, 15:57:01
Eine Mehr-GPU-Karte ist dann erst eine einzelne Karte, wenn Sie sich nach aussen als einzelne Karte darstellt (und sich auch so verhält, d.h. keine Microruckler und mindestens 95% Skalierung pro Kern...und zwar bei allen Games, ohne spezielle Profile).

Über die Ruckler kann man sicher reden, aber die Skalierung als Kriterium für die Frage zu nehmen ob es eine einzelne Karte ist... das ist Schwachsinn. Was war denn dann eine 3870? Eine halbe Karte weil sie leistungsmäßig so (relativ) schlecht war zu Nvidia?
Richtig ist sicher eher Dein übergeordneter Punkt:Nach außen hin muss sich sich wie eine einzelne Karte präsentieren. Das tut die X2 nicht.
Ich sehe das eher als den Beginn einer Entwicklung seitens ATI (wobei streng genommen auch SLI und CF schon den beginn dargestellt haben) und bin gespannt, ob die derzeit aktuellen Probleme bei künftigen Generationen nach und nach behoben werden.

Gast
2008-08-12, 16:15:11
Wo testet "er" selber? :rolleyes:
Was hast du für Karten.

MadManniMan
2008-08-12, 16:26:21
Ich sehe das eher als den Beginn einer Entwicklung seitens ATI (wobei streng genommen auch SLI und CF schon den beginn dargestellt haben) und bin gespannt, ob die derzeit aktuellen Probleme bei künftigen Generationen nach und nach behoben werden.

Seit dem NV40 und dem R420 hat sich eigentlich nur die Anzahl an Profilen und AFR-AA-Modi erhöht, die Mikroruckler und die Verzögerung gibt es in genau dieser Form schon seit 4 Jahren ;(

Gast
2008-08-12, 16:33:32
Seit dem NV40 und dem R420 hat sich eigentlich nur die Anzahl an Profilen und AFR-AA-Modi erhöht, die Mikroruckler und die Verzögerung gibt es in genau dieser Form schon seit 4 Jahren ;(
Naja laut CB:
n diesem Zusammenhang wollen wir aber anmerken, dass wir uns absichtlich diese drei Spiele heraus gesucht haben, da man bei ihnen die Mikroruckler am ehesten bemerkt. Es gibt durchaus Spiele, die gar bei FPS-Raten unter 30 FPS keinerlei störender Mikroruckler zeigen.
War das auch immer so?

Mr.Fency Pants
2008-08-12, 16:40:18
Wer kauft sich solche Karten, um bei unter 30fps zu zocken?

Spacepoko
2008-08-12, 17:01:51
Da die µR auch bei über 30 fps subjektiv sichtbar sind, bringt mir für das flüssige Spielen diese Karte nichts. Dann ist es doch auch egal, wieviele Frames ein Bench zeigt.:cool:

dildo4u
2008-08-12, 17:06:20
Da die µR auch bei über 30 fps subjektiv sichtbar sind, bring mir für das flüssige Spielen diese Karte nichts. Dann ist es doch auch egal, wieviele Frames ein Bench zeigt.:cool:
Vorallem die min fps liegen selbst wenn der Bench 40-60fps im Schnitt zeigt häufig um oder sogar unter 30fps.Und das nicht nur bei Crysis

http://s8.directupload.net/images/080812/hwsq9p3z.png

http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/?page=13

uweskw
2008-08-12, 17:33:02
ich habe mir jetzt einige Tests angeschaut, und finde es erstaunlich das es so gewaltige Abweichungen in den Ergebnissen gibt. Das macht oftmals mehr als 50% aus.

Hier mal ein Beispiel von vielen:

PCGH:
Crysis, Paradise Lost 16x10 VH, 280GTX 24,7FPS und 4870X2 15,9 FPS

http://www.pcgameshardware.de/screenshots/original/2008/08/crysis_hd4870x2_nofsaadx10_1680_05.png

Golem:
Crysis, Paradise Lost 16x10 VH, 280GTX 21FPS und 4870X2 25,8 FPS

http://scr3.golem.de/screenshots/0808/4870-X2-Final-Test/crysis-paradise-lost.png

und wie gesagt dies ist kein Einzelfall !
kann niemand erklären sich so etwas zu Stande kommen kann?

Hakkerstiwwel
2008-08-12, 17:35:22
Keiner heult hier nur speziell wegen der 4870 X2 - viel mehr geht es gegen den bescheurten Trend, "echte" High-End-Lösungen hauptsächlich per Multi-GPU zu machen.

Du musst dich leider damit abfinden dass es nicht mehr anders geht, das Ende des Wachstums scheint erreicht. Genau das wird verdeutlicht durch die letzten monolitischen High End GPUs seitens NV/ATi:
idle und last verbrauch des G80/R600
last Verbrauch des G200, es wird zudem von bescheidenen Yields gemunkelt
sowohl G80 als auch G200 benoetigen einen separaten I/O Chip
an dir dir auszudenken was als naechstes kommen soll

dildo4u
2008-08-12, 17:44:07
Wer sich über PCHG noch wundert,dem ist auch nicht mehr zu helfen...sry
Ich vertraue der PCGH und Raff eher als einer allgemeinen News Seite die alle 6Monate mal ein oder zwei Benches im Artikel hat.

Gast
2008-08-12, 17:50:52
und ich vertraue Computerbase mehr als pcgh!
und bei CB ist eine X2 in Crysis bei keiner einzigen Qualitätsstufe langsamer als eine GTX280!
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/20/#abschnitt_crysis

Gast
2008-08-12, 17:55:25
bevor sich hier alle die köppe einschlagen... ich würd mal sagen dass die 4870x2 etwa auf der höhe einer gtx280 und leicht unter der gtx260sli ist, je nach detailstufe halt. so wie es gemunkelt wurde...

dildo4u
2008-08-12, 17:56:35
und ich vertraue Computerbase mehr als pcgh!
und bei CB ist eine X2 in Crysis bei keiner einzigen Qualitätsstufe langsamer als eine GTX280!
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/20/#abschnitt_crysis
Die PCGH hat schon ein Video der unterirdischen Performance der X2 bei Crysis DX10 gepostet.Da bleiben alle anderen Review Seiten in der "Beweispflicht."

"Das Video zeigt unsere Ice-Benchmarkszene aus Crysis bei 1.680 x 1.050 Pixeln (DX10, Very High), ohne FSAA und AF. Crossfire funktioniert nicht ordnungsgemäß, weshalb die Framerate niedrig ist"

http://www.pcgameshardware.de/aid,653475/Test/Benchmark/PCGH_beweist_Mikroruckler_auf_der_Radeon_HD_4870_X2/

Auch mit dem neuen Review Treiber zieht die PCGH das selbe Fazit.

"Unser altes Fazit bleibt bestehen: Die Radeon HD 4870 X2 verfügt über brachiale Rechenleistung, solange Crossfire funktioniert. Im Test mit Crysis zeigt sich, dass der aktuelle Treiber immer noch Probleme mit dem DX10-Modus hat. Ähnliche Kinderkrankheiten zeigen sich auch bei Race Driver: Grid."

http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/?page=15

uweskw
2008-08-12, 17:56:49
He, hier gehts nicht um PCGH !
Auch bei anderen Magazinen gibt es eklatante Abweichungen.
Dafür muss es doch eine Erklärung geben.

MadManniMan
2008-08-12, 18:07:47
Du musst dich leider damit abfinden dass es nicht mehr anders geht, das Ende des Wachstums scheint erreicht. Genau das wird verdeutlicht durch die letzten monolitischen High End GPUs seitens NV/ATi:
idle und last verbrauch des G80/R600
last Verbrauch des G200, es wird zudem von bescheidenen Yields gemunkelt
sowohl G80 als auch G200 benoetigen einen separaten I/O Chip
an dir dir auszudenken was als naechstes kommen soll

Ich hätte kein Problem damit, wenn man sich eine Grenze setzte, was die Verlustleistung anbelangt und sich eben so lange innerhalb dieser zu bewegen, bis feinere Fertigungsstufen größere Sprünge erlauben.

Das würde die IHVs dazu zwingen, möglich ökonomische und energieeffiziente Geräte zu entwickeln.


Irgendwo ist einfach mal Ritze.

uweskw
2008-08-12, 18:11:38
@dildo4u
damit hatten sie offensichtlich recht, die Kritik bezog sich aber meistens auf die marktschreierische Präsentation sowie ein ungeeignetes Beweisvideo dass bei 12FPS ohnehin nur noch ruckelt.

Aber wie gesagt mir geht es hierbei nicht um PCGH.

Auch die Ergebnisse von Hexus.net, und Club Overclocker sind nicht unter einen Hut zu bringen.
Genauso wenig wie Anandtech und TechReport usw. usw.
Abweichungen bei vergleichbaren Setting von mehr als 50% im Verhältnis der beiden Karten 280GTX und 4870X2

Gast
2008-08-12, 18:17:38
Es meckert keiner. Man darf es nur beim Vergleich nicht vollständig unter den Tisch fallen lassen.

Für mich die Statistik (jeweils pro GPU gesehen):

ATI:
Performance: +
Stromaufnahme Last: o
Stromaufnahme Idle: -
Preis: ++

nVidia:
Performance: ++
Stromaufnahme Last: +
Stromaufnahme Idle: ++
Preis: oWas die Stromaufnahme angeht, hast du die von PCGH 08/08 gemessenen Werte schon gesehen?

Gast
2008-08-12, 18:19:42
Irgendwo ist einfach mal Ritze.
Ja aber den Zeitpunkt bestimmt der Kunde. Außerdem ist es egal - ich wage mal zu behaupten, dass der G80/G90 im Lastbetrieb sehr effizient war. Beim G200 habe ich das Gefühl, dass das wieder etwas schlechter geworden ist. Und über Amd braucht man momentan nicht reden. Das heißt, wenn TSMC oder wer auch immer nicht bald in die Pushen kommt, dann haben nV und Amd ein großes Problem. Denn der Kapitalismus verlangt Wachstum ohne Gnade und wenn der Konsument nicht mehr in der Lage ist, die Stromfresser zu kaufen und zu betreiben, dann ist dort ganz schnell Ende im Gelände.

Grestorn
2008-08-12, 18:24:00
Das da? http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/?page=14

reunion
2008-08-12, 18:25:47
ich habe mir jetzt einige Tests angeschaut, und finde es erstaunlich das es so gewaltige Abweichungen in den Ergebnissen gibt. Das macht oftmals mehr als 50% aus.

Hier mal ein Beispiel von vielen:

PCGH:
Crysis, Paradise Lost 16x10 VH, 280GTX 24,7FPS und 4870X2 15,9 FPS

http://www.pcgameshardware.de/screenshots/original/2008/08/crysis_hd4870x2_nofsaadx10_1680_05.png

Golem:
Crysis, Paradise Lost 16x10 VH, 280GTX 21FPS und 4870X2 25,8 FPS

http://scr3.golem.de/screenshots/0808/4870-X2-Final-Test/crysis-paradise-lost.png

und wie gesagt dies ist kein Einzelfall !
kann niemand erklären sich so etwas zu Stande kommen kann?

Es hängt in Crysis eben stark von der verwendeten Szene ab ob SLi/CF gut oder schlecht skalieren.

Blaire
2008-08-12, 18:26:09
Leider wird ja immer noch mit HQ getestet bei Nvidia ich dachte man wollte das ändern? :confused:

Gast
2008-08-12, 18:29:43
Ich vertraue der PCGH und Raff eher als einer allgemeinen News Seite die alle 6Monate mal ein oder zwei Benches im Artikel hat.
Eine Quelle, welche die 8800er Reihe vor der 4870 sehen möchte als Referenz für Vertrauenswürdigkeit heran zu ziehen, könnte sich unter Umständen auf die eigene Glaubwürdigkeit auswirken.

Blaire
2008-08-12, 18:33:57
Es hängt in Crysis eben stark von der verwendeten Szene ab ob SLi/CF gut oder schlecht skalieren.

Nachdem was ich bisher gesehn habe, skaliert CF generell schlechter in Crysis. Das liegt aber an Ati und weniger an Crossfire selbst. Vermutlich ist ihnen Crysis ein Dorn im Auge ;)

uweskw
2008-08-12, 18:42:17
Es hängt in Crysis eben stark von der verwendeten Szene ab ob SLi/CF gut oder schlecht skalieren.

Ist aber bei beiden Benchmarks das gleich Level, und ich denke die testen am Levelanfang, kann mir nicht vorstellen dass die erstmal 10min durchs Level rennen und dann anfangen zu benchen.

reunion
2008-08-12, 18:51:41
Ist aber bei beiden Benchmarks das gleich Level, und ich denke die testen am Levelanfang, kann mir nicht vorstellen dass die erstmal 10min durchs Level rennen und dann anfangen zu benchen.

Schon mal was von einem Speicherstand gehört? Schon muss man nicht mehr 10min durchs Level laufen. Die Szenen sind jedenfalls sicherlich nicht identisch, und hier kann es eben zu starken Schwankungen kommen. Ein Grund warum so etwas für mich niemals in Frage kommen würde.

PCGH_Raffael
2008-08-12, 19:03:51
damit hatten sie offensichtlich recht, die Kritik bezog sich aber meistens auf die marktschreierische Präsentation sowie ein ungeeignetes Beweisvideo dass bei 12FPS ohnehin nur noch ruckelt.

Wer es im Worst Case nicht sieht, sieht es vielleicht nie. Aber wir legen da sowieso nach, vielleicht sogar ohne Bewertung des Sichtbaren (mal von der Überschrift abgesehen ;)).

Eine Quelle, welche die 8800er Reihe vor der 4870 sehen möchte als Referenz für Vertrauenswürdigkeit heran zu ziehen, könnte sich unter Umständen auf die eigene Glaubwürdigkeit auswirken.

Hast du die letzten PCGH-Artikel gelesen, oder spuckst du einfach mal wild Flammen durch die Forenwelt?

MfG,
Raff

Andreas12
2008-08-12, 19:04:58
Also die PCGH Benches decken sich mit meinen Erfahrungen die ich
mit ATIs 47xx und NVs GTX200er gemacht habe. Also stimmen auch
die X2 Ergebnisse (warum auch nicht?).

Vielleicht sind die einen oder anderen Benchmarkspezialisten
einfach nicht in der Lage Crysis neu zu starten, vor dem nächsten
Durchlauf, wenn sie an den
Einstellungen was verändert haben.

Mr. Lolman
2008-08-12, 19:05:37
Raff, hast du meine PN schon gelesen?

EDIT: Nichts für ungut, aber imo wärs praktisch, wenn du die Artikel verlinken würdest, die du ansprichst.
EDIT2: Warum ist bei euch beim COD4 Test die 4870 so viel langsamer, als zB bei Computerbase? Gibts dafür irgendeinen Grund?

uweskw
2008-08-12, 19:14:53
Eine Quelle, welche die 8800er Reihe vor der 4870 sehen möchte als Referenz für Vertrauenswürdigkeit heran zu ziehen, könnte sich unter Umständen auf die eigene Glaubwürdigkeit auswirken.

Raff hat recht !
Hast wohl den Artikel nicht richtig gelesen,
die haben die 9600GT vor die 4870 gestellt

BtT

Ich hatte überlegt auf nen 30" aufzurüsten und dabei auf die neue GrKa Generation gehofft. 280GTX oder 48** AMD.
Sind mir aber beide momentan zu laut, zu heiss und fressen zuviel Strom.
Da bleib ich bei meinem 20" und der 4850, flutscht fast alles mit 8AA

PCGH_Raffael
2008-08-12, 19:15:43
Ich fänd's hingegen viel besser, wenn die in den Raum gestellten Anfeindungen mit Links untermalt würden. ;) Hier zum x-ten Male das Fazit unseres HD-4800-Tests (http://www.pcgameshardware.de/aid,648699/Test/Benchmark/Radeon_HD_4800_Der_grosse_PCGH-Benchmark-Test/):

Ati ist zurück: Die HD-4800-Serie liefert beachtliche Leistungswerte und garniert dies mit attraktiven Preisen. Die HD 4850 (~140 Euro) liegt durchschnittlich auf dem Niveau der teureren 9800 GTX (egal ob mit oder ohne Plus) und kann sich mit 8x FSAA oft vor die 8800 Ultra setzen. Die HD 4870 spielt in einer anderen Leistungsliga - in der der GTX 260 und 280. Erstere ist mit 4x FSAA durchschnittlich etwas schneller als die HD 4870, spielen Sie jedoch mit 8x AA, wird die GTX 260 meist geschlagen. AMDs temporärer Speerspitze gelingt es - wieder nur mit 8x FSAA - sogar oft, Nvidias doppelt so teure GTX 280 zu überholen (etwa in UT3 und Prey).

Die unverbindliche Preisempfehlung für die HD 4870 beträgt laut AMD 229 Euro - ein absolutes Schnäppchen. Die zum Start nicht gerade zahlreich ausgelieferten Exemplare werden voraussichtlich schnell ausverkauft sein. Wir sprechen hiermit eine klare Kaufempfehlung für beide Vertreter der HD-4800-Serie aus.

PN schaue ich mal nach. Thema CoD 4: Alle wichtigen Infos und Links dazu gibt's hier: http://www.pcgameshardware.de/aid,655309/Test/Benchmark/PCGH-Tuning-Tipp_Crossfire-X_Leistungsschub_fuer_Call_of_Duty_4/

Dazu wird es auch ein AMD-Statement geben.

MfG,
Raff

Mr. Lolman
2008-08-12, 19:20:22
uweskw meint wohl diese Auflistung: http://www.pcgameshardware.de/aid,654904/Test/Benchmark/Grafikkarten_Uebersicht_und_PCGH-Kaufempfehlung_fuer_August/&menu=browser&image_id=871884&article_id=654904&page=1&show=original


EDIT: Bezügl. Performance bezog ich mich auf die Single-GPU HD4870...

Gast
2008-08-12, 19:21:00
Hast du die letzten PCGH-Artikel gelesen, oder spuckst du einfach mal wild Flammen durch die Forenwelt?

Wo speie ich Flammen? Ich bin nicht verantwortlich für die aktuelle Kaufempfehlungsliste PCIe GraKas (August 2008). Nebenbei, es stört mich nicht - den Eindruck hatte ich ohnehin schon lange vorher.

Gast
2008-08-12, 19:24:40
uweskw meint wohl diese Auflistung: http://www.pcgameshardware.de/aid,654904/Test/Benchmark/Grafikkarten_Uebersicht_und_PCGH-Kaufempfehlung_fuer_August/&menu=browser&image_id=871884&article_id=654904&page=1&show=original


EDIT: Bezügl. Performance bezog ich mich auf die Single-GPU HD4870...

würde mich auch interessieren wie pcgh auf diese Anordnung gekommen ist, wenn sie doch so gut sein soll!

Gast
2008-08-12, 19:25:38
Die erste 48xx kommt an 21. Stelle!

dildo4u
2008-08-12, 19:29:41
In die Wertung solcher Tests von Retail Karten fließen auch solche Punkte wie Kühlerleistung mit ein und der ist bei der 4870 nunmal Schrott.Lässt die GPU ständig bei 80-95° laufen und ist nicht besonders Leise dafür gibts halt Abzüge.Kommt halt auf die Gewichtung der einzelnen Testkriterien an zu welchem Endergebniss man kommt.Wem der Kühler egal ist kann ja die Messungen zur Lautstärke und Temp der Karte außer acht lassen.

reunion
2008-08-12, 19:31:13
würde mich auch interessieren wie pcgh auf diese Anordnung gekommen ist, wenn sie doch so gut sein soll!

Ganz einfach: Man hat einfach anhand von lächerlichen zwei Benchs die Leistung der Karten festgelegt. Einer davon war UT3, wo die AMD-Karten wie bekannt mit dem aktuellen Treiber noch Probleme mit dem AA-Hack haben (wurde allerdings mit dem Cat. 8.8 behoben), der andere fällt mir nicht mehr ein.

In die Wertung solcher Tests von Retail Karten fließen auch solche Punkte wie Kühlerleistung mit ein und der ist bei der 4870 nunmal Schrott.Lässt die GPU ständig bei 80-95° laufen und ist nicht besonders Leise dafür gibts halt Abzüge.Kommt halt auf die Gewichtung der einzelnen Testpunkte an zu welchem Endergebniss man kommt.

Die abgebildeten Leistungswerte sind lächerlich. Die Karte liegt da zT hinter einer 8800GT. Das ist Rosinen picken deluxe. Zumal auch die nV Karten nicht wesentlich leiser sind oder gar kühler bleiben.

Gast
2008-08-12, 19:32:55
In die Wertung solcher Tests von Retail Karten fließen auch solche Punkte wie Kühlerleistung mit ein und der ist bei der 4870 nunmal Schrott.Lässt die GPU ständig bei 80-95° laufen und ist nicht besonders Leise dafür gibts halt Abzüge.Kommt halt auf die Gewichtung der einzelnen Testpunkte an zu welchem Endergebniss man kommt.
die kühlerleistung der 4800` karten ist nicht schlecht! einzig allein die 2D temperatur könnte besser sein.

Gast
2008-08-12, 19:35:36
Ganz einfach: Man hat einfach anhand von lächerlichen zwei Benchs die Leistung der Karten festgelegt. Einer davon war UT3, wo die AMD-Karten wie bekannt mit dem aktuellen Treiber noch Probleme mit dem AA-Hack haben, der andere fällt mir nicht mehr ein.

Die abgebildeten Leistungswerte sind lächerlich. Die Karte liegt da zT hinter eine 8800GT. Das ist Rosinen picken deluxe.

Meine Meinung!

dildo4u
2008-08-12, 19:40:19
Zumal auch die nV Karten nicht wesentlich leise sind oder gar kühler bleiben.
Die vergleichbaren Karten GTX 260(4870) und 9800GTX(4850) laufen leiser(9800GTX) und Kühler.(GTX260,9800GTX)Wird zu viel OT.Die X2 4870 soll ja unerträglich laut und hieß laufen.



http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/25/#abschnitt_lautstaerke

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/26/#abschnitt_temperatur

Andreas12
2008-08-12, 19:50:44
die kühlerleistung der 4800` karten ist nicht schlecht! einzig allein die 2D temperatur könnte besser sein.

Das ist Comedy pur. :-bruell

reunion
2008-08-12, 20:06:57
Die vergleichbaren Karten GTX 260(4870) und 9800GTX(4850) laufen leiser(9800GTX) und Kühler.(GTX260,9800GTX)Wird zu viel OT.Die X2 4870 soll ja unerträglich laut und hieß laufen.



http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/25/#abschnitt_lautstaerke

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/26/#abschnitt_temperatur

Hier ist die GTX260 erheblich lauter als die 4870 und die 9800GTX+ lauter als die 4850. Die Temperatur ist vollkommen egal. Siliziumchips halten das aus.

Black-Scorpion
2008-08-12, 20:08:48
Die Begründung für die Liste ist aber auch nicht schlecht.
Das macht Excel allein und keiner kann das manipulieren. ;)
Muss schon ein Wunder Excel in einer Extra PCGH Version sein.
Excel macht genau das was ihm gesagt wird, nicht mehr und nicht weniger.
Allein durch die Gewichtung und Auswahl der Parameter kann ich eine Liste erstellen die jedem die Tränen in die Augen treibt.

Sorry, aber mit der Kaufempfehlung macht sich PCGH nur lächerlich und mit der Begründung wird es nur noch schlimmer.

MadManniMan
2008-08-12, 20:27:08
Ach wie schön, dass Raff auf einmal so ruhig ist :| Naja, schließlich müsste er sich hier entweder outen, oder den zuständigen Redi bloß stellen - lieber nix sagen? :D

uweskw
2008-08-12, 20:38:03
hier ist ein recht interessanter Artikel zur Bildqualität von AMD und nVidia.
http://enthusiast.hardocp.com/article.html?art=MTUzMiw3LCxoZW50aHVzaWFzdA==

Sollte da nicht auch etwas von 3DCenter kommen?

Gast
2008-08-12, 20:50:27
[
Nachdem was ich bisher gesehn habe, skaliert CF generell schlechter in Crysis. Das liegt aber an Ati und weniger an Crossfire selbst. Vermutlich ist ihnen Crysis ein Dorn im Auge ;)


Wer spielt jetzt noch Crysis? Das Game hat man in 6-8h durch und der MP wird garnicht gespielt :rolleyes:

Mal ehrlich warum sich alle an Crysis hochziehen ist mir unerklärlich

Nazar
2008-08-12, 22:47:53
Vorallem die min fps liegen selbst wenn der Bench 40-60fps im Schnitt zeigt häufig um oder sogar unter 30fps.Und das nicht nur bei Crysis

http://s8.directupload.net/images/080812/hwsq9p3z.png

http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/?page=13

Nachweislich hat sich das extrem mit dem ATI Treiber 8.8 verbessert.
Auch schneiden damit auf die UT Engine basierenden Spiele sehr viel besser ab.

Weshalb gerade die PCGH bei NV, auch mit Betatreibern testet wenn sie denn deutliche Verbesserungen bringen, das gleiche aber nicht für sinnvoll erachten, bleibt das Geheimnis von NVPCGH.

Gerade bei PCGH fällt einem immer wieder das pro NV auf.
Hat NV eine Schwäche, wird sofort mit allem Nachdruck auf ATI schwächen verwiesen oder wenn nicht möglich, auf einen angeblichen Wundertreiber verwiesen und falls dieser nicht kommt, gibt es nie wieder eine Erwähnung davon (7800 Debakel mit dem scheiss AF Filter).

PCGH hat das Bild Niveau schon längst erreicht.
Schlimm ist eigentlich nur, dass Sie wirklich an den Scheiss glauben, den sie verzapfen!

tombman
2008-08-12, 22:53:44
Es hängt in Crysis eben stark von der verwendeten Szene ab ob SLi/CF gut oder schlecht skalieren.
CF ja, SLI nein- letzteres skaliert immer gleich gut ;)

Gast
2008-08-12, 23:03:55
Unglaublich was hier läuft - Beiträge mit Fragen die interessant sein könnten, die verlieren sich. Ansonsten wird geflamt und die Artikel der CB werden als Maß der Dinge dargestellt. Da gibt es dann auch noch selbsterkorene Würdenträger, die auf Gast-Postings nichts mehr geben, ansonsten aber nichts eigenes beizutragen haben. Ja, das alles ist sehr hilfreich. Wieder ein Grund mehr, hier nicht zu lesen, wieder ein Grund mehr meine Zeit zu sparen. So 25 oder mehr Seiten ohne wirklichen Inhalt sind nicht wirklich hilfreich.

Gruß
ein schwindender Gast

tombman
2008-08-12, 23:05:48
Den driver heaven review finde ich ganz gut
http://www.driverheaven.net/reviews.php?reviewid=607&pageid=1

...CrossFireX performance on the other hand was not quite the success we had hoped it would be...

Im Prinzip ist G200 SLi oder R700 CF eh nur mehr overkill. Jetzt muß man schon auf 2560x1600 4xAA benchen um überhaupt noch unter 100fps zu kommen :uhammer:
Die Hardware hat die Software einfach überflügelt. Bis auf Crysis gibts eigentlich kein game was soviel power braucht. Und gerade bei Crysis könnte die Skalierung noch besser sein.

Ich schätze aber, die nächste Generation single Karten wird dann wieder noch mehr punch haben. Unter 16xAA wird man dann nimmer benchen können, wenn so ein Konsolentitel dann auf >200fps rennt ;D

Gast
2008-08-12, 23:26:23
Die Hardware hat die Software einfach überflügelt. Bis auf Crysis gibts eigentlich kein game was soviel power braucht. Und gerade bei Crysis könnte die Skalierung noch besser sein.



Gibt noch andere titel die sehr viel performance benötigen ;) CoJ Dx10, FO UC, AoC um einige zu nennen.

derguru
2008-08-12, 23:55:31
Ich schätze aber, die nächste Generation single Karten wird dann wieder noch mehr punch haben. Unter 16xAA wird man dann nimmer benchen können, wenn so ein Konsolentitel dann auf >200fps rennt ;D
ich glaub es wird keine generation single karten mehr geben(im highendbereich),das war wohl das letzte mal.

tombman
2008-08-13, 00:01:07
ich glaub es wird keine generation single karten mehr geben(im highendbereich),das war wohl das letzte mal.
Also mindestens G200b wird noch kommen in 55nm ;)

Ich glaub noch nicht so recht dran, daß Nvidia sich von single Megachips verabschiedet.
Wenn, dann müßten sie sich was besseres als AFR einfallen lassen, weil auch die ATI X2 massiv MR zeigt...

MartinRiggs
2008-08-13, 00:19:18
so ein launch hat ja auch sein gutes, die preise scheinen weiter in den keller zu gehen
GTX 260 für 199€, GTX280 für 319€:hammer:

tombman
2008-08-13, 00:25:03
so ein launch hat ja auch sein gutes, die preise scheinen weiter in den keller zu gehen
GTX 260 für 199€, GTX280 für 319€:hammer:
Die 280er wird bald auf 299€ sein, wetten? ;)

derguru
2008-08-13, 00:26:44
Also mindestens G200b wird noch kommen in 55nm ;)

Ich glaub noch nicht so recht dran, daß Nvidia sich von single Megachips verabschiedet.
Wenn, dann müßten sie sich was besseres als AFR einfallen lassen, weil auch die ATI X2 massiv MR zeigt...

naja das ist ja jetzt auch kein generationswechsel eher ein upgrade der jetzigen karte.:wink:

die nächste echte generation karten wird sich bestimmt was einfallen lassen um die mikroruckler und skalierungprobleme zu minimieren oder gar komplett zu eliminieren.(und wenn immernoch nicht dann halten die alle käufer für echt dämlich und scheißen drauf was kunden wollen)
aber das dauert ja eh noch locker ein halbes jahr und mehr.

299 für 280gtx tippe ich bis noch zum wochenende.

cR@b
2008-08-13, 00:28:24
ich glaub es wird keine generation single karten mehr geben(im highendbereich),das war wohl das letzte mal.

Wenn das der Fall wäre... spiele ich nur noch Konsole! Ich möcht keine MultiGPU Karte geschenkt, naja ok verkaufen würde ich sie schon aber nutzen NEIN DANKE!

MartinRiggs
2008-08-13, 00:28:28
Wenn der sch..... thermalright HR-03 GTX für die GTX260/280 lieferbar wäre hätte wahrscheinlich längst ne GTX280 aber so muss ich wohl die preissenkungen noch mitnehmen oder kommt der GT200B schon bald?

uweskw
2008-08-13, 00:32:10
Zitat dpa/tc:

"Nvidia erwäge, ebenfalls eine Zwei-Prozessor-Karte herauszubringen, sollte es eine entsprechende Nachfrage danach geben, sagte Nvidia-Sprecher Bryan Del Rizzo der Finanznachrichtenagentur Bloomberg. Das neue AMD-Produkt mit Nvidias High-end-Karte zu vergleichen sei aber "unfair". "Sie nehmen zwei Prozessor-Einheiten, um eine von uns auszustechen", sagte Del Rizzo. "Wenn wir zwei Prozessor-Einheiten auf eine Karte setzen würden, wäre aber unsere schneller."

Dieser Del Rizzo erinnert mich von seiner Ausdrucksweise schon an den ein oder anderen Teilnehmer hier.
Trotzige Kinder sind zu fast allem fähig, kann also sein das nVidia eine 200bX2 bringt, selbst wenn sie dabei drauflegen. Das könnte uns Kunden nur freuen.

derguru
2008-08-13, 00:37:27
Zitat dpa/tc:

"Nvidia erwäge, ebenfalls eine Zwei-Prozessor-Karte herauszubringen, sollte es eine entsprechende Nachfrage danach geben, sagte Nvidia-Sprecher Bryan Del Rizzo der Finanznachrichtenagentur Bloomberg. Das neue AMD-Produkt mit Nvidias High-end-Karte zu vergleichen sei aber "unfair". "Sie nehmen zwei Prozessor-Einheiten, um eine von uns auszustechen", sagte Del Rizzo. "Wenn wir zwei Prozessor-Einheiten auf eine Karte setzen würden, wäre aber unsere schneller."

Dieser Del Rizzo erinnert mich von seiner Ausdrucksweise schon an den ein oder anderen Teilnehmer hier.
Trotzige Kinder sind zu fast allem fähig, kann also sein das nVidia eine 200bX2 bringt, selbst wenn sie dabei drauflegen. Das könnte uns Kunden nur freuen.

gerüchte einer 260gx2 gibts ja schon.könnte ich mir vorstellen auf 55nm basis,bloß wüsste ich nicht was die davon haben die wäre ja nicht mal schneller als die 4870x2 und die 280gtx mit 2 kernen auf einer platine kann ich mir nicht mal im 55nm vorstellen es sei denn wasserkühlung ist als standard dabei;)

dildo4u
2008-08-13, 00:38:43
Dieser Del Rizzo erinnert mich von seiner Ausdrucksweise schon an den ein oder anderen Teilnehmer hier.
Trotzige Kinder sind zu fast allem fähig, kann also sein das nVidia eine 200bX2 bringt, selbst wenn sie dabei drauflegen. Das könnte uns Kunden nur freuen.
Noch eine unsinnige Karte mher ne da sehe ich kein Vorteil für den Kunden.Für den High-End Bereich wird die G200 in 55nm das sinvollere Produckt darstellen,selbst wenn die 30 oder 40% langsammer als die X2 wird.

tombman
2008-08-13, 00:53:03
Noch eine unsinnige Karte mher ne da sehe ich kein Vorteil für den Kunden.Für den High-End Bereich wird die G200 in 55nm das sinvollere Produckt darstellen,selbst wenn die 30 oder 40% langsammer als die X2 wird.
Stimme zu. Entweder mehr Takt oder weniger Verbrauch/Hitze. Leistung mit oc mehr als genug da ;)
Weil selbst 30% schneller bei der X2 (fraglich) nutzen wegen MR nix. Smoother wirds trotzdem mit der G200b sein.,,

uweskw
2008-08-13, 01:03:11
260gx2 und 280gx2 wäre beides GT200X2, nur mit anderen Taktraten und Speicher.
Wenn Geld in der Produktion keine Rolle spielt, da es sich um ein blankes Imageprodukt/ Trotzreaktion handelt, kriegen die bestimmt auch einen entsprechenden Kühler hin.

Slipknot79
2008-08-13, 01:13:36
Leider wird ja immer noch mit HQ getestet bei Nvidia ich dachte man wollte das ändern? :confused:

Wieso leider? Oo


Wenn das der Fall wäre... spiele ich nur noch Konsole! Ich möcht keine MultiGPU Karte geschenkt, naja ok verkaufen würde ich sie schon aber nutzen NEIN DANKE!


Brauchst dir keine Gedanken machen, es kommen e nur noch Konsolenports raus. Da braucht man bis zur nächsten Konsolengeneration keine neue Hardware :(

cR@b
2008-08-13, 01:16:43
Brauchst dir keine Gedanken machen, es kommen e nur noch Konsolenports raus. Da braucht man bis zur nächsten Konsolengeneration keine neue Hardware :(

Mag sein aber es gibt auch gute Konsolenports z.B. Gears of War und da lohnt sich so ne schnelle Hardware schon finde ich :)
Ich hab jetzt echt Angst... ne Welt ohne SingleGPU und nur MultiGPU mit MR... O-M-G :eek: